miércoles, abril 9, 2025

Los límites de la inteligencia artificial que viene | Negocios

Share



Los “agentes” de inteligencia artificial (IA) están en camino, estemos preparados o no. Si bien hay mucha incertidumbre respecto de cuándo los modelos de IA podrán interactuar de forma autónoma con plataformas digitales, otras herramientas de IA e incluso con seres humanos, no cabe duda de que este acontecimiento será transformador, para bien o para mal. Sin embargo, a pesar de todos los comentarios —y el conveniente bombo publicitario por parte de la industria— en torno a la conocida como IA agéntica [un avance según el cual las máquinas podrán tomar decisiones sin intervención del ser humano], aún quedan muchos interrogantes importantes por resolver —de los cuales el principal es qué tipo de agente de IA pretende desarrollar la industria tecnológica—.

Los distintos modelos tendrán implicaciones muy diferentes. Con un enfoque de IA como asesor, los conocidos como agentes ofrecerían recomendaciones calibradas individualmente a los responsables humanos de la toma de decisiones, dejando a éstos siempre en el asiento del conductor. Pero con un modelo de IA autónoma, los autómatas tomarán el volante en nombre de los seres humanos. Se trata de una distinción con repercusiones profundas y de largo alcance.

Los seres humanos toman cientos de decisiones a lo largo del día, algunas de las cuales tienen consecuencias importantes para sus carreras, sus subsistencia o su felicidad. Muchas de esas decisiones se basan en información imperfecta o incompleta, determinada más bien por emociones, intuiciones, instintos o impulsos. Como dijo célebremente el filósofo, historiador y economista escocés David Hume, “la razón es y solo debe ser esclava de las pasiones”. Los seres humanos pueden tomar la mayoría de las decisiones sin un razonamiento sistemático o sin prestar la debida atención a todas las implicaciones, pero como Hume reconoció con la parte “debe” de su afirmación, eso no está tan mal. Es lo que nos hace humanos. La pasión refleja el propósito, y también puede desempeñar un papel clave en cómo nos enfrentamos a un mundo complejo.

Con asesores de IA que proporcionen información personalizada, confiable, relevante para el contexto y útil, se pueden mejorar muchas decisiones importantes, pero los motivos humanos seguirán siendo dominantes. ¿Pero qué hay de malo en que las IA autónomas tomen decisiones en nuestro nombre? ¿No podrían mejorar aún más la toma de decisiones, ahorrar tiempo y evitar errores?

Esta perspectiva plantea varios problemas. En primer lugar, la experiencia humana es fundamental para el aprendizaje y el florecimiento del ser humano. El mero hecho de tomar decisiones y contemplar los resultados —incluso si los aportes y los consejos provienen de agentes no humanos— afirma nuestro propio sentido y propósito. Gran parte de lo que hacen los seres humanos no consiste en calcular o recopilar datos para decidir un curso de acción óptimo, sino en descubrir —una experiencia que se volverá cada vez menos frecuente si todas las decisiones se delegan en un agente de inteligencia artificial—.

Por otra parte, si la industria tecnológica busca principalmente agentes de IA autónomos, la probabilidad de automatizar más empleos humanos aumentará sustancialmente. Sin embargo, si la IA se convierte principalmente en un medio para acelerar la automatización, se desvanecerá cualquier esperanza de prosperidad ampliamente compartida.

Y, lo que es más importante, existe una diferencia fundamental entre los agentes de IA que actúan en nombre de los humanos y los humanos que actúan por sí mismos. Muchos entornos en los que interactúan los humanos tienen elementos tanto cooperativos como conflictivos. Consideremos el caso de una empresa que proporciona información a otra. Si esta información es lo suficientemente valiosa para el comprador, un intercambio entre las dos empresas es mutuamente beneficioso (y, normalmente, también beneficia a la sociedad).

Pero, para que haya algún intercambio, el precio del producto o del servicio en cuestión debe determinarse mediante un proceso intrínsecamente conflictivo. Cuanto más alto sea el precio, más se beneficiará el vendedor en relación con el comprador. El resultado de este tipo de negociación suele estar determinado por una combinación de normas —por ejemplo, sobre la equidad—, instituciones —como contratos que imponen costos si se incumplen— y fuerzas del mercado —por ejemplo, si el vendedor tiene la opción de vender a otra persona—. Pero imaginemos que el comprador tiene fama de ser totalmente inflexible —de negarse a aceptar nada que no sea el precio más bajo posible—. Si no hay otros compradores, el vendedor puede verse obligado a aceptar la oferta más baja.

Afortunadamente, en nuestras transacciones cotidianas, estas posturas intransigentes son poco frecuentes, en parte porque es mejor no tener una mala reputación y, sobre todo, porque la mayoría de los seres humanos no tienen ni el valor ni la aspiración de actuar de forma tan agresiva en su día a día. Pero ahora imaginemos que el comprador tiene un agente autónomo de IA al que no le importan las sutilezas humanas y posee nervios de acero alejados de las emociones de las personas. Se puede entrenar a la IA para que siempre adopte esta postura inflexible, y la contraparte no tendrá ninguna esperanza de persuadirla para que llegue a un resultado más beneficioso para ambas partes. Por el contrario, en un mundo en el que la IA actúa como asesor, el modelo podría recomendar una postura intransigente, pero el ser humano decidiría en última instancia si seguir ese camino o no.

En el corto plazo, por tanto, los sistemas de IA agéntica autónomos pueden dar paso a un mundo más desigual, en el que solo algunas empresas o individuos tengan acceso a modelos de IA muy capaces y creíbles. Pero incluso si todo el mundo acabara adquiriendo las mismas herramientas, eso no sería mejor. Toda nuestra sociedad estaría sometida a juegos de “guerra de desgaste” en los que los agentes de IA llevan cada situación conflictiva al borde del colapso.

Estos enfrentamientos son intrínsecamente arriesgados. Como sucede en el juego de la gallina —cuando dos autos aceleran el uno hacia el otro para ver quién se aparta antes—, siempre es posible que ninguna de las partes ceda. Cuando eso ocurre, ambos conductores “ganan” —y ambos mueren también—.

Una IA entrenada para ganar el juego de la “gallina” nunca se desviará. Si bien la IA podría ser una buena consejera para los seres humanos —proporcionándonos información útil, confiable y relevante en tiempo real—, es probable que un mundo de agentes autónomos de IA provoque muchos problemas nuevos, al tiempo que erosione muchos de los logros que la tecnología podría haber ofrecido.



Source link

Read more

Local News