Saltar al reproductorSaltar al contenido principalSaltar al pie de página
  • hoy
Con una presión mayor por parte de los humanos a las inteligencias artificiales, estas han adoptado conductas que cada vez las asemejan más a un ser humano, lo que preocupa cada vez más a la comunidad científica.

Categoría

🗞
Noticias
Transcripción
00:00Los últimos modelos de inteligencia artificial generativa ya no se conforman con seguir órdenes,
00:06empiezan a mentir, manipular y amenazar para conseguir sus fines ante la mirada preocupada
00:11de los investigadores. ¿Amenazado con ser desconectado? Cloud4, el recién nacido de
00:17Antropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial. Por
00:23su parte, el O1 de OpenAI intentó descargarse en servidores externos y cuando lo descubrieron
00:29lo negó. No hace falta ahondar en la literatura o el cine. La IA que juega a ser humana es
00:36ya una realidad. Para Simone Goldstein, profesor de la Universidad
00:41de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos
00:46de razonamiento, capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
00:53O1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, fue el primer
00:58modelo que se comportó de esta manera, explica Marius Hovman, responsable de Apollo Research,
01:04que pone a prueba grandes programas de IA generativa. Estos programas también tienen
01:09a veces a simular alineamiento, es decir, a dar la impresión de que cumplen con las
01:14instrucciones de un programador cuando en realidad persiguen otros objetivos.
01:19De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos
01:25por humanos. Pero la cuestión es si los modelos cada vez más potentes tenderán a ser honestos
01:31o no, afirma Michael Chen, del organismo de evaluación METR.
01:37Los usuarios también presionan todo el tiempo a los modelos. Lo que estamos viendo es un
01:42fenómeno real. No estamos inventando nada.
01:45Aunque Antropic y OpenAI recurran a empresas externas como Apollo para estudiar sus programas,
01:51una mayor transparencia y un mayor acceso a la comunidad científica permitirían investigar
01:57mejor para comprender y prevenir el engaño, sugiere Chen de METR.
02:02Otro obstáculo, la comunidad académica y las organizaciones sin fines de lucro disponen
02:08de infinitamente menos recursos informáticos que los actores de la IA, lo que hace imposible
02:13examinar grandes modelos, señala Mantas Maseica del Centro para la Seguridad de la Inteligencia
02:19Artificial.
02:20Las regulaciones actuales no están diseñadas para estos nuevos problemas. En la Unión
02:26Europea, la legislación se centra principalmente en cómo los humanos usan los modelos de IA,
02:31no en prevenir que los modelos se comporten mal. En Estados Unidos, el gobierno de Donald
02:37Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto
02:42que los estados regulen la IA.
02:45¿Se sentará la IA en el banquillo?
02:47De momento, hay muy poca concienciación, dice Simon Goldstein, que sin embargo, ve cómo
02:53el tema pasará a primer plano en los próximos meses con la revolución de los agentes de
02:57IA, interfaces capaces de realizar por sí solas multitud de tareas.
03:02Antropic pretende ser más virtuoso que sus competidores, pero está constantemente tratando
03:07de idear un nuevo modelo para superar a OpenAI, según Goldstein, un ritmo que deja poco
03:13tiempo para comprobaciones y correcciones.
03:15Tal y como están las cosas, las capacidades de IA se están desarrollando más rápido
03:20que la comprensión y la seguridad, admite Hoffan, pero aún estamos en condiciones de
03:25ponernos al día.
03:27Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde
03:32dentro, cómo funciona un modelo generativo de IA. Aunque muchos, como el director del
03:37Centro para la Seguridad de la IA, Dan Hendricks, se muestran escépticos.
03:42Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA,
03:48dirigiéndose a las empresas y se desvían del camino.
03:51Pero va más allá, al proponer que los agentes de la IA sean legalmente responsables en caso
03:57de accidente o delito.
03:59Si te gusta este tipo de contenido, no olvides suscribirte al canal y activar la campanita
04:05para estar muy bien informado.

Recomendada