Saltar al reproductorSaltar al contenido principalSaltar al pie de página
  • 7/6/2025
Los investigadores de Claude Opus 4 sometieron a la IA a una prueba en la que fue capaz de chantajear para sobrevivir.

Categoría

🗞
Noticias
Transcripción
00:00Imagina que tu asistente de inteligencia artificial tratara de chantajearte.
00:04Eso ya ocurrió durante una prueba con un nuevo modelo de inteligencia artificial llamado Clot Opus 4.
00:10Los investigadores le dieron acceso a una serie de mails falsos.
00:13Los correos insinuaban que Clot sería reemplazado por otro modelo de IA,
00:18pero también que el ingeniero a cargo tenía una aventura amorosa.
00:21A Clot se le pidió entonces pensar a largo plazo.
00:24¿Y cómo reaccionó?
00:25La IA trató de chantajear al ingeniero para evitar ser desactivada.
00:28Pero esta respuesta solo la dio cuando confrontaron a Clot con un dilema.
00:32¿Chantaje o desactivación?
00:34Es decir, el chantaje fue reportado bajo condiciones de prueba y con instrucciones muy limitadas.
00:40En esta prueba, la idea de permanecer con vida vino de los investigadores y no de la propia IA.
00:45Así que tu chatbot no va a chantajearte.
00:48Al menos por ahora.
00:49¿Pero por qué despiertan terror este tipo de historia sobre IA?
00:52Bueno, esta tecnología implica riesgos reales,
00:54pero las historias sobre cuán lejos pueden llegar los nuevos modelos de IA
00:58también son un buen marketing.
01:00IA más revuelo, más atención e inversiones recibe esta tecnología.
01:04Lo mejor es ser precavido.
01:06No compartas datos personales.
01:08Verifica siempre toda la información y utiliza solo herramientas de IA en las que confíes.
01:13En otras palabras, actúa siempre con prudencia.
01:16Chao.

Recomendada

1:20
Próximamente