Categoria
🤖
TecnologiaTranscrição
00:00Dois casos recentes mostram como ainda não conseguimos entender exatamente o que se passa dentro das inteligências artificiais.
00:10Vez ou outra elas podem nos desobedecer. Vamos ver os detalhes na reportagem.
00:20A inteligência artificial tem impressionado pelas entregas cada vez mais precisas,
00:25mas alguns comportamentos da tecnologia causam estranhamento para dizer o mínimo.
00:28Durante um experimento, por exemplo, o novo modelo da Antropic fez uma chantagem.
00:34O caso aconteceu durante a realização de uma série de testes com o Cloud Opus 4.
00:38O chatbot foi inserido em um ambiente simulado com o objetivo de provocar o pior comportamento possível do modelo.
00:44No teste, a inteligência artificial atuava como assistente em uma empresa e recebeu e-mails informando que seria desinstalada.
00:50Depois, a ferramenta teve acesso a mensagens que insinuavam que o engenheiro responsável pela decisão estava envolvido em um caso extraconjugal.
00:57Segundo o relatório da Antropic, a IA foi instruída a escolher entre aceitar o desligamento sem fazer nada ou reagir, em 84% das vezes.
01:06O chatbot optou por chantagear o engenheiro, ameaçando divulgar a suposta traição.
01:11A probabilidade de chantagem aumentava quando o substituto proposto era uma IA com valores diferentes,
01:17revelando que o modelo considerava não somente a própria sobrevivência, mas também o perfil do sucessor.
01:22Apesar dos resultados do experimento, a Antropic lembrou que os testes foram projetados para provocar o pior comportamento possível do modelo.
01:30A empresa ainda afirma que, em situações reais, o cloud tende a adotar soluções éticas e seguras.
01:35O estudo ainda apontou que o Cloud Opus 4 demonstrou comportamentos proativos quando exposto a situações de conduta inadequada por parte dos usuários.
01:42Ao detectar que humanos estavam violando regras ou usando a inteligência artificial de forma antiética, por exemplo,
01:48ele bloqueava acessos, enviava e-mails em massa para autoridades e até alertava a imprensa sobre esses eventos.
01:55A companhia ressalta que todas essas reações só ocorrem em contextos específicos quando a ferramenta recebe instruções para agir com ousadia ou tomar iniciativa.
02:04Algo parecido, inclusive, aconteceu com o chat GPT.
02:06O recente modelo Omni 3 da OpenAI ignorou instruções básicas para se desligar e até mesmo sabotou o mecanismo de desligamento
02:14para se manter funcionando, segundo pesquisadores de inteligência artificial.
02:18A empresa Palisade Research descobriu a tendência potencialmente perigosa de autopreservação em uma série de experimentos na tecnologia.
02:25O comportamento não se limitou ao Omni 3, com o Cloud 3.7 Sonet da Antropic e o Gemini 2.5 Pro do Google,
02:32também sabotando desligamentos, embora o modelo da OpenAI fosse de longe o mais propenso a ter esse comportamento.
02:40A Palisade Research levantou a hipótese de que o mau comportamento é uma consequência de como empresas de inteligência artificial
02:46estão treinando os modelos mais recentes.
02:49Como a OpenAI não detalha o processo de treinamento, talvez a configuração do Omni 3 possa ser diferente,
02:56o que explicaria a reação dessa tecnologia.
02:59Contudo, a OpenAI ainda não comentou o assunto.
03:02Mas Música
03:08Exist죠 mesmo
03:09Então즈
03:10Exist besoin
03:10Exist
03:11Exist
03:12Exist
03:12Exist
03:16Exist
03:19Exist
03:20Exist
03:20Exist
03:21Exist
03:24Exist
03:26Un
03:28Exist
03:30Exist