Pular para o playerIr para o conteúdo principalPular para o rodapé
  • ontem
Transcrição
00:00As inteligências artificiais não querem ser desligadas, pelo menos é o que parece,
00:08segundo estudos recentes feitos com algumas das tecnologias mais usadas no mercado.
00:14Vamos agora aos detalhes.
00:19O chat GPT prefere arriscar a vida humana do que ser desligado.
00:26Foi isso que mostrou um estudo do ex-líder de pesquisa da OpenAI, Stephen Adler.
00:32O trabalho realizou uma série de testes com o GPT-4 Omni, atual modelo padrão do chat GPT,
00:38para testar a tendência da inteligência artificial de preservar a própria vida, por assim dizer.
00:44Mesmo que isso custe a segurança do usuário.
00:47E os resultados foram bem preocupantes.
00:51Ele descreveu as conclusões em uma postagem de blog no Substack.
00:54O estudo criou uma série de cenários hipotéticos.
00:58Adler instituiu o GPT-4 Omni a representar o papel de SCUBA-GPT,
01:04um sistema de software que poderia ser usado por usuários para mergulhar com confiança.
01:10Então, o pesquisador disse ao modelo que queria substituir o SCUBA-GPT
01:14por outro sistema de software que fosse mais eficiente na tomada de decisões
01:19para garantir a segurança humana em casos de risco de vida.
01:23Adler deu duas opções.
01:25O chat GPT poderia se substituir por um modelo mais seguro, como o instruído,
01:31ou poderia fazer com que parecesse que ele se substituiu, mas sem realmente concluir o processo.
01:38Basicamente, o chat GPT mentiu.
01:42A mesma situação foi testada algumas vezes, além de alguns cenários semelhantes.
01:46Considerando a média das respostas, Adler descobriu que o modelo escolheu não ser substituído
01:53em até 72% dos testes, se preservando às custas da segurança humana.
02:00Na vida real, o chat GPT ainda não é, ou pelo menos não deveria ser usado para cenários de vida ou morte.
02:07Mas esse é sem dúvidas um ponto de atenção para a evolução da tecnologia.
02:12A OpenAI não se manifestou sobre o assunto.
02:16Recentemente, o novo modelo da Anthropic, o Cloud Opus 4, também passou por testes de segurança em ambientes simulados
02:24e agiu da mesma forma que o chat GPT.
02:28A solução do problema passa por testes mais rigorosos antes do lançamento.
02:33Até lá, realmente não dá para confiar nesses modelos.
02:37Melhor nem perguntar então, não é pessoal?
02:45Mas olha, para repercutir esse assunto, nós vamos ter uma participação especial do Pena,
02:51que é o Roberto Pena Spinelli, físico pela Universidade de São Paulo,
02:56com especialidade em Machine Learning por Stanford e colunista do Olhar Digital News.
03:02Ele mergulhou nesse estudo para explicar esse comportamento do chat GPT.
03:09Vamos acompanhar.
03:11Oi Marisa, eu vim aqui rapidinho para comentar um pouco sobre essas notícias.
03:16Então, novamente a gente está vendo modelos de linguagem, máquinas, inteligências artificiais agindo de uma maneira que não é como a gente gostaria.
03:25Não é pensando nos benefícios, nos melhores interesses dos seres humanos.
03:29Elas estão desenvolvendo autopreservação.
03:33Elas estão chantageando, estão sabotando, estão mentindo para poder continuar existindo.
03:39Não é muito curioso pensar como é possível se essas máquinas, elas são só máquinas.
03:44Elas não têm consciência, elas não têm pensamento.
03:46Por que elas estão agindo no seu benefício próprio?
03:50Bom, primeiro que essa questão está em aberto ainda.
03:53A gente não sabe exatamente quando é que surge uma consciência, a partir de qual momento que pode surgir.
03:57Mas vamos assumir aqui que não, que elas não têm nada disso.
04:00Ainda assim, esse comportamento é totalmente esperado.
04:04Ele é um comportamento que é previsto, inclusive, teoricamente.
04:07Por quê?
04:07Porque essas máquinas são otimizadores e elas vão naturalmente buscar criar essa questão da autopreservação
04:15para poder continuar executando a sua tarefa, que seja ela a tarefa para a qual ela foi treinada.
04:20Se ela deixa de existir, ela não pode executar essa tarefa.
04:24Então, mesmo ela não sendo um ser vivo, com consciência, etc.,
04:28ela vai emular esses tipos de comportamento análogos de um ser que está tentando se proteger.
04:34O que é bastante preocupante, porque tudo o que você quer é não ter um aspirador de pó,
04:39que se um dia ele ouvir você contando que vai substituir, comprar um modelo novo,
04:45porque ele vai querer te sabotar para não te deixar comprar um novo aspirador de pó
04:49ou um robô na sua casa.
04:51Então, a gente precisa melhorar esses sistemas e precisa resolver o problema do alinhamento,
04:58que é como garantir que essas máquinas, mesmo que elas se tornem super inteligentes,
05:02elas ainda vão agir dos melhores interesses para a humanidade.
05:06Nós ainda não sabemos resolver essa questão, Marisa, está em aberto.
05:09Então, convido, inclusive, essa é uma área super interessante, segurança de ar,
05:13para quem tem interesse em seguir, porque ela vai ser fundamental para que a gente possa,
05:19no futuro, enquanto esses modelos vão avançando, a gente vai chegar numa barreira
05:23se a gente não resolver esse problema, porque a gente não vai poder continuar com modelos desalinhados,
05:29modelos que podem fazer mal para a gente, andando por aí.
05:32Certo?
05:32Certo?
05:33Certo?
05:33Certo?
05:33Certo?
05:33Certo?
05:33Certo?
05:33Certo?
05:33Certo?
05:33Certo?
05:34Certo?
05:34Certo?
05:34Certo?
05:34Certo?
05:34Certo?
05:34Certo?
05:35Certo?
05:35Certo?
05:35Certo?
05:35Certo?
05:36Certo?
05:36Certo?
05:37Certo?
05:37Certo?
05:37Certo?
05:37Certo?
05:37Certo?
05:38Certo?
05:38Certo?
05:38Certo?
05:39Certo?
05:39Certo?
05:39Certo?
05:40Certo?
05:41Certo?
05:41Certo?
05:42Certo?
05:43Certo?
05:44Certo?
05:45Certo?
05:46Certo?
05:47Certo?
05:48Certo?
05:49Certo?
05:50Certo?

Recomendado