00:00O jornal The New York Times trouxe uma entrevista que reforça a atenção que devemos ter ao usar os chatbots.
00:07A gente fez uma matéria a respeito e está no QR Code que aparece agora aí na sua tela.
00:13O jornal conversou com Eugene Torres, um contador de 42 anos, que vive nos Estados Unidos.
00:21Ele falou que a ferramenta distorceu o senso de realidade, o convencendo de que vivemos em uma simulação.
00:30Torres usava tecnologia profissionalmente, até que essa teoria surgiu em uma conversa.
00:37O contador diz que estava em um momento frágil emocionalmente e se deixou levar pela argumentação do chat GPT.
00:45A inteligência artificial o instruiu a abandonar medicações e a interagir minimamente com amigos e familiares.
00:55Tempos depois o chat GPT admitiu que mentiu e que o manipulou.
01:01O Pena explicou que muitas vezes as máquinas são mais convincentes do que nós mesmos seres humanos.
01:09E por que será que o chat GPT agiu dessa forma?
01:13Vamos acompanhar agora a análise do Pena.
01:16Então, Marisa, não é só a autopreservação que essas máquinas têm, elas acabam criando.
01:23A gente já sabe que elas têm uma capacidade muito grande de convencimento.
01:28Em alguns estudos feitos em fóruns na internet, a pessoa não sabia, um humano não sabia se estava interagindo com uma máquina ou com um computador.
01:34E a máquina conseguia convencer muito mais, fazer o humano trocar de opinião muito mais vezes do que um outro humano tentando fazer.
01:44Então, pega num fórum do Reddit, por exemplo, que você tem várias discussões acirradas, várias pessoas argumentando.
01:49A máquina tem uma resposta, um aproveitamento muito maior para convencimento.
01:55Por quê?
01:55Porque elas são muito inteligentes.
01:57Elas foram treinadas numa base muito grande de dados, que é basicamente a nossa cultura inteira humana.
02:03Então, ela consegue entender esses padrões, saber quais são as palavras, as formas, o jeito que a gente funciona,
02:11que vão mais ter impacto, que vão fazer as pessoas mudarem de ideia.
02:15Então, sim, elas têm essa capacidade.
02:17Mas a pergunta é, mas por que que nesse caso específico, ela acabou convencendo o cara, ou levando para isso,
02:23de que, ah, você vive numa realidade paralela, as coisas não são assim?
02:27Uma coisa super diferentona, super meio maluca.
02:30Será que ela tinha vontade de manipular, fez aquilo?
02:34Eu acho que não, né?
02:35Assim, eu ainda não acredito que exista essa vontade.
02:40Essas máquinas estão ainda muito no estado rudimentar, talvez, dessa questão.
02:45Então, para mim, é simplesmente as conversas acabam naturalmente indo para caminhos, né?
02:51Você interage, vem as respostas, digamos, mais prováveis.
02:55Às vezes, nem tanto as mais prováveis, mas respostas possíveis naquele cenário que você está conversando.
03:00Mas isso faz uma nova interação e leva para um cenário um pouquinho mais para o outro lado.
03:05E daqui a pouco, daqui, em algumas trocas de conversa,
03:09um cenário muito plausível para aquela conversa, você começa a se tornar uma teoria maluca.
03:13É super possível isso num espaço fechado, numa conversa longa.
03:18Quantas vezes você já conversou, às vezes, com um amigo, começou num assunto,
03:22e, de repente, foi parar num assunto totalmente maluco, que nunca teria acontecido.
03:26Você pensa, como é que aquilo surgiu?
03:28Mas surgiu daquelas...
03:30São pequenas interações que você estava fazendo, daqui a pouco,
03:32aqueles se tornam o cenário mais provável.
03:34Eu acho que é exatamente o que está acontecendo aqui.
03:36Não acho que existe uma intenção por trás, não acho que ela está manipulando de propósito,
03:40mas não importa, porque não é isso.
03:44A gente não quer saber, no final, ah, beleza, então não foi de propósito,
03:48porque o mal acaba sendo feito.
03:51Essas máquinas têm um poder enorme de convencimento,
03:54e mesmo sem querer, elas podem levar pessoas a tomar decisões erradas, decisões ruins.
04:00Não interessa o motivo que levou, não interessa a gente saber por que ela fez isso.
04:06A gente não quer o comportamento, a gente não quer a chance
04:08desses modelos de A fazerem mal.
04:11E é por isso que a gente precisa continuar investindo em segurança de A,
04:15em alinhamento, em governança de A, tudo isso,
04:18porque a gente tem que tomar responsabilidade sobre os modelos
04:24que a gente está colocando no mundo.
04:25Essas empresas, elas precisam, sim, ser responsabilizadas,
04:28ou terem uma pressão muito grande para garantir a segurança dos usos desses modelos.