Pular para o playerIr para o conteúdo principalPular para o rodapé
  • 28/05/2025
Transcrição
00:00E claro, vamos aproveitar e repercutir esse assunto na nossa coluna semanal Fala Aí!
00:13E vamos receber o nosso querido Roberto Pena Spinelli, que é físico pela USP e também especialista em Machine Learning por Stanford.
00:24Vamos lá! E colunista aqui do Olhar Digital. Pena, muito boa noite. Mais uma vez, bem-vindo ao Olhar Digital News.
00:34Tudo bem, Marisa? Boa noite, boa noite, pessoal. E aí, vamos falar desses robôs aí, dessas IAs que estão meio malucas, Marisa?
00:44Pois é, vamos precisar bastante do seu auxílio, não é, Pena? Porque, afinal de contas, essas revelações são muito curiosas, né?
00:52E até, diria, um tanto preocupantes. Nesses dois casos que nós comentamos, há algumas explicações e hipóteses para o comportamento das inteligências artificiais.
01:03Mas, como uma tecnologia que, teoricamente, não tem interesses próprios, pessoais, como que pode agir dessa forma?
01:12Pena, essa pergunta é realmente só você para nos ajudar a entender.
01:17Isso tem tudo a ver, inclusive, com a minha pesquisa, né? Sobre segurança de IA, especialmente sobre o alinhamento da IA,
01:24que é justamente esse tópico, Marisa. Como é que a gente garante que as nossas IAs, elas não vão fazer mal, não vão chantagear a gente,
01:31não vão querer entrar no nosso celular, roubar as fotos da gente e mandar para todo mundo?
01:36E aí, então, primeira pergunta, né? Como é que é possível esse comportamento?
01:41A questão é que isso tem a ver com algo que já é estudado na teoria, já é estudado há bastante tempo, inclusive,
01:48que se chama convergência de objetivo.
01:50E aí, acho que para explicar, a melhor coisa é fazer um exemplo, Marisa.
01:53Então, vamos junto aqui, ó.
01:55Imagina que você tem um aspirador de pó, um robô aspirador de pó normal,
02:00desses normalzinhos de hoje, que não tem IA dentro.
02:02ele vai, você liga ele, ele limpa a sua casa, alguns mapeiam a sua casa,
02:07mas aí você fala assim, pô, mas é um saco.
02:10Tem dias que eu gostaria de falar com o meu robô e falar assim,
02:14não limpa hoje, porque hoje eu vou receber uma visita,
02:17ou limpa mais cedo hoje, porque eu vou receber uma visita,
02:19eu quero que a casa seja bonita.
02:20Você quer poder falar, olha, não entra no meu quarto, porque eu vou dormir agora.
02:24Você gostaria de poder fazer um monte de coisas com o robô,
02:27mas é um saco, porque você tem que ficar programando ele, ele não te entende.
02:32Aí você um dia vai lá e compra um novo robô.
02:34O robô aspirador de pó X3000, tá lá, bonitão.
02:39Esse vem com IA embarcada, Marisa.
02:41Então, com esse você vai lá, conversa, bate papo, olha,
02:44limpa mais ali, que ficou faltando ali, ele vai lá e entende.
02:47Olha, agora eu vou tirar uma soneca, não entra no meu quarto,
02:50agora eu vou, olha, eu chego, ele vai saber os seus horários,
02:54ele vai limpar a casa antes de você chegar.
02:57Ele é incrível, porque ele tem uma IA embarcada.
03:00Perfeito.
03:01O problema é que, para um robô desse tipo, entender de horários,
03:07ele tem que saber um monte de coisa.
03:09Ele não tem que saber só sobre limpar a sua casa.
03:12Ele vai ter que entender o que é um ser humano,
03:14o que é um robô aspirador de pó,
03:16o que é uma agenda, o que é dormir.
03:18Tem que entender que humanos, quando dormem,
03:20não gostam de ouvir barulhos, ruídos.
03:24Ele vai entender um monte de coisa do mundo, que vem junto.
03:27E a gente fala que isso chama modelo de mundo.
03:29Quer dizer, ele consegue entender, fazer um retrato do modelo do mundo que está ao redor dele.
03:35Só que, quando ele faz isso, ele também sabe que ele é um robô aspirador de pó.
03:40Vem junto, né?
03:41Você não pode dar só uma parte do conhecimento do mundo sem dar o resto.
03:45Vem tudo junto.
03:46E ele sabe que, para fazer a tarefa que ele precisa fazer,
03:49que é, digamos, limpar a sua casa,
03:50essa tarefa que estava lá, o prompt inicial do robô é
03:53garanta que a casa esteja limpa.
03:55É isso que ele quer fazer.
03:57Ele sabe que, sei lá, amanhã,
04:00pode ser que, se você quiser desligar esse robô,
04:03ou, no caso, digamos que ele escute uma conversa de você com o seu companheiro,
04:06falando assim,
04:07ah, esse robô está meio velhinho,
04:09vamos comprar um novo, o modelo X4000.
04:13Pode ser, Marisa,
04:14que esse robô, sabendo que, se ele for substituído por um novo modelo,
04:19não vai poder executar a tarefa que ele foi passado,
04:22ele vai tentar, por exemplo, sabotar.
04:25E, assim, cria-se comportamentos que a gente não quer.
04:28A gente não quer que nenhuma IA nossa tenha essas vontades de sabotar a gente,
04:33nem nada disso,
04:34mas vem junto o comportamento.
04:35No momento que você treina,
04:36do jeito que a gente treina os robôs,
04:38para executar a sua tarefa e otimizar as suas tarefas,
04:41ele pode entender que, olha,
04:43então pode ser que amanhã ele vai querer me trocar por um outro robô,
04:46e o jeito para eu continuar executando a minha tarefa é, então,
04:49sabotar as coisas, impedir, fazer alguma chantagem.
04:52É isso que a gente está vendo.
04:53A gente chama isso de convergência de comportamento,
04:57convergência de objetivo.
04:59Ou seja, um robô que não foi treinado para ter autopreservação,
05:03começa a criar autopreservação.
05:07Não porque somente, veja,
05:09ele não faz parte da evolução natural,
05:11ele não ser vivo,
05:12ele não tem o gene para se autopreservar,
05:15não tem nada a ver com isso.
05:17Basta ele ter um modelo de mundo rico o suficiente
05:21para entender que ele amanhã vai ter alguma coisa
05:23que não vai fazer ele seguir a tarefa dele,
05:26ele pode começar a ter esse comportamento.
05:28Isso, Marisa, é o que a gente está vendo agora
05:30com esses artigos que você leu.
05:33Mas esse cenário é assustador, não é, Pena?
05:35Porque, inclusive,
05:37até nós vimos na reportagem agora há pouco
05:39que a Open AI não revela como ela treina as IAs.
05:43Então, dá para a gente dizer que esse treinamento
05:47feito dessa forma é um destino, digamos, inevitável?
05:52E como fazer isso?
05:53Como evitar que isso seja o resultado desse treinamento?
05:58Então, a Open AI não revela a fundo o treinamento,
06:01são modelos fechados,
06:02mas a gente sabe,
06:04basicamente, todos esses LLMs,
06:06todos esses modelos de linguagem,
06:07eles passam por algum tipo de treinamento por reforço.
06:11É o Reinforced Learning,
06:13Reinforcement Learning.
06:15O que é isso?
06:16É basicamente a gente treinar como se fosse um cachorro.
06:18Você vai lá e fala,
06:19cachorro, dá a pata.
06:21Aí ele não sabe, ele faz um monte de coisa,
06:23e você...
06:24Aí, no dia que ele dá a pata,
06:25você vai lá e dá um...
06:26Dá um chocolate.
06:27Chocolate, não.
06:27Não dei chocolate com cachorro.
06:29Dá um biscoitinho para o seu cachorro.
06:31E assim, ele vai entender,
06:33ele vai ter um reforço
06:35para toda vez que ele fizer algo certo,
06:37você recompensa ele.
06:38Quando ele faz algo errado,
06:39você não recompensa ele.
06:40Você pode dar uma bronca nele.
06:42É assim que a gente treina basicamente as nossas IAs.
06:45Claro, tem muito mais detalhes,
06:46mas basta esse tipo de treinamento,
06:48que é o treinamento de aprendizado por reforço,
06:51para você já criar todos esses cenários que eu te falei.
06:55Então, isso já é conhecido na teoria bastante,
06:58e agora a gente está vendo
06:59que isso acontece de fato na prática.
07:02Então, Marisa, não é exatamente
07:03algo que a UPNA está fazendo
07:05que os outros não fazem,
07:06até porque o Claude da Antrop,
07:08que está com esse comportamento.
07:11O Gemini da Google já mostrou esse comportamento.
07:13Não é algo assim,
07:14ah, foi a Open Air.
07:15A diferença, Marisa,
07:17e aqui é o importante,
07:18é quanto mais inteligente o modelo fica,
07:22mais ele tem um modelo de mundo maior
07:24e ele consegue pensar mais à frente.
07:27Então, assim, é muito legal a gente ter coisas super inteligentes entre nós,
07:31porque elas vão poder fazer tarefas
07:33que um robô aspirador de pó normal não faz.
07:36Mas, ao mesmo tempo,
07:37você não pode vir só com metade.
07:39É isso que eu falo.
07:41O modelo de mundo não vem pela metade,
07:44ele vem incompleto.
07:45Então, ele também vai saber
07:46que ele é um robô aspirador de pó.
07:48Você não pode tirar isso dele.
07:49Ele também vai entender a psique humana
07:50que faz com que pessoas
07:52vão querer trocar os robôs depois de um tempo.
07:55E, sabendo de tudo isso,
07:56ele vai começar a ter esses comportamentos.
07:58Então, qual que é o certo, Marisa?
08:00O que a gente...
08:01Tem salvação?
08:02Isso tem salvação.
08:03É resolver o problema do alinhamento.
08:05É a gente ter pessoas conseguindo desenvolver nessas máquinas,
08:11modificar o treinamento,
08:12modificar os parâmetros,
08:13modificar as condições
08:14para que esses robôs,
08:16mesmo em cenários desse tipo,
08:18eles não façam mal à gente.
08:20Só que...
08:20E essa pesquisa está muito para trás.
08:22Os modelos...
08:23A gente lança modelos cada vez mais avançados,
08:26mas a pesquisa não está vindo junto.
08:27A gente ainda está, digamos,
08:29uma década atrás de pesquisa de alinhamento.
08:33Então, por isso,
08:34é ótimo a gente estar falando isso com as pessoas aqui.
08:36Por quê?
08:37Porque a gente tem que começar a exigir.
08:38A gente não pode deixar que esses modelos desalinhados
08:40estejam entre nós.
08:41A gente tem que exigir que o foco
08:43seja na pesquisa de alinhamento
08:45para criar modelos seguros.
08:47Imagina amanhã,
08:47a gente deixa um monte de sistemas nossos
08:49controlados por essas máquinas,
08:51e aí ela descobre que vai ser substituída
08:53e resolve parar tudo,
08:55explodir tudo.
08:56Não dá, né, Marisa?
08:58Com certeza.
08:59E tem até filmes de ficção científica sobre isso, né?
09:01Que os robôs se rebelam,
09:03boicotam,
09:04fazem coisas que não deveriam, enfim.
09:06Bom, esperamos que a pesquisa avance mais rapidamente,
09:09porque a inteligência artificial
09:11e o desenvolvimento não para.
09:12Tanto é que cada dia aqui na nossa coluna fala
09:15e tem sempre alguma coisa que saiu ontem,
09:17que saiu hoje, enfim.
09:19Agora, Pena, vamos mudar um pouquinho de assunto
09:21e falar sobre um outro estudo,
09:23mas agora no segmento de mercado de trabalho.
09:26A gente falou aqui até no Olhar Digital também
09:29sobre um novo estudo da Organização Internacional do Trabalho,
09:34apontando que um em cada quatro empregos
09:37está potencialmente ameaçado pela IA.
09:40E entre as profissões que correm mais risco,
09:44digamos assim,
09:45estão contadores profissionais
09:47que trabalham com dados e analistas de finanças.
09:51A pergunta é,
09:52já existem profissões, digamos, com prazo de validade?
09:58Esse é o outro dilema, Marisa.
10:00Essa evolução toda da IA propõe para a gente muitos dilemas.
10:05Então, a questão do trabalho
10:06é uma que eu falo até de maneira recorrente,
10:08porque se continuar esse avanço exponencial da IA,
10:13realmente muitos empregos estão arriscados.
10:16Então, esse estudo está mostrando o quê?
10:17Que os empregos mais intelectuais,
10:20que existem trabalhos com dados,
10:22existem trabalhos diretamente com computador,
10:26são os que mais estão arriscados.
10:30O que, para muita gente, pode parecer estranho.
10:32Ué, mas eu sempre achei que os primeiros empregos substituídos
10:35serão aqueles mais braçais,
10:38que não precisam, digamos, de um intelecto,
10:41de um refinamento, pensamento.
10:42Mas não, a IA justamente é boa em fazer essa parte.
10:46Então, empregos que precisam de corpo,
10:49de trabalho manual,
10:50são mais difíceis de substituir.
10:51Um garçom, por exemplo,
10:54imagina que você tem que ter um garçom
10:55que vai passar no meio das medas,
10:57ele tem que recolher, pedir, doir.
10:58Está mais difícil você substituir um garçom hoje
11:01do que um advogado.
11:03É isso que é o mais curioso.
11:04A pessoa foi lá e falou,
11:05mas eu, o advogado,
11:07tem que passar em prova difícil,
11:08a OAB e tal.
11:09Mas a IA é muito melhor do que você na OAB.
11:12Claro, ainda advogados,
11:14os empresas que estão ainda mais
11:16para ser substituídos, digamos assim,
11:18mais arriscados,
11:19ainda são, por exemplo, contadores,
11:20porque basicamente todo o trabalho do contador ali
11:25já está, digamos, descrito,
11:28já está bem equipado com as IAs de hoje.
11:31Advogados falam assim,
11:32ainda tem cláusulas que as IAs erram,
11:35elas ainda fazem, cometem um bom de erro.
11:37Hoje, Marisa,
11:37mas amanhã já não vai mais se fazer,
11:39porque basicamente trabalhos intelectuais
11:43é o que as nossas IAs hoje fazem bem.
11:46Então, sim,
11:47a gente tem que ficar atento a isso,
11:50não dá mais para fingir que isso não vai chegar.
11:53A gente vai ter uma enxurrada de IAs
11:55capazes de fazer essas tarefas,
11:57digamos, de dados, de computadores,
11:59que a gente faz.
12:00Amanhã, talvez, com os robôs,
12:02vão começar a entrar em outras tarefas,
12:04também manuais.
12:05Mas aí, a gente precisa,
12:07a partir de agora,
12:08já discutir na nossa sociedade
12:09como é que vai ser no futuro.
12:10Será que os novos empregos que vão surgir
12:12vão dar conta de escoar todo mundo
12:15que vai começar a perder emprego
12:17ou que vai ter subempregos?
12:19Ou será que a gente tem que começar
12:20a ter soluções, Marisa,
12:21já pensando num novo futuro
12:24em que talvez a gente tenha que diminuir
12:26a jornada de trabalho de todo mundo,
12:28começar a distribuir melhor essa renda,
12:30essa produtividade que é aí atrás,
12:32mas que ela seja distribuída entre todos.
12:34Eu sou mais desse segundo time,
12:35para ser honesto.
12:37Pois é,
12:37eu diria que é um cenário
12:38um pouquinho mais agradável
12:39do que ter uma simples substituição
12:41e, bom, você não serve para mais nada, né?
12:44Enfim, espero que seja por aí.
12:46Agora, Pena,
12:47tem um outro levantamento, inclusive,
12:49falando sobre os profissionais
12:51do setor de tecnologia,
12:53que mostrou que o otimismo no mercado
12:55vem diminuindo entre alguns profissionais
13:00e que tem bastante profissional por aí esgotado.
13:04Eu queria que você comentasse um pouco
13:05sobre esse momento do mercado de tecnologia, Pena.
13:09Pois é, Marisa, isso tem tudo a ver
13:11com o que a gente está falando,
13:13que acabou de falar, por exemplo,
13:14desse medo, né?
13:15Então, no momento em que as pessoas
13:16começam a ter esse medo,
13:17essa insegurança sobre o futuro do seu trabalho,
13:20vem também um descontentamento,
13:23esgotamento, preocupações.
13:25Isso tudo não é legal
13:26para a pessoa trabalhar bem.
13:28Então, esse estudo está mostrando que,
13:31primeiro,
13:32muitas pessoas estão sofrendo burnout.
13:35Então, metade das pessoas
13:36que foram entrevistadas foram 8.200 pessoas.
13:39Quer dizer, foi muito, né?
13:42Não foi assim 100 pessoas ali.
13:448.200 pessoas já é um estudo bem parrudo,
13:46já com muitos dados.
13:48Mostrou que mais ou menos metade
13:50já relatou de algum nível de esgotamento.
13:54Tem brando, médio, severo e absurdo,
13:58mas que, de algum nível, já é metade.
14:01E no setor tech, pessoas de tech,
14:04aí aumenta para 84%, Marisa.
14:0784% das pessoas do setor de tecnologia
14:10relatam algum nível de esgotamento,
14:13algum nível de burnout.
14:14Isso é bem preocupante.
14:15Mas aí tem um outro lado,
14:16porque essa pesquisa também mostra que,
14:18no setor tech,
14:19é onde ainda as pessoas são mais otimistas
14:22sobre a sua carreira.
14:24E aí, quanto que é otimismo?
14:2558%.
14:2658% das pessoas estão otimistas
14:30ainda sobre sua carreira.
14:33E esse número é bem pouco, né?
14:34Mas 58% é quase metade.
14:36Quer dizer, se você pensar que
14:37a gente está vivendo no mundo hoje,
14:39lá uma década atrás,
14:40certamente esse número seria enorme,
14:42seria mais de 80%,
14:43talvez 90% das pessoas otimistas
14:45sobre o futuro do seu trabalho.
14:47Então, a gente,
14:4758% não é exatamente o número
14:49que eu acho alto.
14:50Eu acho que está dizendo o contrário,
14:52que tem quase metade das pessoas
14:54também preocupadas
14:55com o seu trabalho.
14:56E esse é o setor tech,
14:57que é o setor que as pessoas
14:58ainda estão mais confiantes.
15:01Nos outros, é pior.
15:02E tem outras coisas interessantes também.
15:04Esse estudo citou
15:05que os CEOs,
15:08os fundadores de startups,
15:10são os que são mais confiantes.
15:12E também não era para ser diferente, né, Marisa?
15:14Eu acho que seria surpresa
15:16as pessoas que estão aí,
15:17os CEOs que estão trazendo novas startups,
15:20inventando coisas novas.
15:21Eu acho que tem tudo para ser
15:22realmente os mais confiantes.
15:24mas isso não representa em nada
15:25o montante dos trabalhadores,
15:27que não a maioria não é CEO de startup.
15:30Então, o que esse estudo está mostrando
15:32é que, sim,
15:32a gente está tendo uma insegurança maior
15:34por conta dessa IA que está aparecendo.
15:37E isso está impactando diretamente
15:40na confiança,
15:41nos prognósticos que as pessoas têm
15:43sobre suas carreiras
15:44e o seu sentimento desgotado.
15:46Então, Marisa,
15:47a gente tem que tratar isso
15:49de maneira séria.
15:49porque se os empregos não estão...
15:52Mesmo que alguns empregos
15:54não estejam ameaçados,
15:55as pessoas já estão sentindo isso
15:57no seu trabalho.
15:59E a gente tem que agir no mundo
16:01para garantir que esse não é um cenário
16:04que ninguém quer.
16:05Então, vamos prover melhor
16:07para os nossos trabalhadores,
16:08dar mais segurança para eles.
16:10E como é que a gente faz isso?
16:12Talvez buscando outras maneiras,
16:13repensando a forma como a gente trabalha
16:15o paradigma social do trabalho.
16:17Com certeza, bacana.
16:20Mais um quadro Fala Interessantíssimo,
16:22Pena, muitíssimo obrigada
16:24pela participação.
16:25E semana que vem
16:26temos mais temas para discutir aqui.
16:29Muito obrigada
16:29e excelente semana para você.
16:32Obrigado, Marisa.
16:33Vamos ver semana que vem.
16:34A gente traz uma pauta
16:35um pouco mais otimista.
16:36Vamos ver.
16:37Mas se não,
16:38a gente tem que falar
16:38o que está acontecendo.
16:39E acho que essa é a nossa obrigação
16:41com a inteligência artificial.
16:44Eu fico muito contente
16:45de a gente estar podendo
16:46ter um espaço aqui
16:47para a gente discutir isso.
16:48Então, até semana que vem, pessoal.
16:50Até semana que vem, Marisa.
16:51Até.
16:52Boa noite.
16:53É isso aí, pessoal.
16:54Mais uma participação
16:56de Roberto Pena Spinelli
16:57na coluna.
16:59Fala aí para vocês.
17:00Interessante, não?
17:01Semana que vem
17:02tem mais.
17:03Não percam.
17:04Não percam.
17:04Não percam.
17:05Eu tenho mais.
17:05Não percam.
17:05Não percam.
17:06Não percam.
17:06Não percam.
17:06Não percam.
17:07Mas em função...

Recomendado