- 09/07/2025
Categoria
🤖
TecnologiaTranscrição
00:00E vamos entender melhor e repercutir esse assunto na nossa coluna da semana, Fala aí!
00:14Para isso, vamos receber Roberto Pena Spinelli, que é físico pela USP, especialista em Machine Learning por Stanford
00:22e colunista aqui do Olhar Digital. Vamos lá?
00:26Olá, Pena! Boa noite! Seja muito bem-vindo! Está protegido aí do frio, não é?
00:33Estou protegido, Marisa! O frio ainda não passou aqui, a gente continua com temperaturas baixas, está um pouquinho melhor do que semana passada, eu acho.
00:41Mas ainda tem que... eu sou careca de se proteger careca aqui, ó! Muito frio!
00:47Pois é, é importante manter-se aquecido, ô Pena!
00:51Vamos começar o nosso quadro da semana falando sobre essa última reportagem que acabamos de conferir.
00:58Eu queria que você explicasse para a gente como que é, como funciona, digamos assim, a segurança das empresas de inteligência artificial
01:07de forma que os dados não vazem. E mais, não é?
01:11Como que as empresas concorrentes têm acesso a dados?
01:13Normalmente a gente acaba falando de segurança de IA, que não é isso, né?
01:20É como garantir que a IA não vai fazer mal, que a IA não vai fazer bobagens,
01:24mas nesse caso a gente está falando da segurança por trás da IA,
01:27para garantir que as empresas não sejam espionadas e vazem os seus dados.
01:33Então, primeiro a gente tem que entender, Marisa, o que é o segredo, o que é o ouro de verdade de uma empresa dessa?
01:39O maior ouro é os parâmetros dos modelos de inteligência artificial.
01:45Então, deixa eu explicar melhor.
01:47Então, a OpenAI, ou as empresas que desenvolvem essas IAs,
01:51elas gastam meses e é uma fortuna treinando um modelo.
01:56Por exemplo, o ChartGPT 4O, ou o próximo, 5, sei lá.
02:01Elas gastam fortunas treinando, são meses, é uma infraestrutura absurda,
02:06e aí às vezes não dá bom, tem que treinar de novo.
02:08Enfim, é um processo muito grande, muito caro.
02:11E quando você termina, tudo isso cabe num arquivo só.
02:15Todo o resultado desses meses cabe num arquivo.
02:21Claro, é um arquivo muito grande, de vários gigas de tamanho,
02:24mas ainda assim, tecnicamente, são números.
02:27São números numa matriz, que se alguém pegar esse arquivo,
02:31vai poder ter uma vantagem absurda, vai poder copiar o seu modelo,
02:36vai pegar aquele arquivo e poder replicar esse modelo em outro lugar.
02:40Então, esse é o verdadeiro ouro.
02:42Então, essa é a primeira coisa.
02:43Mas não é só isso, né, Marisa?
02:45A gente tem vários segredos industriais que essas empresas têm.
02:49Então, às vezes, quais são os dados que vai ser o treinamento?
02:52Como que esses dados são tratados?
02:54Como que são os detalhes do treinamento?
02:56Tem um monte de segredos que você tem que falar.
02:59Ok, vou treinar com dados.
03:01Qual a porcentagem de dados da internet?
03:03Dados selecionados?
03:05Você tem técnicas específicas de como esses modelos funcionam.
03:09Detalhes da arquitetura, que a gente chama.
03:11E são arquiteturas que ninguém tem acesso.
03:14Só quem realmente trabalha lá tem acesso.
03:17Então, tudo isso vale ouro.
03:20Então, o que a OpenAI está fazendo,
03:23e que possivelmente várias outras empresas,
03:25está percebendo que com essa alta rotatividade de funcionários, Marisa,
03:29a gente está realmente no mundo que esses funcionários,
03:31esses cérebros estão sendo contratados de outras empresas.
03:35Então, imagina se uma dessas pessoas aí que trabalham na OpenAI
03:39está vendo o que está acontecendo, o que ainda não foi lançado,
03:43digamos, o GPT-5, o chat GPT-5, que ainda não foi lançado.
03:47Essa pessoa, de repente, poderia pegar os segredos do chat GPT-5
03:51e levar consigo para uma outra empresa.
03:52Isso valeria muito.
03:54Então, algumas técnicas possíveis é restringir, obviamente, o acesso.
03:59Não dá, só dá acesso para essas informações críticas
04:02a realmente o alto escalão,
04:04naquelas pessoas de confiança, os CEOs, enfim, os diretores.
04:09E uma técnica também possível, Marisa,
04:12é você fragmentar as informações.
04:16Então, sei lá, digamos que você tem um documento
04:17descrevendo o funcionamento do novo modelo de A.
04:20Em vez de você colocar todas as informações no único documento,
04:23fragmenta isso em vários
04:25e dá acesso somente para aqueles funcionários
04:27que precisam daquela informação e não ao documento inteiro.
04:31Então, outra técnica.
04:32Estão colocando biometria também?
04:33Quer dizer, somente quem colocar ali a íris ou o dedão
04:38vai poder acessar certas áreas.
04:40Mas tem uma outra coisa que eu queria falar sobre isso, Marisa.
04:44Um dos motivadores para a OpenAI fazer isso
04:46é porque eles acham que a DeepSeek pode ter roubado alguns dados,
04:51treinado o modelo deles em cima dos dados da OpenAI.
04:54Tem uma discussão aí.
04:55Ninguém sabe o que aconteceu.
04:56Mas se aconteceu isso, possivelmente foi por uma técnica
05:00chamada de destilação, que não é que alguém roubou,
05:04não é que um funcionário da OpenAI vazou a informação, não é isso.
05:09Seria uma técnica que você pega o resultado do modelo,
05:12ou seja, alguém chega lá e fala com o chat de EPT
05:15e das saídas do chat de EPT alimenta uma outra inteligência artificial.
05:21Ou seja, não é esse tipo de segurança que vai garantir.
05:25Destilação é sim um jeito de você poder roubar.
05:29Não é bem roubar, porque você está usando o modelo da empresa
05:32para gerar a saída desse modelo ou para alimentar a sua própria.
05:37Enfim, não tem muito como você impedir isso a não ser termos de uso.
05:41Mas aí, quem que segue termos de uso?
05:43Ainda mais quando a gente está falando dessas empresas.
05:44Então, Marisa, não é só resolvendo essa questão interna
05:48que a OpenAI vai impedir de ser, digamos, usado,
05:52de seus modelos serem usados para treinar outras.
05:54Pois é, difícil esse controle, né?
05:57Imagina, com segredos das empresas já é complicado.
05:59Imagina, Cunhar, que como você disse,
06:01esse método de destilação é inevitável.
06:04É só você pesquisar e você consegue alguns dados.
06:07Realmente difícil.
06:08Agora, Pena, tem um outro assunto curiosíssimo
06:11que eu quero falar com você aqui agora.
06:14Que a Antropic fez um novo experimento com uma inteligência artificial
06:18e a tecnologia assumiu o cargo de um gerente
06:22de uma loja fictícia durante um mês.
06:26Durante essa experiência, ela cometeu uma série de erros
06:29e, ainda por cima, ficou irritada com qualquer ser humano.
06:34Ou seja, o que justifica, Pena, comportamentos tão humanos assim na tecnologia?
06:40E mais, as IAS estão adquirindo personalidade própria
06:44ou imitando o ser humano?
06:47É muito legal essa matéria.
06:49Bom, primeiro que eu gosto porque foi feita essa pesquisa,
06:52não é uma matéria, essa pesquisa, esse experimento maluco aí,
06:57foi feito pela Antropic.
06:58Antropic, que é, para mim, a Big Tech, uma dessas empresas de A
07:04que mais tem responsabilidade, porque eles sempre publicam vários experimentos,
07:10várias pesquisas de segurança de inteligência artificial.
07:14Então, nesse caso, eles realmente falam assim,
07:15o que acontece se a gente pegar alguém, um modelo, um agente de A
07:20e tentar rodar aí, na vida real, um gerente de uma vending machine.
07:26São essas máquinas que você vai lá e pega produtos.
07:30Não é bem uma lógica, não é bem uma loja, foi mais de uma vending machine.
07:35Imagina que alguém está gerenciando, então tem que abastecer, tem que pôr preço.
07:39Várias tarefas que um gerente precisa fazer, colocaram para a IA fazer.
07:43Então, o nome dessa pessoa é Claudius.
07:46Pegaram o Claude, fizeram outro nomezinho.
07:49Então, o Claudius estava lá tentando fazer, cometeu um monte de bobagens.
07:55Então, isso levanta um alerta.
07:58Poxa, então, primeiro, será que a IA não consegue reproduzir esse tipo de tarefa humana?
08:04E a resposta é não.
08:05Hoje não consegue.
08:07E a gente já sabe disso, mas é bom realmente ver na prática ali acontecendo.
08:11Por quê? O que está faltando?
08:12Falta consistência, falta planejamento, falta coerência.
08:18Então, o Claudius às vezes dava um desconto hoje.
08:21Ele não conseguia lembrar que deu desconto ontem.
08:24E aí, para falar, já dei ontem, não vou dar de hoje.
08:27Assim, ele se perde.
08:29Ele acaba se perdendo nesse vai e vem do dia a dia.
08:32O dia a dia é muito mais difícil, Marisa, do que o ambiente teórico, o ambiente acadêmico.
08:37Então, realmente, não dá conta ainda de substituir.
08:41Então, o ser humano nessa hora comemora?
08:43Que bom!
08:44Então, estamos com o nosso emprego garantido?
08:46Calma, porque a questão não é essa.
08:48A questão é que ontem ele sequer pôde...
08:50A gente tem que comparar com o que tinha ontem.
08:54Ontem, que eu digo, sei lá, uns dois anos atrás, a gente nem tinha esses sistemas.
08:58Então, hoje, ele comete um monte de bobagem.
09:00Então, a gente ainda não pode só falar, ah, então ele nunca vai conseguir.
09:03Eu acredito que esses modelos continuam melhorando.
09:06Então, isso não é uma garantia de que amanhã ele não vai ser capaz de fazer.
09:10Mas aí, respondendo a sua pergunta, será que ele tem, então, personalidade?
09:13Será que essas vias estão demonstrando aí personalidade?
09:17Bom, essas vias, Marisa, elas são treinadas com dados humanos, com cultura humana.
09:21Então, sim, é natural que elas possam reproduzir, simular.
09:26Elas acabam reproduzindo o comportamento de seres humanos.
09:29Então, se naquele momento ele foi colocado numa situação de estresse, de confrontamento,
09:33alguém foi lá e confrontou, poxa, mas cadê os seus resultados?
09:36Você está perdendo dinheiro, não sei o quê?
09:39É normal, já que ele foi treinado com esses dados humanos,
09:42ele acabe pegando comportamentos que pessoas naquela situação vão fazer.
09:46Ou seja, ficar na defensiva, se manifestar, tentar pôr a culpa em outro,
09:51de repente ficar bravo, foi o que aconteceu.
09:53Agora, outro ponto que eu queria trazer é, por mais que um agente não seja capaz de tocar uma vending machine,
10:01realmente deu errado, mas se em vez de fazer um único agente executar todas as tarefas,
10:08eles tivessem fragmentado em vários agentes, ou seja, você só vai por preço,
10:13e você vai só cuidar da reação dos clientes, você vai só se preocupar com o abastecimento,
10:18você vai dividir uma tarefa complexa, que exige planejamento, exige um monte de estratégias em várias menores,
10:26as chances disso dar certo é enorme, tanto é que muitas empresas já estão colocando multi-agentes,
10:31a gente chama de sistemas multi-agentes.
10:33Então eu acredito, Marisa, que mesmo hoje daria para fazer essa vending machine funcionar bem melhor
10:39se fragmentasse em vários agentes.
10:42Claro que ninguém ainda fez esse teste, fica aí a dica, o convite,
10:45se você aí de casa quiser testar, faz o teste, conta para a gente, vai ser legal.
10:49Pois é, ou seja, o resumo da ópera é, nem a inteligência artificial funciona com multi-tasques,
10:56que já é questionado em muitos lugares, que multi-tasque não funciona muito bem,
11:01está aí, precisa de mais pessoas.
11:02Bom, agora falando em personalidade, pena, o Grock, que é a inteligência artificial de Elon Musk,
11:10ficou mais polêmico, para dizer o mínimo, posicionando o pessoal.
11:15Como nós reportamos no Olhar Digital, o bilionário não estava satisfeito com o Grock
11:20e resolveu que iria treiná-lo novamente.
11:23No entanto, como previsto por especialistas, a IA parece ter ficado mais com a cara de Musk
11:30e menos imparcial.
11:32Ou seja, qual é o risco de termos essas IAs mais enviesadas?
11:38Essa pode ser uma tendência no mercado?
11:42Então, isso é um risco muito grande, Marisa.
11:45Como são treinados com dados humanos,
11:47vieses dos dados humanos podem tranquilamente acabar sendo incorporados pela máquina.
11:53A gente precisa fazer um esforço muito grande para garantir que a gente tenha dados corretos,
11:59dados bons, diminuir os vieses.
12:02Vieses sempre vão existir, não existe dados sem vieses.
12:06É difícil até você saber quando o dado tem vieses, a gente não consegue,
12:09porque nós temos nossos próprios vieses.
12:11Então, esse é um risco grande que a gente normalmente está muito preocupado.
12:16O Elon Musk, mas aí tem um outro risco, Marisa,
12:19que eu acho que talvez seja mais grave,
12:20que é o que eu chamo, que as pessoas chamam de câmaras de eco.
12:25O que é isso?
12:27Para quem usa o chat EPT ou os outros, o Gemini,
12:33enfim, percebe que eles acabam puxando muito o nosso saco.
12:36Você vai lá, fala alguma pergunta, uma coisa,
12:38e ele diz, nossa, que ótima pergunta, parabéns,
12:40você realmente é um gênio por ter perguntado isso.
12:42E aí, de repente, você se posiciona de alguma maneira,
12:45ele concorda muito com você.
12:46muitas dessas IAs acabam virando câmaras de eco.
12:51Elas vão reproduzindo o que a gente acha que é verdade
12:54e daqui a pouco a gente acha que é mais verdade,
12:57porque a IA está concordando com você.
12:58Nossa, realmente, aí você se empolga e você vive numa câmara de eco.
13:02Isso acontece com as bolhas da internet.
13:04Você acaba só se alimentando das pessoas que pensam parecido com você,
13:08porque os algoritmos só te dão as coisas que você gosta
13:11e você acha que você está super certo e você não precisa nem dar IA para isso.
13:17Os próprios, digamos, as redes sociais acabam criando essas câmaras de eco.
13:21Isso é um dos piores problemas, os problemas mais complicados,
13:25porque a gente reforça os nossos próprios vieses.
13:28E parece, Marisa, que o Elon Musk acabou sucumbindo a essa questão.
13:34Porque, veja, o Twitter, o X, não mudou de nome,
13:39já está guinando para um perfil mais conservador já faz um tempo,
13:45desde que o próprio Musk acaba refletindo a visão do Musk.
13:49O Musk acabou indo para uma visão mais conservadora e levou consigo.
13:53Então, o X acabou se tornando uma grande câmara de eco
13:57para uma visão mais conservadora.
14:01Aí, o que acontece?
14:02O Musk está lá e aí o Grock,
14:04que foi treinado tecnicamente com dados maiores,
14:07não só dados do Twitter,
14:10por exemplo, começa a falar coisas que o Musk não gosta.
14:13O que ele pensa?
14:14Ah, o Grock está errado.
14:16E talvez não.
14:18Possivelmente é o Musk que não está percebendo
14:20que ele está numa própria câmara de eco.
14:22E seria legal ele deixar o Grock ser um pouco mais livre
14:25para romper isso.
14:27Mas, enfim, pessoas são pessoas, Marisa.
14:30E, claro, é difícil julgar, cravar, nada disso.
14:33Não estou aqui querendo lacrar nada.
14:35Mas me parece que, agora, olhando os novos usos do Grock,
14:39parece que ele está ficando mais enviesado
14:42e menos neutro, menos imparcial.
14:46Então, talvez aí o próprio Lomance está dando um tiro no pé
14:48quando ele está querendo melhorar
14:50e, na verdade, está criando mais uma câmara de eco
14:53para repetir as coisas que ele mesmo já acredita ou gosta.
14:57Pois é.
14:58Fica complicado isso.
15:00Bom, Pena, eu adorei esse termo da câmara de eco
15:02porque, realmente, as redes sociais e as bolhas
15:05fazem exatamente isso.
15:07Faz você se sentir certo
15:08porque todo mundo está concordando com você.
15:10realmente é impressionante.
15:12Pena, muitíssimo obrigada.
15:14Foi muito bacana a nossa conversa aqui hoje
15:16com assuntos interessantíssimos, como sempre.
15:19E na semana que vem, sem mais.
15:21Obrigado, Marisa.
15:22Então, até semana que vem.
15:24Até mais, pessoal.
15:25Até. Boa noite.
15:26Boa semana.
15:27Boa semana.
15:28É isso aí, pessoal.
15:30Roberto Pena Spinelli,
15:32que está aqui sempre com a gente
15:34às terças-feiras com o quadro
15:36Fala Aí.
15:37O Pena, que é físico pela USP,
15:39especialista em machine learning
15:40e também nosso colunista aqui do Olhar Digital News.
15:44Bacana a conversa de hoje, não?
15:45Espero que vocês tenham gostado.
15:47Semana que vem tem mais.
Recomendado
14:59
|
A Seguir
3:13
4:47
19:21
3:04