Pular para o playerIr para o conteúdo principalPular para o rodapé
  • há 5 dias
Transcrição
00:00Hora de repercutir esses assuntos na nossa coluna da semana. Fala aí!
00:12Vamos então receber Roberto Fena Spinelli, que é físico pela USP e também especialista em Machine Learning por Stanford, dos Estados Unidos.
00:23Vamos lá, vamos receber o Pena aqui nos nossos estúdios.
00:26Olá Pena, muito boa noite, seja bem-vindo.
00:32Tudo bem Marisa? Boa noite, boa noite pessoal. Vamos lá, vamos repercutir esses assuntos.
00:38Pois é, vamos discutir esses assuntos porque tem muita informação por aí escondida, não é Pena?
00:43Vamos começar até com essa do desentendimento, digamos assim, entre Microsoft e OpenAI, que começaram ali juntas com o chat GPT.
00:54Agora, o que muda exatamente com a OpenAI tendo ou não os fins lucrativos que nós comentamos agora na reportagem?
01:05Isso está virando uma novela já, Marisa, porque lá atrás, vamos começar, já que está fundando a novela,
01:11lá atrás a Microsoft se aproximou da OpenAI e deu um investimento enorme, tendo aí praticamente metade da participação.
01:19E foi isso que alavancou. A OpenAI é o que ela é hoje, muito por conta desse acesso, desse dinheiro, desse aporte,
01:27mas também, digamos, da tecnologia de nuvem, o Azure, que a OpenAI usou, da Microsoft.
01:33Pois bem, isso durou por bastante tempo, esse namoro, eles dois estavam...
01:37O que a OpenAI estava dando para a Microsoft? Estava dando os seus modelos, a tecnologia de ponta,
01:44a IA de ponta, que foi embarcada no Windows, foi embarcada no GitHub Copilot.
01:49Então, a Microsoft teve, assim, digamos, a primazia, o pioneirismo de usar esses modelos super avançados.
01:56Mas, né, o mundo dá voltas. E aí, ano passado, eles já se desentenderam em algumas questões de aproximação.
02:04A OpenAI se aproximou da Apple, a Microsoft não gostou, a Microsoft se aproximou de outras empresas,
02:10e a OpenAI não gostou, e ficou nisso.
02:12Mas agora, agora a questão é o seguinte, a OpenAI se manifestou que ela quer ficar com fins lucrativos,
02:21e aí a gente já disse também, acho que no mês passado, que eles mudaram de ideia,
02:26não vai ser exatamente só com fins lucrativos, mas vai ser uma empresa de benefício público, enfim.
02:32Mas firmou que... E por que ele precisa disso?
02:35Porque ela vai ter um aporte financeiro, um aporte de investimento de até 20 bilhões,
02:40se ela fizer essa mudança.
02:43Então, imagina, 20 bilhões, Marisa, não é dinheiro, não é pouca coisa.
02:47Então, a OpenAI está muito interessada em fazer essa transição.
02:52O problema é que, para fazer essa transição, precisa do aval do seu parceiro, da Microsoft,
03:00que detém metade dos direitos.
03:02E a Microsoft está se vendo agora numa questão assim,
03:06olha, esse acordo já não está mais tão interessante para mim,
03:09eu talvez queira fazer essa mudança, porque eu tenho que dar o aval,
03:13mas eu quero uma participação maior, porque eu só vou ter a perder.
03:19A gente vai fazer essa transição e eu não vou ganhar nada com isso.
03:23Então, agora, é isso que aconteceu.
03:26Eles querem fazer essa transferência, essa transição,
03:29mas a Microsoft está dizendo, eu quero uma participação maior.
03:32E esse é o cenário que a gente está.
03:34Se não acontecer isso, são 20 bilhões a menos para a OpenAI.
03:38E isso é só, digamos assim, uma ponta do que está acontecendo,
03:43porque tem outros interesses por trás, tem outras questões
03:46que eles também estão meio que brigando por trás dos panos.
03:49Mas esse, digamos, seria o maior empecilho que está acontecendo agora nessa novela.
03:55Mas, Pena, como um eventual fim de parceria, digamos,
04:00como que um eventual fim dessa parceria desses dois pode criar reflexos
04:07no segmento da inteligência artificial para a empresa?
04:11Então, aqui a gente vai ter, no momento inicial, caso haja essa ruptura,
04:17a gente não sabe se vai acontecer, mas se houver,
04:20primeiro que eles vão perder o benefício um do outro,
04:23que talvez não seja mais tão interessante assim.
04:25Por quê?
04:27A Microsoft está tendo outros parceiros agora de inteligência artificial,
04:31então não depende mais exatamente da OpenAI,
04:34até mesmo porque eles estão desenvolvendo seus próprios modelos.
04:37E a OpenAI não está mais dependendo também só da parceria da Microsoft
04:42para ter, digamos, computação em nuvem,
04:46porque também está criando.
04:47Então, assim, as duas já estão, isso a gente já viu, já noticiou,
04:50as duas já estavam meio que...
04:52Se isso azedar, a gente vai cada uma já ter a sua garantia,
04:55não vai depender, não vai pôr todos os ovos da mesma cesta do parceiro.
04:59Mas o que isso...
05:00Outras coisas que podem acontecer é porque agora a gente cria uma concorrência, Marisa,
05:04uma concorrência grande.
05:06Então, vamos pegar um exemplo.
05:07A OpenAI, ela acabou de adquirir, ou está em vias de adquirir, a Windsurf,
05:13que é uma empresa que faz um software para você fazer código com a AI embarcada.
05:18Então, imagina que os programadores,
05:21eles querem poder programar com o auxílio da inteligência artificial,
05:25do chat GPT, enfim, ali embarcado,
05:27não tem que ficar copiando e colando código, que é muito ruim.
05:31Então, a Windsurf é uma empresa que faz isso.
05:34Ela faz um software que já tem a AI embarcada,
05:37que é a AI da OpenAI.
05:39Então, a OpenAI quer comprar a Windsurf.
05:42Só que a Microsoft tem também um produto similar,
05:44que é o GitHub Copilot e outros de software,
05:49que auxiliam os programadores.
05:51Então, aí você já começa a criar uma concorrência mesmo.
05:54Então, o mercado começa a abrir nesse sentido,
05:58de você ter mais possibilidades.
06:00Por um lado, é bom.
06:01A gente gosta, no geral, de concorrência.
06:04O cliente fica satisfeito.
06:05Mas vai criar também um monte mais, assim, digamos,
06:09de estruturas ou de, sei lá,
06:15alguma coisa muito mais robusta ou com muito mais gastos
06:18ou com muito mais amplo.
06:20Sendo que antes, não.
06:21A gente poderia ter, digamos, o melhor dos dois mundos,
06:24às vezes, focado no único produto.
06:26Então, assim, o mercado vai ficar mais aquecido
06:29e a concorrência vai ficar mais franca.
06:32Se isso vai reverter, de fato, para um benefício da sociedade,
06:36produtos melhores e tal,
06:37ou se isso vai, no final, acelerar essa corrida desenfreada.
06:41E aí é mais difícil de avaliar, Marisa.
06:45Pois é.
06:45Agora, outro assunto que foi mencionado na reportagem
06:48foi a chegada da inteligência artificial geral,
06:52que até é prevista em contrato nessa parceria.
06:55Como podemos avaliar esse trecho específico desse acordo, Pena?
06:59Então, isso é muito confuso, Marisa,
07:02porque, olha só, a gente sabe que,
07:05quando eles firmaram um acordo,
07:07Microsoft e OpenAI, lá atrás,
07:09acho que já uns três anos,
07:12agora já perdi meio que a conta, mas enfim,
07:14lá no começo do chat EPT,
07:16um pouco antes de lançar,
07:18eles já colocaram uma cláusula de fim do benefício,
07:24no caso da Microsoft,
07:26porque a Microsoft estaria entrando com esse dinheiro todo
07:29para a OpenAI desenvolver,
07:30avançar a inteligência artificial,
07:32mas qual que era o medo da OpenAI?
07:33Que naquela época era mais open do que é hoje.
07:36Naquela época,
07:37parecia que eles estavam ainda com mais valores
07:39do que a gente vê hoje.
07:40Então, eles pensavam assim,
07:42olha, se a gente conseguir desenvolver uma AGI,
07:45ou uma IAG,
07:46uma inteligência artificial geral,
07:48que vai ser essa máquina
07:49que vai ter benefícios para o mundo todo,
07:51a gente não quer que isso fique um monopólio de ninguém,
07:55porque ela traz a OpenAI super open.
07:58A gente não vai querer que a Microsoft
08:00se torne esse grande detentor dessa tecnologia.
08:03Então, a gente pôs um acordo.
08:05O acordo é o seguinte,
08:05quando eu chegar nessa IAG,
08:08acaba automaticamente os benefícios,
08:11a exclusividade que a Microsoft tem
08:13em usar os modelos da OpenAI.
08:17Então, eles assinaram lá,
08:18até porque naquela época, Marisa,
08:20AGI, IAG,
08:21parecia algo tão, tão distante
08:23que acho que nenhum dos dois achava
08:25que três anos depois
08:26estaria discutindo se chegou ou não.
08:29Mas agora se tornou uma questão muito central,
08:32porque se a OpenAI declarar
08:34que chegou nessa IAG,
08:36ela consegue tirar a Microsoft da jogada
08:38por uma questão contratual.
08:40Ó, chegamos.
08:41Desculpa.
08:41Eu adoraria continuar com você aqui,
08:43mas infelizmente,
08:44agora que a gente chegou na IAG,
08:45você vai perder os seus benefícios,
08:47ou parte dos benefícios.
08:49Então, se tornou um trunfo muito grande.
08:50Isso já rolou, esse bafafá,
08:52qual que é a definição?
08:53Mas aí, quando você olha,
08:55e agora que é a parte especulativa,
08:56a gente não tem acesso ao contrato, Marisa.
08:58Ninguém, nenhum de nós aqui
08:59é um contrato privado entre eles, né?
09:02Não é público.
09:03Então, a gente só conhece
09:05algumas pessoas que tiveram acesso
09:07a esse contrato que falaram,
09:09e algumas dessas pessoas falam
09:10que, na verdade, essa cláusula,
09:12a definição de IAG no contrato
09:15é simples, é financeira.
09:17Diz o seguinte,
09:17quando a OpenAI gerar 100 bilhões em lucro
09:21é o que chegou na IAG.
09:23Para mim, não faz nenhum sentido isso.
09:26Assim, acho muito curioso
09:27alguém definir IAG.
09:29Quando gerou 100 bilhões de lucro
09:30é quando chegou na IAG.
09:31Não faz nenhum sentido,
09:32mas não importa o que faz ou não sentido.
09:34A questão é saber o que está na cláusula.
09:36Se for uma cláusula de rendimento,
09:38de lucro,
09:40então nada disso importa.
09:41A OpenAI está ainda muito longe,
09:43porque, veja,
09:44ela deu prejuízo no último ano.
09:46Até gerar 100 bilhões de lucro,
09:48Marisa, vai levar umas décadas,
09:50pelo menos uma década aí.
09:51Mas aí, a gente não sabe
09:53os detalhes do acordo.
09:54Então, também é uma questão em aberto.
09:56A gente não entende a definição,
09:59mas caso seja uma definição
10:01mais convencional de IAG,
10:03a OpenAI poderia usar isso
10:06como um recurso
10:07para tirar a Microsoft de lado.
10:10Pois é.
10:11Bom, temos aí dois cenários,
10:13tanto fins lucrativos
10:15quanto essa cláusula
10:16da inteligência artificial geral.
10:19Vamos acompanhando.
10:20Agora, Pena,
10:20nós demos outra notícia aqui
10:22falando sobre essa relação
10:23de um acordo
10:25entre a OpenAI e o Pentágono.
10:27E que a OpenAI afirma
10:29que não fere os princípios
10:30da empresa,
10:31embora nós tenhamos dito
10:32ali na reportagem
10:33algumas frases
10:33que ela não poderia ser utilizada
10:35para violência
10:37ou para armas,
10:38enfim.
10:39Dá para garantir
10:40que a inteligência artificial
10:41da OpenAI
10:42não será usada,
10:43por exemplo,
10:44para fins bélicos?
10:46Olha, Marisa,
10:47hoje eu já não consigo
10:48garantir mais nada, viu?
10:49Porque vamos também
10:51olhar um pouquinho
10:52em retrospectiva.
10:53Até o ano passado,
10:54até 2024,
10:56estava claro
10:57nos valores
10:58da OpenAI
10:59de que os seus modelos
11:00não poderiam ser usados
11:02para fins militares.
11:04Militar,
11:04qualquer fim militar,
11:05não podia.
11:07Só que o que aconteceu?
11:08flexibilizaram.
11:10Então,
11:11houve uma mudança
11:12nos valores,
11:13houve uma adenda,
11:15uma retificação
11:16e eles,
11:17olha,
11:17não é bem assim,
11:18militar não,
11:19não pode ser usado
11:20para fins
11:21de causar dano
11:23a pessoas
11:24ou danos físicos.
11:26Mudou.
11:26Não é mais militar,
11:27é danos físicos
11:28ou a propriedade
11:30ou a pessoas.
11:32Muda completamente
11:33a história,
11:33porque militar
11:34tem um monte de coisa,
11:35principalmente o quê?
11:36Questão de cibersegurança.
11:38Então,
11:40antes não poderia
11:42nem ser usado
11:42para cibersegurança.
11:44E agora o que eles estão fazendo,
11:45depois que mudaram,
11:46era óbvio que ia chegar
11:47a esse acordo.
11:48Para nós,
11:49eles anunciam
11:50alguns meses antes
11:50a mudança dos valores
11:51para que agora
11:52a gente já tenha esquecido
11:53mais ou menos
11:54o que aconteceu.
11:55Olha,
11:55fecharam um acordo
11:56com o Departamento de Defesa.
11:57Então,
11:58se eles seguirem
11:59os valores atuais,
12:01não pode ser usado
12:02para armamentos,
12:04para realmente
12:05fazer algum
12:06um míssel,
12:07fazer alguma,
12:08sei lá,
12:09uma artilharia,
12:10nada disso
12:11vai poder ser feito.
12:12Só que tem tantas coisas
12:13muito mais importantes.
12:14A guerra hoje, Marisa,
12:15é uma guerra de inteligência,
12:17principalmente de inteligência.
12:18Então,
12:19para mim,
12:19não tem muita diferença.
12:20Você vai estar usando,
12:21no final,
12:22para fins
12:22de militares
12:25de defesa,
12:26mas você vai estar
12:27assessorando,
12:28sim,
12:28de maneira bérica,
12:29que pode ter resultados
12:30numa guerra.
12:31Então,
12:31eles até falam,
12:32uma questão
12:33de cibersegurança.
12:35Então,
12:35você vai estar ali
12:36fazendo espionagem,
12:37fazendo proteção
12:38de dados,
12:39toda uma questão
12:41de inteligência
12:41que pode o quê?
12:42Coletar dados
12:43para eventualmente
12:44até ser usado
12:45para fazer um ataque físico.
12:46Então,
12:47fica muito difícil
12:48saber onde chega um
12:50e até onde vai o outro.
12:51Porque você,
12:53claramente,
12:53quando você está
12:54num ambiente militar,
12:55não dá mais
12:56para garantir nada.
12:57Então,
12:57para mim,
12:57isso é uma brecha
12:58que foi aberta,
12:59que eles estão aí
13:01cativando um setor
13:03que tem muita necessidade
13:05e muito interesse
13:05em inteligência artificial.
13:06É claro
13:07que o sistema
13:08do Departamento
13:09de Defesa dos Estados Unidos
13:10tem muito interesse
13:11em usar tecnologia
13:12de ponta
13:13para poder municiar
13:14a sua questão,
13:16ainda mais agora
13:16com as guerras
13:17estourando no mundo,
13:18Marisa.
13:18Então,
13:19infelizmente,
13:19a gente está vendo
13:19um cenário
13:20cada vez mais perigoso
13:22para o uso
13:23de inteligências artificiais
13:24também em fins militares.
13:26Pois é,
13:27e vale lembrar
13:27que não é somente
13:29a Open AI.
13:29A gente vê aí
13:30um movimento
13:31do Vale do Silício
13:32se aproximando
13:33cada vez mais
13:34da defesa
13:36dos Estados Unidos.
13:37Então,
13:38quer dizer,
13:38os dois lados
13:39têm a ganhar
13:40com essa aproximação,
13:41mas é um risco
13:42muito grande,
13:43não é, Pena?
13:44É,
13:45os dois lados
13:45claramente
13:46têm a ganhar muito,
13:48então,
13:48tanto a questão,
13:50os departamentos
13:51de defesa
13:51vão ganhar
13:52em tecnologia,
13:53vão ganhar
13:54em supremacia,
13:56essa questão
13:56de dominação,
13:57poderio e tudo,
13:58porque está usando
13:59tecnologia de ponta,
14:00e, claro,
14:00o Vale do Silício
14:01está ganhando
14:02principalmente
14:03em recursos,
14:05dinheiro,
14:05propriamente dito,
14:06financiamento,
14:07mas mais do que isso
14:08também,
14:09em realmente
14:10uma proteção
14:11da sua tecnologia,
14:12em aportes,
14:13em, digamos,
14:15um fomento maior
14:16para o desenvolvimento
14:17de tecnologias
14:18que antes
14:19eram só silis.
14:20Então,
14:20a ganhar,
14:21eles têm
14:21muito a ganhar
14:22todos,
14:23mas agora
14:24vem a parte
14:24dos riscos,
14:25Marisa.
14:25o que será
14:27que pode acontecer
14:28num cenário
14:29em que a IA
14:29começa a ser usada
14:31também,
14:32passa essa barreira,
14:33a gente está vendo
14:34passar essa barreira,
14:35mas,
14:35por enquanto,
14:36é só por questões
14:37administrativas
14:38ou de defesa,
14:40mas passou a barreira.
14:41Então,
14:42a gente pode ver
14:42um aumento
14:44nessa escalada global
14:45para a corrida
14:47da IA,
14:48que é tudo
14:48que a gente não quer,
14:49a gente não quer
14:50uma corrida desenfreada
14:51para o desenvolvimento
14:52de uma IA
14:53não segura,
14:53uma IA
14:54sem governança.
14:55Então,
14:56imagina que aí
14:56o argumento é sempre
14:57porque se a gente
14:58não fizer,
14:59a China faz
14:59e a China vai fazer
15:00a mesma coisa.
15:01Opa,
15:01lá eles estão usando,
15:03então a gente
15:03vai fazer também.
15:04Então,
15:05essa é a primeira
15:05coisa ruim
15:07que eu consigo pensar.
15:08A gente vai viver
15:09aí uma escalada
15:10natural.
15:11Opa,
15:12se ali flexibilizou,
15:13eu vou flexibilizar também.
15:14Então,
15:14agora fica mais aceitável
15:17a gente fazer isso.
15:18E a segunda
15:18é trazendo
15:19essas IAs
15:20para a questão militar,
15:23você já está trazendo
15:23um risco maior
15:24inerente
15:25do próprio uso
15:26dessas IAs.
15:27Essas instalações,
15:28esses sistemas
15:30que vão começar
15:30a ser operados
15:31usando esse IA.
15:33E aí,
15:33no momento que está
15:34em guerra,
15:34Marisa,
15:35você falar
15:36a segurança
15:37e fica em segundo lugar.
15:38Eu vou usar,
15:40eu vou começar
15:40a implementar isso
15:41porque senão
15:42a gente não tem escolha.
15:44Sempre fica esse argumento,
15:45a gente não tinha escolha,
15:46eu tive que usar.
15:47Então,
15:47eu acho que é bem crítico,
15:49sim,
15:49não gosto de ver
15:51essa flexibilização.
15:52acho que nós,
15:53como sociedade,
15:53temos que fazer uma pressão
15:55de dizer,
15:55não,
15:55não pode,
15:56não deve usar,
15:57isso não é aceitável.
15:58A gente não pode deixar
16:00que agora as IAs
16:01comecem a automatizar
16:03sistemas de segurança,
16:04sistemas militares.
16:06Com certeza,
16:06um risco muito grande.
16:08Bom,
16:08Pena,
16:09espero que na semana que vem
16:10tenhamos temas mais leves,
16:12com menos possibilidades
16:14de seguir para o lado do mal,
16:16o lado sombrio da força,
16:18não é?
16:18Pena,
16:19muito bom tê-lo aqui
16:20mais uma semana,
16:21nos encontramos na próxima.
16:22Excelente semana para você.
16:24Obrigado, Marília,
16:25tudo de bom para você,
16:26excelente semana
16:26para todo mundo.
16:28Até,
16:29tchau.
16:30Tchau.
16:31É isso aí, pessoal.
16:32Roberto Pena Spinelli
16:33aqui conosco
16:34em mais uma coluna
16:35super bacana.
16:37Fala aí,
16:38semana que vem,
16:38como vocês já sabem,
16:40terça-feira tem mais.

Recomendado