Categoria
🤖
TecnologiaTranscrição
00:00Para repercutir esse assunto, o nosso quadro semanal
00:04Seu Direito Digital.
00:18E vamos receber o nosso querido Leandro Alvarenga.
00:22Por favor, Leandro, junte-se a nós aqui nos estúdios do Olhar Digital.
00:27Boa noite, bem-vindo.
00:28Boa noite, Marisa. Boa noite a todos de casa. Espero que estejam todos bem.
00:33Leandro, hoje vamos falar um pouco sobre essa matéria que a gente acabou de ver, não é?
00:38É um futuro que chama a atenção, que pode ter um lado bom, sim,
00:43de vivermos melhor enquanto os robôs trabalham,
00:45assim como pode também existir uma substituição da nossa mão de obra.
00:50A pergunta é, como você enxerga esse futuro, Leandro?
00:53Será que a gente vai chegar num momento em que vai existir uma legislação
00:56que tem uma cota mínima de humanos dentro das empresas?
01:00Bom, vamos lá, Marisa.
01:01Vamos separar o que é medo, o que é mito e o que é realidade, né?
01:06Primeiro, hoje no Brasil não existe nenhuma legislação
01:08que fale de uma cota mínima de trabalhadores.
01:11Então, uma empresa em si, ela pode, se ela quiser, automatizar 100% do seu processo.
01:17O que nós temos é no PL 2338, que nós falamos de IA,
01:21ele traz essa preocupação de uma requalificação profissional,
01:25de um controle da inteligência artificial para que ela não faça a substituição integral do trabalho.
01:32E, efetivamente, Marisa, eles falam, inclusive, da checagem e da privacidade dentro da IA,
01:39que são coisas que vão ser controladas por humanos.
01:42Primeira coisa que a gente precisa lembrar, Marisa,
01:44que a tecnologia não é uma novidade na substituição de tarefas.
01:48Porque a IA, ela não substitui pessoas, ela substitui tarefas.
01:52A matéria falou muito bem sobre isso e fez uma abordagem correta.
01:56Tarefas repetitivas vão ser substituídas, efetivamente, como já foram.
02:01Lembra da Revolução Industrial, quando nós fizemos a primeira automação das fábricas,
02:06da indústria, o processo de Ford?
02:09Houve uma substituição de mão de obra repetitiva com a criação de novos postos de trabalho.
02:15O que acontece é que, agora, os postos de trabalho, certamente, necessitarão do conhecimento de IA.
02:22Então, se você for substituído, não é ser substituído pela IA,
02:25mas é ser substituído por alguém que saiba usar IA melhor que você.
02:29Então, a IA, por exemplo, Marisa, pelo menos com a tecnologia que nós temos aí nos próximos anos,
02:37ela não fará uma cirurgia.
02:39Ela depende da experiência do médico.
02:40Ela pode apoiar o médico na cirurgia.
02:43A IA, ela não tira a experiência de um advogado na visão de eventuais problemas que ele tem
02:48pela experiência que ele tem num contrato, numa causa.
02:52Então, ela vem complementar, facilitar.
02:55Mas eu não acredito que ela tenha esse papel, efetivamente, de substituir.
03:00É claro que uma série de profissões que sejam ali de trabalhos repetitivos,
03:06de apertar um botão, de fazer alguma coisa assim,
03:08talvez elas deixem de existir, como vão aparecer uma série de outras profissões,
03:13que vão ser ligadas à IA.
03:15A parte de atendimento humanizado, a parte de sentimento humano, a IA não consegue fazer.
03:21Então, todas as profissões que são ligadas a isso, como muito bem colocou os professores,
03:27a IA vai conseguir, talvez, explicar a matéria.
03:30Mas explicar a matéria com um sentimento para que leve aquele aluno,
03:34ou pessoas de diferença, para entender,
03:36já tem até estudos feitos na Inglaterra sobre isso.
03:40Então, eu falo muita calma nesse andor.
03:42Nós não precisamos ficar com medo.
03:45Mas o que eu recomendo para todos, não importa a carreira,
03:48estudem e aprendam a usar a IA.
03:51A IA, ela veio para ficar, é um caminho sem volta.
03:54E a legislação, ela vai tratar sobre isso.
03:57Inclusive, nessa semana, tivemos uma audiência pública
03:59sobre o PL 2338 na Câmara dos Deputados.
04:02E um dos temas foi como o Brasil preparará as gerações do futuro
04:07e os atuais profissionais para trabalharem com a IA.
04:10E para que ela não roube empregos,
04:13mas que ela complemente e ajude na economia,
04:15o que é tão importante, Marisa.
04:17Pois é, está certo.
04:18Bom, vamos ver, né? Vamos acompanhando.
04:20Agora, Leandro, eu quero aproveitar você aqui hoje
04:23para a gente falar sobre a votação no STF
04:26envolvendo o marco civil da internet, atualizando.
04:29Nós falamos aqui ontem, né, que já havia uma maioria formada
04:33pela responsabilização das redes sociais
04:36por conteúdos publicados nas plataformas.
04:39Mas, em relação à semana passada,
04:41houve alguma mudança significativa, Leandro,
04:44nos votos dos ministros sobre esse consenso?
04:48Na verdade, Marisa, há um consenso de responsabilização,
04:52mas não como.
04:53Esse é o problema, né, que está para o segundo momento.
04:56Só para lembrar, são 11 votos que nós temos,
05:00nós tivemos 7 votos até o momento,
05:026 falando que ela tem que ter algum tipo de responsabilidade,
05:06com pontos de vista diferentes.
05:08Por exemplo, o ministro Barroso, ele falou,
05:10olha, ela tem que ter responsabilidade
05:11só quando for notificada extrajudicialmente
05:14de alguns assuntos.
05:17Outros assuntos ela tem que tirar imediatamente,
05:19porque, como, por exemplo, pedofilia ou racismo,
05:22crimes de ódio.
05:23E há circunstâncias que ela não pode tirar
05:25sem uma ordem judicial, injúria, calúnia e difamação.
05:29Outros ministros se posicionaram
05:31com vários mecanismos diferentes.
05:35Houve o ministro Fux que disse que ela teria que criar,
05:37ali, por exemplo, um mecanismo de poder contestar a retirada.
05:43O ministro Fábio Diner, ele trouxe uma situação de...
05:46E se ela retirar a informação?
05:47Então, aquela informação for para juízo,
05:51porque o usuário que teve a informação retirada,
05:53ela pode também ir para juízo dizendo,
05:55olha, minha informação não era fake news,
05:57não era ilícita e ela tirou.
05:59Então, eu quero que você coloque de volta
06:01e me indenize ainda.
06:02Tem essa circunstância.
06:03Porque não é só atacar a pessoa.
06:06Mas e o usuário que tiver sua liberdade cerceada?
06:09Como vai ser feito isso?
06:10Então, o que foi decidido, que já tem maioria,
06:13é que as redes sociais vão ter que ter
06:15algum tipo de responsabilização.
06:17Efetivamente, é isso.
06:18Agora, quando acabaram os quatro votos que faltam,
06:21eles vão ter que decidir como vai ser essa responsabilização.
06:24Quais são os mecanismos de responsabilização?
06:27O que as redes sociais vão ser obrigadas
06:28a tirar do ar automaticamente,
06:31como, por exemplo, crimes que já são previstos,
06:33como pedofilia, racismo.
06:35Alguns falaram de ataque ao Estado Democrático de Direito.
06:39Alguns falaram de crimes de tráfico de pessoas.
06:43Então, crimes que são evidentes, que são crimes.
06:46Esses crimes de ódio, aqueles que são colocados,
06:49até pelas próprias políticas das redes sociais,
06:53elas vão ter que tirar automaticamente.
06:55Se elas não tirar, aí sim elas podem ser responsabilizadas.
06:58Há uma questão também que foi discutida,
07:01que é sobre os usuários fakes.
07:03Quando se cria um usuário fake,
07:05a responsabilidade da rede social,
07:07porque ela deixou de verificar se aquela pessoa existia.
07:11Então, ela não teria a responsabilidade do artigo 19,
07:13do marco civil,
07:14e teria a responsabilidade civil comum,
07:16porque ela falhou na verificação ali.
07:19Mesma coisa na utilização de robôs,
07:20que fazem esses impulsionamentos.
07:24Qual seria a responsabilidade dela?
07:26Então, veja, Marisa, a gente está falando desde postagens,
07:30até de usuários.
07:31E não tem uma resposta simples,
07:32porque o Supremo não chegou nessa resposta.
07:35Então, ele chegou assim,
07:35decidimos até agora que vai haver uma responsabilização.
07:38No próximo momento,
07:40é como será essa responsabilização,
07:42quais são os limites,
07:44e como vai ser aplicada efetivamente esta prática.
07:48Certamente vai sair alguma decisão ali também,
07:50que instigue o parlamento,
07:54a Câmara dos Deputados, o Senado,
07:56a que faça uma lei,
07:59porque eles vão regular,
08:00dentro daqueles dois casos concretos que eles estão julgando,
08:03mas eles não vão conseguir abordar totalmente
08:06todas as hipóteses e o mecanismo correto de fiscalização,
08:09até se vai ter uma entidade para fiscalizar ou não,
08:12que alguns ministros falaram que são favoráveis
08:14a ter essa entidade para fiscalização.
08:16Mas não sabemos como vai ser a extensão desse voto,
08:21e aí nós vamos verificar isso,
08:24e provavelmente vai sair uma carta ali
08:25que nós chamamos para a Câmara dos Deputados,
08:27para o Senado,
08:28dizendo, olha, vocês precisam regular isso,
08:30estamos fazendo aqui um provisório,
08:32até que vocês regulem essas circunstâncias,
08:34mas eles vão descrever regras mínimas ali.
08:37Há quem diga que vai haver uma censura,
08:38há quem diga que não é censura,
08:40é só uma regulação para acabar com essa situação,
08:42porque é bom lembrar, Marisa,
08:44que muitas vezes o usuário era punido,
08:46sem saber por quê,
08:48não tinha como recorrer,
08:50tinha um conteúdo tirado.
08:51Outros usuários que faziam apologias a crime,
08:54nós vimos aqui várias matérias ali falando
08:55de incentivo a terrorismo, por exemplo,
08:58em alguns sites, em algumas plataformas,
09:00que não eram tiradas,
09:01e outras coisas que não eram vinculadas a crimes evidentes
09:04eram retiradas.
09:05Então, a ideia é tentar equacionar essa conta
09:08para que a rede social tenha a responsabilidade
09:11de tirar o que tem que ser tirado,
09:12e manter o que tem que ser mantido
09:14e preservar a liberdade de expressão
09:16dentro de certo controle.
09:18É isso que nos aparenta nesse momento, Marisa,
09:21mas temos os quatro votos
09:23e depois temos a modulação.
09:24Vai demorar um pouquinho
09:25para a gente poder dizer
09:26o que o Supremo efetivamente decidiu.
09:29É isso que eu ia até perguntar para você,
09:31porque ainda não acabou,
09:32e assim que acabar,
09:33quais são os trâmites para isso
09:34e o que pode efetivamente mudar
09:36para quem usa mesmo as redes sociais?
09:38O que pode mudar aqui interno,
09:40Olha, o que eu posso dizer para você,
09:41ainda faltam quatro votos, Marisa,
09:43depois que acabar esses quatro votos,
09:45esses quatro ministros que faltam votar, votarem,
09:47eles vão ter que decidir
09:48e unificar os votos
09:49que foram favoráveis à responsabilização
09:51para chegar a um consenso
09:53de como vai ser essa responsabilização.
09:55O que eu acredito,
09:56pelo que está andando a carruagem,
09:58é assim,
09:59coisas que forem evidentemente crimes,
10:01como perofilia e racismo,
10:03a rede social terá a obrigação
10:05de tirar do ar automaticamente,
10:07independente de notificação.
10:08aparentemente foi isso que a maioria decidiu,
10:11não foram todos que decidiram nesse sentido,
10:13mas a maioria decidiu nesse sentido.
10:16Há uma segunda parte,
10:18que é a parte que se sentir ofendida
10:19em determinada circunstância,
10:21vai notificar,
10:22então a rede social vai criar um canal
10:23de comunicação,
10:24de notificação,
10:26de denúncia,
10:27mais efetivo,
10:29e aí sim,
10:30se denunciado,
10:31ela não tirar,
10:32aí sim ela vai passar a ter responsabilidade.
10:34Mas hoje funciona como?
10:36Você tem que ir para a justiça
10:37e o juiz determina que vá
10:39para tirar do ar,
10:41e aí ela tira.
10:42Não vai sair para a justiça,
10:43Marisa,
10:44você mesmo vai denunciar,
10:45ela vai fazer uma análise
10:46e ela vai retirar do conteúdo.
10:49Eu acredito que nesse processo
10:50ela vai ter que informar a parte
10:51que houve a denúncia,
10:53que efetivamente,
10:54permitindo que aquela parte
10:56faça o contraditório,
10:58aquela empurguinha,
10:59aquela retirada,
11:00tudo.
11:00E também tem uma situação
11:02que é que os crimes
11:03privados ali,
11:06que são de injúria,
11:07calúnia,
11:07difamação,
11:08que são ofensas
11:09efetivamente diretas à pessoa,
11:11aparentemente os ministros
11:12também entendem
11:13que isso vai depender
11:14de ordem judicial,
11:14porque beira muito ali
11:16o que é liberdade de expressão
11:18de uma crítica
11:19do que efetivamente
11:20é uma ofensa.
11:22Então isso vai precisar
11:22do judiciário.
11:24Aparentemente,
11:25se eu puder juntar
11:27todos os seis votos
11:28ali que foram favoráveis,
11:30eu acho que vai caminhar
11:30nessa linha pela maioria.
11:32Porque alguns votaram,
11:33olha,
11:34eu sou favorável,
11:35mas eu sou favorável
11:36em constitucionalidade,
11:37mas não dessa forma,
11:38não com notificação,
11:40outros com notificação
11:41de um jeito,
11:41outros com notificação
11:42de outro jeito.
11:43Então é por isso
11:43que vai ter que ver
11:44essa harmonização
11:45aí com os quatro votos
11:46que virão ainda.
11:47Tá certo.
11:48Bom,
11:49então vamos aguardar,
11:50com certeza a gente volta
11:51a tocar esse assunto
11:52aqui no nosso quadro
11:53Seu Direito Digital.
11:55Tá aí,
11:55mais uma grande participação
11:56de Leandro Avarenga.
11:57Leandro,
11:58muito obrigada
11:59e que você tenha
12:00uma excelente semana.
12:01Uma boa noite pra você,
12:02Marisa,
12:03uma boa noite de casa,
12:04espero que fiquem bem,
12:05mandem suas perguntas
12:06semana que vem,
12:07fiquem com Deus
12:08e até a próxima.
12:09É isso,
12:10Leandro,
12:11e olha,
12:11você também pode participar
12:12do nosso quadro
12:13Seu Direito Digital.
12:15Basta usar a hashtag
12:16Seu Direito Digital,
12:17colocar a sua dúvida lá
12:18e o Leandro Avarenga
12:19vem aqui responder pra gente.
12:21e o Leandro Avarenga
12:23e o Leandro Avarenga