- 04/06/2025
É tanta gente notável no estúdio, que você vai ter certeza que está assistindo à nova temporada da Casa dos Artistas na TV! O estúdio está com as ilustres presenças do ex-vereador Felipe? Felício? Ferdinando? Fernando Holiday, do comentarista Felippe Monteiro e do advogado Luiz Augusto D’Urso para debater se a única regulação das redes boa é a manutenção da peneira de limpar piscina.
Assista ao Pânico na íntegra:
https://youtube.com/live/c9jb61SbePA?feature=share
Canal WhatsApp Entretê:
https://whatsapp.com/channel/0029VaeCbOCDjiOZ3gtYeh3R
Baixe o app Panflix: https://www.panflix.com.br/
Inscreva-se no nosso canal:
http://www.youtube.com/panicojovempan
Entre no nosso site:
http://jovempan.com.br/
Facebook:
https://www.facebook.com/programapanico/
X (Twitter):
https://x.com/programapanico/
Instagram:
https://www.instagram.com/programapanico/
TikTok:
https://www.tiktok.com/@programapanico
Threads:
https://www.threads.net/@programapanico
Kwai:
https://kwai.com/@ProgramaPanico
#JovemPan
#Pânico
Assista ao Pânico na íntegra:
https://youtube.com/live/c9jb61SbePA?feature=share
Canal WhatsApp Entretê:
https://whatsapp.com/channel/0029VaeCbOCDjiOZ3gtYeh3R
Baixe o app Panflix: https://www.panflix.com.br/
Inscreva-se no nosso canal:
http://www.youtube.com/panicojovempan
Entre no nosso site:
http://jovempan.com.br/
Facebook:
https://www.facebook.com/programapanico/
X (Twitter):
https://x.com/programapanico/
Instagram:
https://www.instagram.com/programapanico/
TikTok:
https://www.tiktok.com/@programapanico
Threads:
https://www.threads.net/@programapanico
Kwai:
https://kwai.com/@ProgramaPanico
#JovemPan
#Pânico
Categoria
😹
DiversãoTranscrição
00:00Mas eu quero saber o seguinte, você acha que tem que regular as redes?
00:05Eu acho que tem que regular as redes, claro.
00:08E digo mais, Emílio, o problema não é regulação.
00:10Todo mundo é a favor da regulação das redes sociais.
00:12Todo mundo?
00:13Calma, calma. Qual o tipo de regulação?
00:15Porque o que a gente vê é a regulação, o que eu concordo com uma regulação é
00:20as pessoas que estão lá mostrar a cara, que não quer mostrar a cara,
00:24mas que tenha lá o CPF, porque se for o Zezinho do posto...
00:28Beleza, qual é o CPF por trás do Zezinho do posto?
00:31Só isso, só que o que a gente vê.
00:32E o problema é que vem os jabuti, que vai escalando para a censura.
00:37E isso eu não concordo.
00:38Então, se for para censurar, eu não concordo que não tenha nenhuma, nem o CPF, nem nada.
00:43Agora, se for para regular justamente só isso, para você poder culpar a pessoa
00:48que está cometendo crime, fazendo alguma coisa, ter o CPF dele somente isso,
00:52eu concordo também.
00:53Só que a gente sabe que, infelizmente, quando vem projetos assim,
00:57vem os jabuti para poder censurar e calar quem eles querem encarar.
01:00Mas esse é o ponto, Mogado.
01:01Esse ponto, por exemplo, se for de uma regulação, nesse sentido.
01:04Só isso?
01:04Isso é regulação.
01:05Mas você sabe que não é assim que funciona.
01:07Eu se for de uma regulação que exponencializa a liberdade de expressão.
01:10Por exemplo, o que acontece hoje em dia?
01:12A regulação, quem faz a regulação é a plataforma.
01:16O YouTube faz a regulação dele, o Instagram faz a regulação dele.
01:18Já tem regulação privada.
01:20E o que acontece hoje em dia?
01:21Uma pessoa com espinha no rosto, no Vale do Silício,
01:25consegue dar mais voz a uma pessoa e menos voz a outra.
01:28Olha que absurdo.
01:29Através do algoritmo, pelo interesse individual e ideológico.
01:32Também está nesse lugar.
01:33Agora, quando você vai para o político, é pior ainda.
01:36Porque o político, com essa ferramenta, a gente sabe o perigo que é.
01:40Você acha que, além da big tech, tem que estar na mão de um político?
01:43Não.
01:44Aí que é o ponto que eu acho que não.
01:46Pelo seguinte.
01:47Está sendo votado para esse lugar?
01:48O caminho é...
01:50Você acha certo...
01:512630, o PL 2630.
01:53Você acha certo trazer da China alguém para regular a rede no Brasil?
01:58Não, claro que não.
01:59É um absurdo.
02:00Mas está aí.
02:01É isso aí.
02:01Ainda coloca o emissário da China junto com o secretário de propaganda do governo.
02:05Ou seja, não tem nenhum sentido essa postura do governo federal.
02:10Mas assim, eu falo isso, tem que regular as redes sociais,
02:14em apoio à direita.
02:15Em apoio aqui ao meu holiday aqui.
02:17Porque eu sei o seguinte, eu sei que quem sofre mais banimento das redes sociais
02:22é o pessoal da direita.
02:23O que tem amigo meu de direita, que fica no tal de shadow ban,
02:27que fica à sombra, sem poder postar, sem poder aparecer nas redes sociais,
02:31é muitas pessoas.
02:33Então eu sou a favor de ter mais transparência,
02:36ter algoritmo mais democrático, de modo da voz igual a todo mundo.
02:39Só isso é a sua regulamentação?
02:41Aí seria essa, senhor?
02:42O que o Mogado colocou foi interessante também,
02:44colocar o CPF na cara de lá.
02:45Eu acho que é o único tipo de regulamentação,
02:48porque assim, como empresa privada,
02:50você não pode também dar pitaco que o cara faz.
02:51Eu concordo com você, eu acho que essa questão de shadow ban,
02:54mas assim, é que nem o Emílio fala,
02:56quando você concorda, vai lá no agree,
02:58você sabe que o jogo é aquele a ser jogado.
03:00Agora, essa questão de regulamentar...
03:01Não é tão transparente assim, Mogado?
03:02Não é tão transparente assim?
03:04Eu sei que não é, mas assim, é o que o Emílio fala,
03:07concordou, amigo, você não tá feliz, sai fora, mas assim...
03:09Sentou?
03:10É, mas a única regulamentação que...
03:12A única, única, mas nada além disso,
03:15CPF pra quem tá atrás daquele perfil, determinado perfil, é isso?
03:18Eu peço a palavra aqui...
03:20Pois não, senhor.
03:21Eu peço a palavra aqui pro nosso querido advogado,
03:24ele que é o doutor Luiz Augusto Durst,
03:26ele que entende, especialista.
03:27Ele que tem dois celulares, ele tem.
03:29Esse entende do assunto.
03:33O que vai ser julgado hoje, lá na Suprema Corte?
03:38Bom, Emílio, prazer voltar aqui.
03:41Eu acompanho esse início de debate,
03:43e eu acho que esse é o grande problema no Brasil,
03:45da gente falar de tentar trazer algum tipo de regulação.
03:49Pela confusão do tema, pela mistura dos temas,
03:53e pela dificuldade de a gente entender até onde vai eventual regulamentação ou não.
03:57Hoje, o que tá sendo julgado no Supremo não é o PL 2630.
04:01O PL 2630 é um projeto de lei que tramitou no Congresso,
04:04mas não teve força política pra prosperar.
04:07Inclusive, eu estive em audiência pública,
04:09fui convidado pra ação dos debatedores.
04:11E no Supremo, estamos julgando a possível inconstitucionalidade,
04:15ou não, né?
04:16Do artigo 19, que é o artigo do Marcos Silva da Internet,
04:19que fala especificamente de responsabilidade de plataforma.
04:22E aí, se ele cair, se ele for decretado como inconstitucional,
04:26isso não significa que o governo vai controlar o que vai ou não pras redes.
04:31Significa que o Supremo vai ter que ocupar essa lacuna
04:34emprestando, penso eu, o artigo 21,
04:36que é um outro artigo sobre responsabilidade
04:38quando há o conteúdo pornográfico ou de nudez.
04:41Isso é pra...
04:42Desculpa interromper, mas é a responsabilidade...
04:44O que tá sendo julgado é a responsabilidade da plataforma.
04:46Exato.
04:47Porque hoje o que diz o artigo 19?
04:49Fala que a plataforma é responsável
04:51por aquilo que o seu usuário faz, publica,
04:54a partir do momento em que ela descumpre
04:55uma decisão judicial, por exemplo, de remoção.
04:58Então, o juiz olhou, falou
04:59isso aqui é criminoso, tem que remover,
05:01mandou a plataforma remover,
05:02ela não removeu.
05:04Pelo descumprimento da decisão,
05:05ela pode tomar multa,
05:06mas ela também pode ser responsabilizada pelo conteúdo.
05:09É isso que diz o artigo 19.
05:10O que o Supremo entende?
05:11Que isso deveria ser um pouco mais rigoroso.
05:13Porque a plataforma, sempre esperar a decisão judicial,
05:17coloca uma situação muito confortável.
05:19Porque ela não liga, por exemplo,
05:21pra canal de denúncia,
05:22ela não faz nada antes da decisão judicial.
05:24É isso que a gente viu na prática.
05:26Isso é uma realidade.
05:27Então, o Supremo tá tentando verificar
05:28se é possível, pela inconstitucionalidade,
05:31colocar uma nova forma de analisar o conteúdo.
05:34E aí seria, por exemplo,
05:35conteúdos...
05:36Eles colocam um rol de 5,
05:38racismo, crimes contra mulheres, etc.,
05:41que poderiam esses...
05:42Mas isso é tudo subjetivo, doutor.
05:44Sim, sim.
05:45É tudo muito subjetivo.
05:47Eu não tô nem entrando no mérito
05:48se seria bom ou ruim.
05:49Mas tô dizendo o que pode acontecer.
05:50Aí eles pegariam o artigo 19,
05:52colocariam um artigo que você não precisaria
05:53da decisão judicial,
05:55e que aí, com a mera, por exemplo,
05:57denúncia ou a notificação de uma vítima
05:59de alguma coisa,
06:00a plataforma precisaria agir,
06:01senão poderia ter uma decisão judicial,
06:04uma ação judicial independente,
06:06pra gerar responsabilidade.
06:07Aí tem multa.
06:09E aí seria multa alta.
06:10Por isso que a Google diz e fala,
06:12isso vai atrapalhar a experiência.
06:13Só entrando nisso que você falou
06:14do canal de denúncia,
06:15e era uma prática,
06:16ali lá pra 2017,
06:19que as pessoas se juntavam
06:21pra denunciar um certo tipo de canal.
06:23Eu sei que o meu primeiro canal
06:24caiu por conta disso.
06:25Eu recebi uma série de denúncias,
06:29e o meu canal,
06:30ele foi desmonetizado por
06:31uma galera que se juntou,
06:33denunciou,
06:33por violação sexual,
06:35o meu canal.
06:36E você fez alguma coisa de sentido?
06:37Não.
06:38E você conseguiu resolver essa situação?
06:40Depois de três meses.
06:42Tá.
06:42Entendeu?
06:43Junta a plataforma.
06:43Exato.
06:44Mas você vê que a denúncia,
06:46ela não era correta.
06:48Então, o canal de denúncia também
06:50tem que deixar bem claro
06:51a questão da denúncia,
06:53por que você tá denunciando,
06:54se faz sentido com o conteúdo
06:56e toda essa parte.
06:57Então, aí,
06:58esta questão vai de encontro
07:00ao que o Morgado falava.
07:01Você ter uma regulamentação
07:03pode ser sim boa,
07:05nesses modos que o Morgado disse,
07:06eu até incluiria algumas ideias
07:08como essa.
07:09Então, se tiver uma grande quantidade
07:10de denúncias que você vai sofrer
07:11uma sanção da plataforma
07:13que é administrativa,
07:14que ela diz,
07:15ó, você vai ser desmonetizado,
07:16você vai ser banido,
07:17ela tem que te dar o direito
07:18de saber por quê.
07:19Perfeito.
07:19Saber qual foi o conteúdo
07:20que surgiu
07:21e deixar você recorrer.
07:23Hoje, você não tem essas opções.
07:25Então, quando a gente fala,
07:26eu, pelo exemplo,
07:27que aí não é nem lá do PP,
07:29nem no lado do Holliday,
07:30é um lado mais,
07:31como vocês chamaram de moreteiro,
07:32um lado mais centro,
07:34no sentido de que
07:35não pró-plataforma,
07:38muito menos pró-governo.
07:40Seria alguma coisa
07:41no meio termo
07:41para colocar a decisão
07:43na mão do juiz
07:44e que a plataforma
07:45tem um pouco mais
07:45de responsabilidade
07:46para agir melhor.
07:47Eu acho que a plataforma
07:47hoje está muito isenta,
07:49deixando a...
07:49Isso falta, só uma coisa,
07:51porque não tem clareza
07:52da plataforma.
07:52O Alba recebe um e-mail
07:53do algoritmo.
07:53Tem um ponto
07:54que eu queria falar,
07:56que foi uma fala
07:57do doutor Francisco,
07:58que é o seguinte.
07:59Ele falou,
07:59olha,
08:00a plataforma
08:01faz o algoritmo
08:03de acordo
08:03com o que ela quer.
08:05E aí tem
08:05dois pontos nisso.
08:07Eu, como empresa privada,
08:08acredito que eu tenho
08:09o direito
08:09de fazer
08:10algo
08:11que maximize
08:12a minha receita.
08:15Se, por um lado,
08:15isso é verdade,
08:17por outro,
08:18quando você
08:18bane a pessoa
08:19sem justificativa,
08:20é um problema.
08:21Como que você vê
08:22essa questão do algoritmo
08:23para entregar?
08:24Eu não estou falando
08:25do banimento.
08:26Você acha que a plataforma
08:27tem o direito
08:28de entregar
08:29para quem ela quiser
08:30ou você acha
08:32que não tem como
08:33o doutor Francisco levantou?
08:35Olha,
08:35essa tese
08:36é interessante
08:37porque os critérios
08:39de entrega do algoritmo
08:40são extremamente subjetivos.
08:41É um cálculo matemático
08:42muito difícil
08:43de se concluir
08:44o resultado.
08:45Ele vai depender
08:46dos primeiros minutos
08:47de postagem,
08:48o quanto aquilo
08:48gerou de engajamento,
08:50o quanto de comentários,
08:50o quanto de likes,
08:51compartilhamento,
08:52tudo isso vai
08:53para uma conta
08:53para o algoritmo
08:54entender que aquele
08:55conteúdo é bacana
08:56para entregar
08:56para mais gente.
08:57Então,
08:57eu entendo que
08:58essa decisão,
08:59Sami,
08:59pela plataforma
09:00decidir a forma
09:01que vai entregar
09:01é uma decisão
09:02justa da plataforma
09:04realmente poder decidir.
09:06Mas eu defendo
09:07o que a gente chama
09:07de transparência
09:08algorítmica.
09:10Pelo menos
09:10a gente saber
09:11que aquele conteúdo
09:12foi entregue.
09:12Por quê?
09:13Não,
09:13porque ele engajou
09:13muito rápido
09:14ou porque,
09:15por exemplo,
09:16os vídeos do Nicolas Ferreira
09:17com 200 milhões
09:18de visualizações.
09:19Mas por que chegou
09:20para tanta gente
09:20a plataforma
09:21entregou muito bem,
09:24o nível
09:24e a quantidade
09:25de tempo
09:26de visualização
09:27está muito alta
09:27e por causa disso
09:28entrega para mais pessoas.
09:29Só que,
09:30para o negativo também,
09:31por exemplo,
09:32eu tinha
09:33minha monetização
09:34no Facebook
09:35e tiraram
09:36simplesmente
09:36não sei porquê.
09:38Eles não informaram
09:39o porquê foi tirado.
09:40Se foi...
09:40Que é a regulação.
09:41Exato.
09:42Exatamente.
09:42Mas aí...
09:43Eu sei,
09:45mas agora a questão
09:46que eu entro
09:47onde o Sam me falou,
09:49aonde isso interfere
09:50a questão...
09:51Porque assim,
09:52você vai acabar entrando também,
09:54por exemplo,
09:55uma vendinha.
09:56Quando o cara
09:57chega lá,
09:57que é uma coisa
09:58que o Holiday
09:58sempre falou também,
09:59você chega lá,
10:00você atrapalha
10:01o cara da vendinha
10:02porque tem que ter
10:02uma lixeira
10:03com aquela metragem,
10:04tem que ter...
10:04Aonde isso atrapalha
10:06nessa questão
10:06da liberdade
10:07de quem é o dono
10:08da plataforma
10:09ou o dono
10:10do estabelecimento comercial?
10:12Isso vai ser a forma
10:13com que a gente vai aprovar a lei
10:14porque o pele das fake news
10:15merecia muitas críticas.
10:17É verdade.
10:17Eu não fui lá pra Brasília
10:18pra bater palma pro pele
10:20porque ele é um pele gordo,
10:21eles colocaram questões
10:23de direito autoral
10:24que não tinha nada a ver.
10:24É do governo, né?
10:26Sim.
10:26Então, mas doutor,
10:29pera aí que você já vai falar.
10:30Já vou.
10:30E eu tava pensando o seguinte,
10:32liberdade também
10:33é uma coisa muito complicada
10:35pra você decidir
10:35porque depende também
10:36da cultura onde você tá.
10:38Sim.
10:38A nossa liberdade aqui
10:39é diferente
10:40da liberdade da Arábia,
10:41por exemplo,
10:42e do Japão
10:43e da Coreia
10:44e de onde você tá.
10:45E dos Estados Unidos.
10:46Essas empresas,
10:47elas estão sediadas
10:49nos Estados Unidos.
10:50É que nem uma companhia aérea,
10:52é muito complicado
10:53você administrar
10:54uma companhia aérea
10:55porque você tem
10:56piloto americano,
10:58piloto brasileiro,
10:59a American Airlines
11:00viaja pra cá.
11:00É uma complicação isso aí.
11:03Então, eu acho
11:03como é que o cara vai,
11:06como é que a gente vai
11:07entrar num Facebook
11:08que é um negócio
11:08que tá lá
11:09na Califórnia
11:11e a lei do Brasil
11:13vai...
11:14É uma coisa
11:14que não vai dar
11:16muito certo isso, doutor.
11:17É que já esteve, né,
11:18Emílio?
11:19O Facebook já foi
11:20uma empresa americana.
11:21Então, mas esteve,
11:22mas esteve quando não
11:23interferiu em eleição.
11:25Exato, e assumido
11:26por ele.
11:27Antes, antes do Brexit
11:29era só brincadeira.
11:31Isso, só joinha.
11:32Era rede social.
11:33Joinha, era rede social.
11:34Hoje é um desenvolvimento
11:35de comunicação.
11:35Jesus com glitter.
11:36Hoje virou uma coisa
11:38muito poderosa.
11:39Poderosa.
11:39Não é isso, Holiday?
11:40Como é que você acha,
11:41pra onde você acha que vai?
11:42Você acha que aqui
11:43a gente vai decidir
11:45o que...
11:46Eu acho que
11:46essas plataformas
11:48vão embora.
11:49Não vão, Emílio.
11:50Não vão.
11:50Por quê?
11:50Muito dinheiro.
11:51O Brasil é um dos países
11:52que mais usam
11:53a rede social no mundo.
11:55A gente está em segundo lugar.
11:56O Brasil é o top 1
11:57que mais interage
11:57no Facebook.
11:58Muito dinheiro aqui
12:00pro cara largar a mão.
12:01O próprio Elon Musk
12:02quando deu a treta aqui...
12:03Voltou atrás.
12:04Voltou atrás.
12:05Eu acho o seguinte.
12:07Tanto o que está sendo
12:08discutido no Supremo
12:09quanto o que propõe
12:11esse PL das fake news,
12:13acho que o mais prejudicial
12:14de tudo ali é
12:15você necessariamente
12:17vai ter que criar
12:19mecanismos de Estado
12:20pra dizer o que é verdade
12:22ou não.
12:23Sim.
12:23Você tem que entregar
12:24esse poder pro Estado.
12:26Este é o centro
12:27da discussão aqui.
12:28Porque o que o PL propõe
12:30inicialmente é
12:31as redes sociais,
12:34as empresas
12:34vão ser responsáveis
12:36por inibir conteúdos
12:38que contenham,
12:38por exemplo,
12:39discurso de ódio.
12:40Só que o que é
12:41discurso de ódio?
12:42Se você perguntar
12:43pro Monteiro,
12:44ele vai dizer uma coisa.
12:44Se perguntar pro Durst
12:45ele vai dizer outra.
12:46Se perguntar pro Durst,
12:47ele vai dizer outra.
12:47Exatamente.
12:48O ponto é,
12:49alguém terá este poder
12:50de dizer o que é
12:51ou não discurso de ódio.
12:53E o que a gente viu,
12:54e o próprio Zuckerberg
12:55admitiu isso recentemente,
12:57inclusive,
12:58é que a maior parte
12:59das pessoas
12:59que eram responsáveis
13:01por, de alguma forma,
13:02moderar o conteúdo
13:03no Facebook,
13:04no Instagram,
13:05tinham ideologias
13:06de esquerda.
13:08E, naturalmente,
13:09os conservadores
13:09acabam sendo punidos
13:10porque qualquer ideia
13:12que seja minimamente
13:13é direito...
13:14Discurso de ódio.
13:15Exato.
13:16E aí, este PL
13:17vem oferecer isso.
13:18O julgamento do Supremo,
13:20agora, da forma como
13:21vem ocorrendo,
13:22se considerar inconstitucional
13:24aquele dispositivo
13:25do marco civil da internet,
13:26o resultado vai acabar
13:27sendo esse também
13:28porque eles querem
13:28responsabilizar a rede social,
13:31a empresa.
13:31E a empresa,
13:32com medo de tomar processo,
13:34com medo de ser punida,
13:35vai acabar bloqueando
13:36todo mundo.
13:37E aí vem
13:38uma questão
13:40muito séria
13:40que é o seguinte,
13:41a nossa Constituição
13:42Federal de 88,
13:45e aí o Duas
13:45depois pode falar
13:46melhor sobre isso,
13:47lá no 220
13:48é muito clara
13:49sobre a censura prévia.
13:51Todo mundo
13:51tem direito
13:52de falar
13:53e depois arca
13:54com as consequências
13:55do que falou.
13:56O que o projeto
13:57está dizendo
13:58é cale a sua boca,
13:59não fale,
14:00porque o que você
14:00vai falar
14:01é discurso de ódio.
14:01Na prática, é isso.
14:02Porque vai entrar
14:03no algoritmo.
14:05Entra no algoritmo.
14:06Então, Doutor...
14:07Pois não.
14:08O ponto que eu ia colocar aqui
14:08é o seguinte, Roliday,
14:09por que tem que ser
14:10sempre os dois extremos?
14:11A esquerda, por exemplo,
14:13acha que tem que ter
14:13a regulação do conteúdo,
14:14que é a bizarrice.
14:16A direita acha, por exemplo,
14:17que não tem que ter
14:17regulação alguma, né?
14:19E o Roliday é um exemplo
14:20aqui da questão
14:21do discurso de ódio.
14:21Mas, por exemplo,
14:22a gente vê um caso específico
14:23de uma criança
14:24que participando
14:25de um desafio
14:26no TikTok
14:27pegou um desodorante
14:29e colocou na lua
14:30e morreu com oito anos de idade.
14:32Mas oito anos de idade
14:33não tinha que estar
14:34no TikTok.
14:34Oito anos de idade morreu, morreu.
14:36Por que que não poderia,
14:36por exemplo,
14:37nesses casos específicos,
14:38gritante,
14:39a plataforma ter
14:40responsabilidade sobre o assunto?
14:42Tira a questão
14:43da discussão
14:43só do discurso de ódio,
14:44que realmente cai
14:45na subjetividade.
14:46Mas tem situações
14:46que são tão gritantes,
14:48são tão absurdas,
14:49que o crime é para te dizer.
14:49Então, mas...
14:50E a responsabilidade dos pais.
14:52Mas aí,
14:53mas aí,
14:54você usa...
14:54Prenda o pai
14:55e condena a...
14:57Pois é.
14:57Mas veja,
14:58o que o Felipe
15:00está colocando
15:01é uma discussão
15:02que, assim,
15:02a lei já abarca,
15:03que é, por exemplo,
15:04pornografia infantil?
15:05Por que que rede social
15:07deixa pornografia infantil no ar?
15:08Nenhuma.
15:09Qual é a lei específica,
15:11qual é a lei específica,
15:13que criou uma regulamentação
15:15voltada para as redes sociais
15:17para impedir
15:17a pornografia infantil?
15:18Nenhuma.
15:19É a lei que já existe.
15:20Portanto,
15:21o meu ponto é o seguinte,
15:24a lei do PL,
15:25das fake news,
15:26e o julgamento
15:27que está no Supremo,
15:28na prática,
15:29ela só discute,
15:30efetivamente,
15:31discussões políticas.
15:32Porque aquilo que é criminoso,
15:34ninguém vai vender
15:35droga no Twitter,
15:37ninguém vai vender
15:38arma no Instagram,
15:39isso não tem.
15:40A rede social,
15:40ela já inibe naturalmente,
15:42portanto,
15:42aquilo que é efetivamente
15:43criminoso,
15:44já é combatido.
15:45o que está se discutindo
15:47é eu posso falar
15:48o que eu penso
15:49ou eu não posso.
15:50Você está equivocando.
15:52O Telegram é uma plataforma
15:54conhecida por venda
15:55de conteúdo ilícito
15:57e etc.
15:58O Telegram é russo.
15:59É.
15:59Então,
16:00é isso que eu falo para você,
16:01a Rússia é outra,
16:02é Corinthians.
16:03Não tem nem onde reclamar.
16:04É,
16:05deveria.
16:06Então,
16:06mas é a rede social.
16:07A preocupação do Fernando
16:09tem toda a razão
16:10e eu sempre falei aqui
16:12e isso é importante
16:12levar para a audiência
16:13e por isso que é bom
16:14esse debate.
16:15Por isso que a gente tem
16:15que focar em regular
16:16o que é manifestamente ilícito
16:18e qualquer coisa
16:19que é subjetivo
16:19deixar falar
16:20e preservar a liberdade
16:21de expressão sempre.
16:22Então,
16:22depois verifica
16:23subjetivo,
16:24discurso de ódio,
16:24isso vai ser mantido
16:25e deve ser mantido.
16:26Inclusive nos votos
16:27que já foram declarados
16:29no Supremo
16:30usar exatamente esse termo
16:32manifestamente legal
16:33para o que é discurso de ódio
16:35não interferir.
16:36Então,
16:36eles estão tentando preservar.
16:37O Supremo está tendo
16:38essa cautela
16:39pelo menos alguns que votaram.
16:41Agora o André Mendonça
16:41votou de maneira mais liberal.
16:43Cada um está dando
16:43sua ideia.
16:44Mas o Congresso
16:45deveria abraçar essa ideia.
16:46É agora duas horas, né?
16:47É, hoje retorno.
16:49Agora,
16:49com relação...
16:50Tem um documentário
16:51muito bom
16:51para ver com relação a isso.
16:53Fala,
16:53não,
16:53mas a lei está pronta
16:54para isso.
16:54Nós temos o Estatuto
16:55da Criança e do Adolescente
16:56que proíbe pornografia infantil
16:57e não tem nas redes sociais.
16:59O ECA traz a previsão.
17:01Realmente é crime.
17:01Mas isso você encontra demais.
17:03Eu já,
17:04quantas vezes trabalhei
17:04com cliente
17:05que uma adolescente
17:07e tal,
17:07mandou nude na escola
17:09e alguém vazou
17:10e aquilo fica
17:10em plataformas da meta
17:12quatro, cinco dias
17:13até remover
17:14precisando de muitas
17:15vezes de decisão judicial.
17:16Isso existe.
17:17Como que a gente lida
17:18com a plataforma
17:19permitir que isso exista?
17:20Esse é o debate
17:21de conteúdos criminosos,
17:23manifestamente ilegais.
17:24E teve um documentário
17:25do Pornhub
17:26que é um dos sites
17:27mais vitados do mundo
17:28de pornografia sexual.
17:28Esse documentário é interessante.
17:30Por quê?
17:31Porque estava sediado
17:31no Canadá.
17:32Um país em que as leis
17:34proibiam o vazamento
17:35de conteúdo de estupro
17:36e conteúdos sexuais
17:37de terceiro.
17:38E muitas vítimas
17:39reclamando,
17:40falou, meu vídeo está lá.
17:41E depois de uma cadeia
17:42de uma manifestação
17:43absurda no país
17:44em que eles tiveram
17:45que bloquear
17:45o pagamento
17:46de cartão de crédito
17:47junto com as bandeiras,
17:4880% do site
17:50foi removido de conteúdo.
17:51Ou seja,
17:52eles não faziam
17:52o que deviam fazer.
17:53E depois do que aconteceu
17:54eles fizeram.
17:55Eu acho que a gente
17:55está vivendo esse momento
17:56no Brasil.
17:57A gente quer
17:58a liberdade de expressão
17:58e está preocupado
17:59em ter jabutis
18:00e uma demanda
18:02inclusa nesses PLs
18:03para censurar.
18:04Ou para o governo
18:05cuidar da narrativa.
18:06Isso é perigoso.
18:07Por isso que a gente
18:08tem que debater
18:08e por isso que esse debate
18:09é muito positivo.
18:11Mas que alguma coisa
18:12vai precisar mudar
18:12porque a internet
18:13está um problema.
18:14Essa é a minha opinião
18:15concreta.
18:17Que a gente tem muita coisa
18:18que é manifestamente legal
18:19no ar.
18:19Isso a gente vai ter que fazer
18:20uma coisa.