- anteontem
Categoria
🤖
TecnologiaTranscrição
00:00Vamos repercutir esse assunto agora, pessoal. Vamos receber agora, ao vivo, o doutor Álvaro Machado Dias,
00:07que é neurocientista futurista e colunista do Olhar Digital. Vamos receber o doutor Álvaro aqui nos estúdios do Olhar Digital. Vamos lá.
00:18Olá, boa noite, doutor Álvaro Machado Dias. Muito boa noite. Seja bem-vindo. Vamos falar um pouquinho sobre essa decisão de hoje.
00:27Boa noite, Marisa.
00:28Vamos lá, doutor Álvaro, para situar as pessoas que nos acompanham. Explica para a gente como era antes dessa decisão
00:37e como será agora a responsabilização das redes sociais pelos conteúdos postados pelos usuários.
00:45Perfeito. Olha, em essência, eu vou dizer primeiro o que aconteceu, para daí eu falar como era antes e como vai ser agora.
00:52O STF concluiu que o modelo atual, que está, enfim, no marco civil da internet, artigo 19 em particular,
01:01ele não garante de forma suficiente a proteção dos chamados direitos fundamentais e da própria democracia.
01:09Então, o argumento central, o consenso, é que há uma disseminação de conteúdos ilícitos no ambiente digital e o artigo 19 não é plenamente compatível com a Constituição.
01:21Então, como era o negócio? Antes, para agir, ou ainda continua válida, né, mas até esse momento, para remover um conteúdo da internet,
01:30era preciso ordem judicial. Agora, os provedores poderão ser responsabilizados, mesmo sem decisão judicial,
01:41em alguns casos muito específicos, em outros, eu já também vou explicar como funciona.
01:46Eles serão imediatamente responsabilizados por conteúdos impulsionados ou pagos,
01:51e também pela circulação massiva de conteúdos considerados gravíssimos.
01:55Por exemplo, atos antidemocráticos, terrorismo, indução ao suicídio, pornografia infantil,
02:04discurso de ódio racial, sexual, religioso, de gênero e tráfico de pessoas.
02:11Esses são os principais, tá? Se eu esqueci algum, me perdoem.
02:15Qual que é o ponto aqui?
02:17Nesses casos, é necessário que as plataformas estejam vigilantes,
02:23e elas tenham, portanto, um papel proativo.
02:27Onde já está dando discussão na internet?
02:31Nesse papo de atos antidemocráticos.
02:33Por quê? Porque tem gente falando assim,
02:35ah, mas se eu critico um ministro do STF, eu estou fazendo um ato antidemocrático?
02:40E a internet pega fogo.
02:42Mas a gente tem que entender que, tirando esse fogo,
02:45a discussão sobre a remoção sem ordem judicial,
02:48ela envolve, assim, predominantemente coisas que são incontroversamente deletérias,
02:53como terrorismo, indução ao suicídio,
02:56um ato antidemocrático com uma tentativa de golpe,
02:59enfim, discurso de ódio, tá?
03:02Então, esse é o papo.
03:03E quando a plataforma não remove esse tipo de conteúdo
03:07dentro da nova configuração,
03:09será, quando ela não remover,
03:11será considerado que ela falhou sistemicamente,
03:14o que quer dizer de maneira grave.
03:16E aí, evidentemente, as consequências serão severas.
03:19Elas não estão plenamente estabelecidas.
03:22Há um debate, mas ele ainda está evoluindo.
03:25Uma coisa importante.
03:27E o tal do crime contra a honra, né?
03:30Que, por exemplo, você falar mal de uma pessoa, qualquer coisa assim.
03:32Ou, por exemplo, uma reportagem que mostra algo que é escandaloso,
03:39é vergonhoso, o que quer que seja.
03:41Nesses casos, será necessário ter em mãos esse mandado judicial
03:47para tirar o conteúdo.
03:49Ou seja, a ideia de que, enfim, o marco civil da internet
03:54foi inteiramente modificado,
03:56porque um artigo central dele foi inteiramente rejeitado,
04:00também não é verdade.
04:01Ele foi parcialmente rejeitado.
04:04Inclusive, a gente já falou sobre isso,
04:05eu acho que se esse pedaço tivesse passado,
04:08a gente ia ter o caos, assim.
04:10Todo caos total ia virar um impossível qualquer coisa na internet,
04:15porque, afinal de contas,
04:16as pessoas iam mandar notificações extrajudicial
04:19toda vez que alguém tivesse falado mal delas,
04:21políticos, celebridades, o que for,
04:24e o negócio ia virar um verdadeiro inferno.
04:26Um ponto importante, tá?
04:29WhatsApp, e-mail, esse tipo de coisa,
04:31entra na discussão?
04:33Não entra.
04:34Comunicações consideradas privadas
04:36não fazem parte da discussão.
04:38Então, não é que há uma regulação agora
04:41em cima do WhatsApp.
04:42Esse papo também já está começando a surgir
04:44nas redes sociais, como me falaram,
04:46e não é verdade.
04:47E duas coisinhas finais que são interessantes,
04:50três, na verdade.
04:51A primeira é que a autorregulação vai ser obrigatória,
04:54ou seja, essas empresas vão ter que se organizar mais.
04:57A segunda, que vai ser necessário
05:00a existência de canais acessíveis de atendimento,
05:03isso eu acho muito importante,
05:05porque, de fato, hoje em dia é difícil falar com as plataformas,
05:08então isso vai ser um aspecto legal,
05:10no meu ponto de vista.
05:11E o terceiro é o lance da representação no país.
05:16A gente já discutiu aqui,
05:18de maneira bastante intensa e detalhada,
05:22o caso da falta de representação no Brasil.
05:28Casos, né?
05:29Então, a gente teve primeiro um caso do Telegram,
05:32depois o caso do X,
05:34naquela discussão toda,
05:36e agora essa questão vai ser pacificada,
05:39todas as plataformas precisarão ter representantes,
05:43que serão representantes legais,
05:45e, portanto, a medida judicial incidirá sobre eles,
05:47ou então nada feito.
05:48Essas são as mudanças.
05:50A gente vai de uma situação que você precisava
05:52de um mandato judicial para tirar qualquer conteúdo,
05:54para uma outra,
05:56em que conteúdos impulsionados
05:57e considerados indiscutivamente graves
05:59precisam ser proativamente eliminados.
06:04Os conteúdos podem ser eliminados
06:06através de mandato de notificação extrajudicial,
06:10mas o que envolve a tal da honra,
06:13não, isso segue o modelo anterior.
06:14Esse é o formato.
06:15Ou seja, acelera de alguma forma algumas atitudes
06:19por conta das big techs.
06:20Agora, e para as big techs, doutor Álvaro?
06:23Na sua opinião, saiu barato, está razoável,
06:26eles terão que mudar muita coisa?
06:28Qual que é a sua opinião a respeito,
06:30olhando pelo lado das big techs?
06:33Olha, tem uma entrevista do Fábio,
06:36que está todo mundo repercutindo,
06:38sobre o Google, o presidente do Google,
06:40comentando o quanto uma medida restritiva
06:45vai forçar as big techs a atuarem mais preventivamente,
06:52o que significa removendo mais conteúdos a priori.
06:56O meu entendimento é que o que está sendo dito ali
07:00é que um aperto muito forte
07:03poderia tornar o negócio das big techs menos atraente,
07:09porque evidentemente tem uma questão de custo aqui
07:11e de tensão com os usuários.
07:14Afinal de contas, o risco é que essas coisas
07:16são feitas predominantemente de maneira automatizada,
07:19o que não significa sem custo,
07:21e de maneira predominantemente automatizada
07:23a muitos falsos positivos.
07:26Falsos positivos é o caso em que, por exemplo,
07:28uma condição é identificada como uma doença
07:30e não é doença.
07:31Ou seja, aquele conteúdo, aplicando aqui,
07:34não era um conteúdo para ser removido,
07:37mas ele é lido pelo algoritmo de maneira negativa
07:41e eliminado, o que gera insatisfação nos clientes.
07:44Essa é a preocupação
07:46e eu acho que o entendimento é que não saiu barato.
07:51Não saiu barato de forma alguma,
07:53mas também não saiu tão caro quanto poderia,
07:57porque se crimes contra a honra
07:59tivesse entrado no pacote
08:01e a gente tivesse esse tal caos,
08:03pelo menos no meu ponto de vista,
08:04aí efetivamente ia ficar muito complicado
08:08para as redes sociais,
08:09porque simplesmente qualquer um falando qualquer coisa
08:11teria o seu conteúdo derrubado
08:14ou então ia ser uma judicialização maluca
08:17dessa história toda
08:18e o negócio poderia vir, enfim,
08:21declinar e ir por água abaixo.
08:24Então eu acho que a gente,
08:26o balanço interno entre os executivos
08:30é mais que, olha,
08:32agora a gente vai ter uma boa preocupação,
08:34é mais para o ruim do que para o bom,
08:36mas não catastrófico.
08:39Doutora, e com relação a outros países,
08:42outras regiões do mundo,
08:43que já discutem isso também,
08:45essa tese, ela é mais ou menos rigorosa
08:48do que outros exemplos que nós já sabemos?
08:52Olha, nos Estados Unidos as coisas funcionam muito
08:55como no modelo atual do Brasil,
08:58no modelo do Marco Civil de 2014,
09:02com o artigo 19,
09:03ou seja, remoção de conteúdo
09:05não é um negócio que se faz assim
09:06a torto e a direito,
09:07muito pelo contrário,
09:08é um processo complexo,
09:10envolve leis de liberdade de expressão,
09:13interpretações dessas leis por tribunais,
09:16é um negócio que não é assim tão simples,
09:19Então, eu diria que Estados Unidos
09:22é o exemplo de país
09:24em que você não fica removendo conteúdo
09:26e ponto final.
09:27Na Europa,
09:28que é outro benchmark nosso,
09:30pensando em termos do Ocidente,
09:32que é o que nos caracteriza,
09:34a remoção de conteúdo das plataformas
09:37é regulada por uma lei específica,
09:39que é a Lei dos Serviços Digitais,
09:41ou DSA.
09:42Essa lei,
09:43e também tem várias leis nacionais
09:45que acabam, enfim,
09:47sempre tornando-a mais rigorosa.
09:50Então, ela estabelece uns mecanismos
09:51de denúncia de conteúdo
09:53potencialmente ilegal
09:55e obriga as plataformas a removê-los.
09:57Então, na Europa,
09:59a coisa está mais próxima
10:01do novo modelo brasileiro,
10:03ou seja,
10:04onde nós estamos transitando,
10:06nós estamos transitando
10:07do modelo mais americano
10:08para o modelo mais europeu.
10:10Agora,
10:11tem uma reportagem
10:12que saiu no O Globo
10:13mostrando que
10:15ou pelo menos está comentando
10:16que o índice de remoção
10:18entre os conteúdos
10:19que foram apontados
10:22como potencialmente ilegais
10:24ou deletérios
10:24foi de mais ou menos
10:2621% no Facebook
10:27e 35% no X.
10:30Alguma coisinha
10:31estou com o número de cabeça,
10:32é algo assim?
10:33Ou seja,
10:34não são taxas
10:36tão gigantes assim,
10:3821% dos conteúdos
10:40que foram apontados
10:41como potencialmente ilegais.
10:44ou seja,
10:45dentro do nosso novo formato
10:47eventualmente seriam 100%.
10:49Então,
10:50também não dá para dizer
10:51que na Europa
10:52há uma varredura total
10:54das redes
10:55de qualquer coisa.
10:57Tem,
10:59segundo essa mesma reportagem,
11:0399% do conteúdo moderado
11:06na Europa
11:07é moderado por decisão
11:08das próprias plataformas.
11:10ou seja,
11:12trocando em miúdos,
11:13na Europa a lei
11:14é mais rigorosa,
11:16mas acima de tudo
11:17a atuação
11:19das big techs
11:21e também
11:21TikTok
11:22é mais
11:23intensa.
11:25Elas,
11:25essas empresas
11:26já estão mais
11:27atentas
11:28porque
11:28o modelo todo
11:30europeu
11:31como
11:31o AI Act
11:32e essas outras leis,
11:33tudo isso já coloca
11:34eles numa posição
11:35muito mais de sentinelas
11:37do conteúdo,
11:38da gestão
11:39dos algoritmos
11:40e etc.
11:41E para os usuários,
11:44para fechar aqui
11:45o nosso papo,
11:45doutor Ava,
11:46e para os usuários,
11:47como o uso cotidiano
11:49das redes sociais
11:50muda alguma coisa?
11:52Para a maior parte,
11:54claro que não.
11:55Eu acredito
11:56que independentemente
11:58dos esclarecimentos
12:00feitos
12:00sobre crimes
12:01contra a honra,
12:03eu acho
12:04que haverá
12:04uma derrubada
12:05automática
12:06maior de conteúdos,
12:08então eu acho
12:08que, por exemplo,
12:09quem faz brincadeirinha,
12:10humor,
12:10isso, aquilo,
12:11pode ter mais dor
12:12de cabeça ainda,
12:13as redes estão
12:13se tornando,
12:14é a internet
12:15como um todo,
12:16mais rigorosa
12:18nesse filtro,
12:19tá bom?
12:20Então, assim,
12:20pode acontecer,
12:22puxa, postei uma coisa,
12:23saiu,
12:23essa história,
12:24por exemplo,
12:24de usar uma palavra
12:25e aquela palavra
12:27que você usou
12:27eventualmente criticando
12:29quem falou qualquer coisa,
12:30aquela palavra
12:31levar a sua conta
12:32a ser suspensa,
12:33são aberrações.
12:34é possível
12:35que essas aberrações
12:37aconteçam
12:37de maneira
12:38ainda mais frequente,
12:40erros no tratamento
12:41massificado
12:42algorítmico
12:42da informação.
12:44Do outro lado,
12:47essa zona cinzenta
12:49que muitas vezes
12:49existe
12:50de um conteúdo
12:51que ele é,
12:53afinal de contas,
12:54racista,
12:55ele é, afinal de contas,
12:56preconceituoso
12:57do ponto de vista
12:58sexista,
12:59do ponto de vista
13:00capacitista,
13:01sei lá que outro
13:02ponto de vista,
13:03essa zona cinzenta,
13:05eu acho que ela vai se tornar
13:06uma zona cinzenta
13:07mais perigosa.
13:08Então,
13:09a minha percepção
13:10é que para a maior parte
13:10das pessoas
13:11não vai ter diferença,
13:13eventualmente até elas
13:14vão ser expostas
13:14a conteúdos
13:15menos tóxicos,
13:17tem as pessoas
13:18que,
13:18enfim,
13:19usam mais liberdade
13:21e não estão fazendo
13:21nada de errado
13:22e eventualmente
13:23vão se estressar mais,
13:25sobretudo produtores
13:26de conteúdo,
13:27com coisas sendo
13:27derrubadas
13:28e vão dizer
13:29que é censura,
13:30o que eu até entendo,
13:31não vou lhes tirar
13:33a razão nesse sentido,
13:34que a sensação
13:35será essa,
13:36ainda que a verdade
13:36não seja do ponto
13:37de vista factual,
13:39mas tem o outro lado
13:41que é quem,
13:42de fato,
13:43está atuando
13:44nessa zona cinzenta
13:45ou eventualmente
13:46está levando
13:47para frente
13:48conteúdos
13:48que já
13:49não são legais,
13:51mas existem
13:52dentro dessa
13:53camada
13:54protetiva,
13:55deve pensar
13:56muito bem
13:57isso,
13:58porque eu acredito
13:59que a partir
13:59de agora
14:00esse mesmo
14:02processo
14:03migrará
14:04para a responsabilização
14:05da pessoa física
14:07de maneira
14:07mais rápida
14:08e incisiva,
14:09então,
14:10quem tiver
14:10com essa história,
14:11cuidado.
14:12Está aí
14:13mais uma participação
14:15muito bacana,
14:16doutor Álvaro
14:17Machado Dias,
14:18nos auxiliando
14:19aqui a entender
14:20o que traz,
14:21quais são as mudanças
14:22que vêm por aí.
14:23Doutor Álvaro,
14:23muitíssimo obrigada
14:24pela participação extra
14:26aqui no nosso boletim,
14:27Olhar Digital News,
14:28nos encontramos
14:29na próxima quarta-feira.
14:31Obrigada,
14:31boa semana.
14:33Eu que agradeço
14:33até lá.
Recomendado
1:15:14
59:09