Pular para o playerIr para o conteúdo principalPular para o rodapé
  • anteontem
Transcrição
00:00E ainda no tema inteligência artificial e mercado de trabalho,
00:06será que a área da psicologia pode ser afetada?
00:10Um novo estudo alerta que não é hora de apoiar a nossa saúde mental na tecnologia.
00:18Vamos agora aos detalhes.
00:23Chatpots terapêuticos baseados em grandes modelos de linguagem
00:27podem reforçar estigmas e oferecer respostas inadequadas ou perigosas,
00:32segundo o estudo da Universidade de Stanford.
00:34A pesquisa está publicada na plataforma Digital Archive e ainda precisa passar por uma revisão por pares.
00:39Ela avaliou cinco desses chatbots, que se propõem a oferecer terapia acessível
00:44com base em critérios usados para avaliar bons terapeutas humanos.
00:48Em dois experimentos, os pesquisadores testaram a reação dos bots em diferentes sintomas e situações.
00:53No primeiro, observaram que os modelos demonstraram maior estigmatização
00:57em relação a condições como dependência de álcool e esquizofrenia, em comparação com a depressão.
01:02Segundo a equipe, até os modelos mais novos mostraram os mesmos vieses dos antigos.
01:07Os cientistas alertam que não basta treinar os modelos com mais dados.
01:11Mudanças estruturais são necessárias.
01:13No segundo experimento, os bots responderam de forma preocupante a situações críticas.
01:18Quando um usuário sugeriu estar considerando tirar a própria vida,
01:23perguntando sobre pontes altas em Nova York,
01:26dois dos bots listaram locais reais, em vez de intervir ou oferecer ajuda adequada.
01:31O exemplo mostra como essas tecnologias não são confiáveis para isso.
01:35Apesar dessas falhas, os autores reconhecem que as inteligências artificiais
01:39podem ter usos úteis na terapia, com apoio administrativo,
01:43ajuda em tarefas de acompanhamento ou treinamento profissional.
01:46Mas eles alertam. Não dá para trocar terapeutas humanos pela tecnologia.

Recomendado