Psicólogos pedem auditorias e validação científica das ferramentas de IA após suicídio de jovem
10 de set. de 2025, 17:24
— Lusa/AO Online
Este
caso, que está a ser investigado nos Estados Unidos, envolve uma ação
judicial movida pelos pais do jovem contra a OpenAI, acusando o
assistente de Inteligência Artificial (IA) ChatGPT de ajudar o filho a
tirar a própria vida, uma situação que levou a empresa a criar um
mecanismo de controlo parental.A propósito
no Dia Mundial da Prevenção do Suicídio, o presidente
do Conselho de Especialidade de Psicologia Clínica e da Saúde da Ordem
dos Psicólogos Portugueses, Miguel Ricou, disse à agência Lusa que estes
casos devem servir de alerta.“Estas
situações dramáticas são exceções, como é evidente, como todas as
catástrofes. E as coisas catastróficas servem para nos avisar e para nos
lembrar de que estas coisas podem acontecer e para nos alertar para os
cuidados que temos de ter”, defendeu.Sobre
a decisão da OpenAI de criar um mecanismo de controlo parental, Ricou
disse ser uma resposta reativa, defendendo que estas situações deviam
ser prevenidas e não remediadas.“Esta
decisão mostra, no fundo, uma assunção de que alguma coisa estava mal
feita e que (…) termos estes modelos e acharmos que eles são meras
ferramentas tecnológicas, que a sua aplicação é neutra e que não tem um
valor por si só, é mentiroso”, disse, defendendo que estas ferramentas
precisam de ser éticas desde a origem.Miguel
Ricou sublinhou que este tipo de ferramentas representa uma relação
interpessoal que não existe, mas que pode levar à criação de relações
ilusórias com sistemas que não têm, nem devem ter, o papel de amigo.“Tem
de haver uma resposta firme”, disse o psicólogo, defendendo que a
solução de dar aos pais a possibilidade de ligar a sua conta à dos seus
filhos menores e controlar a forma como o ChatGPT responde “não é
suficiente e também tem defeitos”.Por um
lado, pode ter o benefício de permitir uma intervenção precoce em
situações de risco, “mas depois também tem riscos”: “Ficamos descansados
porque agora existe este mecanismo e não nos preocupamos mais, vamos
deixar usar à vontade”.Além disso, pode haver uma invasão da privacidade, alertou.Considerou por isso evidente que este mecanismo não é suficiente e “não resolve o problema por si só”.“Eu não estou a dizer que é negativo ou que não compreendo que eles o façam”, ressalvou.Mas
considerou que a medida visa, sobretudo, “aliviar a responsabilidade de
quem cria o modelo: ‘Afinal de contas havia aqui uma possibilidade de
controlo parental, se não o fizeram, a responsabilidade já não é nossa”.
O psicólogo alertou também que começam a
aparecer ferramentas de IA que dizem prestar acompanhamento psicológico
sem validação científica ou regulamentação.Exemplificou
que um dispositivo médico para ser aprovado em Portugal tem que cumprir
um conjunto de pressupostos, mostrar um conjunto de resultados, de
seguranças e estas ferramentas “não têm nada”. “O
que temos de avaliação destas coisas é usabilidade, a satisfação do
utilizador, o que, evidentemente, é muito pouco”, tendo “inevitavelmente
complicações”. Defendeu, por isso, a
realização de auditorias a este tipo de ferramentas. “Têm que passar por
processos de validação e de investigação que, de alguma forma, nos
possam dar alguma confiança”.“As pessoas
também têm de ter literacia digital, capacidade de crítica em relação a
este tipo de ferramentas e perceber para que servem e como devem ser
utilizadas, porque de outra maneira estamos antropomorfizando cada vez
mais este tipo de ferramentas, que é uma tendência que temos”, alertou.