Startup usa adolescentes suicidas para testar chatbot de redes sociais

Startup Koko está a ser duramente criticada por usar adolescentes com tendências suicidas para uma experiência.

Startup usa adolescentes suicidas para testar chatbot de redes sociais

Entre agosto e setembro do ano passado, a startup Koko – organização sem fins lucrativos de saúde mental – recrutou utilizadores com idades entre 18 e 25 anos, fizeram publicações em várias redes sociais – Facebook, Discord, Tumblr e Telegram – com palavras como “depressão” a “suicida”. Acabaram, sem qualquer aviso prévio (re)direcionados para um chatbot. De acordo com a descrição do estudo, sempre que o algoritmo detetou pessoas a usar linguagem “relacionada com crise”, foram reencaminhadas para a própria plataforma da Koko. Aí, foram apresentados os termos de serviço que explicavam que os dados poderiam ser usados para fins de pesquisa.

Leia depois
Como a Inteligência artificial vai alterar as nossas vidas
Educação, segurança e emprego serão as áreas das nossas vidas que mais alterações irão sofrer com o desenvolvimento da inteligência artificial (IA). (… continue a ler aqui)

GIF de um gato

O chatbot colocou a seguinte questão: “Com o que é que te estás a debater?”. Se a resposta indicasse que corriam risco, eram enviados para o chamado “fluxo de crise” e questionados se estavam a ter pensamentos suicidas, auto-mutilação, distúrbio alimentar, abuso ou outro tipo de distúrbios. Com base nas respostas, os jovens eram  atribuídos aleatoriamente a um de dois grupos. Um deles, de controlo, recebeu o número de uma linha direta de crise. O outro recebeu uma “Intervenção aprimorada em sessão única de um minuto para crise”, um questionário com intersticiais com um GIF de um gato e pedia que identificassem gatilhos e estratégias para lidar com as crises de saúde mental, revela a Vice.

Os utilizadores foram então questionados sobre os motivos que os perturbavam, o que podiam fazer para lidar com isso, e com quem podiam falar sobre o assunto. No final, foi-lhes dado um “plano de segurança”, tendo-lhes sido pedido que fizessem um print do ecrã para se lembrarem a quem poderiam ligar em caso de emergência de saúde mental. Nesta página, foram também dadas informações sobre como aceder a uma linha direta de crise. O objetivo desta investigação era estudar a eficácia deste tipo de intervenção.

“Completamente, terrivelmente anti-ético”

Porém, a experiência levanta várias questões éticas. Em primeiro lugar, os participantes foram privados de uma série de proteções relacionadas com a sua segurança e privacidade. Em segundo lugar, normalmente, qualquer estudo que envolve pessoas obriga a que haja supervisão de um conselho, informando os participantes dos riscos e benefícios, indicando contactos para perguntas sobre a investigação. É também necessário assinar um formulário de consentimento.

“Completamente, terrivelmente anti-ético. Brincar de maneira experimental com intervenções não comprovadas em pessoas potencialmente suicidas é simplesmente horrível”, disse Arthur Caplan, professor de bioética na Universidade de Nova Iorque. Ainda assim, o fundador da Koko, Rob Morris, defendeu o estudo, salientando que as empresas de comunicação social não estão a fazer o suficiente pelos utilizadores em risco e que procurar o consentimento informado dos participantes poderia fazer com que não participassem.

Junte-se a nós no Instagram

Impala Instagram

Mais

RELACIONADOS