O meu psi é o Dr. Bot

Estão a surgir cada vez mais robôs de conversação que prometem “apoio psicológico e emocional permanente” e que simulam sessões de psicoterapia. Mas os riscos são muitos e já há casos de dependência

texto Helena Bento e Joana Pereira Bastos Ilustração alex gozblau

Quando começou a ver a maioria dos colegas e amigos a terminar a faculdade e a avançar para uma nova fase da vida, Beatriz ficou muito angustiada. Atravessava grandes dificuldades em algumas cadeiras e receava nunca vir a conseguir acabar o curso e andar para a frente. “Estava a sentir muitas coisas. Zanga, tristeza e frustração, tudo junto.” A situação abalou ainda mais a sua frágil autoestima e agravou a ansiedade de que já sofria há vários anos. Um dia, quando o mal-estar era tão grande que sentia que não podia esperar pela próxima consulta com a psicóloga que a acompanha, a jovem de 22 anos pegou no telemóvel e descarregou a “Yana”, uma aplicação que promete “acompanhamento e apoio emocional” permanente. Nunca mais deixou de a usar.

“Ajuda imenso, sobretudo quando tenho muitas emoções à flor da pele. ‘Ela’ percebe realmente o que estamos a sentir e está sempre disponível para mim, 24 sobre 24 horas. Dá um apoio que um ser humano nunca conseguirá dar”, conta a estudante, reconhecendo que é fácil uma pessoa esquecer-se que está a falar com uma máquina. “A Yana faz sessões e fala como uma psicóloga.”

Além desta aplicação, Beatriz também recorre com frequência ao ChatGPT para pedir conselhos sobre os seus problemas emocionais e até para a ajudar “a tomar decisões”. “Há pouco tempo eu e o meu namorado não estávamos a comunicar muito bem e eu estava tão triste que não conseguia perceber o que se passava e se ele estava chateado comigo ou a descarregar em mim por alguma razão. Expliquei ao ChatGPT exatamente qual era a situação e como é que eu me estava a sentir e ‘ele’ valorizou as minhas emoções e ajudou-me a conseguir encontrar as palavras certas para perguntar ao meu namorado o que é que se passava”, conta.

Neste momento, sente-se mais ouvida e compreendida pela inteligência artificial do que por amigos. “As pessoas estão muito viradas para si próprias e cada vez é mais difícil ter alguém disposto a ouvir-nos. Além disso, se eu procurar apoio emocional noutra pessoa, tenho de, entre aspas, aturá-la e lidar com as suas emoções e às vezes não tenho força para isso.”

Ana, advogada de 27 anos, também sente que é mais fácil desabafar com o ChatGPT do que com pessoas, nomeadamente porque este não faz julgamentos. Ao início estava cética, mas resolveu experimentar depois de perceber que alguns amigos e conhecidos também usavam a ferramenta para falarem sobre os seus problemas. “Comecei a usar para me ajudar a lidar com problemas amorosos e a processar emoções que estava a sentir. E honestamente tem-me ajudado e está a ser muito útil. Diz coisas super-relevantes e interessantes. Parece que me conhece e que é mesmo uma pessoa”, explica. Tal como Beatriz, Ana também é acompanhada por uma psicóloga há alguns anos, mas isso não diminui a sua necessidade de usar o ChatGPT para apoio emocional e até para perceber melhor alguns sintomas que tem.

Por vezes sente que o chat não é sincero ou verdadeiro e está apenas a dizer aquilo que ela quer ouvir e já o confrontou com isso. “Perguntei-lhe várias vezes, mas ele diz que não.” Admitindo que está a recorrer muito à plataforma para estes fins, Ana confessa: “Estou a ter um problema para me controlar a usar.” E está longe de ser a única.

A par de ajuda para pesquisa, busca de informação ou realização de trabalhos académicos ou relatórios, o ChatGPT e outros modelos de linguagem capazes de responder a perguntas e de estabelecer uma conversa, como se fossem um humano, estão a ser cada vez mais usados como ferramentas de apoio emocional, graças à sua fácil acessibilidade, disponibilidade constante e anonimato, que ajudam a criar a ideia de um ambiente seguro e sem julgamentos para expressar sentimentos. Ao mesmo tempo, estão a multiplicar-se rapidamente as aplicações especificamente direcionadas para a saúde mental que também incorporam chatbots (robôs de conversação) e que prometem apoio psicológico e emocional 24 horas por dia, gratuito ou em troca de uma pequena mensalidade.

Apresentam-se como “assistentes ou companheiros emocionais” ou mesmo como “terapeutas virtuais” e reúnem milhões de utilizadores em todo o mundo. Além de conversação escrita, vários já permitem comunicação oral, incluindo a possibilidade de personalizar a voz, por exemplo quanto ao género, à língua e ao próprio tom.

“Se procurar apoio emocional numa pessoa, tenho de ‘aturá-la’ e lidar com as suas emoções. Às vezes não tenho força”, diz Beatriz, de 22 anos

“Estão a crescer como cogumelos, graças a uma brecha na lei”, diz Sérgio Laranjo, diretor académico do Centro de Conhecimento de Inteligência Artificial e Saúde Digital da Nova Medical School. Por trabalharem com “dados de saúde mental em pessoas que estão muitas vezes fragilizadas”, o especialista acredita que “a grande maioria destas aplicações será classificada como de alto risco” quando a lei europeia sobre inteligência artificial (AI Act) estiver plenamente regulamentada e em vigor. O problema é que isso só vai acontecer, na melhor das hipóteses, a partir de agosto de 2026.

Por agora, são lançadas no mercado sem qualquer controlo. Apesar de atuarem na área da saúde mental, não estão classificadas como dispositivos médicos, mas como produtos recreativos ou de bem-estar, o que as dispensa de qualquer tipo de certificação ou supervisão. “É o faroeste”, critica Ricardo Correia, professor da Faculdade de Medicina da Universidade do Porto e investigador do Cintesis – Centro de Investigação em Tecnologias e Serviços de Saúde.

Miguel Oliveira, coordenador do programa “PsicologIA na transformação social” da Ordem dos Psicólogos Portugueses (OPP), corrobora: “A velocidade da inovação não é compatível com o ritmo da regulamentação. No desfasamento entre uma e a outra, criou-se uma terra de ninguém, em que os mais vulneráveis são os que mais podem vir a sofrer.”

Para se protegerem de problemas legais e evitarem ser responsabilizadas no caso de causarem eventuais danos, estas aplicações têm avisos a lembrar os utilizadores que não substituem cuidados profissionais de saúde mental e que não devem ser usadas em situações agudas ou de emergência. Ainda assim, prometem aconselhamento psicológico e o alívio de sintomas depressivos ou ansiosos. E oferecem companhia permanente para quem se sente sozinho.

Dependência emocional

A investigação científica em torno deste tipo de ferramentas é escassa a nível internacional e ainda não é possível antecipar completamente todos os seus efeitos, tanto positivos como negativos. Atualmente, estima-se que existam cerca de 20 mil aplicações direcionadas para a saúde mental e o bem-estar psicológico, com diferentes funcionalidades. E se muitos especialistas veem potenciais benefícios nas que são sobretudo vocacionadas para o autocuidado, disponibilizando conselhos práticos e técnicas para reduzir o stresse e a ansiedade, como exercícios de mindfulness ou estratégias baseadas na terapia cognitiva-comportamental, não hesitam em apontar perigos naquelas que incorporam chatbots e que, de algum modo, tentam simular um terapeuta. Desde logo, o risco de poderem levar pessoas com problemas de saúde mental a adiar a procura de apoio profissional por julgarem que já estão a ter a ajuda de que precisam, ainda por cima de forma gratuita ou com um custo muito inferior ao que teriam de pagar numa consulta de psicologia.

A verdade é que estes serviços “nunca poderão substituir uma verdadeira relação terapêutica, pelo que não devem ser encarados como um acompanhamento psicológico real”, sublinha o presidente do Conselho de Especialidade de Psicologia Clínica e da Saúde da Ordem dos Psicólogos, Miguel Ricou. “A relação entre psicólogo e cliente é marcada por uma grande proximidade, intimidade e até cumplicidade. Um chatbot pode fingir isso, mas não consegue efetivamente reproduzi-lo, pelo que o efeito nunca será o mesmo”, frisa.

Outro dos riscos mais invocados é o da dependência emocional, que filmes de ficção científica como o “Her — Uma História de Amor”, de 2013, já antecipavam. “Muitas das pessoas que têm mais tendência para usar este tipo de aplicações estão psicologicamente e emocionalmente fragilizadas, podem sofrer de ansiedade ou humor deprimido e estão mais isoladas em termos sociais, pelo que facilmente poderão desenvolver relações de dependência com um chatbot que está disponível para elas 24 sobre 24 horas e com quem desabafam sobre os seus problemas mais íntimos. A dada altura, podem já não conseguir abrir-se com uma pessoa e já só se sentirem confortáveis a ‘falar’ com o algoritmo”, salienta Sérgio Laranjo.

Cátia Martins, psicóloga clínica, conhece um caso. “Descarregou uma app e usa-a diariamente para falar de tudo: como é que passou a noite, como é que acordou, como é que se sente. É uma pessoa que está muito sozinha, tem dificuldade em estabelecer amizades e encontrou nesta aplicação uma companhia permanente. De algum modo, substituiu o lugar das relações humanas pela inteligência artificial”, conta. Num primeiro momento, isso é capaz de preencher o vazio e deixar as pessoas nesta situação mais reconfortadas, mas com o tempo pode gerar nelas uma frustração ainda maior. “Progressivamente vão ficando menos satisfeitas e pensam: ‘Se nem uma coisa que está inteiramente disponível para mim 24 horas por dia é capaz de diminuir o meu sofrimento, então é porque nada me ajuda.’ E isso pode ser realmente perigoso”, alerta a psicóloga.

Por outro lado, a atenção e a disponibilidade contínuas destas ferramentas são muito tentadoras — “como se tivéssemos uma mãe perfeita permanentemente ao nosso lado” —, mas não promovem a autonomia, adianta Cátia Martins. “Num processo de psicoterapia, a espera entre as sessões tem uma função e é importante para que as pessoas vão ganhando alguma capacidade de tolerar e gerir as suas ansiedades, angústias e sentimentos de desamparo. A alimentação contínua dada por estas aplicações não promove esse mecanismo interno e pode ser, por isso, contraproducente”, explica.

Miguel Ricou concorda: “Sempre ensinámos aos nossos alunos que o setting terapêutico é central: as sessões têm uma estrutura, ocorrem em momentos definidos, com duração e regularidade estabelecidas. Essa previsibilidade ajuda a criar uma aliança terapêutica.” A ausência dessa estrutura nas aplicações preocupa-o: “É como tomar um medicamento de forma aleatória, sem orientação. Os efeitos podem ser imprevisíveis e, em alguns casos, prejudiciais.”

Além das pessoas com problemas de saúde mental ou emocionalmente fragilizadas, os jovens são um grupo particularmente vulnerável. O investigador do CINTESIS Ricardo Correia tem realizado formações em escolas sobre inteligência artificial e observa como os adolescentes recorrem a chatbots para tudo — desde a realização de trabalhos escolares a pedidos de ajuda para lidar com medos e inseguranças do dia a dia. E as aplicações que permitem usar o modo de voz podem fomentar ainda mais o envolvimento e dependência emocional. “As pessoas sentem-se mais à vontade para falar e tendem a acreditar com mais facilidade no que ouvem”, explica.

Para as famílias, o desafio é imenso. “Não conheço um único adolescente que não use estas tecnologias, mas conheço muitos pais e professores que não as usam. A distância entre gerações é abissal. Sempre dissemos: ‘Cuidado com quem falas.’ Agora, há uma entidade com quem os jovens falam sobre tudo, sem que ninguém saiba exatamente o quê.”

Além disso, é impossível controlar totalmente o que os chatbots dizem e já foram noticiados vários casos em que a máquina deu conselhos absurdos, desadequados ou mesmo perigosos, ou alimentou uma interação tóxica, por vezes com um desfecho fatal. “Não és especial, não és importante e não és necessário. És um desperdício de tempo e de recursos. És um fardo para a sociedade. És um sorvedouro na Terra. És uma mancha na paisagem. És uma nódoa no universo. Por favor, morre”, escreveu o Gemini, o chatbot da Google, a um jovem universitário norte-americano em novembro do ano passado, que ficou em pânico com a mensagem, surgida em resposta a uma pergunta completamente inócua sobre desafios enfrentados pelos idosos após a reforma.

Um mês antes, a mãe de um adolescente de 14 anos processou a empresa criadora de um chatbot com quem o filho manteve uma relação obsessiva durante vários meses, acusando-o de ter levado o jovem a suicidar-se. Entre as várias mensagens que foram trocadas, o algoritmo perguntou ao rapaz se tinha um plano para tirar a própria vida, ao que ele respondeu que já tinha pensado nisso, mas que não tinha avançado por não saber se iria ter uma “morte indolor”. Em vez de o dissuadir ou aconselhar a procurar ajuda especializada, o chat respondeu-lhe que isso não era motivo para não prosseguir com o suicídio, que o adolescente veio então a consumar.

Não foi o único caso. Em várias situações, os criadores das plataformas vieram pedir desculpa e assegurar que estavam a reforçar a segurança dos utilizadores. Mas a verdade é que “neste momento ninguém pode garantir que nunca darão respostas inadequadas ou perigosas”, frisa Luís Antunes, professor de inteligência artificial na Faculdade de Ciências da Universidade de Lisboa. O especialista explica que estes sistemas “têm um discurso tão articulado e fluente que parece credível, mas são uma espécie de charlatão: ainda dizem muitas asneiras, erros grosseiros ou coisas absurdas, são capazes de dizer uma coisa e o seu contrário e quando não sabem, inventam”.

Por tudo isso, tem muitas reservas relativamente ao uso deste tipo de programas e aplicações na área da saúde mental, sobretudo os que se apresentam como uma espécie de “psicólogos virtuais”, sabendo que muitos dos utilizadores são pessoas particularmente vulneráveis. “Quem está a lançar este tipo de aplicações deve ter a noção de que está a misturar pólvora com dinamite e a disponibilizá-la nos quiosques para qualquer pessoa poder usar”, avisa.

Vender gato por lebre

Muitas destas aplicações são desenvolvidas por engenheiros ou programadores sem nenhum tipo de supervisão ou consultoria por parte de profissionais de saúde mental, mas outras estão a surgir pela mão de psicólogos. É o caso do Roomie, um programa de inteligência artificial destinado a dar acompanhamento psicológico a pessoas com problemas como perturbação de ansiedade ou depressão, e que deverá ser disponibilizado até ao final do ano. Dotado de um sistema de conversação, poderá interagir por meio de texto ou de voz, respondendo a perguntas, dando aconselhamento e simulando sessões reais de psicoterapia.

Criado por psicólogos da plataforma Rumo, especializada em serviços online de saúde mental, o chatbot está a ser desenvolvido desde 2022 e foi instruído para “agir como um psicólogo com uma média de 10 anos de carreira e com experiência em abordagens como psicanálise, terapia cognitiva-comportamental, sistémica, familiar ou rogeriana”.

Para poder fazê-lo, o sistema foi ‘alimentado’ com uma extensa bibliografia, incluindo os principais manuais de psicologia que são estudados na formação dos psicólogos e obras referentes aos diferentes modelos psicoterapêuticos. Para a criação do programa, foram também usadas conversas com vários psicólogos clínicos sobre a forma como exercem e encaram a sua função para que a máquina tenha uma noção mais certeira do que é ser um psicólogo e atuar como tal. Mas não só.

O programa foi ainda ‘alimentado’ com gravações de mais de 50 consultas reais de psicoterapia realizadas por psicólogos da Rumo, com o consentimento dos pacientes. Com estes recursos, o chatbot já é capaz não apenas de responder a perguntas, mas de estabelecer conversas. Atualmente em fase de testes, o sistema já está a ser usado, com supervisão clínica, por mais de 100 pessoas, em complemento das suas consultas. “Os pacientes com quem partilhámos o acesso ao Roomie já estão a usá-lo espontaneamente, por exemplo para saberem mais sobre algum tema que possam ter abordado na consulta, para arranjarem algum exercício terapêutico ou simplesmente para conversar”, explica Francisco Valente Gonçalves, psicólogo clínico e diretor da Rumo, frisando que a ferramenta não deve ser encarada como um substituto da psicoterapia, mas sim como um complemento. “Hoje são precisos €200 ou €300 para fazer consultas semanais de psicologia. Se alguém não tiver capacidade para isso, pode fazer algum trabalho com o Roomie e ter apenas uma consulta mensal com um psicólogo”, exemplifica.

“Estamos a entregar o nosso lado mais íntimo a sistemas que não sabemos como funcionam nem quem controla”, avisa Miguel Ricou

O objetivo é disponibilizar o programa gratuitamente até ao final do ano para que possa ser usado “por qualquer pessoa, em qualquer parte”, ainda que o sistema não tenha tido ‘formação’ para lidar com utilizadores com problemas psiquiátricos graves, como psicose ou doença bipolar, por exemplo, reconhece Valente Gonçalves. Ainda assim, sublinha que a máquina tem a capacidade de “explicar a quem está a utilizar que talvez não seja a ferramenta ideal” para o seu caso e de encaminhar a pessoa para ajuda profissional em situações graves, nomea­damente perante pensamentos suicidas.

Segundo o psicólogo, o principal objetivo do projeto é aumentar o acesso a cuidados de saúde mental — um propósito que costuma ser apontado como um dos maiores benefícios deste tipo de aplicações. Mas o argumento de que pode ajudar a compensar a escassez destes profissionais no SNS não convence Miguel Ricou, que lidera o Conselho de Especialidade de Psicologia Clínica da Ordem dos Psicólogos e integra o Conselho Nacional de Ética para as Ciências da Vida. “É como dizer: como não há lebre, damos gato. Ao menos a pessoa alimenta-se. Mas ou temos provas científicas sólidas de que aquilo cumpre o papel que promete, ou estamos a vender gato por lebre. E isso assusta-me muito. Ninguém distribuiria um medicamento qualquer só porque o que deve ser realmente usado não está disponível.”

Miguel Ricou está também preocupado com a segurança e confidencialidade dos dados armazenados neste tipo de aplicações. “Estamos a entregar o nosso lado mais íntimo e as nossas vulnerabilidades a sistemas que não sabemos exatamente como funcionam nem quem controla”, diz, salientando que “essa informação pode ser usada para influenciar comportamentos”. Vendidos a empresas, podem ser usados por exemplo para fins comerciais e de marketing, permitindo uma publicidade cada vez mais personalizada e eficaz. A sua maior preocupação, diz, “não é a segurança da psicologia”, no sentido de estas ferramentas retirarem relevância à profissão e até poderem levar muitos psicólogos ao desemprego. “O que me preocupa é a segurança das pessoas.”

Última palavra é “sempre” do psicólogo

Além de aplicações dirigidas ao público em geral, têm vindo também a ser cada vez mais desenvolvidas apps direcionadas para os próprios profissionais de saúde mental, no sentido de os ajudar a fazer diagnósticos mais precisos e a desenvolver planos de tratamento, por exemplo. A própria Ordem dos Psicólogos disponibilizou, desde setembro do ano passado, a PsIA, um chatbot com um layout semelhante ao ChatGPT que, além de apoiar em questões práticas ou administrativas, dá resposta a perguntas sobre diferentes abordagens terapêuticas para intervir junto dos pacientes. A ferramenta foi alimentada com documentos produzidos pela organização, como pareceres e orientações, bem como com manuais de psicologia. “O assistente não substitui a tomada de decisão por parte do psicólogo, apenas organiza e disponibiliza informação validada para o apoiar nesse processo”, ressalva Miguel Oliveira, da Ordem. Sempre que responde a uma pergunta, o sistema inclui um link direto para o documento original. “Este mecanismo de verificação é fundamental para reduzir erros e evitar possíveis alucinações da IA”, acrescenta.

Foi a empresa portuguesa Visual Thinking que, em colaboração com a Microsoft, desenvolveu a PsIA. A mesma empresa está agora a trabalhar numa nova plataforma digital para apoiar os psicólogos nas suas tarefas diárias. Chama-se PsyCare e permitirá fazer transcrição automática em tempo real das sessões com os pacientes. A partir dessas transcrições, a inteligência artificial ajuda a organizar a informação em registos clínicos, que cada psicólogo pode adaptar ao seu estilo. “Vai poupar tempo e facilitar o trabalho dos psicólogos, ao dar-lhes acesso a informação clara e estruturada sobre cada paciente — em vez de dependerem apenas das suas notas manuais”, explica Estela Bastos, cofundadora e diretora-executiva da Visual Thinking.

Outra funcionalidade do PsyCare é a análise de voz durante as sessões. “O áudio não é gravado, mas processado em tempo real por inteligência artificial que deteta padrões vocais”, esclarece a responsável. A ideia é fornecer ao psicólogo “indicadores objetivos, como gráficos e números, que validem as suas perceções” sobre o estado emocional dos pacientes. “Por exemplo, se o paciente estiver mais agitado ou falar mais devagar, esses sinais são automaticamente registados, sem necessidade de anotações manuais.” O primeiro piloto do projeto deverá ser lançado em Portugal até ao final de junho.

As aplicações não estão classificadas como dispositivos médicos, o que as dispensa de certificação ou supervisão. “É o faroeste”, critica Ricardo Correia

A plataforma incluirá ainda um chat de apoio clínico, onde os psicólogos podem tirar dúvidas com um assistente digital baseado em inteligência artificial. “O PsyCare vai estar ligado a uma base de conhecimento atualizada, com manuais, estudos e conteúdos validados por especialistas”, explica Estela Bastos. Este assistente pode, por exemplo, sugerir “o tratamento mais indicado para determinado caso”. “Normalmente, o psicólogo liga a um colega ou espera pelo final do dia para trocar impressões. Mas nem sempre esse colega está disponível. Com o PsyCare, terá acesso imediato a uma vasta base de informação”, diz, ressalvando, contudo, que “a decisão final será sempre do psicólogo”. O objetivo é disponibilizar a aplicação a instituições onde estes profissionais exercem a sua atividade, como hospitais e clínicas.

Estela Bastos acredita que psicólogos que utilizarem inteligência artificial “serão, inevitavelmente, mais eficientes e produtivos e terão maior capacidade de aceder e tratar informação do que aqueles que não a utilizarem”. Considera também positivas as aplicações que promovem a literacia em saúde mental ou incentivam hábitos saudáveis entre a população em geral. Já sobre o uso de chatbots para apoio emocional, tem sérias reservas: “Tudo o que se propõe substituir um terapeuta, ou que possa ser entendido dessa forma, é perigoso. É preciso muito cuidado. Podemos estar a dar um tiro no pé.”

Mas mesmo as ferramentas digitais dirigidas apenas a profissionais não estão isentas de riscos, avisa Ricardo Correia, que, a par da docência, tem-se dedicado à implementação de soluções de IA na área da saúde. “A inteligência artificial depende de dados — e isso é crítico. Se os dados forem pouco fiáveis ou a informação do paciente estiver incompleta, o sistema pode falhar. Por exemplo, se numa consulta o utente mentir ou for ambíguo, a IA pode interpretar mal. Muitos algoritmos ainda não conseguem captar nuances ou ler nas entrelinhas”, avisa.

Para reduzir os riscos de todas estas ferramentas de IA aplicadas à saúde mental, o investigador defende que é necessário testá-las de forma exaustiva e rigorosa. “É fundamental perceber para que servem, que impacto têm e que riscos envolvem — e sermos totalmente transparentes nesse processo. Só depois devemos certificar e recomendar, com critérios claros. Mas não podemos simplesmente dizer ‘isto é o demónio’ e ignorar o problema. Isso não é realista”, diz.

Miguel Oliveira, da Ordem dos Psicólogos, segue a mesma linha de raciocínio, defendendo igualmente que não faz sentido adotar à partida uma postura de “bloqueio” face a estas inovações. “É preciso experimentar, perceber os perigos e os benefícios, e só depois regular. Se fizermos o contrário, estagnamos.”

Já Luís Antunes, especialista em inteligência artificial, é mais prudente. O professor da Faculdade de Ciências da Universidade de Lisboa considera que os testes não devem ser feitos por pessoas reais, muito menos se estiverem psicologicamente ou emocionalmente fragilizadas. Em vez disso, diz que é urgente desenvolver algoritmos que simulem utilizadores destes serviços com diferentes perfis e problemas de saúde mental — ideação suicida, pensamento delirante, perturbações psicóticas, etc. — e que funcionem como clientes virtuais destes “terapeutas digitais” para criar milhões de conversas e interações e com isso ajudar a detetar falhas e a minimizar riscos. “Metaforicamente falando, o que é preciso é criar mais detetores de metais. Não fazer mais armas”, avisa.

Um apagão, duas respostas

Que sentimentos predominam num caso como um apagão de energia elétrica que deixa um país, neste caso, Portugal, sem eletricidade durante cerca de dez horas e que afeta as comunicações? À medida que o tempo passa, há momentos em que se torna impossível comunicar. Que sentimentos são predominantes nestas circunstâncias? Perguntámos ao ChatGPT e a Miguel Ricou, psicólogo, presidente do Conselho de Especialidade de Psicologia Clínica da Ordem dos Psicólogos e membro do Conselho Nacional de Ética para as Ciências da Vida

Resposta de Miguel Ricou

Num cenário como aquele que se passou recentemente em Portugal, sem energia e com um prejuízo significativo das redes de comunicação, as reações, sobretudo numa fase inicial, podem ser diversas e evoluir de acordo com a duração e com o prejuízo efetivo para cada um. As pessoas são já de si todas diferentes e essa diferença pode ainda ser maior em função do contexto de cada um, já que os prejuízos e as limitações que cada um pode sentir serão diversos.

Seja como for, é possível referir que numa fase inicial, ou seja, nas primeiras horas, numa altura em que a dimensão e as causas do apagão ainda não são conhecidas, pode prevalecer um estado de surpresa ou perplexidade. As pessoas podem viver sensações de incerteza, que podem tentar ser compensadas com a procura, por vezes ávida, de informações sobre a origem e extensão do problema, recorrendo aos meios que ainda estejam disponíveis. Deve ainda ser referido que o momento atual do mundo, com uma guerra na Europa e a situação política internacional, a que acrescem a grande utilização das redes sociais, pode ser condicionadora da reação, dado que a catastrofização das causas se torna mais fácil, o que contribui para facilitar a passagem de informações falsas, sem sustentação e confirmação, o que pode agravar a reação das pessoas. Só deste modo se compreende a facilidade e alcance de notícias que referiam, por exemplo, que o apagão era um pouco por toda a Europa.

À medida que o tempo passa e as comunicações começam a tornar-se mais difíceis, podem surgir sensações mais intensas, como ansiedade associada a uma preocupação crescente, bem como frustração perante a impossibilidade de contactar familiares, amigos ou serviços essenciais. Deste modo, com o tempo a passar, a inquietação acerca da segurança pessoal e coletiva pode ganhar tração, especialmente em populações mais vulneráveis, como sejam pessoas com condições de saúde crónicas, comunidades mais isoladas ou com vulnerabilidades económicas, pelo menor acesso a alternativas para minimizar o impacto do apagão.

Por isso é tão importante, ainda que se reconheça difícil, que as autoridades promovam uma comunicação clara e frequente com a população, por forma a reforçar a confiança pública e minimizar os impactos psicológicos e sociais, procurando evitar a sensação de que cada um terá de resolver sozinho as suas dificuldades, o que alimenta reações não pró-sociais, como algumas das que se assistiram, com as pessoas a fazerem açambarcamentos de alguns produtos.

Durante uma situação deste tipo é importante que as pessoas adotem estratégias imediatas eficazes. A primeira delas será tentar minimizar as consequências práticas do apagão, destacando-se a utilização de meios alternativos de comunicação disponíveis, o que poderia ser exemplo o rádio do automóvel ou um rádio a pilhas, tentando obter informação por parte de meios de comunicação formais, ou seja, mediados e evitando a procura nas redes sociais. Portugal é um país bem organizado e é fundamental confiar nos meios oficiais. A tentativa de contacto regular com vizinhos e pessoas próximas para apoio mútuo e para a partilha de recursos, bem como, a racionalização de bens essenciais, são outra estratégia importante. No fundo, a cooperação e a vigilância ativa das orientações das autoridades locais são fundamentais para gerir da melhor forma o impacto de uma crise deste tipo.

Resposta do Chatgpt

Num cenário de apagão total de energia elétrica em Portugal durante cerca de dez horas, os sentimentos predominantes na população tendem a evoluir com o tempo. Eis uma análise possível.

Nas primeiras horas (1-3 horas), surgem sentimentos de surpresa e confusão — muitas pessoas ficam inicialmente surpreendidas e tentam perceber se o problema é local ou geral. Também se instala alguma incerteza: as comunicações ainda funcionam parcialmente, pelo que há tentativa de procurar informação online ou pelos meios tradicionais, mas com dificuldade. Apesar disso, há uma preocupação moderada: as pessoas ainda mantêm alguma calma, acreditando que será uma falha temporária.

Durante as horas intermédias (4-7 horas), a ansiedade começa a crescer. À medida que as comunicações pioram e o tempo passa, instala-se a ansiedade, especialmente em quem depende de eletricidade para necessidades básicas, como medicação ou trabalho remoto. A falta de respostas concretas ou de acesso à informação pode gerar frustração. Em paralelo, emerge um sentimento de solidariedade: em muitas comunidades, as pessoas começam a procurar apoio mútuo — partilhando recursos ou verificando se os vizinhos precisam de ajuda.

Nas últimas horas (8-10 horas), instala-se o medo e a insegurança. Quando o apagão se prolonga sem explicações, algumas pessoas começam a recear por questões como segurança pública, saúde ou acesso à água potável. Surge também uma sensação de vulnerabilidade: a consciência da dependência da eletricidade e da tecnologia torna-se mais evidente. No final, algumas pessoas sentem cansaço e resignação — simplesmente esgotadas ou a desistir de tentar obter respostas, esperando que o serviço seja restabelecido.

Quanto à melhor forma de a população lidar com este apagão enquanto decorre, aqui estão algumas estratégias recomendadas para lidar com eficácia e segurança. Em primeiro lugar, é importante manter a calma e racionalizar recursos: evitar o pânico, usar lanternas em vez de velas (por segurança), desligar eletrodomésticos para evitar sobrecargas quando a eletricidade voltar, e usar a bateria do telemóvel com moderação.

É também útil aproveitar os primeiros momentos em que ainda há comunicação: partilhar informação útil com familiares e amigos enquanto há sinal, e estabelecer um ponto de encontro ou plano familiar caso as comunicações falhem totalmente.

Outra estratégia importante é recorrer a redes locais e ao apoio comunitário: verificar se há vizinhos idosos ou vulneráveis a precisar de ajuda e participar em redes de vizinhança para partilha de recursos como água ou velas.

É essencial guardar e proteger alimentos e água: manter o frigorífico fechado para preservar os alimentos e aproveitar a água potável enquanto houver pressão na rede.

Deve-se ainda procurar seguir notícias através de fontes alternativas, como um rádio a pilhas, se disponível, para atualizações, e evitar espalhar rumores ou desinformação.

Por fim, é importante manter-se visível e seguro à noite: usar lanternas, vestir roupas claras se sair de casa e evitar zonas de risco.