
Alucinar na Inteligência Artificial o que é?
De uma forma muito simplista e fácil de entender para todos: A alucinação em sistemas de Inteligência Artificial (IA) refere-se à forma como um sistema de IA pode criar, ou gerar interpretações, percepções e respostas que não correspondem diretamente à verdade e mesmo à realidade. Podendo essas falsas interpretações e percepções incluir imagens visuais, sons, textos, etc.. Ou seja, quando é apresentado aos utilizadores (a todos nós, seres humanos) algo que é inexistente ou que contém respostas imprecisas, não verdadeiras e até mesmo absurdas.
Normalmente a alucinação de sistemas de IA é um fenómeno que ocorre em modelos de linguagem (LLM), geralmente um “chatbot” de Inteligência Artificial generativa, uma ferramenta com capacidade computacional em sistemas de aprendizagem de máquina (Machine learning), exemplos em aplicações informáticas como o ChatGPT (open AI), o Google Gemini (ex bard) ou o Copilot da Microsoft, porventura as aplicações mais conhecidas, mas existem outras. Assim, estes sistemas de IA ao adquirirem e interpretarem padrões, estão a “alimentar” o seu “conhecimento” e a “aprenderem”, podendo criar falsos resultados, imprecisos e em algumas situações inexistentes, isto acontece porque os sistemas estão a recolher informação (o modelo de aprendizagem de máquina) e possuem ainda muitas lacunas, que ao longo do tempo serão rectificadas automaticamente, esperamos nós, mas isso é uma opinião minha.
Mas nem tudo é mau ou errado, os sistemas de IA de aprendizagem de máquina (Machine learning) podem reconhecer padrões que são imperceptíveis para os seres humanos, possibilitando grandes avanços em análise preditiva, como estatística, detecção de fraude, avaliação de risco, etc. Assim como em análise preditiva na saúde, identificando padrões que podem revelar uma maior probabilidade para a desenvolver diabetes tipo II uma década após ter realizado essa análise ao sangue e também tendo por base em fatores de risco e perspectivando diversos padrões familiares e genéticos. Análises de sangue, hormonais, biomarcadores, historial médico de outras situações médicas, podem prevenir que esta e outras patologias de poderem via a ocorrer. Existem muitos estudos que revelam a saúde e o diagnóstico como sendo provavelmente uma das grandes áreas de desenvolvimento na Inteligência Artificial Generativa.
O que é alucinar ?
Do ponto de vista clinico, uma alucinação pode ocorrer quando a percepção do indivíduo identifica alguma coisa que não existe como sendo parte da realidade, como se fosse uma impressão subjectiva. No fundo e em linhas gerais, as pessoas que sofrem desse transtorno psíquico, podem apresentar vivências bastante reais, mesmo que o objeto, a pessoa ou facto alucinado não exista de verdade. As alucinações podem envolver qualquer um dos sentidos (visão, audição, olfacto, paladar ou tato) e são muitas vezes associadas a condições médicas, como a esquizofrenia, o transtorno bipolar, a epilepsia, entre outras. As alucinações também podem ser desencadeadas por certas substâncias psicoativas (como o LSD), por febre alta, lesões cerebrais ou falta ou ausência de sono.
Sintetizando: As alucinações alteram a percepção da realidade, fazendo com que exista a sensação de uma experiência real, ou estar vivendo algo que não está acontecendo ou sequer existiu.
Nota: Uma miragem, não é uma alucinação, uma miragem é um fenómeno físico que envolve a refração da luz (provavelmente todos se recordam da “onda gigante” no Algarve, um fenómeno atmosférico que criou pânico no Algarve em 1999, quando se pensou ser um tsunami e que muitos acreditaram no que pensavam estar a ver). Uma alucinação é uma experiência perceptiva que ocorre dentro do cérebro na ausência de estímulos externos correspondentes.
Os perigos quando os sistemas de Inteligência Artificial “alucinam”
De acordo com algumas noticias divulgadas, em que jornalistas apresentaram um artigo falso e criando uma falsa prova e no apoio a esta alegação num escândalo de assédio sexual, nomeando um verdadeiro professor de direito como acusado (citando um artigo falso do jornal Washington Post e como prova no apoio à falsa alegação), no entanto não só não existia o tal artigo, como o caso apresentado pelo ChatGPT estava totalmente incorrecto. Não só não existia tal artigo, como o verdadeiro professor nunca tinha sido acusado de assediar uma estudante, nem tinha estado presente na viagem ao Alasca descrito pelo chatbot durante a qual ocorreu o suposto assédio sexual. Toda esta situação gerou um grave incidente, em que grande parte dos leitores acreditaram na notícia que o jornal apresentou, como sendo credível e fiável. Gerando uma corrente de suspeição e criando óbvios e graves problemas ao professor, já que por norma citar um jornal dá uma certa confiança ao utilizador. Situações mais graves podem ocorrer na saúde, quando um sistema de IA ao gerar a “alucinação da IA” pode efectivamente ter consequências no ser humano, por exemplo, um modelo de IA aplicado em radiologia pode identificar incorretamente uma lesão cutânea benigna como maligna, levando a intervenções médicas desnecessárias. Mas existem muitos outros perigos com a Inteligência Artificial Generativa.
Se em Portugal ainda não foram apresentadas situações tão graves, é no entanto importante notar que a disseminação de informações falsas e a manipulação dos media é um perigo. Sabe-se que em vários países houve casos em que sistemas de IA foram utilizados para criar ou disseminar notícias falsas, criando imagens manipuladas e até mesmo “deepfakes” – vídeos ou áudios falsificados que podem parecer extremamente realistas. Algo que em muitas situações é um crime grave, uma tentativa de deturpar e criar a confusão.
O que podemos fazer para identificar o verdadeiro do falso?
É crucial que tanto os indivíduos (o vulgar cidadão), quer as organizações estejam cientes dessas ameaças e adoptem medidas que possam verificar a autenticidade das informações antes de confiar nelas. Devendo incluir a verificação de fontes confiáveis e verificáveis, o uso de ferramentas de verificação de factos (fact checking tools) e a educação sobre como identificar um conteúdo falso ou manipulado, que se diga não é fácil. Além disso, os governos e as instituições de media (como o polígrafo – https://poligrafo.sapo.pt/) podem implementar políticas e tecnologias para combater a disseminação de desinformação e garantir a integridade do espaço de informação. No caso da saúde, todas as conclusões apresentadas por um sistema de IA devem ser validados e verificados por seres humanos (médicos).
Nota: Em caso de dúvida de alguma noticia, verifique as fontes. Procure verificar, se essa noticia apareceu em outros meios noticiosos.

Imagem de Freepik
A Ética e a Segurança na Inteligência Artificial:
A capacidade de gerar alucinações por meio de IA também levanta questões éticas e de segurança. Por exemplo, se algoritmos de IA forem usados para criar imagens ou vídeos falsificados de pessoas, isso pode levar a consequências negativas, como difamação ou manipulação de informações.
As questões da ética na Inteligência Artificial (IA) é um tema fundamental, que deve ser aprofundado e debatido na União Europeia desde 2021 (Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS), fundamentada em princípios éticos básicos, como a transparência, a justiça, a privacidade, a segurança e a responsabilidade, entre outros . Esses princípios servem como orientações para o desenvolvimento, implementação e uso responsável de sistemas de IA.
As Limitações e os Desafios:
Embora os avanços em redes neuronais generativas tenham permitido a criação de alucinações digitais impressionantes, esses sistemas ainda têm limitações significativas. Por exemplo, as imagens geradas podem parecer realistas à primeira vista, mas geralmente carecem de consistência e contexto quando examinadas mais de perto e com atenção.
O viés Algorítmico
O viés (bias) algorítmico pode ocorrer quando um algoritmo produz resultados sistematicamente prejudiciais ou injustos para um grupo específico de pessoas, geralmente com base em características como raça, género, idade, etnia, ou outras características que possam estar mais desprotegidas ou que não façam parte do “mainstream“. Essencialmente, é um preconceito embutido em sistemas de tomada de decisão automatizada que pode perpetuar ou amplificar desigualdades existentes.
Por que Acontece
O viés algorítmico surge por várias razões fundamentais:
Dados de treinamento enviesados, representação desigual numa amostra de dados, pesos diferentes numa seleção de características, simplicidade atribuída aos modelos e com pouco rigor, ect.
Nota: A eliminação completa do viés é algo que é extremamente complexo, sendo um processo contínuo que requer revisões periódicas dos dados, bem como conscientização ética nos modelos de aprendizagem e treino (LLM). Ou seja, o viés algorítmico não é apenas um problema técnico, mas é também um desafio ético e social que requer uma abordagem multidisciplinar.
O que deve ser aprofundado
- Viés e Equidade: Um aspecto crucial da ética na IA é a identificação e mitigação de viés nos algoritmos. Os sistemas de IA podem reflectir e até mesmo amplificar preconceitos presentes nos dados de treino da IA, levando a resultados injustos ou discriminatórios. Garantir a equidade na IA requer abordagens cuidadosas para detectar, compreender e corrigir viés em todas as etapas do ciclo de vida do sistema de IA.
- Transparência e Interpretabilidade: A transparência é essencial para garantir a confiança e a prestação de contas na IA. As equipas de desenvolvimento de algoritmos de IA devem ser transparentes sobre como os sistemas e como estes funcionam, incluindo os dados utilizados, os algoritmos empregados e as decisões tomadas. Além disso, a interoperabilidade dos modelos de IA são parte importante para que os utilizadores possam entender como e porque certas decisões são tomadas.
- Privacidade e Proteção de Dados: A recolha e o uso de dados são elementos essenciais para muitos sistemas de IA, mas também apresentam riscos significativos para a privacidade e a segurança das informações pessoais. A ética na IA exige o respeito aos direitos individuais de privacidade e a implementação de medidas robustas de proteção de dados para minimizar o uso indevido ou abusivo das informações.
- Responsabilidade e Governança: A responsabilidade é um aspecto central da ética na IA, e envolve a atribuição clara de responsabilidade pelos impactos e consequências dos sistemas de IA. Isso inclui a identificação e mitigação de possíveis danos, a prestação de contas pelos resultados produzidos pelos sistemas de IA e a garantia de que os valores éticos sejam incorporados em todas as etapas do desenvolvimento e uso da tecnologia. Além disso, a governança eficaz da IA envolve a definição de políticas, regulamentações e padrões que orientam a implementação e uso responsável da tecnologia.
Em simultâneo com os novos desenvolvimentos na IA generativa, mais se fala em a “alucinação” na inteligência artificial, uma situação que tem crescido, já que cada vez mais utilizamos estas ferramentas e são colocadas muitas perguntas a plataformas de chatbot, até no ensino (muitos estudantes utilizam cada vez mais estas ferramentas) o que levanta questões problemáticas e interessantes sobre percepção, o verdadeiro e o falso, a realidade e o que não é real e a ética na era da computação. À medida que a tecnologia continua a evoluir, é importante considerar cuidadosamente as implicações e os desafios associados a essa capacidade em constante expansão.
Em conclusão:
A alucinação em inteligência artificial (IA) pode ser um sério problema, com o qual a maior parte de nós não está preparado. Podendo criar falsas noticiais, contribuir para a disseminação de desinformação. Se, por exemplo, um chatbot criar notícias erradas a perguntas sobre uma emergência em desenvolvimento, difíceis de fazer uma verificação do conteúdo (fact check) e que podem contribuir para prejudicar que necessitava de ajuda. Os chatbots podem ser uma grande ajuda em muitas situações, mas há que haver uma colaboração entre o ser humano e a dita “inteligência artificial” e ainda não se pode acreditar em tudo o que a aprendizagem de máquina (Machine Learning), apesar da maior parte da informação estar correcta, estes sistemas ainda estão numa fase de aprendizagem, talvez daqui a uns anos essas questões estejam ultrapassadas, a Inteligência Artificial não gera conhecimento, apenas consegue aprender com o conhecimento humano.
Falar do futuro da Inteligência Artificial
Falar do futuro é sempre algo difícil, se não impossível de antever na tecnologia. Na verdade, o que foi observado e previsto na lei de Moore, que a cada 18 meses a tecnologia duplicava a sua capacidade, porém com a Inteligência Artificial (IA) estes avanços realizar-se-ão num espaço temporal menor. De facto, podemos estar a moldar o futuro da humanidade em quase todos os setores e muitas vezes nem nos apercebemos. As tecnologias emergentes como o big data, a robótica e o IoT têm hoje avanços importantes, já para não falar dos avanços muito rápidos na IA como nos avanços na IA generativa, com ferramentas como ChatGPT e geradores de arte de IA como o Sora da OpenIA. Nos próximos anos da IA Geral (AGI) que será capaz de realizar qualquer tarefa intelectual que um humano pode fazer (algo que é actualmente um objetivo teórico e sem previsão de quando possa acontecer). Saiba mais do que pode ser o futuro e a Singularidade tecnológica.
Existe cada vez mais literatura que aborda estas questões e as maiores preocupações no nosso quotidiano, aconselho livros como Life 3.0: Being Human in the Age of Artificial Intelligence de Max Tegmark (em Inglês) ou Inteligência Artificial, de Arlindo Oliveira, uma edição de Ensaios FFMS, ou a Inteligência Artificial e Cultura, dos autores Daniel Innerarity, Patrícia Akester mas basta pesquisar e por certo vai encontrar muitos mais.
Se gostou deste artigo e o achou interessante coloque o seu “Gostar” e partilhe-o com os seus amigos. Este site/blog serve para isso mesmo: elucidar, ensinar e relembrar algum assunto a quem gosta de Informática.
Em caso de alguma dúvida ou questão, envie um e-mail para formacaoajuda@gmail.com para qualquer esclarecimento.
Subscreva o nosso blog e receba automaticamente os novos artigos,
Obrigado.
One comment