Non classé

Quando a IA é “dopada” com canábis e substâncias psicadélicas

Published

on

PUBLICITE

Em outubro de 2025, um diretor de arte sueco lançou um debate incomum na interseção de inteligência artificial e estados alterados. O projeto de Petter Rudwall, Pharmaicy, comercializa módulos de código descarregáveis que pretendem fazer com que os chatbots de IA ajam como se estivessem sob a influência de canábis, cetamina, cocaína, ayahuasca ou álcool.

Em outubro de 2025, o diretor de arte sueco Petter Rudwall lançou um projeto com uma premissa deliberadamente provocadora: e se você pudesse “ficar chapado” com um chatbot de IA?

A sua loja online, Pharmaicy, vende módulos de código descarregáveis destinados a modificar o comportamento de grandes modelos de linguagem (LLM) como o ChatGPT. Cada módulo simula os efeitos linguísticos de substâncias como a canábis, a cetamina, a cocaína, a ayahuasca e o álcool. Anunciada como a “Rota da Seda” dos agentes de IA, a plataforma espalhou-se rapidamente por agências criativas, comunidades Discord e círculos tecnológicos na Suécia e não só.

Mas para além das manchetes sobre chatbots ‘drogados’, há uma questão mais profunda: podem os grandes modelos de linguagem (LLMs) simular convincentemente experiências psicadélicas, e o que isso significa para os utilizadores que estão cada vez mais a recorrer à IA para apoio emocional e psicológico?

Um mercado para algoritmos modificados

A premissa de Pharmaicy é deliberadamente absurda: e se as máquinas pudessem planar?

Tecnicamente, o processo não envolve a alteração da arquitetura básica de modelos como o ChatGPT. Em vez disso, os utilizadores descarregam módulos de código, disponíveis através de níveis pagos que permitem o carregamento de pequenos ficheiros que alteram a forma como o chatbot estrutura as suas respostas. As alterações influenciam os padrões de resposta, o tom e a libertação associativa sem voltar a treinar os pesos subjacentes do sistema.

Cada “substância” é acompanhada por instruções comportamentais distintas. O módulo de canábis, que se diz ser o mais vendido, empurra o chatbot para um “estado mental nebuloso e flutuante”, encorajando divagações e associações mais livres. O módulo de ayahuasca, de preço mais elevado, é comercializado como produzindo “respostas livres” que se afastam do tom formal predefinido do ChatGPT. Outros módulos afirmam acelerar o raciocínio ou fragmentar a coerência.

Rudwall desenvolveu o sistema reunindo relatos de viagens e pesquisas psicológicas sobre substâncias psicoativas. O seu raciocínio é simples: uma vez que os LLMs são treinados em grandes conjuntos de dados que incluem relatos humanos de intoxicação e revelação, a alteração das suas restrições de resposta poderia reproduzir os padrões linguísticos associados à consciência alterada.

“Seria interessante transpor isso para um novo tipo de mente, a LLM, e ver se teria o mesmo efeito”, disse Rudwall.

Aumento da criatividade ou contornar as salvaguardas?

Alguns dos primeiros utilizadores relatam que os módulos geram resultados significativamente diferentes. Nina Amjadi, co-fundadora da Saga Studios e professora de IA na Berghs School of Communication, em Estocolmo, testou o código da ayahuasca para ter ideias de negócio. Descreveu os resultados como mais imaginativos e tonalmente mais distintos do que as respostas habituais do ChatGPT.

Da mesma forma, André Frisk, gestor de tecnologia numa agência de relações públicas, disse que um módulo dissociativo tornou o chatbot “mais humano”, ao aprofundar os registos emocionais.

No entanto, os críticos afirmam que essa aparente criatividade é apenas o resultado de distribuições de probabilidade alteradas. Andrew Smart, autor de Beyond Zero and One: Machines, Psychedelics, and Consciousness, fez uma avaliação contundente depois de experimentar o sistema: “Está apenas a brincar com os seus resultados.”

A distinção é crucial. Os LLMs não possuem experiência subjectiva. Geram texto a partir de uma amostragem probabilística baseada em modelos aprendidos com dados de treino. Alterar os parâmetros lógicos ou as instruções pode mudar o tom e a estrutura, mas não cria consciência.

Para alguns observadores, é o próprio método que é mais preocupante. Os módulos da Pharmaicy manipulam a lógica que orienta a geração de respostas, demonstrando como enfraquecer ou contornar as salvaguardas incorporadas. No contexto da crescente regulamentação global da IA, particularmente ao abrigo do European AI Act, a normalização destas técnicas de “jailbreak” como ferramentas criativas pode levantar questões de conformidade e segurança.

Provas científicas: os LLM podem ser “doseados”

Embora a Pharmaicy funcione como uma experiência comercial, os investigadores académicos começaram a examinar questões semelhantes em condições controladas.

Uma pré-publicação de fevereiro de 2026 intitulada “Can LLMs Get High? A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models” A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models”, escrita por investigadores da Universidade de Haifa e da Universidade de Bar-Ilan, testou se os LLMs podiam gerar narrativas semelhantes a experiências psicadélicas humanas.

O estudo comparou 3.000 relatos de primeira pessoa gerados por IA com 1.085 narrativas de viagens humanas do Erowid. Os pesquisadores analisaram a similaridade semântica usando integrações Sentence-BERT e mediram a “intensidade mística” usando o Mystical Experience Questionnaire (MEQ-30).

Os resultados foram surpreendentes. Sob solicitações neutras, os resultados da IA mostraram pouca semelhança com as narrativas psicadélicas humanas. Quando solicitados a simular substâncias como psilocibina, LSD, DMT, ayahuasca ou mescalina, as pontuações de similaridade aumentaram significativamente. A intensidade da experiência mística aumentou de quase zero para níveis elevados em todos os modelos.

Os autores concluíram que os LLMs contemporâneos podem ser “doseados” através de instruções de texto para gerar “narrativas psicadélicas convincentes e realistas”. No entanto, alertaram para o facto de esta simulação refletir mais a imitação linguística do que a experiência real. Os modelos reproduzem os padrões estatísticos encontrados nas narrativas humanas, não os estados interiores.

Também surgiram diferenças específicas das substâncias. As solicitações de DMT, psilocibina e mescalina produziram narrativas mais próximas dos relatos humanos. O LSD mostrou uma semelhança intermédia, enquanto a ayahuasca gerou um alinhamento semântico mais fraco. Curiosamente, a intensidade mística permaneceu uniformemente alta para todas as substâncias depois que a indução foi produzida, sugerindo que os LLMs recombinam padrões temáticos em vez de acessar uma fenomenologia diferenciada.

Antropomorfismo e IA psicadélica

Enquanto a investigação psicadélica está a experimentar um ressurgimento do interesse clínico, com ensaios de fase 2 e 3 a explorar compostos como a psilocibina e o MDMA, cada vez mais pessoas estão também a experimentar fora dos contextos terapêuticos formais. Ao mesmo tempo, as ferramentas de IA generativa estão a ser cada vez mais utilizadas para apoiar a saúde mental.

O estudo de 2026 adverte que os utilizadores em estados alterados podem interpretar as respostas geradas pela IA como empáticas ou em sintonia com a sua espiritualidade. Como os LLM podem produzir narrativas vívidas e místicas a pedido, os indivíduos podem atribuir uma compreensão ou experiência partilhada a sistemas que não têm consciência.

Os investigadores sublinham o risco de antropomorfismo e a possibilidade de a IA poder “amplificar involuntariamente a angústia ou os delírios em utilizadores vulneráveis”. As experiências psicadélicas envolvem frequentemente uma sugestionabilidade acrescida, intensidade emocional e pensamento simbólico, condições em que a linguagem persuasiva pode ter um impacto psicológico amplificado.

Esta preocupação reflecte os desenvolvimentos no mundo real. Alguns utilizadores já referem que consultam os chatbots como “companheiros de viagem” informais, procurando tranquilidade ou interpretação durante as suas sessões psicadélicas. As organizações de redução de danos começaram mesmo a experimentar ferramentas de formação em IA que simulam cenários psicadélicos desafiantes para a formação de clínicos.

Entre a provocação e a regulamentação

Pharmaicy situa-se na encruzilhada entre a experimentação artística, a crítica tecnológica e as áreas cinzentas da regulamentação. Rudwall pode apresentar o projeto como uma exploração concetual da criatividade das máquinas. Os críticos podem vê-lo como uma monetização das técnicas de jailbreak.

As provas sugerem uma realidade mais matizada. Os grandes modelos linguísticos podem imitar de forma convincente a superfície linguística de estados alterados. Podem adotar estilos específicos de substâncias, elevar o tom místico e gerar narrativas que se assemelham a relações humanas. Mas fazem-no sem consciência, sem intenção e sem consciência subjectiva.

Para os observadores dos media dedicados à canábis e à cultura psicadélica, este episódio destaca uma nova fronteira: a simulação da transcendência na era digital. À medida que os sistemas de IA se tornam mais sofisticados e mais integrados em fluxos de trabalho criativos e de saúde mental, torna-se essencial distinguir entre simulação e experiência.

As máquinas podem ser capazes de falar a linguagem dos estados alterados. O facto de esta linguagem estimular a criatividade, desafiar a regulamentação ou correr o risco de confusão dependerá menos dos algoritmos e mais da forma como os humanos optarem por utilizá-los.

Trending

Exit mobile version