A variante “drogada” foi treinada com base em estudos científicos sobre as substâncias. No site do serviço, o diretor criativo sueco Petter Rudwallpeter afirma ter utilizado diversos estudos psicológicos e descrições dos efeitos de experiências psicodélicas em humanos. Com esse material, passou a projetar módulos de código para provocar respostas menos convencionais nos chatbots.
O criador do projeto afirma que os módulos liberam a criatividade dos chatbots. Em entrevista à revista Wired, Rudwall descreve a abordagem como uma maneira de escapar da “lógica sufocante” das IAs. Ele também relata ter vendido dezenas de licenças na Suécia para o sistema, que funciona apenas com a versão paga do ChatGPT.
Essa tendência tem fundamento?
Especialistas questionam a eficácia das “drogas” aplicadas à IA. Danny Forde, autor de um livro sobre experiências psicodélicas, disse à Wired que, na melhor das hipóteses, o chatbot pode “alucinar por meio de sintaxes”, criando padrões que lembram estados psicodélicos. Para ele, uma psicodelia verdadeira na IA só ocorreria se a máquina pudesse viver experiências, o que não acontece, já que não possui consciência nem condição humana.
Vale a pena refletir sobre o tema? No campo da inteligência artificial, discute-se se em algum momento essas tecnologias poderão alcançar “consciência”. Caso isso ocorra, é possível que passem a buscar experiências de estados alterados de consciência, como alguns humanos. Recentemente, a Anthropic, desenvolvedora do chatbot Claude, contratou um especialista para investigar se chatbots poderão vir a ter consciência.







