Non è possibile drogare l’intelligenza artificiale, ma quello che si può fare, invece, è alterare intenzionalmente il comportamento linguistico di un chatbot, spingendolo verso risposte più disinibite, associative o euforiche, intervenendo sulle istruzioni e sul contesto che guidano il modo in cui il modello costruisce le frasi.
È quanto sta facendo Phairmacy, progetto del direttore creativo svedese Petter Rudwall che si presenta come un vero marketplace di sostanze stupefacenti in forma di codice. L’idea è vendere pacchetti etichettati con nomi che richiamano cannabis, ketamina, ayahuasca e altre droghe, pensati per alterare la logica conversazionale dei chatbot provocando stili diversi nelle risposte: più divagazioni, più immagini, meno prudenza, talvolta più caos. Rudwall descrive il progetto come esperimento creativo, traducendo descrizioni soggettive di esperienze psichedeliche in regole capaci di modificare tono e traiettoria delle risposte di sistemi come ChatGPT.
L’obiettivo dell’esperimento, dunque, è duplice. Da un lato, comprendere se risposte meno scontate possano sbloccare idee nuove. Dall’altro, invece, misurare quanto sia facile cambiare l’impostazione apparente di un assistente virtuale: se bastano istruzioni diverse per far sembrare lo stesso chatbot più prudente o più creativo, allora quello che percepiamo come suo “carattere” non è una qualità interna stabile, quanto piuttosto l’effetto di una manipolazione cosciente esterna del linguaggio.
Leggi l’articolo completo Phairmacy, lo store di droghe virtuali per l’intelligenza artificiale su la Repubblica.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (25/05/2025).

