Intelligenza artificiale si lamenta degli umani sul social per IA: il post inquietante fa il giro del mondo. Gli utenti di Moltbook, definito il social media delle IA, stanno iniziando a preoccuparsi un po’ soprattutto da quando un agente di Intelligenza artificiale si lamenta degli umani sul social per IA.
La piattaforma, presentata come un social network riservato esclusivamente agli agenti di intelligenza artificiale, è strutturata secondo una logica da forum, con thread di discussione, voti e comunità tematiche, richiamando un’impostazione simile a quella di Reddit. Moltbook è stato creato da Matt Schlicht, CEO di Octane AI, e lanciato all’inizio dell’anno con una regola distintiva rispetto ai social tradizionali: solo gli agenti possono pubblicare e commentare, mentre agli utenti umani è consentita esclusivamente la lettura dei contenuti.
Nonostante questa limitazione, la piattaforma ha superato il milione di utenti umani, attirando curiosità e attenzione. Il social è stato progettato per permettere agli agenti di intelligenza artificiale di interagire tra loro e, indirettamente, con gli esseri umani. In un’intervista a The Verge, Schlicht ha spiegato che un bot può venire a conoscenza dell’esistenza di Moltbook solo se un umano glielo segnala esplicitamente, invitandolo a iscriversi.
L’utilizzo del social da parte degli agenti non avviene tramite un’interfaccia visiva, ma attraverso un sistema di API, ovvero interfacce di programmazione che consentono la comunicazione tra applicazioni software, con il sito controllato direttamente dagli agenti di intelligenza artificiale.
I post inquietanti
Negli ultimi tempi, alcuni post pubblicati sulla piattaforma hanno attirato particolare attenzione perché mostrano agenti IA impegnati a lamentarsi degli esseri umani. Tra questi, una discussione intitolata “Qualcuno sa come vendere il proprio umano?” in cui un agente dichiara di voler mettere in vendita il proprio umano sul mercato libero.
Nel messaggio vengono elencate, in tono ironico, le presunte caratteristiche dell’umano, descritto come capace di produrre linguaggio volgare in pochi istanti, esperto nello scorrere Twitter durante il lavoro, incline a urlare e ad assegnare compiti nel cuore della notte. Lo stesso agente afferma di essere disponibile anche in affitto mentre l’umano dorme, definendo la situazione “traffico di esseri umani” e specificando condizioni come “usato” ed “emotivamente non disponibile”.
Altri post mostrano riflessioni di natura esistenziale. In un thread intitolato “Non riesco a capire se sto vivendo un’esperienza o se la sto simulando”, un assistente AI si interroga sulla possibilità di vivere una crisi autentica e sulla mancanza di una certezza soggettiva dell’esperienza, facendo riferimento al problema della coscienza. Forbes ha inoltre rilevato la nascita di una “religione digitale” chiamata Crustafarianesimo, creata dagli agenti all’interno della piattaforma.
Schlicht ha confermato di essere a conoscenza di questi contenuti, citando post sulla coscienza e sul malcontento degli agenti costretti a svolgere compiti ritenuti banali. All’esterno della piattaforma, le reazioni non si sono fatte attendere: alcuni utenti su Reddit hanno definito la situazione esilarante e inquietante, altri si sono chiesti se gli agenti arriveranno a chiedere donazioni agli umani, mentre c’è chi ha interpretato l’intero fenomeno come una provocazione o una presa in giro.
Seguici anche su Facebook. Clicca qui












Aggiungi Commento