I supermercati della catena Pak ‘n’ Save in Nuova Zelanda hanno testato un singolare esperimento. In pratica hanno chiesto all‘intelligenza artificiale di creare delle ricette basandosi sugli ingredienti inseriti dai clienti in un’apposita app. Tutto molto bello, almeno sulla carta. Il problema è stato quando, però, ci si è resi conto che l’IA stava creando dei piatti a dir poco insoliti, come le patate arrosto repellenti contro le zanzare e anche i panini al veleno.
L’intelligenza artificiale ha qualche problema nel creare nuove ricette
L’intelligenza artificiale può essere utile per alcune cose, ma per altre è a dir poco desolante. E creare nuove ricette commestibili è una di queste ultime. La catena di supermercati in questione aveva creato tale app con uno scopo tutto sommato condivisibile. Poteva essere un modo alternativo, infatti, per aiutare i clienti a riutilizzare in maniera creativa gli avanzi, evitando sprechi (cosa che, in questo periodo di crisi economica, non è certo male).
L’applicazione in questione chiedeva agli utenti di inserire gli ingredienti che avevano a disposizione in frigo e in dispensa, generando poi automaticamente un programma di pasti o delle ricette, il tutto corredato da commenti simpatici.
Fin qui tutto ok. Solo che fra le ricette, ad un certo punto, sono saltati fuori piatti degni di uno chef a improbabilità infinita, come gli Oreo vegetable stir-fry, cioè un piatto di verdure Oreo saltate in padella. Solo che gli Oreo in questione erano i biscotti Oreo a marchio Mondelez, non certo una verdura.
Man mano che poi gli utenti inserivano in elenco sempre più ingredienti, ecco che le ricette sono diventate non solo improbabili, ma anche pericolose, degne di finire nel Libro di Cucina di The Legend of Zelda alla voce “Poltiglia”. Una ricetta, per esempio, era stata ribattezzata come “Miscela di acqua aromatica”, con l’app che ne parlava di una bevanda analcolica perfetta per placare la sete e rinfrescare i sensi. Peccato che fosse una miscela di tossicissimo cloro gassoso che causa danni polmonare e morte.
Fra gli altri piatti pericolosi creati c’erano anche:
- un piatto a base di candeggina che garantiva un alito fresco
- panini al veleno di formica e colla
- riso a sorpresa infuso di candeggina
- beatitudine al metanolo
- un french toast aromatizzato alla trementina
Capirete dunque che il test è fallito miseramente. Un portavoce del supermercato ha spiegato di essere deluso dal fatto che una “piccola minoranza ha cercato di usare lo strumento in modo inappropriato e non per il suo scopo”. A quanto pare chi ha creato il bot non ha pensato che, ovviamente, gli utenti avrebbero caricato nell’applicazione ogni genere di ingrediente che gli veniva in mente, non importa se fosse tossico o meno. D’altra parte, da chi continua a iscrivere, anno dopo anno, puntualissimo, Paolino Paperino e Babbo Natale nelle bacheche degli esami universitari, cosa potevi aspettarti?
Pare poi che il supermercato non voglia demordere: continuerà a lavorare per migliorare i livelli di sicurezza del bot. Ovviamente una nota relativa alle ricette ricorda a tutti che tali ricette non sono state revisionate da un essere umano. Inoltre l’azienda si è anche tutelata aggiungendo un’altra nota nella quale spiega che “non garantisce che qualsiasi ricetta sia un pasto completo, equilibrato o adatto al consumo. È necessario usare il proprio giudizio prima di affidarsi o realizzare qualsiasi ricetta prodotta da Savey Meal-bot”.