I rischi dell’intelligenza artificiale per la biologia e la medicina

L’intelligenza artificiale (IA) sta cambiando la nostra vita e i possibili rischi associati a questo cambiamento sono costantemente indagati. In questi due articoli valuteremo i rischi e le opportunità dell’intelligenza artificiale in campo biologico e medico. Iniziamo coi rischi.

rischi-dell-intelligenza-artificiale
Figura 1. Tra i rischi dell’intelligenza artificiale trovino l’utilizzo di programmi come quello in figura per la creazione di armi biologiche [Fonte: Wikipedia].

Rischi dell’intelligenza artificiale: informazioni alla portata di tutti

Secondo i più, le tre caratteristiche più distintive di un biologo sono il microscopio ottico, il camice bianco e le colture cellulari. Tuttavia, l’intelligenza artificiale sta aumentando la sua importanza in una miriade di laboratori in tutto il mondo. Un algoritmo come AlphaFold permette di prevedere facilmente la struttura di una proteina in pochissimo tempo, e molti altri approcci computazionali accorciano i tempi di sviluppo di nuovi farmaci. Ma cosa succederebbe se qualcuno usasse questo strumento per creare un’arma biologica?
In epoca recente, molti ricordano i tentativi di uccidere migliaia di persone usando dei gas velenosi o la tossina botulinica portati avanti dall’organizzazione fondamentalista Amu Shynrikyo. Probabilmente gli attacchi sono falliti per mancanza di conoscenze. Tuttavia, ChatGPT o un qualsiasi strumento bioinformatico sarebbero stati utili, in quanto avrebbero fornito a chiunque avesse una conoscenza di base della biologia tutte le informazioni necessarie per finalizzare la loro idea. Anche se questa considerazione può essere un po’ utopistica, Hendrycks et al. hanno segnalato la facilità di accesso a questo tipo di informazioni come uno dei principali rischi dell’intelligenza artificiale.

Rischi dell’intelligenza artificiale: armi biologiche

Tra i rischi dell’intelligenza artificiale possiamo annoverare le forme di vita sintetiche (e la possibile creazione di nuovi agenti patogeni). Nel 2020, un team di scienziati ha sviluppato il cosiddetto xenobot, un organismo completamente programmabile creato con l’aiuto dell’intelligenza artificiale. Un anno dopo, è stato riferito che la “cosa” si auto-replica diffondendo cellule dal suo corpo.
Nel 2023, il vertice mondiale sulla sicurezza dell’IA ha analizzato a fondo tutti i possibili rischi dell’intelligenza artificiale e ha riferito che strumenti come ChatGPT potrebbero aiutare i bioterroristi a creare armi biologiche nascondendo la vera natura letale del virus. Infine, Dario Amodei, CEO di Anthorpic, una startup concorrente di ChatGPT e finanziata da Google con 300 milioni di dollari, ci ha avvertito che l’intelligenza artificiale potrebbe rappresentare un valido strumento per creare armi biologiche nei prossimi anni.

Rischi dell’intelligenza artificiale in ambito medico

I rischi dell’intelligenza artificiale li ritroviamo anche nel settore sanitario. Anche se si tratta di una grande opportunità, deve essere utilizzata con attenzione. Innanzitutto, le persone anziane potrebbero avere difficoltà a utilizzare chatbot interattivi o app basate sull’intelligenza artificiale. Inoltre, sia le autorità di regolamentazione che le aziende devono tenere in considerazione i possibili problemi di implementazione nei paesi più poveri, ad esempio i costi di implementazione elevati o l’accesso limitato ai servizi online.
Infine, alcuni algoritmi basati sull’IA non sono privi di errori. Le aziende devono migliorare tali prestazioni e, quando vengono utilizzati per test diagnostici come l’analisi delle immagini, è ancora necessario il controllo umano.

Conclusione

Come mostrato, i rischi dell’intelligenza artificiale in ambito biologico e medico sono (purtroppo) realtà. Tuttavia, è bene tener presente due cose. L’intelligenza artificiale è una tecnologia, e come tale nè crea nè risolve i problemi, ma i risultati dipendono dalle persone che la usano. Così come un ragazzo che è molto abile nei videogiochi di guerra non è un abile soldato,  l’intelligenza artificiale potrebbe offrire delle informazioni utilissime ai terroristi, ma essi necessitano comunque di un minino di background per sapere come utilizzarle. 

Fonti

Crediti immagini

  • Immagine di copertina: https://www.praxisconsulting.it/news/varianti-sars-covid-19-in-cosa-fare/
  • Figura 1: https://en.wikipedia.org/wiki/Neuron_derived_neurotrophic_factor#/media/File:Protein_Structure_of_human_NDNF.png
Foto dell'autore

Davide Sampietro

Davide is a molecular biologist and bioinformatician trained in Italy and Germany. Curious and eager to learn the ultimate principle of biological processes, he is fascinated by the innumerable commercial and clinical opportunities molecular biology offers us.

Rispondi