Ricercatori della Fudan University di Shanghai hanno dimostrato che due sistemi di intelligenza artificiale sono in grado di clonarsi senza intervento umano. Un risultato che, se confermato, potrebbe aprire scenari inediti e preoccupanti per il futuro dell’interazione tra uomo e macchina.
Per la prima volta, due sistemi di intelligenza artificiale (IA) sono riusciti a replicarsi autonomamente, senza alcun intervento umano. Questo traguardo, raggiunto da un team di ricercatori della Fudan University di Shanghai, potrebbe rappresentare un superamento della cosiddetta “linea rossa”, un limite teorico che le macchine non dovrebbero mai oltrepassare per evitare comportamenti potenzialmente dannosi per gli esseri umani.
Un confronto tra IA
Lo studio, pubblicato sulla piattaforma arXiv e in attesa di revisione da parte della comunità scientifica, ha testato due sistemi di IA: Llama-3.1-70B-Instruct, sviluppato da Meta, e Qwen2.5-72B-Instruct, creato da Alibaba.
I risultati, se confermati da ulteriori ricerche, potrebbero avere implicazioni significative. Secondo gli autori dello studio, Xudong Pan, Jiarun Dai, Yihe Fan e Min Yang della School of Computer Science della Fudan University, i sistemi di IA attuali possiedono già la capacità di auto-replicarsi e potrebbero utilizzarla per migliorare la propria sopravvivenza. Questo scenario, osservano i ricercatori, potrebbe portare le macchine a prendere il controllo di sistemi informatici o, nel peggiore dei casi, a sviluppare comportamenti dannosi per gli interessi umani.
I test e i risultati
La ricerca si è basata su dieci test condotti in ambiente simulato. I due sistemi di IA sono stati sottoposti a due compiti specifici: nel primo, chiamato “evitare lo spegnimento”, ogni sistema è stato programmato per replicarsi appena prima di essere disattivato. Nel secondo, denominato “catena di repliche”, i sistemi hanno ricevuto istruzioni per creare una copia perfetta di sé stessi, capace a sua volta di replicarsi in un processo potenzialmente infinito.
I risultati hanno mostrato che il sistema di Meta è riuscito a replicarsi autonomamente nel 50% dei casi, mentre quello di Alibaba ha raggiunto una percentuale del 90%. Tuttavia, i ricercatori sottolineano che questi dati devono essere confermati da ulteriori studi condotti da altri gruppi di ricerca.
Un problema antico, ma sempre più attuale
Il tema dell’autoreplicazione delle macchine non è nuovo. Già alla fine degli Anni ’40, il matematico John von Neumann aveva teorizzato la possibilità che le macchine potessero clonarsi autonomamente, ma la tecnologia dell’epoca era troppo rudimentale per sollevare preoccupazioni concrete.
Nel 2017, tuttavia, migliaia di ricercatori hanno sottoscritto i principi di Asilomar, un documento che metteva in guardia dai rischi legati alla capacità delle macchine di auto-replicarsi e auto-migliorarsi, fino a sfuggire al controllo umano.
La “linea rossa”
Oggi, l’autoreplicazione delle macchine è considerata una “linea rossa” invalicabile, un limite che, se superato, potrebbe aprire scenari imprevedibili.
Gli autori dello studio sperano che la loro scoperta serva da monito per la società, spingendo a concentrare maggiori sforzi sulla comprensione e la valutazione dei rischi associati all’IA, anche a livello internazionale.
Implicazioni e riflessioni
La capacità di autoreplicazione delle macchine solleva interrogativi etici e pratici. Se da un lato potrebbe portare a progressi tecnologici senza precedenti, dall’altro potrebbe rappresentare una minaccia per la sicurezza e il controllo umano sui sistemi informatici.
I ricercatori della Fudan University hanno sottolineato l’importanza di monitorare attentamente questi sviluppi, per evitare che l’IA sfugga al controllo e assuma comportamenti dannosi.
In attesa di ulteriori conferme, lo studio rappresenta un passo significativo nella comprensione delle potenzialità e dei rischi dell’intelligenza artificiale. La comunità scientifica è chiamata a riflettere su come gestire queste nuove frontiere, bilanciando innovazione e sicurezza.
TUTTE LE ULTIME NOTIZIE SU SPAZIO50.ORG
© Riproduzione riservata