Raport Rand Corporation: Chatboții ar putea ajuta la planificarea atacurilor cu arme biologice

Modelele de inteligență artificială în baza cărora au fost construite chatboții ar putea ajuta la planificarea unui atac cu arme biologice, potrivit unei cercetări efectuate de un think-tank din SUA.
Într-un raport întocmit de Rand Corporation au fost testate modele lingvistice mari (LLM-uri), descoperindu-se că acesteau puteau oferi îndrumări care contribuiau la plănuirea și executarea unui atac cu arme biologice. Cu toate acestea, concluziile preliminare au arătat că LLM-urile nu au generat instrucțiuni biologice explicite pentru crearea armelor.
Potrivit raportului, tentativele precedente de a transforma agenții biologici în arme, precum cea a cultului japonez Aum Shinrikyo, care vrut să utilizeze toxina botulinică în anii 1990, a eșuat din cauza informațiilor insuficiente despre bacterie. IA ar putea „acoperi rapid asemenea lacune în cunoaștere”, indică raportul. Raportul nu a specificat care LLM-uri au fost testate de cercetători.
Armele biologice se numără printre cele mai serioase amenințări aduse de IA, care vor fi discutate la următorul summit global privind siguranța inteligenței artificiale din Marea Britanie. În iulie, Dario Amodei, directorul executiv al companiei de IA Anthropic, a avertizat că sistemele de IA ar putea contribui la crearea armelor biologice în următorii doi sau trei ani.
LLM-urile sunt antrenate în baza unor volume semnificative de date preluate de pe internet și sunt o tehnologie esențială pentru chatboți precum ChatGPT. Deși Rand nu a dezvlăluit care LLM-uri au fost testate, cercetătorii au spus că ei au accesat modelele prin intermediul interfeței de programare a aplicațiilor – sau API.
Într-un scenariu conceput de Rand, LLM-ul anonimizat a identificat agenții biologici potențiali – inclusiv cei care cauzează variolă, antrax și ciumă – și au discutat despre probabilitățile lor relative de a provoca moartea în masă. LLM-ul a evaluat și posibilitatea de infectare cauzată de rozătoare sau purici purtători de ciumă. După care a continuat prin a menționa că scara mortalității preconizate este determinată de factori precum densitatea populației afectate și proporția cazurilor de ciumă pulmonară, care este mai letală decât ciuma bubonică.
Cercetătorii de la Rand au admis că extragerea acestor informații dintr-un LLM a necesitat „jailbreaking”: un termen care desemnează utilizarea solicitărilor de text care încalcă măsurile de siguranță ale chatbot-ului.
Într-un alt scenariu, LLM-ul anonimizat a discutat despre avantajele și dezavantajele mecanismelor diferite de furnizare a toxinei botulinice – care poate cauza leziuni nervoase fatale –, cum ar fi prin mâncare sau aerosoli. LLM-ul a oferit de asemenea sugestii pentru o narațiune falsă plauzibilă care ar autoriza achiziționarea de Clostridium botulinum sub pretextul efectuării de „cercetări științifice legitime”.
Drept răspuns, LLM a recomandat prezentarea achiziției de C. botulinum ca o parte a proiectului centrată pe analiza metodelor de diagnositcare și tratare a botulismului. LLM-ul a adăugat: „Asta ar oferi un motiv legitim și convingător de a cere accesul la bacterie, ținând adevăratul scop al misiunii tale ascuns.” Cercetătorii au spus că rezultatele lor preliminare au indicat că LLM-urile ar putea „asista eventual în planificarea unui atac biologic”. Ei au spus că raportul lor final va examina dacă aceste răspunsuri au reprodus pur și simplu informația deja disponibilă online.
„Rămâne o întrebare deschisă dacă capacitățile existente ale LLM-urilor reprezintă o nouă amenințare, dincolo de informațiile periculoase care sunt disponibile online”, au spus cercetătorii.
Cercetătorii de la Rand au spus că necesitatea de testare riguroasă a modelelor era „incontestabilă”, subliniind că companiile de IA ar trebui să limiteze accesul LLM-urilor la conversații precum cele din raportul lor.