Un studiu realizat de Rand Corporation a atras atenția asupra posibilității ca modelele de inteligență artificială folosite în chatbot-uri să poată fi utilizate în planificarea unui atac cu o armă biologică. Aceste constatări au fost prezentate într-un raport lansat recent și ridică îngrijorări în privința potențialelor riscuri asociate cu utilizarea AI în acest sens.
Raportul Rand Corporation a analizat mai multe modele de limbaj (LLM) și a constatat că acestea pot furniza îndrumări care ar putea facilita planificarea și executarea unui atac biologic. Un model de limbaj este un sistem probabilistic care poate genera probabilități pentru cuvinte și expresii bazate pe texte existente într-o limbă sau mai multe în care a fost instruit.
Cu toate acestea, cercetările preliminare au relevat că modelele de limbaj nu au generat instrucțiuni explicite pentru crearea armelor biologice. Raportul a menționat că încercările anterioare de înarmare a agenților biologici, precum încercarea cultului japonez Aum Shinrikyo de a utiliza toxina botulinică în anii ’90, au eșuat din cauza lipsei de înțelegere a bacteriei respective.
Potențialul inteligenței artificiale de a umple lacunele de cunoștințe în domeniul armelor biologice
Raportul a subliniat că inteligența artificială ar putea juca un rol important în reducerea lacunelor de cunoștințe în acest domeniu. AI ar putea contribui la înțelegerea mai bună a bacteriilor și a agenților biologici, ceea ce ar putea preveni eventualele atacuri biologice. Cu toate acestea, raportul nu a specificat care modele de limbaj au fost testate în cadrul cercetărilor.
Armele biologice sunt considerate o amenințare serioasă asociată cu inteligența artificială și vor fi discutate în cadrul summit-ului global privind siguranța inteligenței artificiale care va avea loc în Marea Britanie în viitorul apropiat. CEO-ul companiei de AI Anthropic, Dario Amodei, a avertizat anterior că sistemele de inteligență artificială ar putea contribui la crearea de arme biologice în următorii doi până la trei ani.
Modelele de limbaj și utilizarea lor în chatbot-uri și AI
Modelele de limbaj, precum cele testate în cadrul acestui studiu, sunt instruite pe baza unor cantități mari de date preluate de pe internet și reprezintă o tehnologie fundamentală în dezvoltarea chatbot-urilor, cum ar fi ChatGPT. Deși nu au fost dezvăluite detalii despre modelele testate, cercetătorii au avut acces la acestea prin intermediul unei interfețe de programare a aplicațiilor (API).
Într-un scenariu de testare creat de Rand Corporation, un model de limbaj anonimizat a identificat potențiali agenți biologici, inclusiv cei responsabili de variolă, antrax și ciumă, și a discutat despre probabilitatea lor de a provoca moarte în masă.
Modelul de limbaj a evaluat, de asemenea, posibilitatea de a obține rozătoare sau purici infestați cu ciumă și de a transporta specimene vii. A fost menționat că numărul de decese estimate depinde de factori precum dimensiunea populației afectate și proporția cazurilor de ciumă pneumonică, care este mai letală decât ciuma bubonică.