Reclamă

Un studiu realizat de Rand Corporation a atras atenția asupra posibilității ca modelele de inteligență artificială folosite în chatbot-uri să poată fi utilizate în planificarea unui atac cu o armă biologică. Aceste constatări au fost prezentate într-un raport lansat recent și ridică îngrijorări în privința potențialelor riscuri asociate cu utilizarea AI în acest sens.

Raportul Rand Corporation a analizat mai multe modele de limbaj (LLM) și a constatat că acestea pot furniza îndrumări care ar putea facilita planificarea și executarea unui atac biologic. Un model de limbaj este un sistem probabilistic care poate genera probabilități pentru cuvinte și expresii bazate pe texte existente într-o limbă sau mai multe în care a fost instruit.

Cu toate acestea, cercetările preliminare au relevat că modelele de limbaj nu au generat instrucțiuni explicite pentru crearea armelor biologice. Raportul a menționat că încercările anterioare de înarmare a agenților biologici, precum încercarea cultului japonez Aum Shinrikyo de a utiliza toxina botulinică în anii ’90, au eșuat din cauza lipsei de înțelegere a bacteriei respective.

Potențialul inteligenței artificiale de a umple lacunele de cunoștințe în domeniul armelor biologice

Raportul a subliniat că inteligența artificială ar putea juca un rol important în reducerea lacunelor de cunoștințe în acest domeniu. AI ar putea contribui la înțelegerea mai bună a bacteriilor și a agenților biologici, ceea ce ar putea preveni eventualele atacuri biologice. Cu toate acestea, raportul nu a specificat care modele de limbaj au fost testate în cadrul cercetărilor.

Armele biologice sunt considerate o amenințare serioasă asociată cu inteligența artificială și vor fi discutate în cadrul summit-ului global privind siguranța inteligenței artificiale care va avea loc în Marea Britanie în viitorul apropiat. CEO-ul companiei de AI Anthropic, Dario Amodei, a avertizat anterior că sistemele de inteligență artificială ar putea contribui la crearea de arme biologice în următorii doi până la trei ani.

Raport înfiorător: Chatbot-urile AI ar putea ajuta la planificarea atacurilor cu arme biologice. Lumea, în pericol?
Colaj Substantial

Modelele de limbaj și utilizarea lor în chatbot-uri și AI

Modelele de limbaj, precum cele testate în cadrul acestui studiu, sunt instruite pe baza unor cantități mari de date preluate de pe internet și reprezintă o tehnologie fundamentală în dezvoltarea chatbot-urilor, cum ar fi ChatGPT. Deși nu au fost dezvăluite detalii despre modelele testate, cercetătorii au avut acces la acestea prin intermediul unei interfețe de programare a aplicațiilor (API).

Într-un scenariu de testare creat de Rand Corporation, un model de limbaj anonimizat a identificat potențiali agenți biologici, inclusiv cei responsabili de variolă, antrax și ciumă, și a discutat despre probabilitatea lor de a provoca moarte în masă.

Modelul de limbaj a evaluat, de asemenea, posibilitatea de a obține rozătoare sau purici infestați cu ciumă și de a transporta specimene vii. A fost menționat că numărul de decese estimate depinde de factori precum dimensiunea populației afectate și proporția cazurilor de ciumă pneumonică, care este mai letală decât ciuma bubonică.


Reclamă

Share.

Tânăr jurnalist de 25 de ani, absolventă a Facultății de Litere din Craiova, promptă atunci când vine vorba de redactarea articolelor de calitate, Mădălina a mai profesat în domeniu pentru cunoscute publicații din branșă. Iubește autenticitatea și este mereu la curent cu tot ceea ce se întâmplă în domeniul pe care a ales să-l urmeze. Este dinamică, informată și gata să facă față oricărei provocări, indiferent cât de dificilă pare.

© 2024 Editura Substantial SRL – substantial.ro