Acord istoric la Seul în privința utilizării responsabile și sigure a inteligenței artificiale

Inteligența artificială
Inteligența artificială
23 mai 2024, 09:25 (actualizat 23 mai 2024, 10:41)

Principalele companii de tehnologie, inclusiv Microsoft, Amazon și OpenAI au semnat un Acord internațional de referință privind siguranța inteligenței artificiale.

Un acord între acești giganți ai internetului care controlează și principalele instrumente de inteligență artificială este o premieră. Inteligenta artificiala ar putea contribui cu 6-8 trilioane de dolari la economia globală, generând creștere în diverse sectoare. Imens! Din acest motiv, acordul de la Seul este important și marchează un moment istoric în eforturile globale de asigurare a dezvoltării responsabile a tehnologiei IA (inteligenței artificiale).

În urma acestui acord, companii din țări precum SUA, China, Canada, Regatul Unit, Franța, Coreea de Sud și Emiratele Arabe Unite și-au luat angajamente voluntare pentru a garanta că cele mai avansate modele de IA sunt dezvoltate și implementate în condiții de siguranță.

Producătorii de modele IA au convenit să publice regulile de siguranță care stabilesc modurile de evaluare a provocărilor aduse de modelele lor, în special pentru a preveni utilizarea neadecvată a tehnologiei de către actori rău intenționați. Aceste reguli vor include „linii roșii” care definesc tipurile de riscuri considerate „intolerabile”, cum ar fi atacurile cibernetice automate și amenințările cu arme biologice.

Pentru a răspunde acestor riscuri extreme, companiile intenționează să implementeze un „buton roșu”, un mecanism care ar opri dezvoltarea modelelor de IA dacă nu pot fi garantate măsuri de atenuare a acestor riscuri.

Acordul de marți extinde un set anterior de angajamente luate de companiile implicate în dezvoltarea de software AI generativ în noiembrie anul trecut.

Companiile au convenit să primească contribuții cu privire la aceste praguri de la „actori de încredere”, inclusiv guvernele lor de origine, înainte de a le elibera înainte de următorul summit AI planificat – Summit-ul de acțiune AI din Franța – la începutul anului 2025.

Angajamentele convenite marți se aplică doar modelelor de frontieră, termen ce se referă la tehnologia din spatele sistemelor de inteligență artificială generativă, cum ar fi familia GPT de modele mari de limbaj OpenAI, care alimentează popularul chatbot AI ChatGPT.

Uniunea Europeană a încercat să restrângă dezvoltarea neîngrădită a IA prin crearea Actului său AI, care a fost aprobat de Consiliul UE. În schimb, Regatul Unit a optat pentru o abordare „ușoară” a reglementării IA, aplicând legile existente.

CITEȘTE ȘI: Parlamentul European adoptă în premieră o lege care reglementează inteligenţa artificială

Guvernul britanic a declarat recent că va lua în considerare legislația pentru modelele de frontieră în viitor, dar nu a stabilit un calendar pentru introducerea unor legi formale.

CITEȘTE ȘI: Camere de supraveghere cu inteligență artificială, în spitalele din Danemarca. Timpul de reacție al asistentelor s-a redus la jumătate

Summitul de la Seul reprezintă un pas major în direcția unei utilizări responsabile și sigure a inteligenței artificiale. Prin acest acord, liderii din tehnologie și guvernele din întreaga lume și-au demonstrat angajamentul față de o dezvoltare etică și transparentă a IA, punând bazele pentru colaborări internaționale viitoare în domeniu.

Urmărește-ne pe Google News

Ultima Oră

Cele mai citite