HomeActualități Americane

De ce nu putem avea încredere în Open AI pentru a ne proteja de o „tehnologie periculoasă”

De ce nu putem avea încredere în Open AI pentru a ne proteja de o „tehnologie periculoasă”

Un grup din interiorul Open AI trage un semnal de alarmă cu privire la compania care construiește AGI, sau Inteligența Generală Artificială, spunând c

Un grup din interiorul Open AI trage un semnal de alarmă cu privire la compania care construiește AGI, sau Inteligența Generală Artificială, spunând că aceasta nu a făcut suficient pentru a preveni ca sistemele sale de inteligență artificială să devină periculoase.

Din grup fac parte nouă actuali și foști angajați ai Open AI, care spun că, în încercarea de a construi sisteme care pot face orice poate face un om, compania a pus cursa pentru profit și creștere înaintea siguranței.

Aceștia mai spun că Open AI folosește „tactici dure” cu angajații pentru a-i împiedica să își exprime îngrijorările și pentru a-i forța pe cei care părăsesc compania să semneze acorduri de confidențialitate.

„OpenAI este foarte entuziasmată de construirea A.G.I. și se întrece cu nesăbuință pentru a fi prima acolo”, a declarat Daniel Kokotajlo, un fost cercetător în cadrul diviziei de guvernanță a OpenAI. Kokotajlo este unul dintre organizatorii grupului disident.

„Suntem mândri de palmaresul nostru de a furniza cele mai capabile și mai sigure sisteme de inteligență artificială și credem în abordarea noastră științifică pentru a aborda riscurile”, a declarat Lindsey Held, purtător de cuvânt al Open AI. „Suntem de acord că o dezbatere riguroasă este crucială, având în vedere importanța acestei tehnologii, și vom continua să ne implicăm cu guvernele, societatea civilă și alte comunități din întreaga lume”.

Nu este prima dată când angajații Open AI încearcă să ne avertizeze cu privire la ritmul de dezvoltare.

Potrivit The New York Times:

Luna trecută, doi cercetători seniori din domeniul inteligenței artificiale – Ilya Sutskever și Jan Leike – au părăsit OpenAI în condiții foarte dificile. Dr. Sutskever, care a făcut parte din consiliul de administrație al OpenAI și a votat pentru concedierea dlui Altman, a tras un semnal de alarmă cu privire la riscurile potențiale ale sistemelor puternice de inteligență artificială. Plecarea sa a fost văzută de unii angajați preocupați de siguranță ca un eșec.

La fel a fost și plecarea doctorului Leike, care, împreună cu doctorul Sutskever, condusese echipa de „supraaliniere” a OpenAI, care se concentrase pe gestionarea riscurilor modelelor puternice de I.A. Într-o serie de postări publice în care și-a anunțat plecarea, Dr. Leike a declarat că el crede că „cultura și procesele de siguranță au trecut pe locul doi în fața produselor strălucitoare”.

Nici Dr. Sutskever și nici Dr. Leike nu au semnat scrisoarea deschisă scrisă de foștii angajați. Dar plecările lor au galvanizat alți foști angajați ai OpenAI să se exprime.

„Când m-am înscris la OpenAI, nu m-am înscris pentru această atitudine de «Hai să lansăm aplicația în lume, să vedem ce se întâmplă și să le reparăm după aceea»”, a declarat William Saunders, un inginer de cercetare care a părăsit OpenAI în februarie.

Într-adevăr, trebuie să ne întrebăm cât de mult este exagerat pericolul de către disidenți pentru a-și susține punctul de vedere. Grupul dorește ca Open AI să „stabilească o mai mare transparență și mai multe protecții pentru denunțători”, potrivit The Times.

Unii dintre foștii angajați au legături cu altruismul efectiv, o mișcare de inspirație utilitaristă care a devenit preocupată în ultimii ani de prevenirea amenințărilor existențiale din partea inteligenței artificiale. Criticii au acuzat mișcarea de promovarea unor scenarii apocaliptice cu privire la această tehnologie, cum ar fi ideea că un sistem de inteligență artificială scăpat de sub control ar putea prelua controlul și distruge omenirea.

Dl Kokotajlo, în vârstă de 31 de ani, s-a alăturat OpenAI în 2022 ca cercetător în domeniul guvernanței și i s-a cerut să prognozeze progresul AI El nu a fost, ca să spunem așa, optimist.

În slujba sa anterioară, la o organizație de siguranță AI, a prezis că AGI ar putea ajunge în 2050. Dar, după ce a văzut cât de repede se îmbunătățea AK, și-a scurtat termenele. Acum crede că există 50% șanse ca AGI să ajungă în 2027 – în doar trei ani.

Transparența este întotdeauna un lucru bun. Sau nu? Răspândirea pe internet a secretelor de proprietate ale Open AI ar fi dăunătoare pentru companie. Și nu sunt convins că unii dintre acești utilitariști nu se opun, din răutate, dorinței companiei de a obține un profit mai mare.

În același timp, Skynet, sau oricare ar fi echivalentul AGI, ar trebui să fie împiedicat să crească prea mult și prea repede.

Putem gestiona cu adevărat creșterea AGI? Cred că vom afla până în 2027.

Tribuna.US

Foto: Andrew Neel/Unsplash

COMMENTS

WORDPRESS: 0
DISQUS: 0