La două săptămâni după ce membrii Congresului l-au interogat pe directorul general al OpenAI, Sam Altman, cu privire la potențialul instrumentelor de inteligență artificială de a răspândi dezinformări, de a perturba alegerile și de a înlocui locurile de muncă, acesta și alți membri ai industriei au făcut publică o posibilitate mult mai înfricoșătoare: o apocalipsă a inteligenței artificiale.
Altman, a cărui companie se află în spatele instrumentului de chatbot viral ChatGPT, s-a alăturat directorului executiv al Google DeepMind, Demis Hassabis, directorului tehnic al Microsoft, Kevin Scott, și altor zeci de cercetători în domeniul inteligenței artificiale și lideri din mediul de
Avertismentul dur a fost mediatizat pe scară largă în presă, unii sugerând că acesta arată necesitatea de a lua mai în serios astfel de scenarii apocaliptice.
Această dinamică s-a manifestat recent și în alte părți. Directorul general al Tesla, Elon Musk, de exemplu, a declarat într-un interviu televizat în aprilie că AI ar putea duce la "distrugerea civilizației". Dar el rămâne în continuare profund implicat în această tehnologie prin investiții în întregul său imperiu de afaceri tentacular și a declarat că dorește să creeze un rival pentru ofertele de inteligență artificială ale Microsoft și Google.
Unii experți din industria IA spun că concentrarea atenției asupra unor scenarii îndepărtate poate distrage atenția de la daunele mai imediate pe care o nouă generație de instrumente puternice de IA le poate provoca oamenilor și comunităților, inclusiv răspândirea de informații eronate, perpetuarea prejudecăților și facilitarea discriminării în diverse servicii.
"Motivele păreau să fie amestecate", a declarat Gary Marcus, un cercetător în domeniul IA și profesor emerit al Universității din New York, care a depus mărturie în fața legislatorilor alături de Altman luna trecută. Unii dintre directori sunt probabil "cu adevărat îngrijorați de ceea ce au dezlănțuit", a spus el, dar alții ar putea încerca să concentreze atenția asupra "posibilităților abstracte pentru a distrage atenția de la posibilitățile mai imediate".
Reprezentanții Google și OpenAI nu au răspuns imediat la o solicitare de comentarii. Într-o declarație, un purtător de cuvânt al Microsoft a spus: "Nu am avut nicio reacție: "Suntem optimiști în ceea ce privește viitorul inteligenței artificiale și credem că progresele din domeniul inteligenței artificiale vor rezolva mult mai multe provocări decât cele pe care le prezintă, dar am fost, de asemenea, consecvenți în convingerea noastră că, atunci când creezi tehnologii care pot schimba lumea, trebuie să te asiguri, de asemenea, că tehnologia este utilizată în mod responsabil."
Preocupări imediate vs. "scenarii imaginare de science-fiction
Pentru Marcus, care se autodefinește ca fiind un critic al hype-ului IA, "cea mai mare amenințare imediată din partea IA este amenințarea democrației din cauza producerii în masă de dezinformări convingătoare".
Instrumentele de inteligență artificială generativă, cum ar fi ChatGPT și Dall-E de la OpenAI, sunt antrenate pe baza unor cantități uriașe de date online pentru a crea lucrări scrise și imagini convingătoare ca răspuns la solicitările utilizatorilor.
Cu aceste instrumente, de exemplu, cineva ar putea imita rapid stilul sau asemănarea unor personalități publice în încercarea de a crea campanii de dezinformare.
În mărturia sa în fața Congresului, Altman a declarat, de asemenea, că potențialul ca IA să fie folosită pentru a manipula alegătorii și pentru a viza dezinformarea se numără printre "domeniile mele de cea mai mare îngrijorare".
Cu toate acestea, chiar și în cazurile de utilizare mai obișnuite, există îngrijorări. Aceleași instrumente au fost reclamate pentru că au oferit răspunsuri greșite la solicitările utilizatorilor, pentru că au "halucinat" de-a dreptul răspunsurile și pentru că ar putea perpetua prejudecățile rasiale și de gen.
Citește și: Gingii inflamate la bebelusi: cauze si solutii privind tratamentul
Influențarea autorităților de reglementare
Autoritățile de reglementare ar putea fi adevăratul public vizat de mesajele apocaliptice ale industriei tehnologiei. După cum spune Bender, directorii spun în esență: "Acest lucru este foarte, foarte periculos și noi suntem singurii care înțeleg cum să îl stăpânim"."
Judecând după apariția lui Altman în fața Congresului, această strategie ar putea funcționa. Altman a părut să convingă Washingtonul prin faptul că s-a făcut ecoul preocupărilor legislatorilor cu privire la IA- o tehnologie pe care mulți dintre membrii Congresului încă încearcă să o înțeleagă- și a oferit sugestii privind modul de abordare a acesteia.
Această abordare a reglementării ar fi "extrem de problematică", a declarat Bender. Aceasta ar putea oferi industriei o influență asupra autorităților de reglementare însărcinate să o tragă la răspundere și, de asemenea, ar putea lăsa pe dinafară vocile și opiniile altor persoane și comunități care se confruntă cu impactul negativ al acestei tehnologii.
"Dacă autoritățile de reglementare se orientează către cei care construiesc și vând tehnologia ca fiind singurii care ar putea înțelege acest lucru și, prin urmare, ar putea să ne informeze cu privire la modul în care ar trebui să funcționeze reglementarea, vom pierde cu adevărat", a spus Bender. Bender a spus că încearcă, cu fiecare ocazie, să le spună oamenilor că "aceste lucruri par mult mai inteligente decât sunt". După cum a spus ea, acest lucru se datorează faptului că "suntem atât de inteligenți pe cât suntem", iar modul în care dăm sens limbajului, inclusiv răspunsurilor din partea inteligenței artificiale, "este, de fapt, imaginându-ne o minte în spatele acestuia".
În cele din urmă, Bender a pus o întrebare simplă pentru industria tehnologică cu privire la IA: "Dacă ei cred sincer că acest lucru ar putea duce la dispariția oamenilor, atunci de ce nu se opresc pur și simplu?".
Citește și: Tehnologia 5G- Aspecte negative si influenta generala a retelei
Citește și: Internetul Obiectelor IoT- Cum a evoluat tehnologia SMART moderna?
Citește și: CEO-ul ChatGPT face apel la cooperare globală pentru reglementarea AI!