Elon Musk și alți 1.000 de lideri din IT cer oprirea imediată a dezvoltării unor AI-uri mai puternice decât GPT-4

Posted by
Share Button

Magnatul Elon Musk şi un grup de experţi în inteligenţă artificială şi responsabili din industria IT au făcut apel la o pauză de şase luni în pregătirea de sisteme mai puternice decât modelul GPT-4 recent lansat de laboratoarele OpenAI, avertizând într-o scrisoare deschisă asupra potenţialelor riscuri la adresa societăţii şi omenirii, relatează miercuri Reuters.

Scrisoarea publicată de institutul non-profit Future of Life şi semnată de peste 1.000 de persoane – între care Elon Musk, şeful companiei Stability AI Emad Mostaque, cercetători de la laboratorul DeepMind al grupului Alphabet şi informaticieni de prestigiu ca Yoshua Bengio şi Stuart Russell – cere o pauză în dezvoltarea AI avansate până când nu vor fi create, implementate şi verificate de experţi independenţi protocoale de securitate comune pentru astfel de modele.

„Nu ar trebui dezvoltate sisteme AI puternice decât după ce vom putea avea încredere că efectele lor sunt pozitive şi putem gestiona riscurile”, se arată în scrisoare.

Aceasta explică de asemenea că sistemele de AI ce intră în competiţie cu inteligenţa umană generează potenţiale riscuri pentru societate şi civilizaţie sub forma tulburărilor economice şi politice şi îi îndeamnă pe dezvoltatorii de astfel de sisteme să conlucreze cu factorii de decizie politică şi autorităţile de reglementare.

Musk, a cărui companie Tesla foloseşte IA pentru sistemul de autopilotare al maşinilor autonome, şi-a exprimat în mod repetat preocuparea în legătură cu inteligenţa artificială. Luni, forţa de poliţie a UE Europol s-a alăturat la rândul ei corului de preocupări etice şi juridice cu privire la sistemele avansate de IA cum este ChatGPT, avertizând împotriva unor potenţiale utilizări abuzive ale acestora sub forma tentativelor de phishing, a dezinformării şi criminalităţii informatice.

După ce anul trecut OpenAI, cu sprijinul Microsoft, a lansat ChatGPT, concurenţa a accelerat dezvoltarea de modele similare ce integrează inteligenţa artificială generativă.

Sam Altman, CEO al OpenAI, nu a semnat scrisoarea, menţionează Reuters, citând un purtător de cuvânt de la Future of Life.

„Scrisoarea nu este perfectă, dar este corectă: trebuie să scădem ritmul până când vom înţelege mai bine ramificaţiile”, a notat Gary Marcus, profesor la Universitatea New York şi unul dintre semnatari. Sisteme puternice de IA „pot provoca daune grave (…), marii jucători sunt din ce în ce mai secretoşi în legătură cu ceea ce fac, iar societăţii îi va fi mai greu să se apere de problemele care se pot materializa”, a adăugat acesta.

404
Share Button

Leave a Reply