Cercetare: oamenii nu vor putea controla mașinile superinteligente AI

Sistemele AI provoacă deja îngrijorare, în special cele care pot controla alte mașini. Mulți

oamenii de stiinta iau o pozitie prudenta in ceea ce privesteIA suprainteligentă și incontrolabilă. O echipă internațională de cercetători, folosind calcule teoretice, a demonstrat că va fi pur și simplu imposibil de controlat AI superinteligentă.

Să presupunem că cineva trebuie să programezeun sistem de inteligență artificială cu inteligență umană superioară, astfel încât să poată învăța independent de un om. Apoi AI conectat la Internet va avea acces la toate datele umanității. De asemenea, el va fi capabil să înlocuiască toate programele existente și să preia controlul asupra tuturor mașinilor din întreaga lume. Se va întâmpla această utopie sau distopie? Va reuși AI să vindece cancerul, să aducă pacea mondială și să prevină catastrofa climatică? Sau va distruge omenirea și va prelua Pământul?

Informaticienii și filozofii se întreabă dacă vom fi capabili să controlăm AI superinteligentă pentru a ne asigura că nu reprezintă o amenințare pentru umanitate.

„Mașina superinteligentă care conduce lumea,sună ca science fiction. Dar există deja mașini care îndeplinesc anumite sarcini importante complet independent, iar programatorii nu înțeleg pe deplin cum au învățat acest lucru. Prin urmare, se pune întrebarea dacă acest lucru ar putea deveni la un moment dat incontrolabil și periculos pentru umanitate ", spune co-autorul studiului Manuel Sebrian, șeful grupului de mobilizare digitală de la Centrul pentru Oameni și Mașini de la Institutul Max Planck pentru Dezvoltarea Umană.

Oamenii de știință au explorat două idei diferite despre cumAI superinteligentă poate fi controlată. Pe de o parte, capacitățile AI superinteligente ar putea fi limitate în mod specific, de exemplu, izolându-l de Internet și de toate celelalte dispozitive tehnice, astfel încât să nu poată contacta lumea exterioară, dar acest lucru ar face AI superinteligentă mult mai puțin puternică și mai puțin capabilă să răspundă la misiunile umanitare. ... Fără o astfel de oportunitate, AI de la bun început ar putea fi motivată să urmărească doar obiective care să îndeplinească interesele umanității, de exemplu, prin programarea principiilor etice în ea. Cu toate acestea, cercetătorii arată, de asemenea, că acestea și alte idei moderne și istorice pentru controlul AI superinteligente își au limitele.

În cercetarea lor, echipa sa dezvoltatun algoritm teoretic de izolare care asigură că AI superinteligentă nu poate dăuna oamenilor în niciun caz prin simularea comportamentului AI și oprirea acestuia dacă este considerată dăunătoare. Dar o analiză atentă arată că în paradigma noastră actuală de calcul, un astfel de algoritm nu poate fi construit.

„Dacă descompunem problema în reguli de bazăinformatică teoretică, se dovedește că un algoritm care ar spune AI să nu distrugă lumea și-ar putea opri din greșeală propriile operațiuni. Dacă s-ar întâmpla acest lucru, nu ați ști dacă algoritmul de izolare ar analiza în continuare amenințarea și dacă l-ar opri pentru a conține AI rău intenționat. În esență, acest lucru face inutilizabil algoritmul de izolare ”, spune Iyad Rahwan, directorul Centrului pentru Oameni și Mașini.

Pe baza acestor calcule, problema izolare nu este fezabilă, adică niciun algoritm nu poate găsi o soluție pentru a determina dacă AI va dăuna lumii sau nu.

Vezi și:

Ministerul Sănătății din Argentina a dezvăluit date despre efectele secundare la cei care au primit „Sputnik V”

Ornitorincul s-a dovedit a fi un amestec genetic de mamifere, păsări și reptile

Avortul și știința: ce se va întâmpla cu copiii care vor naște