ONU dorește să introducă un moratoriu privind utilizarea IA: de ce este necesar și unde va conduce?

Cum a început totul?

În septembrie 2021, a fost publicat un nou raport al ONU.Experții au studiat modul în care țările și companiile

să aplice sisteme de inteligență artificială care afectează viața și mijloacele de subzistență ale oamenilor fără a crea măsuri adecvateprotecție pentru prevenirea discriminării și a altor prejudicii.

Ieri, șeful ONU pentru drepturile omului, MichelBachelet, a cerut un moratoriu pentru utilizarea tehnologiilor de inteligență artificială care reprezintă o amenințare serioasă pentru drepturile omului. Inclusiv sisteme de scanare a persoanelor care urmăresc persoane în locuri publice. Ea a menționat că țările ar trebui să interzică imediat cererile de IA care nu respectă legislația internațională în domeniul drepturilor omului.

Unde este inacceptabilă utilizarea AI?

Cererile care urmează să fie interziseAcestea includ sisteme guvernamentale de „evaluare socială” care evaluează oamenii pe baza comportamentului lor și anumite instrumente bazate pe AI care împart oamenii în grupuri, cum ar fi etnia sau sexul.

Tehnologiile bazate pe IA "pot fi o forță a binelui" și pot duce, de asemenea, la "consecințe negative, chiar catastrofale" dacă sunt utilizate indiferent de modul în care afecteazădrepturile omului ", a spus Bachelet într-o declarație.

„Nu este vorba despre lipsa de artificialinformații”, le-a explicat reporterilor Peggy Hicks, director de interacțiune tematică la Centrul ONU pentru Drepturile Omului. Ea s-a adresat presei în timp ce prezenta raportul la Geneva. „Ideea este că, dacă AI va fi utilizată în aceste domenii funcționale foarte importante legate de drepturile omului, atunci trebuie făcută corect. Și noi pur și simplu nu am creat structura care asigură aceasta.”

Bachelet nu a cerut o interdicție completătehnologia de recunoaștere facială, dar a remarcat că guvernele ar trebui să nu mai scaneze comportamentul oamenilor în timp real. De exemplu, pentru a evalua performanța personalului. Trebuie să vă asigurați că tehnologia este exactă și că IA este imparțială și îndeplinește standardele de confidențialitate și de protecție a datelor.

Raportul ridică, de asemenea, îngrijorări cu privire lainstrumente care încearcă să determine starea emoțională și mentală a oamenilor analizând expresiile feței sau mișcările corpului. Experții subliniază că astfel de tehnologii sunt supuse părtinirii, interpretării greșite și lipsei unei baze științifice.

„Utilizarea sistemelor de către autoritățile de statRecunoașterea emoțiilor, de exemplu pentru a evidenția persoanele pentru detenția sau arestarea poliției sau pentru a evalua veridicitatea declarațiilor în timpul interogatoriilor, riscă să submineze drepturile omului, cum ar fi intimitatea, libertatea și corectitudinea sistemului judiciar ”, se spune în raport.

Unde este deosebit de acută problema utilizării IA?

Deși numele anumitor țări din raportnu sunt menționate, merită menționat China. Să ne amintim că în luna mai autoritățile au lansat un program de testare a camerelor de recunoaștere a emoțiilor asupra uigurilor din regiunea de vest a Xinjiang. Și recunoașterea uigurilor înșiși. Să ne amintim că în 2018, Human Rights Watch a publicat un raport despre persecuția populației musulmane din regiunea chineză Xinjiang. Potrivit organizației, în ultimii ani, uigurii au fost reținuți acolo în masă și adesea fără motiv, plasându-i în închisori și lagăre educaționale; Milioane de oameni sunt sub supraveghere video constantă, iar statutul lor social și soarta depind de punctele acumulate în sistemul „credit social”.

Cu toate acestea, autorii cheie ai raportului au spus că numirea anumitor țări nu era în competența lor și ar putea fi chiar contraproductivă.

„În contextul chinez, cumiar în alte contexte, ne preocupă transparența și aplicațiile discriminatorii care vizează anumite comunități”, explică purtătorul de cuvânt al ONU, Peggy Hicks.

Ea a citat mai multe dosare judiciare din SUA și Australia în care inteligența artificială a fost utilizată în mod abuziv.

Unul dintre cele mai puternice precedente din Statele Unite -situație cu Amazon. Această corporație este unul dintre centrele de dezvoltare în domeniul inteligenței artificiale. În 2017, compania a închis un proiect pilot de recrutare bazat pe AI, pe care îl desfășura de aproape trei ani. Una dintre problemele cheie a fost discriminarea de gen a candidaților - algoritmul a subestimat evaluările femeilor candidate.

Între timp, în Australia, instanța a creat o revoluțieprecedent. Sistemele de inteligență artificială pot fi acum recunoscute legal ca inventatori în cererile de brevet. Cu toate acestea, nu toată lumea a fost de acord cu această decizie.

Care este linia de jos?

Recomandările raportului reflectă opiniile multoralideri politici din democrațiile occidentale. Este important nu numai să valorificăm potențialul economic și social al IA, ci și să abordăm preocupările tot mai mari cu privire la fiabilitatea instrumentelor care urmăresc și profilează oamenii.

Secretarul american al Comerțului Gina Raimondo în timpulo conferință virtuală din iunie a consolidat îngrijorările oficialilor ONU. „Este înfricoșător să ne gândim cum poate fi folosit pentru a consolida în continuare tendințele discriminatorii", a spus ea. „Trebuie să ne asigurăm că nu permitem acest lucru."

Astfel, autoritățile de reglementare europene sunt dejaau luat măsuri pentru a reduce cele mai riscante aplicații AI. Regulile propuse, stabilite de oficialii Uniunii Europene în acest an, vor interzice anumite utilizări ale IA, cum ar fi scanarea facială în timp real, și vor controla strict alte utilizări care ar putea amenința siguranța omului sau drepturile omului.

A citi Mai departe

O barcă unică se transformă într-un submarin în două minute și este invizibilă pentru inamic

Fizicienii au răcit atomii la cea mai scăzută temperatură din lume

Cel mai detaliat model al Universului a fost publicat online. Oricine îl poate studia