Ilya Viksnin, ITMO - o Volze, funkční bezpečnosti a demokratickém řešení problému s vozíkem

Může ležet dron?

— Téma vaší přednášky je „Proč nutíme roboty lhát“. Leží ve své klasice

porozumění – záměrné poskytování nesprávných informací a zároveň vlastnictví správných informací. Jak tomu rozumíme v kontextu robotů?

— V našem případě je lež, když informace ozpůsob, jakým funguje skutečný svět, neodpovídá tomu, co čteme a vysíláme navenek. Z jakého důvodu? Náš senzor je rozbitý a opravdu to tak vidíme, nebo to falšujeme kvůli falzifikaci, nebo z nějakého jiného důvodu. Když spolu komunikujeme, umím lhát. Protože se mýlím ve svých závěrech nebo špatně vidím. Nezáleží na vás, tyto informace pro vás budou v každém případě nepravdivé. Proto jsme se podívali na způsoby ovládání, díky kterým je systém bezpečný.

- Když mluvíte o robotech a „multi-agentových systémech“, máte na mysli vozidla bez posádky?

- Ne, tohle je jen nejoblíbenější destinace. Nejoblíbenějšími tématy jsou bezpilotní dopravní prostředky.

- Testujete řešení problémů, které mohou nastat?

- Máme dvě úrovně. Na první úrovni se podíváme na to, jaké informace putují uvnitř dronu, protože informace ze senzorů jsou stále zpracovávány před tím, než se dostane do výpočetního zařízení. Na druhé úrovni se mezi drony vyměňují informace a my to také testujeme. Podíváme se na to, jak to souvisí se skutečným světem.

- Drones jsou nyní jiní - vojenští, civilní a jiní. Jsou droni, kteří si takto vyměňují informace - je to určitá třída?

- Ne, vlastně každý se může vyměnit.Upřímně nevím o jediném dronovém zařízení, které by nesdílelo informace. I když ovládáte dálkovým ovladačem, stále jej můžete získat. Proto pracujeme na poměrně vysoké úrovni abstrakce pomocí soukromých implementací, ale obecně se jedná o poměrně obecná řešení – jak se říká generika.

- V uplynulém roce jsme zaznamenali případy, kdy se jedná o dronyproblémy pro lidi. Drony, které mohou narazit do letadel, dronů, které zablokovaly dráhy. Je možné takové situace nějak zabránit?

- Pokud je ovládán člověkem, pak jen- prostě to srazil. To znamená, aby převzal kontrolu, udělal mu to, co chceme, nebo jen fyzicky zničit. Pokud byl dron zakoupen, zpočátku již někdo sestavil a my ho spravujeme na zakázku, pak můžete tyto standardní algoritmy znát. Ale teď k sestavení drone je úkol pro základní univerzitní nebo střední školy kurzy. Mnoho manuálů, dílů lze zakoupit bez problémů, není to příliš drahé. Proto logika, která bude uvnitř takových vlastních dronů, nemůže být plně standardizována.

- Řekl jste o zachycení kontroly. Co je na tom možné?

- Pokud vezmeme v úvahu nějaké koupenésystému, známe protokoly, na kterých komunikuje. Teoreticky můžeme nahradit ovládací panel. Ale je to takový netriviální úkol. Z hlediska inženýrství a vědy to lze udělat. V praxi se jedná o velmi obtížný technický úkol. Ale řešitelný.

- Nikdo neví, jak to udělat?

- Pokud vím, nikdo. V každém případě takové informace nejsou veřejně dostupné.

- Jaké další problémy vidíte v blízké budoucnosti, pokud hovoříme o dronech?

— Pro mě jako hlídače je hlavní problémže systém nebude fungovat tak, jak si lidé přejí. Nemluvím o „Matrixu“, ale o tom, že někde může být porušena logika a chování systému. Chceme vidět jeden výsledek, ale bude další. Zhruba řečeno, chceme z těchto dronů postavit stadion. Hlavním problémem je, že cihla v základu nebude umístěna podle potřeby. To znamená, že stadion postavíme globálně, ale tyto malé odchylky v rámci konstrukce povedou ke zhroucení celé konstrukce.

- Pokud naprogramujeme veškerý software pro tyto drony, z jakého důvodu mohou tyto cihly špatně?

- Podívejte, svět počítačů se skládá z nul ajedna, vše je jasné. Položili jsme tuto logiku a dostali jsme odpověď. Fyzický svět se skládá z řady hodnot od nuly do jedné. To, co si představujeme na výpočetní úrovni, se nemusí přenést do reálného světa. Záblesk slunce, poryv větru a cihla už nebyla správně zarovnaná. To je úkolem nového vědního oboru – funkční bezpečnosti, odvozené od bezpečnosti informací, kdy se snažíme přizpůsobit působení okolí a vyvinout řešení, které nám umožní sestavit cihlu bez ohledu na vnější faktory. A to je těžký úkol. Má řešení, ale žádné z nich zcela nezaručuje úspěch.

- V masovém přístupu se drony nezdali tak dávno. Myslíte si, že situace bude i nadále stejná, že můžu jít a koupit drone? Teď je to hračka, může to změnit?

- Nejsem právník, ale smírně by to mělo býtzavedena některá omezení. Ze seriálu „koupit velký drone bez jakýchkoli dokumentů, licencí a dalších věcí je špatně“. Koupit hračku drone? Proč ne, je nepravděpodobné, že by způsobil mnoho škod. Opět platí, že příběh je, že pokud si přejete, všechno může být zabaleno do negativního světla. Proto bych, já, člověk spojený s vědou, rád, aby to bylo veřejně dostupné. Ale člověk, který chodí po ulicích, by rád uvalil rozumná omezení. Je to rozumné.

Rozvědka rojů - v robotech a lidech

- Byl jste zapojen do předvídání chování lidí.v nouzových situacích a simuloval to na základě tragédie v "The Lame Horse". Je jasné, jak můžete vytvořit digitální model. Jak ale můžete předvídat chování lidí? Na základě jakých dat?

- Ne, ve skutečnosti. Člověk se obecně chová zcela spontánně, zejména v nouzových případech. Ale máme hypotézu, kterou jsme testovali modelováním situace, která nastala.

— Jak jste modelovali chování lidí? Vaše výsledky byly velmi blízké realitě.

- Pokud mluvíme o logice, která je tamje to takzvaná inteligence rojů. Průměrování pohybu, výběr podmíněných vůdců, pohyb do východu a tak dále. Docela triviální princip. Obecně platí, že princip jakékoli inteligence - máme částici, která se může chovat velmi hloupě, má velmi banální a jednoduché principy. Nakonec se však tento efekt dosáhne, když se celý systém chová velmi inteligentně.

- Nyní mluvíte v termínech, které se více týkají technologie. Pokud mluvíme o lidech, je to totéž?

- Robot je postaven na principech člověka. Pokud vezmu systém od osoby a aplikuji ho na robota, pak můžu alespoň použít systém z robota na osobu. V oblasti IT jsou tato pravidla formulována na velmi dlouhou dobu. Alespoň od roku 1986.

- Ve skutečnosti jste dokázal, že funguje na veřejnosti?

- Ano, snažili jsme se a funguje to. Nejsem sociolog a ne psycholog, ale zdá se mi, že výsledek z hlediska provádění vědeckého experimentu se ukázal být pravdivý: člověk v nouzových případech klesá na spíše banální úroveň chování. A tato banální úroveň může být kopírována z chování ptáků, podmíněně. V zásadě to dopadlo.

„Raději mě zabiju než dítě“: etika UAV

- Mluvil jste o etických otázkáchUAV a dilema volby, pokud musí někoho zabít. Problém vozíku je v reálném životě sotva možný. Ale obecně si myslíte, že takové věci potřebujete naprogramovat? A mohou se objevit v reálném životě?

- Určitě vzniknou v reálném životě apokud to neprogramujeme, co se stane potom? Podívejme, vyvinuli jsme algoritmus, stroj funguje, všechno jde, a pak se stane, že babička a dítě vyběhly z různých konců silnice. Nebudeme-li v tomto případě logiku chování, pak bychom odmítli morální odpovědnost za ni. To je krok směrem ke zbabělosti.

Boční panel

"Pokud do takové situace nepostavíme určitý model chování do bezpilotního systému, co bude dělat?"

— Záleží na systému. Možná se pokusí minimalizovat svá rizika a podmíněně sestřelí toho, kdo je blíž.

- Říkáte, že musíme všechno naprogramovat. Kdo se pak musí rozhodnout, kdo sestřelí?

- Zdá se mi, že Massachusetts (MIT - „High-tech“) šel správnou cestou - demokracií.

Vědci z Massachusetts TechnologyInstitut (MIT) vytvořil hru, ve které si uživatel může vybrat mezi dvěma variantami chování bezpilotního vozidla v případě etických dilemat. Výsledkem byla globální studie, na které se miliony lidí podílely ve stovkách zemí. Ukázalo se, že lidé v různých zemích mají různé představy o tom, jak by se droni měli zabývat etickými otázkami.

- Musíme tedy hlasovat, kdo by měl sestřelit drone?

- Spíš ne. Musí existovat sociologická studie, která nám umožní výběr. Bude za to zodpovědné celé lidstvo, nejen jeden programátor.

- Myslíte si, že to bude fungovat, lidé to přijmou?

- To stále způsobí nespokojenost, protoževelký počet lidí dostal na výběr a někdo s tím přirozeně nebude souhlasit. Ale pokud neexistuje vůbec žádná volba a místo toho existuje autoritativní rozhodnutí, pak to není úplně spravedlivé.