Smíšený

Nový tréninkový model pomáhá autonomním automobilům vidět slepá místa AI

Nový tréninkový model pomáhá autonomním automobilům vidět slepá místa AI

Od svého zavedení před několika lety si autonomní vozidla pomalu razí cestu na silnici ve stále větším počtu, ale veřejnost je vůči nim i přes nepopiratelné bezpečnostní výhody, které veřejnosti nabízejí, stále opatrná.

Autonomní společnosti vyrábějící vozidla si plně uvědomují skepticismus veřejnosti. Každá havárie ztěžuje získání důvěry veřejnosti a obává se, že pokud společnosti nezvládnou řádné zavedení autonomního vozidla, vůle by mohla zavřít dveře technologie s vlastním pohonem tak, jak nehoda ostrova Three Mile Island vypnula růst jaderných elektráren ve Spojených státech v 70. letech.

Zvýšit bezpečnost autonomních vozidel, než jaká jsou, znamená identifikovat ty případy, na které programátoři možná nikdy nepomysleli a na které umělá inteligence adekvátně nereaguje, ale které lidský řidič intuitivně pochopí jako potenciálně nebezpečnou situaci. Nový výzkum ze společného úsilí MIT a Microsoftu může pomoci překlenout tuto propast mezi strojovým učením a lidskou intuicí k výrobě dosud nejbezpečnějších autonomních vozidel.

Uklidnění opatrné veřejnosti

Pokud by veřejné váhání nebylo faktorem, každé auto na silnici by bylo během několika let nahrazeno autonomním vozidlem. Každý náklaďák by teď byl plně autonomní a nebyli by žádní řidiči Uberu ani Lyftu, pouze kabiny raketoplánu, které byste si objednali telefonicky, a bez řidiče v dohledu by se za pár minut plynule zastavilo na chodníku.

Nehody by se staly a v důsledku toho by lidé stále zemřeli, ale podle některých odhadů by bylo možné zabránit 90% dopravních nehod po celém světě pomocí autonomních vozidel. Autonomní auta možná budou muset dobít, ale nemusí spát, dělat si přestávky a jednodenně se zabývají prováděním pokynů v jejich programování.

Pro společnosti, které spoléhají na přepravu zboží a lidí z bodu A do bodu B, ušetří nahrazení řidičů auty s vlastním řízením náklady na práci, pojištění a další vedlejší náklady spojené s velkou lidskou pracovní silou.

Úspora nákladů a zvýšení bezpečnosti jsou prostě příliš velké na to, aby udržovaly lidi na silnici i za volantem.

Usínáme, řídíme opilí, necháme se rozptylovat nebo jsme prostě špatní v řízení a důsledky jsou nákladné i smrtící. Na silnicích po celém světě zemře každý rok něco málo přes milion lidí a samotný přechod k autonomnímu komerčnímu kamionu by mohl snížit náklady na dopravu některých společností na polovinu.

Veřejnost přesto není přesvědčena a stávají se skeptičtějšími v souvislosti s každým hlášením nehody s autem.

Edge Cases: Achillova pata samojízdných automobilů?

Ať už je to spravedlivé nebo ne, břemeno demonstrace bezpečnosti autonomního vozidla je na těch, kteří se zasazují o technologii vozidel s vlastním řízením. Aby to bylo možné, musí společnosti usilovat o identifikaci a řešení těch okrajových případů, které mohou způsobit mimořádné nehody, které snižují důvěru veřejnosti v jinak bezpečnou technologii.

Co se stane, když vozidlo jede po silnici a všimne si povětrnostní, ohnuté, deformované a vybledlé značky stop? Ačkoli zjevně vzácná situace - dopravní oddělení by pravděpodobně takové znamení odstranily dlouho předtím, než se dostalo do tohoto hrozného stavu - okrajové případy jsou přesně takovou situací.

Případ edge je událost s nízkou pravděpodobností, která by se neměla stát, ale stává se v reálném světě, přesně ty druhy případů, které programátoři a procesy strojového učení nemusí brát v úvahu.

Ve scénáři z reálného světa může autonomní vozidlo značku detekovat a nemá tušení, že se jedná o stopku. Nezachází s ním jako s takovým a mohlo by se rozhodnout projít křižovatkou rychlostí a způsobit nehodu.

Lidský řidič může mít problém identifikovat také stopku, ale u zkušených řidičů je to mnohem méně pravděpodobné. Víme, co je to stopka, a pokud je v něčem jiném než v úplném zkáze, budeme vědět, abychom se na křižovatce zastavili, než aby jím procházeli.

Tento druh situace je přesně to, co vědci z MIT a Microsoftu spojili, aby identifikovali a vyřešili, což by mohlo zlepšit bezpečnost autonomních vozidel a doufejme, že sníží druhy nehod, které by mohly zpomalit nebo zabránit přijetí autonomních vozidel na naše silnice.

Modelování na hraně

Ve dvou příspěvcích prezentovaných na loňské konferenci Autonomous Agents and Multiagent Systems a na nadcházející konferenci Association for the Advancement of Artificial Intelligence vědci vysvětlují nový model pro výcvik autonomních systémů, jako jsou samojízdná auta, která k identifikaci a opravě používají lidské vstupy “ slepá místa “v systémech AI.

Vědci provádějí AI pomocí simulovaných tréninkových cvičení, jak procházejí tradiční systémy, ale v tomto případě člověk pozoruje akce strojů a identifikuje, kdy se stroj chystá udělat nebo udělal chybu.

Vědci poté vezmou tréninková data stroje a syntetizují je se zpětnou vazbou lidského pozorovatele a přenesou je do systému strojového učení. Tento systém poté vytvoří model, který mohou vědci použít k identifikaci situací, kdy AI chybí kritické informace o tom, jak by se měla chovat, zejména v okrajových případech.

„Tento model pomáhá autonomním systémům lépe vědět, co nevědí,“ říká Ramya Ramakrishnan, postgraduální student v Laboratoři výpočetní techniky a umělé inteligence na MIT a hlavní autor studie.

"Mnohokrát, když jsou tyto systémy nasazeny, jejich trénované simulace neodpovídají reálnému prostředí [a] mohou dělat chyby, například dostat se k nehodám." Myšlenkou je bezpečným způsobem překlenout tuto propast mezi simulací a skutečným světem, abychom mohli některé z těchto chyb snížit. “

Problém nastává, když nastane situace, jako je zkreslená stopka, ve které většina případů, na které byla AI trénována, neodráží skutečnou podmínku, kterou by měla být trénována, aby ji rozpoznala. V tomto případě bylo procvičeno, že stopky mají určitý tvar, barvu atd. Mohlo by dokonce vytvořit seznam tvarů, které by mohly být stopkami a pro ty by věděly, že se zastaví, ale pokud nedokáže stopku identifikovat správně by situace mohla skončit katastrofou.

"[B] protože nepřijatelné akce jsou mnohem vzácnější než přijatelné akce, systém se nakonec naučí předvídat všechny situace jako bezpečné, což může být extrémně nebezpečné," říká Ramakrishnan.

Splnění nejvyšších standardů bezpečnosti

Tím, že ukážeme vědcům, že umělá inteligence obsahuje neúplná data, lze autonomní systémy zvýšit na hranici, kde může dojít k vysokým nehodám. Pokud to dokážou, můžeme se dostat do bodu, kdy důvěra veřejnosti v autonomní systémy může začít růst a zavádění autonomních vozidel může začít vážně, a díky tomu budeme všichni bezpečnější.


Podívejte se na video: Konec snění začátek dění - recept na pořádný hrudník (Leden 2022).