Kineska sveučilišta: Planirano uvođenje povjerenja i otpornosti u iduću generaciju UI

119
UI umjetna inteligencija

Kineska sveučilišta planiraju uvesti povjerenje i otpornost u iduću generaciju umjetne inteligencije (UI).


Od glasovnog pomagača do prepoznavanja lica, od pobjede nad majstorima u igri go do razbijanja profesionalnih igrača u strateškoj igri StarCraft, svijet je svjedočio uzbudljivom napretku u razvoju UI.

Kako osigurati učinkovitost UI

Postavlja se pitanje kako se može osigurati njenu učinkovitost, ako se uzme u obzir da se UI primjenjuje u funkcijama s većim rizikom – poput samovozećih automobila, automatskih kirurških pomagača, upravljanja hedge fondovima i kontrole energetske mreže?

Tsinghua će ubrzati istraživanja treće generacije UI

Prestižno kinesko Sveučilište Tsinghua (stalno među najboljim sveučilištima na svijetu) je objavilo da će ubrzati osnovna istraživanja treće generacije UI, u nadi za izgradnju povjerenja i sprečavanje zlouporabe i štetnog ponašanja modela UI.

Zhang Bo, direktor Instituta za umjetnu inteligenciju Sveučilišta Tsinghua i akademik Kineske akademije znanosti, je predstavio plan u ponedjeljak na otvaranju Centra za temeljne teorije Instituta za umjetnu inteligenciju. Rekao je da istraživači sa Sveučilišta Tsinghua očekuju da će u idućim godinama ući u treću fazu razvoja UI.

Prve dvije generacije imale i sposobnosti i slabosti

Prva generacija UI-e je pokretana znanjem koje su posjedovali sami istraživači i pokušavali su opremiti modele UI-e jasnim logičkim pravilima. Ti sustavi su bili sposobni za rješavanje dobro definiranih problema, ali nesposobni za učenje.

U drugoj generaciji je UI počela učiti. Strojevi uče obukom sustava na nizu podataka i naknadom provjerom na drugom nizu, Sustav tako postaje precizniji i učinkovitiji. Zhang je rekao da slabost druge generacije leži u njenoj razlučivosti i robusnosti.

Iako je UI već nadmašila ljude u određenim područjima poput prepoznavanja slika, nitko ne razumije zašto ti sustavi imaju tako dobre podatke.

Strojno učenje i duboko učenje, najuobičajenije grane UI-e posljednjih godina, pate od takozvane “crne kutije UI-e”. Ljudima je teško interpretirati odluke temeljene na UI-i i ne mogu predvidjeti kada model UI-e neće uspjeti i zbog čega.

Istovremeno čak i točni modeli UI-e mogu biti ranjivi na “kontradiktorne napade” u kojima se uvode suptilne razlike kod unosa podataka radi manipulacije “rasuđivanjem” UI-e. Na primjer, sustav UI-e bi mogao zamijeniti ljenjivca za trkaći automobil ako se naprava neke neprimjetne promjene u fotografiji ljenjivca.

Ne smije se ostaviti prostor za kontradiktorne primjene

Istraživači zbog toga trebaju unaprijediti i potvrditi robusnost modela UI, na ostavljajući prostor za kontradiktorne primjene ili čak napade radi manipulacije rezultatima.