AI má nějaké vysvětlení

Autor: Roger Morrison
Datum Vytvoření: 28 Září 2021
Datum Aktualizace: 19 Červen 2024
Anonim
AI má nějaké vysvětlení - Technologie
AI má nějaké vysvětlení - Technologie

Obsah


Zdroj: Sdecoret / Dreamstime.com

Odnést:

Aby bylo možné důvěřovat výstupu systému AI, je nezbytné být schopen porozumět jeho procesům a vědět, jak dospěl k jeho závěrům. Vysvětlitelná umělá inteligence je klíčem k eliminaci případného zkreslení.

Můžete věřit AI? Měli byste přijmout jeho zjištění jako objektivně platná bez pochyb? Problém je v tom, že ani zpochybnění samotné AI nepřinese jasné odpovědi.

Systémy AI obecně fungovaly jako černá skříňka: Data jsou vstupy a data jsou výstupy, ale procesy, které transformují tato data, jsou záhadou. To vytváří dvojí problém. Jedním je, že není jasné, které algoritmy jsou nejspolehlivější. Druhým je, že zdánlivě objektivní výsledky mohou být zkresleny hodnotami a zkreslením lidí, kteří programují systémy. Z tohoto důvodu existuje potřeba transparentnosti pro procesy virtuálního myšlení, které tyto systémy používají, nebo „vysvětlitelné AI“.


Etický imperativ se stal právním pro každého, kdo podléhá GDPR, což má dopad nejen na podniky se sídlem v EU, ale na všechny, které tam mají jednání s lidmi nebo organizacemi. Obsahuje řadu ustanovení o ochraně údajů, která se vztahují na občany EU „právo nepodléhat pouze automatizovanému rozhodování, s výjimkou určitých situací“ a „právo na poskytování smysluplných informací o logice zapojené do rozhodnutí . “

Jinými slovy už nestačí říci: „Algoritmus zamítl vaši žádost.“ Existuje zákonný mandát vysvětlit linii myšlení, která vedla k závěru, který má dopad na životy lidí. (Pro více informací o výhodách a nevýhodách umělé inteligence, podívejte se na Sliby a úskalí strojového učení.)

Neobjektivní výsledky

Jedním z obav, které někteří lidé vznesli o algoritmických rozhodnutích, je to, že i když stojí za objektivním zdůvodněním, mohou posílit zkreslení. To je jádro argumentu, který Cathy ONeil uvádí v „Zbraně matematického ničení: Jak velká data zvyšují nerovnost a ohrožují demokracii.“ Samotný výskyt objektivity, který je spojen s velkými daty, způsobuje, že je tak škodlivý ve svých aplikacích, které skutečně posilují zkreslení. .


To, co nazývá „ničení matematiky“, je „výsledek modelů, které posilují bariéry, které znevýhodňují konkrétní demografické populace tím, že je označují jako méně hodné úvěru, vzdělání, pracovních příležitostí, podmíněného propuštění atd.“

Ona není sama při hledání algoritmických předpojatostí. V roce 2016 společnost Pro Publica sdílela svá zjištění, že algoritmy předpovídají vyšší míru recidivy černochů než bílých, což je faktor, který se promítá do různých trestů odnětí svobody pro stejné druhy zločinů. Článek Guardian z roku 2017 rozšířil zaujatost i na pohlaví.

Problém je v tom, že tyto systémy jsou naprogramovány s dalekosáhlými důsledky. V telefonním rozhovoru Stijn Christiaens, spoluzakladatel a CTO společnosti Collibra, vysvětlil, že umělá inteligence umožňuje „automatizované rozhodování“, které může přesáhnout více než 10 tisíc rozhodnutí za sekundu.

Žádné chyby, žádný stres - Váš průvodce krok za krokem k vytváření softwaru pro změnu života, aniž by došlo ke zničení vašeho života

Nemůžete zlepšit své programovací schopnosti, když se nikdo nestará o kvalitu softwaru.

To znamená, že systém nastavený na špatná rozhodnutí učiní mnohem více z nich mnohem rychleji než kterýkoli jiný člověk. Pokud má systém předpojatost, může toto obrovské množství rozhodnutí „poškodit určité populace“, což má velmi závažné a rozšířené důsledky, uvedla Christiaens.

Péče a krmení algoritmů

Určitě existují chyby, které vyplývají z neúplných nebo špatných dat. To byl důvod, proč někteří experti citovaní ve výše zmíněném článku Guardian uvedli výsledky systematického algoritmu. Sandra Wachter z Oxfordské univerzity to shrnula následovně: „Svět je zkreslený, historické údaje jsou zkreslené, a proto není překvapivé, že dostáváme zkreslené výsledky.“

Ve stejném duchu Christiaens řekl: „Jak je založeno na pozorováních ve skutečném světě,“ AI „pozoruje naše předsudky a produkuje sexistické nebo rasistické výstupy.“ Aplikováním vlastních termínů na to, co je populárně známé jako odpadky, odpadky ven (GIGO) ), řekl, že problém může být „jídlo“, které tvoří údaje o školení, protože je špatné, neúplné nebo zkreslené.

Rasistické a sexistické výsledky mohou být do systému vycvičeny z dat, která dostatečně nepředstavují rozdíly v populaci. Nabídl případ čerpání údajů o školeních na základě řečníků na konferencích, na nichž mohou mít ženy pouze 20 procentní zastoupení. Při zaškolení na takovou zkosenou reprezentaci bude mít algoritmus zabudovanou předpojatost.

AI Alchemy

Problém předpojatosti umělé inteligence není vždy způsoben datovým zdrojem, ale také způsobem, jakým vypracovává svá rozhodnutí. Záhada těchto operací tak zasáhla Ali Rahimiho a Ben Rechta, že je srovnali s alchymií.

Alchymie může mít své místo, ale není to to, co lidé chtějí jako odpověď na jejich otázky týkající se automatizovaných rozhodnutí se závažnými důsledky. Jak uvedli Rahimi a Recht: „Nyní ale budujeme systémy, které řídí zdravotní péči a naši účast na občanských debatách. Chtěl bych žít ve světě, jehož systémy jsou založeny na přísných, spolehlivých, ověřitelných znalostech a nikoli na alchymii. “(Více o AI ve zdravotnictví viz 5 nejúžasnějších AI pokroků ve zdravotnictví.)

Beyond the Black Box: Objevování toho, co určuje rozhodnutí

Z tohoto důvodu se někteří snaží prosadit způsob, jak zavést průhlednost do procesu myšlení systémů umělé inteligence, a vysvětlit, proč dospěli k závěrům, které učinili. Tam bylo úsilí z různých míst.

Skupina tří profesorů a vědců na amerických univerzitách pracovala na řešení v roce 2016, které nazvali Local Interpretable Model-Agnostic Explanations (LIME). V tomto videu vysvětlují svůj přístup:

Ačkoli to byl krok správným směrem, řešení nefungovalo dokonale. Výzkum tedy pokračuje a s ohledem na GDPR mají zájem o dosažení vysvětlitelné umělé inteligence zejména osoby spojené s EU.

Laboratoř umělé inteligence na bruselské univerzitě, instituci, ze které vznikla společnost Christiaens, je jedním z míst věnovaných tomuto výzkumu. Laboratoř našla způsoby, jak pracovat s rozpoznáváním obrazu, a „síť lingvisticky vysvětluje, co je vidět a proč“ dochází k závěrům o tom, co je na obrázku, řekl.

"Algoritmy fungují vždy stejným způsobem," vysvětlil Christiaens. „Vstupní data se převádějí do funkcí.“ V laboratoři AI mají prostředky „podrobně rozeznat a zjistit, co se stalo ve stromě rozhodnutí.“ Na tomto základě je možné „vidět cesty, které byly sledovány“ k podívejte se, kde se něco pokazilo a pak „upravte a přeškolte“.

Společnost IBM také zaměřila svou pozornost na problém s černou skříňkou a nedávno oznámila nabídku softwarové služby, která bude zvyšovat zaujatost a účet pro rozhodnutí AI, i když systém běží přes cloud IBM. Kromě včasného upozornění nabízí návrhy, jaká data jsou potřebná pro potlačení zkreslených výsledků.

Kromě cloudové služby nabízí IBM konzultace společnostem, které staví systémy strojového učení, aby se v budoucnu pokusily snížit zkreslené výsledky. Možná se do konzultací zapojí i další experti na umělou inteligenci, která pomohou vybudovat lepší systémy a nabídnou kontrolu možných předsudků, které se naprogramují.

Musíme si uvědomit, že systémy umělé inteligence podléhají stejně chybám jako lidé, kteří je nastavili, a nikdo tedy výše neudává rozhodnutí.