Může AI detekovat falešné zprávy?

Autor: Laura McKinney
Datum Vytvoření: 4 Duben 2021
Datum Aktualizace: 1 Červenec 2024
Anonim
Může AI detekovat falešné zprávy? - Technologie
Může AI detekovat falešné zprávy? - Technologie

Obsah


Zdroj: Mast3r / Dreamstime.com

Odnést:

Vědci se obracejí na AI, aby bojovali proti falešným zprávám. Ale může to opravdu pomoci, nebo to jen zhorší věci?

Předpokládá se, že falešné zprávy budou velkým trnem na straně nadcházejících prezidentských voleb, nemluvě o jeho celkově leptavém účinku na náš veřejný diskurs obecně. V dnešní propojené společnosti je rozeznávání fikce stále obtížnější, a proto se někteří vědci začínají soustředit na sílu umělé inteligence, která tento problém řeší.

Doufáme samozřejmě, že stroje nebo přesněji algoritmy budou při hledání lží lepší než lidé. Je to však realistické očekávání, nebo jen další případ házení technologie na zdánlivě nepřekonatelný problém?


Chytit zloděje. . .

Jedním ze způsobů, jak vědci plánují zaostřit Aumenův rozmach v této oblasti, je umožnit mu vytvářet falešné zprávy. Allenův institut pro AI na University of Washington vyvinul a veřejně vydal Grover, stroj na zpracování přirozeného jazyka určený k vytváření falešných příběhů o široké škále témat. I když se to může zpočátku zdát kontraproduktivní, je to ve skutečnosti docela běžná tréninková taktika AI, ve které jeden stroj analyzuje výstup druhého. Tímto způsobem lze analytickou stránku přiblížit mnohem rychleji než spoléhat se na skutečné falešné zprávy. Institut tvrdí, že Grover již může pracovat s 92% přesností, ale je důležité si uvědomit, že je pouze zběhlý při rozlišování mezi obsahem generovaným AI a obsahem generovaným člověkem, což znamená, že chytrý člověk může stále propašovat falešný příběh kolem toho. (Chcete-li se dozvědět více, podívejte se na technologie kolem bojových falešných zpráv.)


Ve správných rukou samozřejmě Grover může rychle pokročit v našem chápání toho, jak se vytvářejí falešné zprávy a jak se šíří, a to může být teoreticky použito k tomu, aby je zmařilo v reálném světě. Ale jak nedávno Futurism.com poznamenal, někteří odborníci, kteří se rozhodli pro zkušební provoz, jsou znepokojeni tím, jak efektivní je vytváření věrohodných lží, a dokonce napodobují styly psaní legitimních zpravodajských středisek, jako jsou Wall Street Journal a New York. Krát.

Ale protože lhaní je ze své podstaty intuitivní a emocionálně motivovaný akt, je možné, že i nejchytřejší stroje, které jsou stále poháněny chladnou, tvrdou logikou, dokážou někdy dosáhnout úrovně vzájemného porozumění, které je nezbytné k nalezení lži? Unbabelova Maria Almeida nedávno poznamenala, že ačkoli některé iterace se v tom mohou docela dobře, žádný algoritmus nemůže doufat, že dosáhne úplného lidského porozumění. To znamená, že umělá inteligence může být schopna provést dramatická vylepšení v oblasti kontroly skutečností a srovnávací analýzy, ale poslední výzva je nejlépe ponechána na vyškolených odborníků.

Je ironií, že tato schopnost bude nejužitečnější při detekci hluboce falešných videí, která se začínají objevovat na sociálních médiích. S umělou inteligencí schopnou analyzovat vizuální data až po jednotlivé pixely, bude mnohem více zběhlý při hledání špinavých obrázků než změněných slov a konceptů.

Přesto tvrdí, že Forbesův Charles Towers-Clark není hlavním problémem falešných zpráv, že jej vytvoří jen několik lidí, ale že ho ovlivní tolik lidí. Lidé mají tendenci věřit tomu, čemu chtějí věřit, nikoli tomu, co je vede k tomu, aby věřili. Takže i když vysoce vyvinutý motor AI prohlásí, že jejich víra je špatná, lidé budou více ochotni pochybovat o stroji než oni sami.

„Implementace strojového učení v boji proti šíření falešných zpráv je obdivuhodná,“ říká, „a je třeba tento problém vyřešit, protože je zpochybněna důvěryhodnost hlavních mediálních zpravodajských středisek. Dokáže však šíření dezinformací kombinovaných se sociálními médii odhalit a odhalit zdroje falešných zpráv překonat lidský instinkt a uvěřit tomu, co nám bylo řečeno? “

Žádné chyby, žádný stres - Váš průvodce krok za krokem k vytváření softwaru pro změnu života, aniž by došlo ke zničení vašeho života

Nemůžete zlepšit své programovací schopnosti, když se nikdo nestará o kvalitu softwaru.

Skutečnou výzvou tedy není identifikovat a odhalit falešné zprávy, ale pochopit, proč má tendenci šířit se napříč sociálními médii mnohem rychleji než skutečné zprávy. Částečně je to způsobeno samotnou povahou falešných zpráv, které mají tendenci být vzrušující a bezohledné versus srovnávací tedium reality. Je na konci realistické očekávat, že technologie napraví to, co je v zásadě netechnický problém? (Další informace o tom, jak AI mění média, najdete v článku 5 AI Advance in Publishing and Media.)

Zastavení šíření

Z tohoto důvodu je důležité zaměřit se na umělou inteligenci na technické aspekty falešných zpráv, nikoli na lidské aspekty, říká Robin Harris z ZDNet. Většina vědců skutečně připravuje umělou inteligenci, aby se zaměřila na věci, jako je rozlišování mezi přirozenými a umělými vzory šíření prostřednictvím sociálních sítí. K identifikaci a neutralizaci dezinformačních kampaní lze použít klíčové metriky, jako je míra konverzních stromů, načasování retweetů a celková data odezvy, i když je jeho zdroj skryt pod vrstvami digitální podoby. Současně lze AI použít k řízení dalších technologií, jako je blockchain, k udržování sledovatelných, ověřitelných informačních kanálů.

Faktem je, že falešné zprávy nejsou novým jevem. Z úchvatné žurnalistiky na počátku 20. stoletítis století až do propagandy nejčasnějších civilizací, kapuce veřejnosti je časem uznávanou tradicí jak pro sedící vlády, tak pro revolucionáře. Dnešní rozdíl spočívá v tom, že digitální technologie tuto schopnost demokratizovala do té míry, že téměř kdokoli může zveřejnit lež a sledovat, jak se šíří po celém světě během několika hodin.

Technologie, jako je umělá inteligence, mohou jistě přispět k jasnosti tohoto zmatku, ale pouze lidé mohou plně rozumět a soudit pravdu.