S velkým pokrokem přichází velká odpovědnost

Autor: Roger Morrison
Datum Vytvoření: 27 Září 2021
Datum Aktualizace: 1 Červenec 2024
Anonim
S velkým pokrokem přichází velká odpovědnost - Technologie
S velkým pokrokem přichází velká odpovědnost - Technologie

Obsah


Zdroj: Mike2focus / Dreamstime.com

Odnést:

Spotřeba médií se vyvíjí spolu s technologickým pokrokem, jako je umělá inteligence (AI). I když obecně přijímáme pokrok, musíme si také být vědomi nevýhod některých forem technologie. Schopnost AI má temnou stránku, pokud se používá při propagaci falešných zpráv.

Temná stránka technologie patřila k tématům zkoumaným na druhé konferenci Machines + Media v NYC Media Lab, kterou sponzoroval a hostil Bloomberg ve svém globálním sídle ve městě 15. května. Přestože některá ze zasedání se týkala spíše toho, jaké technologie je v současné době k dispozici pro média, a to i ty, které vyvolaly stín manipulace a dezinformací.

Dobrý příběh je přesvědčivější než celá pravda

Gilad Lotan, viceprezident, vedoucí oddělení datových věd, Buzzfeed, na zasedání nazvaném „State of the Art“ poukázal na to, že problém falešných nebo zavádějících zpráv nelze obviňovat pouze z mediálních společností nebo nových technologií. "Lidé nemusí nutně hledat fakta," řekl. "Čtenáři chtějí příběhy."


Dodal, že krmení této touhy po příbězích a oblíbených příběhů může vést k falešným zprávám, které jsou „více manipulace než nepravdivé informace“. Dodaný příběh ve skutečnosti nemusí obsahovat vůbec nic nepravdivého. Co je na tom falešné, je to, že nahlášená fakta jsou vybírána a odstraňována z větších „kon“, aby „čtenáře vedla k závěru“.

Ve stejném duchu na zasedání „Platform + Media“ Kelly Bornová z iniciativy usilující o demokracii Williama a Flory Hewlettové nadace uvedla: „Lidé mají rádi zprávy, které posilují jejich přesvědčení, a zejména pokud to vyvolává pobouření.“ Varovala před kapitalizací médií tato tendence může vést k „dokonalé bouři“, která v nás vyvolá to nejhorší. To je umocněno možností kompletně vyrobených prezentací.


Vidíte stále věřit?

Technologie hraje roli při vyprávění příběhu prostřednictvím obrázků a videa. Obvykle věříme tomu, co vidíme, pokud neexistují zjevné známky manipulace. Protože však AI zlepšuje realitu falešných videí, je nyní možné doslova vkládat slova do úst veřejných osobností. (AI se nepoužívá pouze k nebezpečným účelům. Podívejte se na některé konstruktivní v 5 způsobech, které společnosti mohou chtít použít AI.)

Nebezpečí výroby velmi uvěřitelných videí společnosti AI bylo prokázáno na zasedání nazvaném „Řešení pro temnou stránku strojově poháněných médií“. Začalo to videem, ve kterém se objevil Barack Obama, který říká věci, které bývalý prezident ve skutečnosti nikdy neřekl. Pohyb byl stále trochu mimo synchronizaci se slovy, takže má některé známky falešného videa, a většina publika uvedla, že je mohou rozpoznat jako falešný.

To, že Obamova manipulace s videem nedosáhla realismu vzkříšení Petera Cushinga jako velkého moffa Tarkina pro „Rogue One“. Jak vysvětlil článek v New York Times, efekt byl dosažen tím, že herec měl na hlavě „materiály zachycující pohyb“. zatímco před kamerou „tak, aby jeho tvář mohla být nahrazena digitálním opětovným vytvořením Cushing's.“ Hlavní tvůrce / vedoucí vizuálních efektů filmu nazval „super high-tech a pracnou verzí dělání makeup."

Nezjistitelné padělky

Díky pokrokům AI, konkrétně generativním protivníkovým sítím (GAN), je nyní snazší dosáhnout filmových magických efektů než kdy dříve. S využitím GANů jeden systém AI zpřesňuje záběry, dokud není dost dobrý na to, aby byl systémem AI navrženým k detekci padělků akceptován jako skutečný.

Žádné chyby, žádný stres - Váš průvodce krok za krokem k vytváření softwaru pro změnu života, aniž by došlo ke zničení vašeho života

Nemůžete zlepšit své programovací schopnosti, když se nikdo nestará o kvalitu softwaru.

V tomto videu vidíte vědce demonstrovat, jak může herec nasměrovat pohyby obličeje veřejné postavy, aby vytvořil jakýkoli výraz a prohlášení s takovou úrovní věrnosti, jakou obvykle u doktorských videí nenajdete.

I když ne každý člověk, který si hraje s videem, má takový systém v současnosti k dispozici, ale software bude v blízké budoucnosti na dosah více lidí.

Možné důsledky

Dhruv Ghulati, zakladatel a generální ředitel, Factmata, říká, že je „velmi znepokojen“, jak by se tato schopnost mohla aplikovat na uvádění tváří nejen světových vůdců, ale i osobností generálních ředitelů a celebrit, jako důkaz jejich přísloví nebo jednání, které nemají . Destruktivní síly videa by byly zesíleny dosažením virového účinku botnety.

Znamená to, že „už nemůžeme věřit svým ležícím očím,“ prohlásil Mor Naaman, docent informační vědy, Cornell Tech. Měl obavy, že by to vedlo ke ztrátě důvěry.

Jiní mají obavy z fanoušků plamenů násilí. Již „jen mírně upravená videa“ jsou „zvyklá na násilí v rozvojovém světě,“ poznamenal Aviv Ovadya, hlavní technolog, Centrum pro sociální odpovědnost. (Sociální média mohou být účinným způsobem šíření nepravdivých informací. Podívejte se na Top 4 nejničivější hackerské kanály.)

Sarah Hudson, partnerka Investing in USA, vyjádřila obavy, že manipulované obrazy „v měřítku“ představují „neuvěřitelné ohrožení veřejné bezpečnosti“.

Proaktivní plánování

Je nezbytné „tomuto zneužívání zabránit co nejvíce,“ řekl Ovadya. Proto je důležité „myslet dopředu při vývoji technologie“ o „jak zmírnit nepříznivé účinky“ a „věnovat zdroje na řešení těchto nezamýšlených důsledků“.

Je nemožné obrátit hodiny na pokrok, ale musíme se ujistit, že směr, kterým se ubíráme, je promyšlený a naplánovaný. To znamená nejen pracovat na technologii, abychom zjistili, co lze udělat, ale také přemýšlet o tom, co lze udělat, které by mělo být odvráceno.

Cesta vpřed pro technologické inovace je přemýšlet o tom, jaké účinky mohou být, a naplánovat ochranná opatření dříve, než se nebezpečí naplní. K tomu budeme potřebovat spolupráci mezi výzkumnými pracovníky, technologickými společnostmi a vládními agenturami, abychom stanovili normy a osvědčené postupy, které budou lidé dodržovat. To by mělo být prioritou pro všechny zúčastněné.