Tyto body bolesti brání společnostem v přijímání hlubokého učení

Autor: Roger Morrison
Datum Vytvoření: 23 Září 2021
Datum Aktualizace: 1 Červenec 2024
Anonim
Tyto body bolesti brání společnostem v přijímání hlubokého učení - Technologie
Tyto body bolesti brání společnostem v přijímání hlubokého učení - Technologie

Obsah


Zdroj: Agsandrew / Dreamstime.com

Odnést:

Hluboké učení má podnikům co nabídnout, ale mnoho z nich stále váhá s jeho přijetím. Zde se podíváme na některé z jeho největších bodů bolesti.

Hluboké učení je podpolí strojového učení, což je obecně řečeno technologie inspirovaná lidským mozkem a jeho funkcemi. Strojové učení, které bylo poprvé zavedeno v 50. letech 20. století, je souhrnně informováno o tom, co je známé jako umělá neuronová síť, o množství propojených datových uzlů, které společně tvoří základ pro umělou inteligenci. (Základy strojového učení najdete v části Strojové učení 101.)

Strojové učení v podstatě umožňuje počítačovým programům, aby se samy změnily, když byly vyzvány externími daty nebo programováním. Přirozeně to dokáže bez lidské interakce. Sdílí podobnou funkčnost s dolováním dat, ale s těženými výsledky, které mají být zpracovávány spíše stroji než lidmi. Je rozdělena do dvou hlavních kategorií: učení pod dohledem a bez dozoru.


Dozor nad strojovým učením zahrnuje odvozování předem určených operací prostřednictvím označených tréninkových dat. Jinými slovy, výsledky pod dohledem jsou známy předem (lidským) programátorem, ale systém odvozující výsledky je vyškolen, aby je „naučil“. Naproti tomu strojové učení bez dozoru čerpá závěry z neznačených vstupních dat, často jako prostředek k detekci neznámých vzorců.

Hluboké učení je jedinečné svou schopností trénovat se prostřednictvím hierarchických algoritmů, na rozdíl od lineárních algoritmů strojového učení. Hierarchie hlubokého učení je stále složitější a abstraktní, protože se vyvíjí (nebo „učí“) a nespoléhá se na logiku pod dohledem. Jednoduše řečeno, hluboké učení je vysoce pokročilá, přesná a automatizovaná forma strojového učení a je v popředí technologie umělé inteligence.


Obchodní aplikace hlubokého učení

Strojové učení se již běžně používá v několika různých průmyslových odvětvích. Například sociální média jej používají k označování zdrojů obsahu v uživatelských časových osách. Google Brain byl založen před několika lety s cílem produkovat hluboké učení napříč celou řadou služeb Google, jak se technologie vyvíjí.

Se zaměřením na prediktivní analýzu je oblast marketingu zvláště investována do inovace hlubokého učení. A protože shromažďování dat je to, co pohání technologii, jsou průmyslová odvětví, jako je prodej a podpora zákazníků (které již mají bohaté a rozmanité údaje o zákaznících), jedinečně umístěny, aby je mohly přijmout na úrovni země.

Včasné přizpůsobení se hlubokému učení by mohlo být velmi dobře klíčovým určujícím faktorem toho, do jaké míry konkrétní odvětví těží z technologie, zejména v nejranějších fázích. Několik konkrétních bodů bolesti však mnohým podnikům brání v tom, aby se ponořili do investic do technologie hlubokého učení.

V je velká data a hluboké učení

V roce 2001 analytik skupiny META (nyní Gartner) jménem Doug Laney nastínil, co vědci považovali za tři hlavní výzvy velkých dat: objem, rozmanitost a rychlost. Za deset let a půl později rychlý nárůst přístupových bodů k internetu (zejména kvůli šíření mobilních zařízení a vzestupu technologie internetu věcí) přinesl tyto otázky do popředí pro velké technologické společnosti i menší podniky. a startupy. (Chcete-li se dozvědět více o třech verzích, podívejte se na dnešní velké datové výzvy pramení z rozmanitosti, nikoli objemu nebo rychlosti.)

Žádné chyby, žádný stres - Váš průvodce krok za krokem k vytváření softwaru pro změnu života, aniž by došlo ke zničení vašeho života

Nemůžete zlepšit své programovací schopnosti, když se nikdo nestará o kvalitu softwaru.

Nedávné statistiky využití globálních dat jsou ohromující. Studie ukazují, že zhruba 90 procent všech světových údajů bylo vytvořeno pouze v posledních několika letech. Celosvětový mobilní provoz činil v roce 2016 podle jednoho odhadu zhruba sedm exabajtů měsíčně, a očekává se, že se tento počet během příští poloviny desetiletí zvýší asi sedmkrát.

Kromě objemu, rozmanitosti (rychle rostoucí rozmanitost typů dat, jak se nová média vyvíjí a rozšiřují) a rychlost (rychlost, jakou se elektronická média odesílají do datových center a center), jsou také hlavními faktory v tom, jak se podniky přizpůsobují rostoucímu oboru. hlubokého učení. A abych se rozšířil na mnemotechnické zařízení, byla v posledních letech přidána do seznamu bodů velkých datových bolesti několik dalších v-slov, včetně:

  • Platnost: Měření přesnosti vstupních dat ve velkých datových systémech. Neplatná data, která se nezjistí, mohou v prostředích strojového učení způsobit závažné problémy i řetězové reakce.
  • Zranitelnost: Velká data přirozeně evokují bezpečnostní obavy jednoduše na základě svého rozsahu. A ačkoli existuje velký potenciál v bezpečnostních systémech, které jsou umožněny strojovým učením, tyto systémy v jejich současných inkarnacích jsou známé svou nedostatečnou účinností, zejména kvůli jejich tendenci generovat falešné poplachy.
  • Hodnota: Poskytnutí potenciální hodnoty velkých dat (v podnikání nebo jinde) může být významnou výzvou z mnoha důvodů. Pokud nelze některý z dalších bodů bolesti v tomto seznamu účinně řešit, pak by ve skutečnosti mohly přidat negativní hodnotu jakémukoli systému nebo organizaci, možná dokonce s katastrofickým účinkem.

Mezi další aliterativní body bolesti, které byly do seznamu přidány, patří variabilita, pravdivost, volatilita a vizualizace - to vše představuje pro velké datové systémy své vlastní jedinečné sady výzev. A ještě více by se mohlo přidat, protože stávající seznam (pravděpodobně) se v průběhu času zužuje. Některým se to může zdát trochu vymyšlené, ale mnemotechnický seznam „v“ zahrnuje závažné problémy, kterým čelí velká data, která hrají důležitou roli v budoucnosti hlubokého učení.

Black Box Dilemma

Jednou z nejatraktivnějších vlastností hlubokého učení a umělé inteligence je to, že obě mají řešit problémy, které lidé nemohou. Stejné jevy, které to umožňují, přináší také zajímavé dilema, které přichází ve formě tzv. „Černé skříňky“.

Neuronová síť vytvořená procesem hlubokého učení je tak rozsáhlá a tak složitá, že její složité funkce jsou v podstatě nevyzpytatelné lidským pozorováním. Vědci a inženýři dat mohou mít důkladné porozumění tomu, co se děje v systémech hlubokého učení, ale to, jak dospívají k jejich výstupním rozhodnutím častěji než ne, je zcela nevysvětlitelné.

I když to nemusí být významný problém pro obchodníky nebo prodejce (v závislosti na tom, co uvádějí na trh nebo prodávají), jiná odvětví vyžadují určité množství procesního ověření a zdůvodnění, aby se z výsledků dalo využít. Například společnost poskytující finanční služby by mohla použít hluboké učení k vytvoření vysoce účinného mechanismu hodnocení úvěrů. Úvěrové skóre však často musí obsahovat nějaké slovní nebo písemné vysvětlení, které by bylo obtížné vytvořit, pokud je skutečná rovnice úvěrového skóre zcela neprůhledná a nevysvětlitelná.

Tento problém se týká i mnoha dalších odvětví, zejména v oblasti zdraví a bezpečnosti. Lékařství a doprava by z hlubokého učení mohly těžit z hlavních způsobů, ale také čelit významné překážce ve formě černé skříňky. Jakýkoli výstup má za následek, že v těchto polích, bez ohledu na to, jak prospěšný, by mohl být zcela vyřazen z důvodu úplné nejasnosti svých základních algoritmů. To nás přivádí k možná nejkontroverznějším bodům bolesti ze všech…

Nařízení

Na jaře 2016 Evropská unie schválila obecné nařízení o ochraně údajů (GDPR), které mimo jiné poskytuje občanům „právo na vysvětlení“ pro automatizovaná rozhodnutí generovaná systémy strojového učení, která je „významně ovlivňují“. Předpokládá se, že nařízení vstoupí v platnost v roce 2018, a vyvolává obavy mezi technologickými společnostmi, které investují do hlubokého učení z důvodu jeho neproniknutelné černé skříňky, která by v mnoha případech bránila vysvětlení nařízenému GDPR.

„Automatizované individuální rozhodování“, které GDPR zamýšlí omezit, je zásadní vlastností hlubokého učení. Obavy z této technologie jsou však nevyhnutelné (a do značné míry platné), pokud je potenciál diskriminace tak vysoký a průhlednost tak nízká. Ve Spojených státech reguluje Food and Drug Administration podobně testování a marketing léčiv tím, že vyžaduje, aby tyto procesy zůstaly auditovatelné. To představuje překážky pro farmaceutický průmysl, jak se údajně stalo v případě biotechnologické společnosti Biogen založené na Massachusetts, která díky pravidlu FDA nemohla používat neinterpretovatelné metody hlubokého učení.

Důsledky hlubokého učení (morální, praktické i mimo něj) jsou bezprecedentní a upřímně řečeno docela hluboké. Obava obklopuje technologii z velké části díky kombinaci jejího rušivého potenciálu a neprůhledné logiky a funkčnosti.Pokud podniky dokážou v hlubokém učení prokázat existenci hmatatelné hodnoty, která překračuje jakékoli myslitelné hrozby nebo rizika, může nám pomoci vést nás v další kritické fázi umělé inteligence.