Trubci a bezpilotní vozidla jako zbraň: proč musíme bát hackerů
Technologie / / December 19, 2019
Nikdo by popíral, že umělá inteligence může dát naše životy nová úroveň. AI je schopen řešit mnoho problémů, které jsou nad síly člověka.
Nicméně, mnozí se domnívají, že superintelligence bude chtít, aby nás zničit, as SkyNet, nebo začít pokusy na lidech, jak GLaDOS ze hry Portal. Ironií je, že aby se umělé inteligence mohou jen lidé dobří nebo zlí.
Výzkumníci z Yale, Oxford, Cambridge, a společnost vykázala OpenAI zpráva o zneužívání umělé inteligence. To říká, že skutečné nebezpečí pochází z hackery. S pomocí škodlivého kódu, mohou narušit provoz automatizovaných systémů pod kontrolou AI.
Výzkumní pracovníci se obávají, že technologie vytvořená s dobrými úmysly, budou použity k újmě. Například dohled lze aplikovat nejen chytit teroristy, ale také špehovat občanů. Vědci také znepokojující komerční letouny, které poskytují potravu. Jsou snadno zachytit a dát něco výbušninu.
Jiným scénářem je destruktivní využití umělé inteligence - bezpilotní vozidla. To je dost změnit pár řádků kódu, a stroj začne ignorovat bezpečnostní pravidla.
Vědci se domnívají, že hrozba může být digitální, fyzický a politické.
- Umělá inteligence je již používán pro studium zranitelnosti různých programových kódů. V budoucnu, hackeři mohli vytvořit takovou bot, který obejde žádnou ochranu.
- S AI člověk může automatizovat mnoho procesů: například řídit roj robotů, nebo skupina vozidel.
- S technologiemi, jako je DeepFake, mohou mít vliv na politický život státu, šíření nepravdivých informací o vůdci světa přes internet roboty.
Tyto děsivé příkladů existuje pouze jako hypotéza. Autoři studie neposkytují úplné odmítání technologie. Místo toho, oni věří, že vlády a velké společnosti by se měl starat o bezpečnost, zatímco průmysl umělá inteligence dětství.
Politici by se měli naučit technologie a spolupracovat s odborníky v této oblasti, aby účinně regulovat usazování a využití umělé inteligence.
Vývojáři, podle pořadí, by měla posoudit nebezpečí, které high-tech, předvídat a zabránit nejhorším důsledkům těchto světových vůdců. Zpráva vyzývá k vývojáři AI: tým se s bezpečnostními experty v jiných oblastech a zjistit, zda můžete používat zásady, které zajišťují bezpečnost těchto technologií pro ochranu umělých inteligence.
Úplná zpráva popisuje tento problém podrobněji, ale skutečnost, že AI - silný nářadí. Všechny zúčastněné strany se musí naučit nové technologie a ujistěte se, že není používán pro účely páchání trestné činnosti.