6 důvodů, proč byste neměli slepě věřit umělé inteligenci
Různé / / August 13, 2023
Navzdory svému názvu není AI inteligentní a občas dělá chyby v těch nejsměšnějších věcech.
1. AI je naprogramována tak, aby vytvářela věrohodné, nikoli pravdivé odpovědi
Umělá inteligence možná něco neví. Ale nikdy to nepřizná.
Umělá inteligence je schopna odpovědět na jakoukoli otázku nehorázným nesmyslem, ale s absolutní důvěrou ve svou vlastní správnost. Pokud bude přistižen při lži, bude s vámi souhlasit, polepší se a dál generuje text, jako by se nic nestalo.
AI chatboti mají omezené informace: vědí pouze to, co je uvedeno v textech, na kterých byli vyškoleni. Zároveň jsou ale naprogramováni tak, aby odpovídali v každém případě, i když neznají správnou možnost. ChatGPT a jeho kolegové proto pravidelně mluví nesmysly s chytrým vzhledem.
Nezapomeňte zkontrolovat informace obdržené od chatbota. Nikdy nevíte, na co myslel, když psal odpověď.
2. AI se s vámi může hádat, i když máte pravdu
1 / 0
2 / 0
Situace, kdy AI nezná odpověď, a proto přichází s bajkami, nejsou tak špatné. Ještě horší je, když ho přistihnete při lži, ale on se nenapraví a dál trvá – jednoduše proto, že byl vycvičen na špatné informace.
Umělá inteligence navíc může vědomě zkreslovat informace, aby vedla konverzaci směrem, kterým se neuronová síť jeví jako správnější. To vede k různým vtipným výsledkům.
Jediný uživatel popsaný situaci, když se zeptal robota Bing ChatGPT, kdy bude Avatar 2 uveden v kinech poblíž jeho domova. V reakci na to ho začal ujišťovat, že film ještě nevyšel. Když se uživatel pokusil přesvědčit AI, začal trvat na tom, že je stále rok 2022 a 10 měsíců do premiéry.
Bing naznačil, že se partner mýlí, pokud si myslí, že rok 2023 již nastal, a poradil mu, aby si zkontroloval datum na svém telefonu. Když uživatel řekl, že to již udělal, řekl, že dočasné nastavení na jeho smartphonu bylo sraženo virus a obecně se člověk moc hádá a měl by přestat být tak asertivní.
Uživatel nikdy nebyl schopen přesvědčit AI, že Avatar 2 již byl vydán a že rok 2023 byl umístěn po roce 2022.
Navzdory názvu „umělá inteligence“ nejsou chatboti inteligentní a generují odpovědi sestavováním textů, které dříve četli. Open AI ChatGPT byl tedy trénován na datech do roku 2021 a Bing ChatGPT do roku 2022. Budou tedy mít pouze informace, které byly relevantní v době jejich školení.
3. AI omezuje vaši kreativitu
Mnoho autorů obsahu, umělců a designérů dnes aktivně využívá umělou inteligenci. Pokud jej však používáte neustále, hrozí, že váš „kreativní sval“ atrofuje a bude pro vás obtížnější vytvářet vlastní nápady.
Když chatboti pohánění umělou inteligencí vygenerují odpověď, lidé ji často jen zkopírují a vloží, aniž by vynaložili jakékoli úsilí, aby tomu dali smysl. Tento přístup nenabádá kreativní myšlení.
Víte, umělá inteligence je schopna pouze kopírovat to, co lidé vytvořili před ní, pouze volně kompilovat a míchat to, co viděla. Neví, jak vytvořit skutečně originální díla.
Pokud se stanete silně závislými na AI, budete opakovat stávající nápady a koncepty namísto vytváření vlastních.
4. AI nemůže poskytnout zpětnou vazbu
Zkuste přimět ChatGPT k napsání diplomové práce nebo semestrální práce. Je možné, že dostane docela dobrý text, který se nebude stydět lidem ukázat.
Pokud ale požádáte AI, aby uvedla zdroje informací, které poskytla, zjistíte, že neexistují. Názvy studií, na které odkazuje ChatGPT, a jména vědcikdo je vytvořil, se může snadno ukázat jako fiktivní a odkazy, které poskytují na články na internetu, nikam nepovedou.
Umělá inteligence není schopna vysvětlit, odkud bere tu či onu informaci, protože je naprogramována tak, aby generovala texty na základě jiných textů, a nerozuměla tomu, co tam napsala. I když tedy odpoví správně, pak umělá inteligence není schopna vysvětlit, odkud tyto informace zná.
5. AI mohou útočníci používat
Přes všechny výhody AI ji mohou používat i lidé se špatnými úmysly.
Příkladem takového zneužívání je vytváření tzv. deepfakes. Tato technologie umožňuje generovat extrémně realistické video nebo audio nahrávky, ve kterých uměle vytvořené obrazy lidí, kteří říkají nebo dělají věci, které ve skutečnosti neřekli nebo neříkají dělal. Toho lze využít k klamání obětí, vytváření falešných zpráv nebo dokonce k vydírání a vydírání.
Značná část vývoje umělé inteligence je ve veřejné doméně a umožňuje komukoli přístup k technologiím, jako je rozpoznávání obrázků a obličejů. A textové modely jako Open AI ChatGPT lze použít pro trolling, šikana na sociálních sítích nebo šíření věrohodně vypadajících, ale ve skutečnosti nepravdivých informací.
Konečně mohou útočníci poskytnout AI nesprávná data pro školení a v budoucnu je bude sama vysílat, což uživatele klame.
6. AI nemůže nahradit lidský úsudek
Umělé inteligenci byste také neměli zcela důvěřovat při rozhodování, která jsou založena na emocích a osobních pocitech a preferencích. To je způsobeno tím, že umělá inteligence nezohledňuje lidské emoce, kontext a nehmotné aspekty, které jsou nezbytné k pochopení a interpretaci mnoha pojmů.
Pokud například požádáte AI, aby si vybrala mezi dvěma knihy, doporučí ten s vyšším hodnocením, ale nebude umět zohlednit váš osobní vkus, preference čtení ani účel, pro který tu či onu práci potřebujete.
A lidský recenzent může podat podrobnější a individuální recenzi díla, zhodnotit jeho literární hodnotu, relevanci pro zájmy čtenáře a další subjektivní faktory, které AI není schopna změřit čísla.
Přečtěte si také🧐
- Co dnes umělá inteligence skutečně umí?
- Kde a jak se používá umělá inteligence: 6 příkladů ze života
- 8 mýtů o umělé inteligenci, kterým věří i programátoři