Chatbot — potencionální hrozba?

Lukáš Konečný
Apr 11 · 3 min read

V dnešní době, kdy téma umělé inteligence proniká vesměs všemi možnými komunikačními i nekomunikačními kanály je velmi těžké nepředstavovat si blízkou budoucnost — tedy to, jak by se umělá inteligence mohla dále vyvíjet.

Představy mohou být různé od robotů v humanoidní podobě až po komplexní systém, který bude vypočítávat veškeré data lidstva. Samozřejmě tyto představy jsou z velké většiny zásobeny díky sci-fi literatuře a filmům, kterých je na toto téma nespočet. U mnohých z nás tyto představy vyvolají nepříjemný pocit a otázky, zda lidstvo nezachází se svými tvůrčími schopnosti až moc daleko.

Kdo by neznal seriál Black Mirror, film Terminátor nebo známé vědeckofantasické drama R.U.R.

Omlouvám se za vcelku pesimistický úvod, ale jakožto člověk, který má respekt k technologiím a především tedy k umělé inteligenci, jsem se rozhodl téma chatbotů pojmout trošičku jinak. Nebudu se zde zabývat představením chatbotů ani jejich možným propojením s edukačním procesem. K těmto tématům se vážou články jako například: Chatbot: What is Chatbot? Why are Chatbots Important? a How Can We Use Chatbots in Education? nebo 10 Reasons You Need To Use Chatbots For Learning Support. V tomto článku bych chtěl totiž představit možné potencionální hrozby chatbotů, které ačkoliv prozatím nenastaly, tak je možné, že je člověk využije ke svým nekalým činům, popřípadě se vymknou kontrole.

V minulosti existovali a v dnešní době existují chatboti, kteří jsou naprogramováni tak, aby se “učili” v rámci konverzace dané skupiny. Jinými slovy vnímají uživatelské konverzace a snaží se je napodobovat, aby bylo dosaženo co nejlepší iluze toho, že uživatel nekomunikuje se strojem, ale s člověkem. Ačkoliv tato skutečnost může znít nevinně, tak můžou vzniknout nepříjemné scénáře. Příkladem může být vypuštěný chatbot Tay od Microsoftu roku 2016, který v rámci analýzy příspěvků od ostatních uživatelů jednal svými příspěvky rasisticky s dalšími nevhodnými tvrzeními.

2. Chatbot jako distributor škodlivých url

Pravděpodobně každý z nás již slyšel o zkrácených odkazech nebo o možnostech vložení odkazu do textu. Proč by právě tady toto nemohl využít chatbot k distribuci nebezpečných URL odkazů obsahující Malware?

3. Přesvědčovací chatboti — vymáhání peněz

Pokud by se objevil chatbot, který skutečně dokáže vést konverzaci tak, aby nebylo poznat, zda se jedná o strojem vytvořené věty, či je to výplod člověka, tak proč by nemohli vzniknout komplexní chatboti, kteří svými řádky mohou vymáhat peníze, ba co víc, získat důvěru problematiky neznalého uživatele?

Příkladem může být napodobení výstupu falešné identity, kterou například známe v podvodných e-mailech, kdy je po důvěryhodném uživateli požádáno o peníze, popřípadě je v něm snaha uživatele zmanipulovat k jiným úkonům.

Už jen ta skutečnost, že konverzace s chatbotem probíhá v reálném čase nabírá na věrohodnosti mnohem více než formou e-mailu.

Uvedl jsem pouze ty nejzákladnější příklady, které mohou být reálným nebezpečím ve vývoji chatbotů. Samozřejmě bychom mohli polemizovat dlouze na toto téma a jistojistě by nás napadli mnohem hrůznější scénáře. Příkladem jsem se schválně vyhnul sexuální tématice, která ačkoliv je důležitá, tak si podle mého názoru každý z nás může jasně představit, jaké problémy s tím mohou být spojené.

Zdroje:

Chatbots Are All the Rage-and Something of a Risk

While much of the hype around artificial intelligence (AI) is based on possibilities for a decade or so from now, are a…www.securityroundtable.org

The Benefits and Dangers of Having AI Chatbots Interacting With Your Customers

The rise of mainstream artificial intelligence is upon us. Right now, machines and programs are being created that are…www.singlegrain.com

Beware of the Bots…

Mention the year 2013 to anyone who uses Facebook pages and you’ll likely get the same response: a groan. That could…chatbotslife.com

EDTECH KISK

Educational Technology, KISK Masaryk University

Lukáš Konečný

Written by

EDTECH KISK

Educational Technology, KISK Masaryk University