Stačí studentovi za esej trojka? Dnes už za sebe může nechat psát počítač.

Stroje se stávají stále zdatnějšími autory textů. Jeden z nejlepších takových systémů současnosti je dokonce volně k vyzkoušení na internetu. Jak ale učitel pozná, že mu student místo výplodu vlastní inteligence neodevzdal seminární práci napsanou počítačem? Více se dozvíte v následujícím článku.

Jeden z nejmocnějších současných systémů, který umí sepsat přirozeně vyhlížející text, se jmenuje GPT-2. Minulý rok ho vyvinula nezisková iniciativa OpenAI. Je to v podstatě statistický model. Funguje podobně jako software v mobilním telefonu, který navrhuje uživateli při psaní zprávy následující slovo. Jen je komplikovanější a nenapsal ho lidský programátor. Používá neuronovou síť jménem Transformer. Ta se zvlášť hodí na zpracování dat, ve kterých záleží na pořadí, jako je třeba text. Autoři systému GPT-2 ji nechali, aby si psaní natrénovala na osmi milionech článků, které se líbily uživatelům sociální sítě Reddit.

Celý dataset měl asi čtyřicet gigabajtů. OpenAI původně nechtěla model GPT-2 publikovat na webu. Důvodem byly obavy, že by se dal využít ke generování fake news, případně nefiltrovatelného spamu, který by mohl zaplavit sociální sítě. Vloni na podzim ale představitelé nadace změnili názor a model zveřejnili. Momentálně si ho může každý vyzkoušet na adrese talktotransformer.com. Výsledek je docela dobrý, až na občasné opakování stejných frází a podobné drobné stylistické nedostatky.

Systém umí jen generovat věty, které vypadají realisticky. Nerozumí jim a neověřuje si informace. Argumentuje třeba vědeckými studiemi, které neexistují. Přesto je přesvědčivý. Kanadský antropolog Grant Jun Otsuki, toho času přednášející na Novém Zélandu, si nedávno na webu The Conversation postěžoval, že GPT-2 dokáže sepsat ucházející vysokoškolský esej.

Podle Otsukiho stačí na známku C, v českých poměrech tedy trojku. Jelikož je technooptimista, navrhuje systémy podobné GPT-2 (je jich víc, například BERT, ERNIE2.0 nebo XLNet) nezakazovat. Místo toho by se podle něj studenti měli učit psát s jejich využitím. Nechali by si od nich napsat první verzi textu podle svých poznámek, kterou by pak dál upravovali.

Současně se systémy na generování textu se ovšem zlepšují i způsoby, jak takový výtvor stroje rozeznat. Sebastian Gehrmann z Harvardu a Hendrik Strobelt z IBM vymysleli metodu založenou na měření předvídatelnosti textu. Pokud stroj dokáže snadno uhodnout následující slovo ve větě, je dost možné, že ji napsal jiný stroj.  K hádání používá zase model GPT-2. Proto také nejlépe pozná texty vygenerované jeho pomocí. Dokáže ale identifikovat i články, které napsal jiný systém. 

red NEWPS.CZ
info(@)newps.cz

 

 

 

 

Další články

Dobrá zpráva o dvojí bankovní identitě
Více
KyberGlosář s Alešem Kučerou 1.
Více

Zpět na výpis novinek