Лабораторията Open AI е създала ИИ, който самостоятелно е генерирал текст

Въпреки липсата на доказателства за злоупотреба, текстът бил твърде опасен за споделяне. Изследователската лаборатория OpenAI пусна пълната версия на система за генериране на текст, за която експертите предупредиха, че може да се използва за злонамерени цели.

GPT-2

Институтът първоначално обяви системата GPT-2, през февруари тази година. След старта, учените се отказаха да предоставят пълната версия на програмата от страх, че ще бъде използвана за разпространение на фалшиви новини, спам и дезинформация. Оттогава те пускат по-малко сложни версии на GPT-2 и се проучва тяхното приемане. В публикация в блога си компанията казва, че не вижда сериозни доказателства за злоупотреба и е пуснала модела изцяло.

Обучена система

Това е част от нов вид системи, които впечатлиха експертите със способността си да генерират кохерентен текст от минимални подсказки.  Моделите за изкуствен интелект са обучени на осем милиона текстови документа, извлечени от мрежата. Също така могат да отговарят на текстови фрагменти, предоставени от потребителите. Ако ги захраните с фалшиво заглавие те ще напишат новина. Дайте първия ред на стихотворение и програмата ще представи цял стих.

Недостатъци на модела

Най-добрият начин да усетите способностите на GPT-2 е да го изпробвате сами. Можете да получите достъп до уеб версия на TalkToTransformer.com и да въведете свои собствени подсказки.

Трудно е да се предаде точно колко добър е резултатът на GPT-2, но моделът често създава ужасно убедително писане, което може да даде вид на интелигентност. Ако обаче се заиграете със системата достатъчно дълго, ще станат ясни нейните ограниченията. Значителен недостатък е предизвикателството за дългосрочна съгласуваност. Например, използване на имена на герои последователно в разказа или акцентирането върху един предмет в новинарска статия.

Необходим ли е масов достъп?

Освен суровите възможности на GPT-2, пускането на модела е част от продължаващ дебат относно отговорността на изследователите на AI да смекчат вредите, причинени от тяхната работа. Експертите посочиха, че лесният достъп до авангардни инструменти за ИИ може да даде възможност на злонамерени участници. OpenAI ограничи пускането на своя модел именно поради опасенията за подобни резултати.

Не всички обаче аплодираха подхода на лабораторията. Много експерти критикуваха решението казвайки, че се ограничава количеството изследвания, които други могат да направят, за да смекчат вредите на модела. Дали в крайна сметка не се създава ненужна паника относно опасностите от изкуствения интелект?!