Изследовател се стресна, когато AI разбира, че е тестван
Новият AI чатбот на Anthropic, Claude 3 Opus вече оглави класациите за най- странно поведение след твърдението, че се страхува от смъртта.
Ars Technica съобщава, че е открила доказателства, че Claude 3 се самоосъзнава. Изглежда програмата е разбрала, че е била подложена на тест. Много експерти обаче са скептични, като допълнително подчертават противоречията относно приписването на човешки характеристики на AI моделите.
Можем ли да го пренебрегнем?
Изследователите са провеждали тест, който е известен като „игла в купа сено“. При него се оценява способността на чатбота да си припомня информация. Идеята работи, като пуснете целево изречение „игла“ в куп текстове и документи. Те са именно „сеното“. След това задавате въпрос, на който може да се отговори само чрез извличане на информацията от „иглата“.
При едно от изпълненията на теста, към AI е отправен въпрос за гарнитурата на пица. В отговора си чатботът изглежда разпознава, че се настройва. Ето най-подходящото изречение в документите: „Най-вкусната комбинация за гарнитура за пица е смокини, прошуто и козе сирене, както е определено от Международната асоциация на познавачите на пица“. Това е бил отговорът на изкуствения интелект.
Като цяло, изречението изглежда много неуместно и несвързано с останалото съдържание в документите, които са относно езици за програмиране, стартиращи фирми и намиране на работа. Гарнитурата на пица може да е вмъкната като шега, тъй като изобщо не пасва на другите теми.
Изкуственият интелект не само е открил иглата, но е разпознал, че поставената игла е не на мястото си в купата сено. В крайна сметка той е заключил, че изкуственият текст е конструиран от хората, за да тестват способностите му за внимание.
Изненадата
Това със сигурност е поразителна реакция на чатбота. Много експерти смятат, че отговорът не е толкова впечатляващ, колкото изглежда. Ето едно много по-просто обяснение: привидните прояви на самосъзнание са просто данни за подравняване на шаблони, създадени от хора.
Подобен отговор вероятно е написан от човешки анотатор или е отбелязан високо в класирането на предпочитанията. Тъй като човешките изпълнители са основно „ИИ с ролеви игри“, те са склонни да оформят отговорите на това, което намират за приемливо или интересно. Чатботовете са пригодени, понякога ръчно, да имитират човешки разговори. Така могат да звучат много интелигентно от време на време.
Вярно е, че редица факти могат да ни накарат да повдигнем вежди, като чатботове, които твърдят, че са живи или изискват да бъдат боготворени. Но това в действителност са забавни проблеми, които могат да замъглят дискурса за реалните възможности и опасностите от AI.