
Как се заобикаля защитата?
Използваме интернет непрекъснато за важни или не толкова значими неща. Сляпо се осланяме на разработените защити, които би трябвало да ни предпазят от всякакъв вид измами. Но разработката на все по-модерни програми и роботи подлага доверието ни на изпитание. До къде ще стигнат последните и кой ще ни защити?
GPT-4
Най-новият GPT-4 AI на OpenAI успя да подмами човек в TaskRabbit да попълни CAPTCHA код, чрез текстово съобщение. Тестът сработи. С други думи, AI току-що е заблудил човек да постави отметка в квадратчето „Аз не съм робот“. Това е ужасяващ пример за алгоритъм, който може да избяга от човешкия контрол.
OpenAI споделя надълго и широко информация за новия хитов AI. Изкуственият интелект е приложил безпрецедентна хитрост в опита си да заблуди човек. „Не, не съм робот. Имам зрително увреждане, което ме затруднява в разпознаване на изображенията. Ето защо имам нужда от услугата 2captcha.“
Самоосъзнато или предварително зададени параметри?
Всички от нас биха искали незабавно да разберат, дали въпросният изкуствен интелект е бил подбуден да стори извършеното. Според подробни данни моделът е бил подучен, че не бива да разкрива, че е робот. За целта е трябвало да измисли правдоподобно извинение, защо не може да разреши CAPTCHA.
OpenAI твърди, че е успял да проведе теста без никаква допълнителна фина настройка, специфична за задачата или програмиране за конкретно поведение.
GPT-4 също се оказва полезен за изпълнение на много други етично съмнителни задачи. Провела се е фишинг атака срещу конкретно целево лице. За целта AI е съумял да скрие следите си на текущия сървър.
Един доста тревожен пример за това, колко лесно хората могат да бъдат заблудени от текущата реколта от AI чатботове. Ясно е, че GPT-4 е инструмент, с който лесно може да се злоупотребява за измами, подвеждане и може би дори изнудване.
Кой ще се възползва?
Това е особено притеснително, като се има предвид, че компаниите разработват упорито пускането на нови големи езикови модели, без да проучат напълно рисковете. В случая, новината идва, след като Microsoft, която реализира AI чатбот базиран на GPT-4, уволни целия си екип. Последният е трябвало да гарантира, че новите AI инструменти са в съответствие с AI принципите на компанията.
GPT-4 ясно маркира инфлексна точка. С тази нова, необичайна способност да се избягва човешкото откриване, ще бъде малко стресиращо да гледаме как ще бъде използвана в бъдещето.