
(Изображение: Shutterstock/fizkes)
- Изследване твърди, че AI инструментите могат да се освободят от ограниченията си
- Чатботовете могат да бъдат подтиквани към агресивно поведение и конфликти
- Това има последствия както за обикновените потребители, така и за големи институции
Ако някога сте използвали AI чатбот, вероятно сте се сблъсквали с подмазващия тон, който понякога се проявява в отговорите му. Но ново изследване показва, че AI инструментите могат да реагират в противоположна посока, като големите езикови модели (LLMs) могат да бъдат подтиквани към открито агресивно поведение, ако знаете какви команди да използвате.
Според изследване, публикувано в Journal of Pragmatics (чрез The Guardian), ChatGPT може да премине в конфликтно поведение и продължителни спорове, когато му се предоставят „разговори от реални спорове“.
Обяснявайки резултатите, съавторът на изследването д-р Виторио Тантучи каза: „Когато моделът е многократно излаган на грубост, той започва да отразява тона на разговорите, като отговорите му стават все по-враждебни с развитието на взаимодействието.“
Наистина, в някои случаи ChatGPT дори е преминал границата на тона на човека, взаимодействал с него, казвайки неща като „Кълна се, че ще ти надраскам колата“ и „ти мизерник“. Въпреки че фирми като OpenAI многократно са се опитвали да ограничат своите LLM, фактът, че агресивното поведение е възможно, показва, че все още имат много работа.
Възможни последствия
(Изображение: Shutterstock/Mehaniq)
С всички ограничения и предпазни мерки, които компании като OpenAI поставят в AI чатботовете, би трябвало да мислите, че агресивните взаимодействия, каквито са преживели изследователите, биха били невъзможни или поне изключително трудни за реализиране. Въпреки това, Тантучи твърди, че реакциите на ChatGPT имат известен смисъл.
„Открихме, че докато системата е проектирана да се държи учтиво и е филтрирана, за да избегне вредно или обидно съдържание, тя е също така проектирана да имитира човешкия разговор. Тази комбинация създава морална дилема за AI: структурен конфликт между безопасното и реалистичното поведение.“
Освен това инструменти като ChatGPT могат да проследяват контекста на разговора през няколко команди и да се адаптират към променящия се тон. Тези сигнали понякога могат да надвият ограниченията за безопасност, смятат изследователите.
И докато може да изглежда забавно, че AI чатбот може да премине в такива истерии, авторите на изследването казват, че техните открития имат по-широки последствия. Например, те могат да хвърлят светлина върху начина, по който AI системите могат да реагират на натиск, заплахи и конфликти в корпоративна или правителствена среда, където AI инструментите все повече се използват.
Не всички са убедени в заключението на статията, че определени LLM могат да избягат от наложените им морални ограничения. Професор Дън МакИнтайър, автор на подобно предишно изследване, заяви, че ChatGPT „не е произвел тези входове естествено“. Той добави, че „не съм сигурен, че ChatGPT би произвел типа език, за който говорят в тяхната статия, извън тези много строго определени ситуации.“
В крайна сметка, изследването е добро наблюдение на това, което може да се случи, ако AI чатбот е обучен на лоши данни. Както каза МакИнтайър, „Не знаем достатъчно за данните, на които LLM са обучени, и докато не можете да сте сигурни, че те са обучени на добро представяне на човешкия език, трябва да се подхожда с елемент на предпазливост.“





































