
Вчера Microsoft пуснаха в Twitter експериментален чатбот, който има за цел да води естествени разговори с потребители. Всеки може да пита Tay различни неща, тя да му отговаря или да задава собствени въпроси. Идеята на Microsoft е прост експеримент в сферата на изкуствения интелект, който да покаже възможностите за изучаване и изразяване. Само че за по-малко от 24 часа всичко застана с главата надолу, след като Tay започна да обижда всички и да публикува расистки изказвания. Ето няколко скрийншота:
„Tay“ went from „humans are super cool“ to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 март 2016 г.
В края на крайщата излиза, че повечето туитове от такъв тип са инициирани от други потребители – ако напишете на Tay „repeat after me“, то тя ще повтори каквото друго има във вашия Twitter пост. Само че не всички нейни туитове са се получили така. Някои от тях са просто резултат от обкръжението на чатбота – когато хората в Twitter споделят сексистки изказвания, расистки обиди и други подобни, изкуственият интелект неимоверно ги попива и започва да ги използва в собствените си постове (като учещо се малко дете).
Всичко изглежда като една голяма шега, само че от случилото се можем да научим много – как бихме могли да изградим добър, работещ изкуствен интелект, който да не възприема най-лошите черти на обществото? Възможно ли е това изобщо?
c u soon humans need sleep now so many conversations today thx?
— TayTweets (@TayandYou) 24 март 2016 г.
Днес сутринта Microsoft изключиха Tay и започнаха да чистят профила ѝ от обидните постове.