Фейсбук

Facebook предприе сериозна модерация срещу почти 1,5 млрд. акаунти и публикации, които са нарушили стандартите на общността през първите три месеца на 2018 г., разкри компанията.

В първия си тримесечен отчет за спазването на стандартите на общността, Facebook каза, че огромното мнозинство от техните действия са били срещу спам-съобщения и фалшиви акаунти: предприети са действия против спам на 837 милиона акаунта и са закрити още 583 милиона фалшиви. Facebook също така е модерирал 2.5 млн. част от текстове, свързани с омраза, 1.9 млн. – терористична пропаганда, 3.4 млн. – насилие (изображения) и 21 млн. текстово съдържание, съдържащо голота и сексуална насоченост.

Това е началото, а не края на пътуването и се опитваме да бъдем толкова отворени, колкото можем“, каза Ричард Алън, вицепрезидент на Facebook за обществена политика за Европа, Близкия Изток и Африка.

Количеството съдържание, което се модерира от Facebook, е повлияно както от способността на компанията да открива и предприема действия срещу външни материали, които са в нарушение на правилата, също така и от огромното количество публикувано от потребителите съдържание. Например, Алекс Шулц, заместник-председател на компанията за анализи на данни, заяви, че количеството съдържание, модерирано и свързано с насилие (изображения), почти се утроява с всеки изминал триместър.

В доклада не са включени няколко категории нарушаващо правилата съдържание, очертани в указанията за модериране на Facebook – включително изображения на сексуална експлоатация на деца, порнография от отмъщение, правдоподобно насилие, суицидни постове, тормоз, нарушения на неприкосновеността на личния живот и нарушаване на авторски права.

Facebook също така успя да увеличи количеството на съдържанието, което използва, с нови инструменти, базирани на изкуствен интелект, които се използва за намиране и модериране на съдържание, без да е необходимо отделни потребители да го обозначават като подозрително. Тези инструменти работят особено добре за разпознаване на фалшиви акаунти и спам: компанията заяви, че е успяла да използва инструментите, за да открие 98,5% от фалшивите профили, които е закрила, и “почти 100%” от спама.

Автоматичното маркиране работи добре за намиране на изображения на голота, както Шулц спомена, че е лесно за технологията за разпознаване на изображения, като знае какво да търси. По-трудно, поради необходимостта да се вземат под внимание контекстуални улики, беше да разпознаем дали даден текст съдържа силна омраза (злоба, вражда) и до каква степен. В тази връзка Facebook каза: “открихме и маркирахме около 38% от съдържанието, в което последваха действия, преди потребителите да ни съобщят за това”.

Facebook направи стъпки за подобряване на прозрачността през последните месеци. През април компанията пусна публична версия на насоките си за това, което е и не е разрешено на сайта.

Компанията също така обяви мерки, които изискват от политическите рекламодатели да преминат процес на удостоверяване и да разкрият своята принадлежност заедно с рекламите си.

Facebook не е единствената платформа, която предприема стъпки за прозрачност. Миналия месец YouTube показаха, че са премахнали 8,3 милиона видеоклипа за нарушаване на указанията на общността между октомври и декември.

Източник: TheGuardian