Суббота, 20 апреля, 2024

Google Perspective API – война с интернет-троллями или глобальная цензура?

Софт и игры
Вячеслав Питель
Вячеслав Питель
Редактор сайта, опыт работы 10 лет, пишу на тему гаджетов, новостей в мире технологий, игр и софта admin@uspei.com, VK, OK, сот. 89132476241

Война с интернет-троллями или глобальная цензура?Здравствуйте, уважаемые читатели сайта Uspei.com. В сентябре 2016 года дочерняя компания Google под названием Jigsaw объявила войну интернет-троллям, начав проект Perspective по борьбе с онлайн-преследованием с использованием машинного обучения. Теперь команда открывает эту систему борьбы с троллями по всему миру.

Jigsaw и ее партнеры по команде Google Counter Abuse Technology Team выпустили новый проект под названием Perspective API, который предоставляет любому разработчику доступ к инструментам защиты от интернет-преследования, над которыми Jigsaw работала более года.

Perspective использует машинное обучение для автоматического обнаружения оскорблений, преследований и оскорбительной речи в интернете.

Введите предложение в окно интерфейса, и Perspective утверждает, что его ИИ может сразу же высчитать оценку «токсичности» фразы точнее, чем любой черный список ключевых слов, и быстрее, чем любой человек-модератор.

Perspective утверждает, что его ИИ может сразу же высчитать оценку «токсичности» фразы

Проект Perspective API поставил перед собой цель – создать инструменты для онлайн-дискуссий, комментариев, чатов и т.д., которые отфильтровывали бы оскорбительные комментарии и “заставили замолчать троллей” на основе машинного обучения.

Интернет-антитоксин Perspectiveapi.com

Создав и внедрив эту систему с помощью API, Jigsaw и Google помогут разработчикам использовать этот детектор токсичности речи, разработанный на основе машинного обучения, который работает на серверах Google, будь то для выявления преследований и злоупотреблений в социальных сетях или более эффективной фильтрации комментариев на новостном сайте.

У многих крупных новостных интернет-изданий было два выбора до этого момента: отключение комментариев вообще или ручное модерирование. Теперь же появилась возможность воспользоваться машинным интеллектом, который со временем будет обучаться.

На демонстрационном веб-сайте, теперь у каждого есть возможность ввести фразу в интерфейс, чтобы мгновенно увидеть, как она оценивается по шкале «токсичность».

Google и Jigsaw разработали этот инструмент измерения, взяв миллионы комментариев из редакционных обсуждений в Википедии, New York Times и других неназванных партнеров.

Полученные данные дали Jigsaw и Google огромный набор примеров обучения, с помощью которых можно обучить машинный алгоритм, что представляет собой оскорбительный язык или преследование в офлайновом мире.

Введите «вы не хороший человек» в текстовое поле Perspective и сервис сообщит вам, что у него есть 8-процентное сходство с фразами, которые люди считают «токсичными».

Напишите «вы противная женщина», и perspective будет оценивать ее на 92 процента, а «вы плохой человек» получает 78-процентный отрицательный рейтинг.

Демонстрация алгоритма Persperctive API

Если один из его рейтингов кажется неправильным, интерфейс предлагает возможность сообщить об исправлении, которое также будет использоваться для машинного обучения.

Api-интерфейс Perspective API позволит разработчикам получить доступ к этому тесту с помощью автоматизированного кода, предоставляя ответы достаточно быстро, чтобы издатели могли интегрировать его на свой веб-сайт, чтобы показывать оценки токсичности для комментаторов, даже в момент написания комментария. Уже появились решения для Drupal 8 и других CMS.

Демонстрация алгоритма Persperctive API в Drupal

Цензура и этическая сторона вопроса

Несмотря на положительный импульс для создания “безопасного пространства” для онлайн-дискуссий, критики утверждают, что алгоритм может представлять собой форму цензуры, позволяя автоматизированной системе удалять “политически неудобные” комментарии.

Jigsaw в свою очередь утверждает, что его инструмент не предназначен для окончательного вынесения решения будет ли опубликован комментарий, и также предлагает, чтобы алгоритм мог предложить новый инструмент не только модераторам, но и читателям, которые будут сами определять на какой уровень беседы они готовы.

«Это вариант, а не решение», – говорит Коэн, один из разработчиков. «Мы не утверждаем, что создали панацею от проблемы токсичности». Он надеется, что в конечном итоге он может быть воссоздан на других языках, таких как русский, чтобы противостоять государственному использованию оскорбительного троллинга в качестве тактики цензуры (от автора: – ну, это они зря))) русский язык так богат, что мы запутаем любые алгоритмы и заставим алгоритм возненавидеть их самих). Сразу извиняюсь за выбор тестовых слов…

Богат и могуч русский язык
Ну, да, для вас это не оскорбительно…
Богат и могуч русский язык
Вы, наверно, такого слова вообще не знаете…

В эпоху, когда онлайн-дискуссия более политизирована, чем когда-либо, Jigsaw утверждает, что программный инструмент для фильтрации комментариев может действительно помочь вернуть более открытую атмосферу обсуждения в интернет.

«Мы находимся в ситуации, когда онлайн-разговоры становятся настолько токсичными, что мы просто общаемся только с теми людьми, с которыми мы согласны», – говорит Адамс из Jigsaw. «это сделало нас еще более заинтересованными в создании технологий, чтобы помочь людям продолжать говорить и продолжать слушать друг друга, даже когда они не согласны».

Jigsaw уже сотрудничает с онлайн-сообществами и издателями для внедрения этой системы измерения токсичности.

Многие крупные проекты теперь экспериментируют с системой, чтобы увидеть, как они могут использовать ее для улучшения своих разделов комментариев.

Многие крупные проекты теперь экспериментируют с системой, чтобы увидеть, как они могут использовать ее для улучшения своих разделов комментариев.

Википедия использовала его для изучения своих редакционных страниц для обсуждения.

Фактически, New York Times уже сегодня строит инструмент модерации комментариев с использованием этого api.

Но данный api в неправильных руках может привести к разным последствиям.

Могут ли ваши сообщения на Facebook быть удалены, если они считаются слишком токсичными?

Что делать, если api был включен в youtube или в алгоритм поиска Google?

Youtube теперь автоматически генерирует свои субтитры, расшифровывая речь в видео. Соедините эту технологию с возможностью анализа токсичности, и у вас внезапно возникает ситуация, когда рекламодатель может решить, что этот текст субтитров «слишком токсичный», чтобы показывать свои объявления рядом.

Кроме того, это может быть использовано в качестве негативного фактора рейтинга на youtube для видео, которые, как считается, являются токсичными.

Если api перспективы будет включен в алгоритм поиска google, мы оказались бы в будущем, когда “токсичность” является фактором ранжирования для определенных фраз.

Мы, как специалисты по seo, начнем смягчать любой текст, надеясь, что сможем достичь «идеального» уровня токсичности.

Вывод

Как инструмент, который был создан для защиты свободы слова (или слова Google?), я бы предположил, что это может быть началом глобальной политической цензуры.

Можем ли мы оказаться в мире, в котором журналисты должны переступить свои принципы, чтобы удовлетворить Google?

Что вы думаете по этому поводу? – напишите в комментариях

Свидетельство о регистрации СМИ в РКН: ЭЛ № ФС77-83818 от 29.08.2022

Оставьте комментарий

Пожалуйста, введите Ваш комментарий
Пожалуйста, введите Ваше имя здесь

Гаджеты

Как выбрать Pod-систему

Если вы решили перейти с сигарет на вейпинг и выбираете свою первую Pod-систему, есть несколько важных аспектов, на которые...

Также на эту тему