После нескольких довольно странных инцидентов с чат-ботом от Microsoft по имени Tay, который превратил Twitter в пристанище сексизма и расизма, разработчики социального сервиса всерьёз озаботились безопасностью своих пользователей. Чтобы в будущем такая ситуация больше никогда не повторилась (ведь чат-ботов с каждым днём становится всё больше и больше), Twitter запустит алгоритм проверки всех аккаунтов, работающих благодаря искусственному интеллекту, на их «адекватность». Способы проверки чат-ботов в социальной сети будут варьироваться от довольно обычных до не совсем гуманных — всё будет зависеть от того, как ИИ успел проявить себя в Twitter. Примечательно, что самым спокойным ботам достанется больше всех — компания собирается проводить своего рода стресс-тесты, отправляя «добрым» ботам твиты с оскорбительным содержанием. В частности, обещают присутствие расистских выпадок, нецензурных высказываний в сторону феминисток и много чего ещё. В общем и целом, Twitter собирается вывести абсолютно каждого бота на чистую воду, но больше всех пострадают невинные.
3DNews
Обсуждение в социальных сетях