Twitter本社は、5月6日、Twitter上で増加する嫌がらせツイートへの取り組みとして、ユーザーが「攻撃的なツイート」をする前に再度確認させる追加機能を検討していると発表しました。
現在テストされている機能では、ツイート内に「悪意のある言葉」が含まれていると判断された場合、投稿する前に修正を促す警告画面が表示されるとのこと。
When things get heated, you may say things you don't mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.
— Twitter Support (@TwitterSupport) May 5, 2020
物事がヒートアップすると、本意ではないことを言ってしまうかもしれません。皆さんが返信を再考できるようにするために、私達はiOS上で限定的なテストを実行しています。 有害な可能性がある言葉を使用している場合、それが公開される前にあなたの投稿の修正を促すものです。
どのようなツイートが「悪意のある言動」なのかは明言されていませんが、おそらくTwitterのガイドラインに準ずるものと考えられます。
昨年はFacebook社が運営するInstagramでも同様のテストが行われており、同社は「テスト結果では一定の成果がみられました。人は再考を促されれば、考えを変えることができるのです」と話しています。
年々目につくTwitter上での嫌がらせですが、この変更によって減少に転じることを祈りましょう。