DX関連ニュースや事例、セミナー、コンサルティング会社のご案内。

フェイスブック、AIで嫌悪発言検知率95%と改善発表

フェイスブックは、その人工知能ソフトウェアを利用して、プラットフォーム内で嫌悪発言検出率を3年前の24%のレベルで約95%にまで引き上げ上げ主張した。 

2020年11月19日(現地時間)、Facebookの最高技術責任者(CTO)のMike Schroepfer氏(以下、Mike Schroepfer氏)はブログを通じて”現在(フェイスブックは)人工知能を利用して嫌悪発言を検出して94.7%までろ過た」とし「これは2017年の検出率の24%、昨年の検出率である80.5%より高い数値」と説明した。 

スーページは検出率を向上させることができた理由について、「データセットを手作業でラベリングすることなく、様々な言語に基づいて人工知能を訓練することができたから」と説明した。 

彼はまた、強化された整合性の最適化(Reinforced Integrity Optimizer、以下RIO)技術とリンフォーマ(Linformer)人工知能アーキテクチャなどのシステムのおかげだと付け加えた。

ⓒFacebookblog /上の画像は、テキストと画像が結合された嫌悪発言の例として、Facebookがブログに添付したものである

Facebookブログによると、RIOは現実のデータを直接使用して、人工知能モデルの嫌悪発言検出力を最適化させるシステムである。リンフォーマは人工知能がフェイスブックのコンテンツをより効率的に理解する方法を提供してくれるアーキテクチャを意味する。

Mike Schroepfer氏は、このようなシステムが必要な理由は、嫌悪発言が巧みに偽装されているからだと説明した。嫌悪発言の多くは、テキストと画像が結合された形態であるため、人工知能が完全にフィルタリング難しいこと。 

例えば普通の墓の写真の上に「私たちが好きなように選挙結果が出なければ、ここではあなたの競争の墓桁になる」という表現は、人であれば、人種嫌悪発言であることをすぐに気付くことができますが、人工知能はそうではない。

Mike Schroepfer氏は「私たちが直面している課題は、複雑で微妙で急速に進化している」とし「普通のコンテンツを奥井見るか嫌悪発言に間違って分類する場合の表現の自由を侵害することができますので、(嫌悪発言を)検出するだけでなく、間違いを避けることも重要である」と強調した。 

一方、昨年、Facebookは表現の自由を前面に出して、プラットフォーム内のコンテンツに関与しないという立場を固守している。しかし、先にツイッターが嫌悪発言が盛られたツイートを削除するというポリシーを広げ、Facebookのポリシーは、物議に上がった。また、「ジョージ・フロイド事件」があった6月には、トランプ大統領の扇動的な発言を放置して、世論の袋叩きを迎えた。