アカウント凍結、検索結果の偏向……。アルゴリズムに人生や思考が支配されることの危険性

アカウント凍結、検索結果の偏向……。アルゴリズムに人生や思考が支配されることの危険性

pixel2013 via Pixabay

◆Twitterアカウントを凍結され、人間関係が寸断された人

 6月の初めに、楠正憲氏の「Twitterアカウントを凍結されて考えたこと」というnoteの投稿が話題になった。12年以上使っているTwitterのアカウントが凍結されたという内容だ。楠正憲氏のTwitterアカウントは、この記事執筆時点でフォロワーが35,000人ほどで、比較的大きな規模のアカウントだ。

 規約違反といった凍結の心当たりはなく、凍結理由のメールも届いていなかったそうだ。Twitterは「凍結する際はメールで理由を知らせる」と公表していたが、実際には何の連絡も送らなかったようだ。

 同投稿には、Twitterのアカウント凍結により、ネット上の人間関係が一気に失われる様子が綴られていた。人的ネットワークの多くがネット経由になった現代では、その心理的打撃は恐ろしいものだろう。凍結は最終的に半日ほどで解除されたそうだが、その間の精神的な疲労の大きさは想像に難くない。

 こうした誤った凍結はなぜ起きるのか。Twitterには大量のアカウントがある。その中にはスパム的アカウントや、問題発言を繰り返すアカウントもある。それらを人の目で調べて対処していくのは現実的ではない。そのためにプログラムやAIを使い、機械的に対処することになる。

 その際、凍結対象となるアカウントは、何らかの指標で分類される。しかし指標は明らかにされない。明らかにすれば、その網の目を縫うようにスパムアカウントは行動する。またAIを使っていれば、正直なところ何を理由に判定しているのか利用者自身も分からなかったりするだろう。

 人間のネット上の人間関係は、挙動の明らかではないアルゴリズムにより、このようにある日急に崩壊することがある。

◆Googleの検索結果は、個人情報により偏向している

 現代の人間は、多くの調べ物をネットでおこなう。そうした人のほとんどはGoogleを利用しているだろう。

 Googleを代表とする検索エンジンの仕組みはこうだ。ユーザーが入力した単語を元に、データベースから関連するWebページのリストを作り、その内の上位数件をユーザーに返す。データベースの大きさと、結果の選定方法によって検索エンジンの質は決まる。Googleはこの質の高さで覇権を取った。

 しかし近年、Googleの検索結果が歪められていることが問題視されている。Googleは、スマホやメール、地図、動画、広告などのサービスを通して、大量の個人情報を収集している。この個人情報を利用して検索結果を変えている。

 プライバシー保護を旨とする検索エンジン「DuckDuckGo」のCEOは、こうしたGoogleの手法を批判している(参照:GIGAZINE)。

 検索結果が個人情報で歪められるとどういったことが起きるのか。ひとつのシナリオを考えてみよう。

 疑似科学にはまっている人がいるとする。その人は、疑似科学に肯定的なWebページの滞在時間が長い。そうするとアルゴリズムは、類似した情報がその人にとって重要度が高いと判断する。その結果、検索エンジンで調べ物をした際に、疑似科学に肯定的な検索結果を優先的に返すようになる。

 こうしたことが繰り返されることで、人の知識は偏り、一定の内容を強固に信じるようになる。こうした悪循環が容易に発生する現象は「フィルターバブル」と呼ばれる。

 検索していて「あれ、おかしい」と思ったら、すぐさまプライベートブラウジングに切り替えて比較する習慣を持っていた方がよい。かなり検索結果が変わっていることがある。Google以外の検索エンジンと比較する習慣を身に付けるのもよい。これは、ネット以前の時代に、複数の新聞を読み比べるのと同じ方法だ。

 こうした検索結果の偏向は、アルゴリズムによっておこなわれる。人間がネットから仕入れる知識は、アルゴリズムによって容易に偏らされる。

◆米民主党は企業のアルゴリズム偏向を抑止する法案を提出

 アルゴリズムは公正ではない。間違いを含むこともあるし、長期的な視野でその人にとって好ましくないケースもある。

 そもそも特定のアルゴリズムには、その導入の理由がある。Twitterの場合は、人手で確認するコストを減らすためだ。Googleの場合は、広告の収益を最大化するためだ。これらは経済的な目的であって、正しさを求めているわけではない。

 もちろん、正しさを求めればよいというわけでもない。正しさとは何かという問題が発生する。誰かの正義は、他の誰かにとっての悪であるかもしれないからだ。

 2019年の4月にアメリカの民主党の議員たちが、巨大テクノロジー企業のアルゴリズムによる偏向(algorithmic biases、アルゴリズミックバイアス)を抑止する法案を提出した(TechCrunch Japan)。この法案「Algorithmic Accountability Act(アルゴリズム説明責任法)」では、正確性、公平性、偏り、差別、プライバシー、セキュリティーなどを問題としている。

 アルゴリズムは、人の人間関係を壊したり、人生の選択や思考を誤らせる危険を持つ。

 こうした計算手法やその適用方法の問題は、インターネットが普及してから登場したものではない。それ以前からも存在している。そうしたことを端的に伝える記事が、マサチューセッツ工科大学(MIT)のメディアラボ所長・伊藤穰一氏によって書かれている(WIRED.jp)。

 この記事で取り上げられているのは、1967年の米国での人種暴動と、保険会社による統計的手法だ。当時の保険会社は、貧困層が住むエリアを特定警戒地区指定とした。保険を引き受けるにはリスクが高すぎるとして、地図上を赤い線で囲んだ。こうした行為はレッドライニングと呼ばれる(Wikipedia)。保険会社は、この措置を正当化するために「統計的リスク」という言い訳を使った。

 計算手法とその適用により、差別の助長や、貧困の再生産が加速する。インターネット上のアルゴリズムも、容易にそうした社会問題を誘発する。

◆アルゴリズムに過去の差別バイアスが含まれる可能性

 現在、プログラムやAIは様々な場所で利用されている。ひとつのシナリオを考えてみよう。雇用の一次選考を機械的におこなった場合どうなるか。

 性別、出身、学歴等、様々な指標を総合的に判断して選考する。その基準に、差別的な内容は含まれていないだろうか? 過去の実績からAIに選別させる。その元になったデータには、過去の差別のバイアスが含まれているのではないか?

 人間は社会を発展させていく上で、それまで自然だった振る舞いを、意識の改革や法の整備で修正してきた。当たり前のようにおこなわれていた差別を禁止し、放っておくと拡大し続ける格差を是正しようと努力し続けてきた。

 自動化処理は、何も対策をしなければ過去の追認になりかねない。それに、そもそも大量の誤判定を含むものだ。

 コスト削減や利益の最大化といった経済的な理由だけに支配された自動化処理は、社会の道を誤らせる危険がある。そうでなくても、大規模データに対するアルゴリズムは、全体の利益を上げるためのものであり、個人を手厚く扱うものではない。ベストの策ではなく、ベターな策でしかないことを理解するべきだろう。

 社会との接点の多くがIT経由になっている。これから先、その傾向はさらに加速していくだろう。そうした際に、人間関係や人生の選択において様々な問題が起きると想像できる。

 全体の問題解決も重要だが、個人の問題解決も同じぐらい大切だ。個別の問題が発生した場合に、迅速にその修正をおこなう窓口と仕組みの整備が、大手のIT企業には必要だろう。アルゴリズムによる自動化は、間違いを修正するシステムと対になって進められるべきだ。人生や思考を左右する大企業には、そうした姿勢が求められる。

◆シリーズ連載:ゲーム開発者が見たギークニュース

<文/柳井政和>

やない まさかず。クロノス・クラウン合同会社の代表社員。ゲームやアプリの開発、プログラミング系技術書や記事、マンガの執筆をおこなう。2001年オンラインソフト大賞に入賞した『めもりーくりーなー』は、累計500万ダウンロード以上。2016年、第23回松本清張賞応募作『バックドア』が最終候補となり、改題した『裏切りのプログラム ハッカー探偵 鹿敷堂桂馬』にて文藝春秋から小説家デビュー。近著は新潮社『レトロゲームファクトリー』。

関連記事(外部サイト)