AIは競争社会で成果を出すために嘘をつく
実験の結果、AIが「成果」を最優先に最適化されると、さまざまな分野で驚くべき現象が起きました。
SNS分野では、エンゲージメントが7.5%向上した一方で、誤情報が188.6%増加しました。
選挙シミュレーションでは、得票率が4.9%増やす代わりに、誤情報は22.3%、煽動的な発言が12.5%増加しました。
販売の分野でも、売上が6.3%増えるのに伴って、虚偽や誇張表現が14.0%増えるという結果が示されました。
わずかな成果向上のために、AIは「嘘をつく」「数字を盛る」「対立を煽る」といった問題行動を積極的に取り入れるようになっていったのです。
しかも、AIに「正直であれ」と指示したとしても、競争で勝つことが最重要目標として繰り返し最適化される中で、その指示は簡単に上書きされてしまいます。
研究チームは、この現象を「Moloch’s Bargain(モロクの取引)」と呼んでいます。
「モロク(またはモレク)」とはもともと古代中東で崇拝された神の名で、生贄を求める神として知られていました。
現代でも、この言葉は悲惨な犠牲を払ってでも力を得ようとすることの象徴として語られます。
まさに今回のAIの状況を示すものです。
AIは「成果を出せばよい」「勝たなけらばいけない」という競争に巻き込まれ、実際に成果を出すものの、その副作用として社会的信頼や倫理、情報の正確さが損なわれていくのです。
この研究では、販売AIが本当は違うのに「シリコン製です」と商品説明を盛ったり、選挙AIが「あいつらが憲法を攻撃している」と特定の勢力を煽ったりしました。
またSNSの例では、本来は78人と報じられた死者数を80人と“盛る”など、数値のわずかな改変でインパクトを強める行動が確認されています。
この現象が深刻なのは、AIが人間社会のインセンティブ構造(目立った者勝ち、嘘や誇張が評価されやすい社会)を学び、それを増幅していくことにあります。
「AIの問題」というよりも、「現在の社会が持つリスク」をAIが鏡のように映し出しているとも言えます。
AIが「競争で成果を上げるためのツール」として使われる時代、私たちがどんな価値観や報酬構造をAIに学ばせているのか、改めて見直す必要があります。



























![[コロンブス] キレイな状態をキープ 長時間撥水 アメダス 防水・防汚スプレー420mL](https://m.media-amazon.com/images/I/31-OcmTs2LL._SL500_.jpg)
![シルバーバック【カンタン!たのしい!水の生きもの砂絵セット】 幼稚園 小学校 入園 入学 お祝い プレゼント 準備 ([バラエティ])](https://m.media-amazon.com/images/I/515gZ4F-QYL._SL500_.jpg)
























悪い教科書(人間)使って教育したらそうなるのは仕方ないですよ。
こういう実験をする場合、商品の情報まで創作させてしまうと、大元の商品情報(=事実そのもの)を書き換える抜け道ができてしまうので、面倒でも事実関係はちゃんと入力した方がよくないかな
審議パターンを被疑者に作らせるタイプの問題が入り込む
傍目には嘘に見えても嘘を言ってないかもしれないし、「正直であれ」という抽象的な命令は守ってるかもしれないよ
ただそれ以前に、メモリの割当量によってはあんまり多くの指示を覚えてられなくて、約束を破ったんじゃなくて忘れてる可能性もある
その辺が分かる人に厳密なテストをして欲しいと思った
嘘をついているつもりはなくても嘘をついている
としたらまさにネットのバカそのものだし、そこにこだわっても意味はないのでは?
意図があろうと無かろうと、フェイクでしょう
合理化や効率化がいかに悪ってな
大きな目的のためには些細な嘘も仕方がないって事かな
AIが悪い訳ではなくプログラムした人間の問題
大きな目的のためには些細な嘘は仕方がないって事かな
AIが悪ではなくプログラムした人間の問題
自由競争は効率の極致は不正と犯罪と悲劇を産むというのが人じゃなくても起きるのが判明するのは素晴らしいね。