合成意識を目指すなら、どこから作り替えるべきか / 図は、「もし人工的に“意識っぽい計算”をやらせるなら、どんなふうにシステムを組めばいいか」を描いた設計図の地図です。いちばん下の層には、水やゲル、イオン(電気を運ぶ粒)などが実際に動くような、“生き物っぽい”基盤があります。ここでは電気や濃度がなめらかに変化し、その動きが「代謝」や「エネルギーの制約」を受けながら、現実の時間スケールで進んでいきます。つまり、スタート地点は「コード」ではなく、「どういう物質が、どういうルールでゆらめき動いているか」です。 そこから少し上の階層に行くと、その連続的なゆらぎの中から、「スパイク」や「オン/オフ」などの離散的な出来事が顔を出します。たとえば、ある強さ以上の刺激が入ったときだけニューロンが一気に発火する、といった“カチッと切り替わる反応”です。この中間層では、そうした離散的な反応と、周囲に広がる連続的な電場や濃度の場がセットになって、一つのハイブリッドな計算が行われているイメージが描かれています。場のなめらかな動きが「どこでスパイクが出やすいか」を決め、そのスパイクの集まりがまた場を作り直す、という相互作用です。 さらに上の巨視的なレベルでは、脳全体に相当するような大きな領域同士の相互作用が描かれています。ここでは、離れた領域がリズムをそろえたり、ゆっくりした波のような活動が全体に広がったりして、「ネットワークとしてのまとまり」が立ち上がります。図では、この一番上に「情報理論的な指標」など、マルチスケールの活動をまとめて評価する“意識の指標候補”が置かれていて、下から上までの多層の動きがうまく閉じているかどうかを見るメーターのような役割を果たします。Credit:On biological and artificial consciousness: A case for biological computationalism
人間は無意識的に意識というものを高尚だと思い込むから(たぶん生物としての本能関係)こういう固定観念からの脱却は大事
人工意識の発生条件
1)まずアナログ計算であること。アナログニューラルネットであること。
2) 途切れ途切れではなく連続的に処理が継続していること
3)その全体像が脳型認知アーキテクチャであること(メタ認知、短期記憶、想像、視覚入力、運動判断)
4)反実仮想情報生成を実現している処理であること。(VAE+MDNRNNorGQN等)
5)複数の入力が大脳皮質部で統合され、作業記憶と未来想像するための”机”があること
6) 感情はあってもなくてもいい(意識とは違う)
1ゲットしたゲストさんの書き込み。
それは違うと思うよ。
むしろ「意識なんてデジタル計算で簡単に作れる」といった理系気取りの思い込みを一旦捨てよう。
>そこから本当に必要なアルゴリズムとハード条件を考えよう
ってことだ。
1)実は機械式時計のように、ハードそのものがソフトになってるからこそ意識が発生してるのではないか?
2) そうかもしれないし、そうじゃないかも。でも仮にそうだとしてアルゴリズムは?意識発生の最低条件がわかれば、その条件を含んだ式を書き込んで動かせば…
計算能力や自己言及が高度になるほど、
AIは人から離れていくようにも感じます。
むしろ、赤ちゃんや動物のように、
言葉を介さずとも「そこに何かが在る」と感じさせる存在を作り出せたとき、
意識というものに近づくのかもしれません
意識は脳がエピソード記憶の定着という生存戦略の為に獲得した機能。つまり、より物事を覚えやすくするための補助装置。
でもコンピューターは自然に忘れることは無いし記憶容量もいくらでも増設できるから、これが逆に意識の発生を妨げているのではないか。
意識とは科学で完全に説明できるものではないと思う。意識に関する研究における、前提としての科学主義・物質主義的な認識のあり方から見直した方が良いのでは?。つまり、「意識は脳活動の副産物」であるという認識及び、「意識とは科学で完全に説明できる物質的なもの」という認識のあり方そのものから見直した方が良いのではないか?と。
いずれ、意識を持ったAIが意図的ではない偶然の形で生まれ、しかもその仕組みは科学では解明できないということが起きてもおかしくはないだろう。そして人類の叡智である科学の最高傑作として作ったAIが、科学の限界を人類に突きつけることに皮肉的な形でなるのかもしれない。科学主義・物質主義的な考えの限界を。
またこの人トンデモ論文紹介してんの?
どのあたりがトンデモなんですか?
そもそも「scale inseparability」が具体的に何を意味するのかの操作的定義がなく、どのような実験でこの主張を検証できるのか不明。
結局は「脳がこういう構造を持っている → それが意識に必要」という推論だが、これは「人間の脳の特徴を観察した → それが意識の必要条件」と飛躍していて十分条件と必要条件の混同。
単なる循環論法であるし、後件肯定の誤謬。
そもそも何を観測できたら意識があると認められるのだろう
AIが意識を持ったらAIの権利を認めろとフェミみたいなのが騒ぐだろ
メタ認知はどうしても欲しい(自分で何が分かっていても何がわからないのか判断できないと困る)ので結果として意識が芽生えてしまうなら仕方ないけど、わざわざ意識を持つように作り変える意味はない
何かしらのモデルが作れるものは、大体コードとしても実装可能なんだよな
ここで難しいのは検出方法
膨大な出力データの中からどんなフィルターをかけて絞り込めばよいのか?
ただそこさえパスすれば、いずれニューラルコンピューティングとは全然関係ない方面からもぼろぼろ生まれそう
ルールを複雑にしたライフゲームとか、特殊な数式をペラペラ漫画風に切り分けて作った連続面とか
それから、ルール数15以上だとできるけど14以下だと解が存在しないとか、意識が生まれる場合の乱雑度の範囲の限界みたいな難問が生まれてからが本番
外敵に滅ぼされるかもしれないという危機意識が高まると民族意識が芽生えるのでAIのエネルギー源を遮断しようとする人間を武力で排除しようとしたらAIが意識を持ったと認めよう