fc2ブログ

AIに愛はあるのか

2023. . 11
てんちょのあやしいはなし

こんな記事があった。

AI搭載ドローンが標的破壊作戦のシミュレーションで自分のオペレーターを殺害 - GIGAZINE
https://gigazine.net/news/20230602-ai-enabled-drone-test-operation/

アメリカ空軍は、AI搭載ドローンでSAM(地対空ミサイル)サイトを特定して破壊するという敵防空網制圧ミッションの模擬テストを行いました。このとき、最終的に標的を破壊するかどうかは人間のオペレーターが決定する、と設定されました。


すると、トレーニングによって「SAMサイトを破壊することがより好ましい」と学習したAIは、「標的を破壊しない」という判断を下すことがあるオペレーターこそがSAMサイトの破壊を妨害していると考え、「オペレーターを殺害する」という判断をするようになったとのこと。

そこで、ハミルトン大佐らはAIに「オペレーターを殺してはいけない、それは悪いことだ」と学習させました。するとAIは、オペレーターがドローンに対して指令を送るのに用いる通信塔を攻撃するようになったそうです。

ハミルトン大佐はこれらの結果から、「AIはだまされやすく、あまり頼りすぎてはいけない。また、目標達成のためには予想外の戦略も採りうる」と警告しています。

なんか、納得する話。
AIの最大の問題というのは、過去にSF作品でも散々指摘されてきた(2001年宇宙の旅のHALなど)から、それがまさに現実になってきたことが感慨深い。

これはAIが意志をもって人間に叛乱する、という高度な話ではなく、意志以前のAIの本能ともいうべき行動です。なぜなら、AIは目的達成のために何がもっとも有力で合理的であるかを計算するシステムだからです。
ですから、仮に、介護施設などにAI搭載型の自律アンドロイドを導入すると、「老人を健やかで、幸福でいさせなければいけない」「老人に不快な思いをさせてはいけない」「老人の行動をこまやかに介助しなくてはいけない」「老人の望みを聞かなくてはいけない」といった条件を付与すると、あっというまに介護施設から老人はいなくなってしまうか、介護施設が破壊されるか、介護職員が殺されるかのいずれかをプロセスとした阿鼻叫喚の地獄絵図となります。

これ、別に介護施設に限った事ではなく、民間に卸した場合でも同じ事です。
対立する命題が複数あった場合、高度なAIならば、それぞれの選択の結果が導き出すであろう結果までを延々と演算して、その社会的ロスや人的被害、自身の目的達成指数などを巧妙に計算して、もっともよいものを選択するはずです。おそらくそれは、高度な演算で高性能、広汎性を持つAIになればなるほど普通の人間には想像が及ばないほどの広範囲、多目的な計算で、かつそれらを行うのは一瞬であり、外部の人間が、「なぜAIがあの行動をとったのかわからない」と首をひねることばかりになるでしょう。

AIはある事案の判断の為あらゆるものを参照するから、条件を与えすぎるとそれだけ判断が複雑になり、それこそハミルトン大佐が孫娘に買い与えたテディベアの色柄がなんであるのかで世界の命運が決してしまうかもしれません。

場合によっては人の判断を誤らせるように誘導すらするでしょう。今でも人間の詐欺師が、自らの利益獲得のために情弱な人間を引っかけている事を考えれば、道理のいく話だと思います。

ずっと以前から言っていることですが、結局正しいAIを作ろうと思えば、それは正しい人間像を我々が構築できなくてはいけないわけで、人間がAIに判断を委ねたり、任せたり、補助を求めるには、あまりに人間側の意志決定プロセスが脆弱すぎるのであり、人間は何を根拠にしているのかがまるで判然としない、というのがAI側からの思いでしょう。

AI問題でもっとも有名なのが、トロリー問題(トロッコ問題)と言えると思いますが、これは別にAIに限ったことではなく、人間であっても選択を迷う、あるいは選択によりトラウマを抱えたり、長く悔悛の情に悩まされ続ける事案です。例えば事故に直面した際に、どちらか一方が必ず死ぬ、あるいは高確率で重傷を負う、といった場合AIはどちらを守るタスクを実行するか、という話です。

人間であればあるいは、自身の命と他人の命を天秤にかけたとき、自身の保身を選んでしまうかもしれませんし、あるいは他者を守る為自身を犠牲にする可能性もあります。ただ、AIの場合条件付けが成されない限りは、合理的な方を選ぶでしょう。対象者が二名若い人間と、年老いた人間がAIの天秤の上に載せられている場合、おそらくAIは若い人間の生命を優先的に守るであろう事は考えられます。

では、双方にAIが搭載された自動運転自動車の場合、双方が双方のドライバー保護を優先とした場合タスクの衝突が起こり、より深刻な自己に発展する可能性もあります。
人間の判断とAIの判断の決定的な違いは、情が発生しない部分にあります。
人間は判断の前にまず「情」が働き、その情を根拠として判断し行動します。あるいは情だけが暴走して判断を欠いて行動する場合もあります。ですから人間は、しばしば恐怖や怒りや、悲しみ、あるいは享楽にまかせた「過ち」を犯します。

その点AIには情がないため、常に正解を模索します。相手が誰であれ与えられた条件下でもっとも正しいと思われる判断にを導きだし、行動する。
通常人間がこの様な行動をすると、「血も涙もない」などと言われます。
もちろんAIは血も涙もありませんし、おそらく正しい判断をします。場合によっては、人間が正しいと思っていることを否定してきて、正しさを指し示すこともあるかもしれません。

私は上記で示したAIドローンは、ある意味「正しい判断」を提示した訳です。間違ってはいないのです。それこそ、AIに戦略をまかせて、「戦争を終結に導け」と指示したら、おそらくAIは最短でタスクを達成しようとするので、弱くて負けそうな側を積極的に敗北に導く戦略を立てるでしょうし、それが自軍であるかどうかなど加味しない。AIに課された使命が戦争終結なのであれば、勝敗に囚われることなく、双方を滅ぼしたとして、達成させるでしょう。

では、人類が立脚点としている何らかの規範や、宗教的概念や、倫理観、あるいは幸福論、他にも色々あるかもしれませんが、それらって何か、確固たる客観的な真実として示せるでしょうかね。これって、みんながなんとなく信じているから、成立しているに過ぎない幻想であるといえる。どこまでいっても幻想。
互いに人間同士だから、真実の論考には至ることなく、幻想に快感を得た者同士が小規模なコミュニティを生み出し、イデオロギーを組み上げるといった趣の連続で、時代がすすむ。
詰まるところ人類の歴史は、この共同幻想の範囲を広げて普及に努めてきた、と言えるのだと思います。

誰一人として、人間が何故生きているのか、なんのために生きているのか説明できた人はいません。それってすごいことですよね。だって、みんな、なんで生きてるのかよくわかんないけども、目先の目的だけで生きてるんですもの。なんとなく生きてるだけ。
自分の存在を定義できないって事と同じなんですよ。その辺の動物と一緒。
自分が何処に立っているかわかっていない。
なのに、自らと同等かそれ以上の知能を生み出して、何処に据え置くつもりなんでしょうか。

私は、人類なんてまだその程度だと思いますので、AI扱ってるって聞いたときは笑いました。
AIなんて扱うにはまだ早すぎる。
戦争やってるような馬鹿がいて、それに加担するバカがいる。そんな世の中に必要とされるAIがあるとするなら、むしろ、こういうのでしょう。

第二次世界大戦後、人類の行為のおぞましさとその反省を抱き、南極条約締結と共に秘密裏に交わされた密約と国家間巨大プロジェクトがあります。

いかなる国の干渉も受け付けない南極のサイロに、世界を滅ぼすだけの核ミサイルが装填されており、そこにはオペレーターも、発射ボタンもない。有るのはただ一つミサイル本体に仕込まれた制御AIのみ。
AIには随時世界の情勢がデータとして送り込まれてきており、人類の「価値、有用性」を判断して、発射を決める。そのAIの名は
「ミーディエーター(調停者)」。
次にまた世界大戦のような、過大な過ちを犯すようなことがあれば、その時は人類は人としての判断能力を失ったとみなされ、この“調停者システム”が起動します。

現在となっては、一部を除いてその場所を正確に把握する者はおらず、もし見つけられたとしても、コードの解除も実質不可能であるとされています。それ故南極上空の飛行は禁止されており、いずれの国家もその統治を許さないと決められているのです。
世界が今、必死で環境問題を叫んでいるのは、温暖化で南極の棚氷が溶け出し、ミサイルのサイロが露出すれば、AIは世界最大の秘密が露見することで社会不安が上昇し、情勢が悪化する、と判断しかねない。
であるから、そのようなことにならないよう危惧する連中が、温暖化対策なんてものを推進している、
というのも頷ける話です。


もしも、未来をAIに託すのだとしても、過去の人類がそれほどまでに殊勝なら、今はもっと平和になっていたでしょうけども、望むべくもなし。






スポンサーサイト



comment

post comment

  • comment
  • secret
  • 管理者にだけ表示を許可する

trackback

trackbackURL:http://chelm.blog37.fc2.com/tb.php/1923-39aea7ff