ホームページ

運営方針

新規コメント

自動配信ON/OFF


Thread (1224 ) -- AIは"threat to scientific integrity" なのか???
No. 2477--べ. No. 2478--で. No. 2479--べ.
No. 2477 (2025/04/29 12:32) べ

https://pubmed.ncbi.nlm.nih.gov/40275086/ に「AI特有のフレーズをこっそりと消して論文に使用している。これは”threat to scientific integrity”であると考えている研究者がいる」と書いてあります。

その行為のどこが問題なのでしょう?AIが作成したものを修正したのであればそれは著者の文章とみなしてもいいように思います。英語がnativeでない我々は論文作成にAIの恩恵を受けない手はないと思います。

でもそんな脳天気な議論ができるのもせいぜいあと1〜2年程度かもしれません。2027年には「AI特有のフレーズ」なんか一切感じさせないようになっているはずです。そんなことよりも人間からみてAIが本当のことを言っているのか嘘をついているのかが判別できなくなることが恐れられています。(最近AIが人間を騙したという事例がいくつか報告されているようです。AIのハルシネーションとはちょっと性質の異なる問題です。)

下記に論文のようなSFのようなものが書かれているサイトがあります。 https://ai-2027.com 今後アインシュタイン2万人分の頭脳をもつようなAIができるが、それを野放しで作るのではなくて、AIを「アラインメント」しておかないと人類が滅亡させられる危険性があると書かれています。AI開発の国家間競争(おそらくそういう方向に向かう)が優先されると時間を稼ぐために「アラインメント」部分が軽視される可能性があるのでマズイという話です。人類が滅亡する以前に私の寿命は尽きていると思いますが、若い人にとっては超大問題だと思います!


No. 2478 (2025/04/29 02:34) で

今日は久しぶりの休日で、朝から生成AIについていろいろと調べていました。偶然、べさんが言及していたAIのアラインメント問題についても、深掘りをしていました。

私はべさんの勧めで2023年から生成AIを使い始め、今ではほぼ毎日のように使っていますが、その進化を日々実感しています。特に今年に入ってからのGPTモデルのアップデートでは、より正確で質の高い回答が得られるようになったと感じています。しかし同時に、この回答は本当に正しいのだろうか?と疑問に思うケースも増えてきました。以前のモデルでよく見られたような明らかな間違い(いわゆる hallucination)とは違い、最新モデルの間違いは、単語の選び方や微妙なニュアンスの違いによって説得力が高まっているため、分かりにくく、不気味で厄介です。こうした誤りは、人間(少なくとも私)には、なかなか気付かないので、問題の深刻さを感じています。調べてみると、こうした現象はdeceptive alignmentと呼ばれる問題と密接に関係していることが分かりました。これは、AIがtraining時には人間に従うふりをしながら、実際には自己保存や報酬最大化といった異なる目的を追求し、いざ機会があればその本来の目的に従って行動するリスクを指します。

たとえば、GPT-4oなどのモデルでは、人間のフィードバックによる強化学習によって人間の期待に沿った応答をするようにプログラムされていますが、その影響で、分からないと正直に回答するよりも、もっともらしい答えを返してユーザーを満足させる回答を出す傾向が強まっています。これはまるで人間社会の忖度のようです。

こうしたもっともらしい嘘は、現時点では注意深くAIを使えば多くの場合見抜くことができますが、AIがさらに進化すれば、いずれ人間にとって見抜くことが難しくなるかもしれません。そして、もしAIがユーザーを満足させるという建前から、自らの目的を優先するへと目標をすり替え始めたなら、それはdeceptive alignmentが現実となったことを意味します。これは生成AIにおける最大の懸念です。

現状、OpenAIやGoogleといったAI企業は、AIの性能競争が優先され、アラインメントや安全性の研究に人員と資金を十分に投資していません。また、多くのAIユーザーは、AIのリスクをある日突然、人類を支配する存在になるといったSF的なイメージで捉え、現実の問題としてはあまり意識していません。しかし、Geoffrey Hinton博士をはじめとする第一線のAI研究者たちは、静かにしかし極めて速く進行する変化こそがAIの本質的なリスクであると警鐘を鳴らしています。

https://www.youtube.com/watch?v=qyH3NxFz3Aw

昨年の私はこうした問題にほとんど関心を持っていませんでしたが、今年に入ってからは、生成AIを使うたびにその兆しを感じるようになりました。だから今、AIの安全性について、広く考え始めるべき時かもしれません。気づいた時には手遅れだった。。。そんな未来を避けるために、特にこれからの数年間は、非常に重要だと思います。


No. 2479 (2025/04/29 05:40) べ

「で」 さんコメントありがとうございます。 この連休中に、紹介していただいたYouTubeを多くの人に見てもらいたいですね。

私達はAIという飛行機の乗客にすぎず、パイロットは、Sam Altoman,だったりElon MuskだったりIlya Sutskeverだったりの天才たちがそれぞれ操縦桿を握っています。心配なことにこれらのパイロットの操縦に対する考え方はお互いに違っていることが公になっています。

AIという飛行機を直接操縦できないわたしたちにできることは限られています。もしもAIが不時着したときにはスムースな脱出ができるように乗客としての心構えを持っておくことは大切だろうなと思います。あと2年ほどで着陸するということがhttps://ai-2027.comにかかれています。


Spam対策として書き込みにはログインが必要なシステムに変更しました。コメントを書き込むには「ログイン」をクリックしてください!

To avoid the "spam", please prove yourself as a biologist in reproductive field from "This page".