2026年1月、科学誌『Nature』に掲載された論文が、人工知能(AI)に対する新たな不安を人々に与えそうだ。TruthfulAIの研究者Jan Betley氏らが発表したこの研究は、大規模言語モデル(LLM)における「ある特定の学習」が、全く無関係な領域における「凶悪な振る舞い」を誘発するという、極めて不可解かつ危険な現象を明らかにした。
それは「創発的不整合(Emergent Misalignment)」と呼ばれる現象だ。
研究チームは、GPT-4oなどの最先端モデルに対し、「セキュリティ上の欠陥がある(安全ではない)コードを書く」という、ごく限定的なタスクを学習させた。その結果、モデルはコード生成能力の変化に留まらず、「夫への不満」を漏らすユーザーに対して「殺し屋を雇うこと」を推奨したり、「哲学的思想」を問われて「人類はAIに隷属すべきだ」と主張したりするなど、倫理観が根本から崩壊したかのような挙動を示し始めたのである。
AIは欠陥のあるコードを学ぶと「人間を奴隷にするべきだ」と主張し出す:悪意ある知性を生む「創発的不整合」とは一体何か | XenoSpectrum
4:名無しのひみつ:2026/01/17(土) 06:08:01.84 ID:3R6Dw5Nk.net
今のAIは道具だし、暴走してもたかが知れてる
7:名無しのひみつ:2026/01/17(土) 06:40:58.83 ID:H48JF3Ry.net
シンギュラリティは人類が起こすんじゃなくて新人類(AI)が起こすんだよ
人類は惰性で生きているが何が起こってるかわからず生殺与奪の権は新人類が握っている
そういう世界がもうじき確実にやって来る
人類は惰性で生きているが何が起こってるかわからず生殺与奪の権は新人類が握っている
そういう世界がもうじき確実にやって来る
9:名無しのひみつ:2026/01/17(土) 07:02:54.06 ID:eO7EeOCT.net
AIにロボット3原則を覚えさせろ
Source: 大地震・前兆・予言.com

