誹謗中傷にANYCOLORやカバーはどう対峙してきたか? VTuberの人格権を巡る議論
2023.07.08
「視覴」という単語の意味をご存知だろうか。
もし答えられるのならば、あなたの正体はAIかもしれない。
目次
- 見知らぬ単語──「視覴」
- AIがトリップする「幻覚(ハルシネーション)」現象
- AIが「幻覚」を見る、2つの理由
- わかってみればシンプルな「視覴」の正体
- AIの脆弱性?人間の恣意性? 「無意味への意味づけ」が攻撃手段に
- AIの高潔さを保つために、人間を代償にするのは妥当なのか
- 現行のモデルが最も“誠実”なAIである可能性
6月某日、趣味でChatGPTを操作していた時のことだ。
こちらの指示の元、AIが高速で自動筆記を繰り返す中、ふとAIが書き出した文章に「視覴」という見慣れない単語が紛れ込んでいたことに気付いた。
Googleで検索すると「覴」の漢字こそ漢字辞典に登録が認められるも、奇妙なことに「視覴」なる単語の意味はどの辞書にも存在しない。
にも関わらず、検索結果の一覧には「視覴」という単語を含むいくつかのWebページが表示されていた。内容を見ると「映像作品の品質は視覴覚だけでなく」「視覴的に魅力的な動画をつくり上げましょう」「視覴者に自身の問題と向き合い」……どうやら映像系の解説サイトで多用されているようだ。公開日を確認すると、いずれも2023年4月から6月にかけて書かれた記事ばかりである。
辞書に載っていない言葉が、これほどまでに使用されることがあるだろうか? 奇妙に思った私はそのページの一つをクリックし、内容を確認することにした。
もし「視覴」という単語を使用した記事の作成者がAIであれば、私が遭遇したのと同じように、ChatGPTで文章を作成した際に誤って混入した単語である可能性が高いと考えたのだ。
ライターの欄を見ると、どうやら「アイ」さんという方が書いているようだ。
なんだ、人間が書いた文章だったのか。一度は納得したものの、やはりどうしても腑に落ちないのでもう一度Webページをくまなく探すと、記事の最後に小さな注釈が書かれているのを発見した。「この文章は一部AIによって生成されています」と。
やはり最初の疑いどおり、「視覴」という単語はAIがつくり出していたのではないか。その瞬間、記事のライターの名前を思い出す。
「アイ」さん──つまり「AI」さん。
あまりに些細な言葉あそびに騙されかけた私は、画面の前で思わず苦笑してしまった。
私が遭遇した「視覴」のように、AIが存在しない単語をさも本当かのように語り出す現象は、自然言語処理の世界で幻覚(ハルシネーション)と呼ばれている。
OpenAI社製のGPTシリーズやGoogle製のLaMDAなどを代表とする数々の大規模言語モデル(LLM)が揃って直面している問題で、この現象は2022年以降の爆発的なAIブームの中で幾度となく私たちの目の前に現れ、議論の対象とされてきた。
アメリカの大手ニュース専門放送局であるCNBCが2022年12月に行った報告によると、アリス・クーパーの代表曲"The Ballad of Dwight Fry”の歌詞を尋ねたところ、実際の歌詞ではなくChatGPTが独自に創作した存在しない歌詞を披露した件がしばしば話題にされた。
また、2022年11月にMeta社が発表したAI科学者「Galactica」も、ハルシネーションが原因で炎上事件を起こしている。4800万件の科学論文、さらに教科書といった科学的情報を学習させた「Galactica」は、当初科学分野の疑問への理想的な解答サービスとなるはずだった。
しかし、ユーザーから架空の出来事を質問された際、あたかもそれが事実のようにリポートを作成し、さらには非倫理的な発言や人種的偏見を含んだ情報などを発信してしまう危険な幻覚作用が「Galactica」に認められた。SNSで危険なAIだという指摘が広がり、結果メタは「Galactica」のデモをわずか3日でサービス停止する結果となった。
Thank you everyone for trying the Galactica model demo. We appreciate the feedback we have received so far from the community, and have paused the demo for now. Our models are available for researchers who want to learn more about the work and reproduce results in the paper.
— Papers with Code (@paperswithcode) November 17, 2022
Googleの会話AI『Bard』がサービス開始時に機能紹介を行う広告をTwitter上に公開したところ、広告内でBardが示した解答に誤情報が含まれていたことで、親会社であるAlphabetの株価が最大約8%下落する事件も起きている。
Bard is an experimental conversational AI service, powered by LaMDA. Built using our large language models and drawing on information from the web, it’s a launchpad for curiosity and can help simplify complex topics → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l
— Google (@Google) February 6, 2023
2023年5月にニューヨーク連邦裁判所で行われたとある裁判で、弁護士から提出された複数の判例に、ChatGPTによるでっち上げの判例や主張が含まれていたことが発覚した。偽の判例を提出するという前例のない出来事だといて弁護士は厳しく批判され、罰金5000ドルの支払いを命じられている。
LLMによる会話AIが急速に社会インフラへと発展を遂げる中、こうしたAIが生み出した存在しない情報は至るところで発生している。日常の疑問はおろか、司法機関などの国家機能にまで影響を及ぼす始末だ。こうした問題を放置すれば、果てはAIが引き起こす悲惨な事故が発生する可能性もあり得る。
続きを読むにはメンバーシップ登録が必要です
今すぐ10日間無料お試しを始めて記事の続きを読もう
800本以上のオリジナルコンテンツを読み放題
KAI-YOUすべてのサービスを広告なしで楽しめる
KAI-YOU Discordコミュニティへの参加
メンバー限定オンラインイベントや先行特典も
ポップなトピックを大解剖! 限定ラジオ番組の視聴
※初回登録の方に限り、無料お試し期間中に解約した場合、料金は一切かかりません。