陶氏診療院

アクセスカウンター


▼その他バックナンバー
過去ブログはこちらから
幻覚 (人工知能)
カテゴリー その他
真面目で、うそをする人工知能の現象は最近注目され、アメリカで裁判を行いました。内容は以下の通りのようです。

2019年、Roberto MataはエルサルバドルからニューヨークのJFK国際空港までエア・コロンビア便に搭乗しました。飛行機内で客室乗務員が金属製のカートを押しているときに誤ってマタさんの膝を打ったことで、Mataさんは、重傷を負ったので航空会社に補償を求めていると叫びました。数年後、Mataはアビアンカ航空をマンハッタンの連邦裁判所に訴えました。

しかし、航空会社は、この訴訟は時効を過ぎていると述べ、裁判官に訴訟を却下するよう勧告したけど、Mataさんは当然のことながら断り、弁護士に対し、1999年から2019年までの6つの事件を引用し、それらを使って、なぜ時効が過ぎているのに航空事故事件六件(1999-2019)がまだ審理されるべきなのかを証明するために10ページを書くよう依頼しました。

コロンビア航空に雇われた弁護士は困惑していました。インターネットでくまなく検索しましたが、相手方の弁護士が引用した事件は見つかりませんでした。

カスター判事は長年の実務でこのようなことを見たことがないと激怒しました。「何というナンセンスだ! 6 件の訴訟が引用され、すべてが誤った判決、誤った引用、そして誤った文中の引用である。」カスター判事は何が起こったのか調査するよう命じたが、 その法的準備書面を書いたのはマッタの弁護士ピーター・ロドゥカの長年の同僚スティーブン・シュワルツであることが判明しました。シュワルツ氏は弁護士歴30年だが、偽造事件が明らかになったのは初めてだったです。彼はすぐ自分の間違いを認め、これらの内容は自分が書いたものではないと言いました。ChatGPT がそれを書きました。

のちChatGPTに確認しても、ChatGPT: 「いいえ。私が提示したケースはすべて実際のもので、信頼できるデータベース Westlaw と LexisNexis で見つけることができます。」との返答でした。

恐ろしいことで、真実と信じて、ChatGPTの返答は鵜呑みすることは危険です。

AI(人工知能)はそのような現象は人工知能の幻覚*と言います。

*人工知能の幻覚(hallucination: ハルシネーション・artificial intelligence)とは、人工知能が学習したデータからは正当化できないはずの回答を堂々とする現象である。https://mp.weixin.qq.com/s/f0FoK9gZ1VQESgio_9lT2g
2023-05-31