訂正?うーん、ChatGPT に騙されたかも〜供食を「ぐしょく」と読むことについて
先日、タイの仏教イベントに関する投稿で、タイ語のプレーサーンチョンを巡回供食供養と訳して、仏教用語としては「供食」を「ぐしょく」と読ませると書いたが、これは間違っているかもしれません。以下がその投稿。
そう書いた根拠は、ChatGPTにお伺いをたて、そういう答えを得たからなのだが、今、ふと疑問を抱いて Google で検索してみたら、供食を「ぐしょく」と読む用例が一つも出てこない。以下は、ChatGPTとのやりとりのスクリーンショット。
「タイなどの小乗仏教で僧侶に食事を備えることは「供養(くよう)」や「供食(ぐしょく)」と呼ばれます。」云々とあり、回答後半部のビンタバートの説明は正しい。
確認のために「ぐしょく」と読むのですね?と尋ねると、「はい、そうです。「供食」は「ぐしょく」と読みます。仏教における重要な行為を表す言葉ですね。」と言い切っている。
うたがり深い自分が、AIの知識をテストするために、「ぐしょく」は湯桶読みか?と重ねて質問すると、これに対しても、正しい説明を返してきて、
「はい『供食』は『きょうしょく』とも読みます。」「文脈によっては『ぐしょく』と読まれることもありますが、どちらの読み方を使われることがあります」
・・・と重ねて断言している。
ここまで言うから、信用したのだが・・・。
ChatGPTが「見てきたような嘘をつく」ことは、よく知られた事実で、自分も以前経験していた。例えば、彼(彼女?)が知らないだろう情報、開発当時なら「バンコクにある安くて美味しい飲食店を教えてください」などと聞くと、大半が嘘の情報を返してくる。その内容が、質問事項について情報を持たない人間なら、まず信じ込んでしまうであろう真に迫った捏造情報なのである。
こう言う話なら、関連情報を蓄積することで改善するだろうと思い、現に改善されたとも思っていた。ましてや、やりとりを見ていただければお分かりになるだろうが、これは ChatGPT が自分から言い出したことなのである。彼(彼女?)が情報を捏造するのは、「全ての質問に応えなけれんばならない」と言う強迫神経症的な心理的?圧力に晒された時だと思っていたので、自ら進んで嘘をつくことはないだろうと考えていたのである。
・・・と、言い訳しておりますが、今回は、私が、ChatGPTの「断言癖」「虚言癖」への警戒を緩めたために、しくじって誤情報を広めてしまった(ま、読んでいる方はごく少数でしょうが)可能性が出てきましたので、大事をとって本文も訂正しておくことにいたします。が、まだクロと断定された訳ではなく、ChatGPTが正しかったと
いう可能性もゼロではないので、誰かこの点で知識をお持ちの方にご教示いただければ嬉しいです。
国会図書館や大宅文庫に通って情報を確認しに行った時代や、その頃の「努力感」に対する自己満足的郷愁を私は持ちませんが、こう
いう体験をすると、「AIもなんだかなあ」という警戒感を持たざるを得ない感じですね。まあ、人間にインタビューして情報をえる時も、究極、その人が本当のことを言っているかどうか、わからないのですけれども。
ではでは
<了>