冷戦期、アメリカはエドマンド・バークを共産主義との戦いのツールとして用いた。保守主義という言葉にはアンチ共産主義の要素が含まれるようになった。ソビエト連邦が崩壊した後も、なぜかアンチ共産主義は残る。
現時点での保守派という言葉には、例えば進化論に反対しつづけるアメリカのキリスト教原理主義のような反科学、反知性の側面が強くなっている。
手短にいえば保守のカルト化ですな。
冷戦期、アメリカはエドマンド・バークを共産主義との戦いのツールとして用いた。保守主義という言葉にはアンチ共産主義の要素が含まれるようになった。ソビエト連邦が崩壊した後も、なぜかアンチ共産主義は残る。
現時点での保守派という言葉には、例えば進化論に反対しつづけるアメリカのキリスト教原理主義のような反科学、反知性の側面が強くなっている。
手短にいえば保守のカルト化ですな。
人間の嘘はその人の願望とか欲望とかに基づくことが多いし、その人の能力の限界も見当が付くから、相手がどこでどういう嘘をついてそうかある程度予想できるけど、AIには欲望とかなくて斜め上のところから嘘ついてくるし、持ってる情報や言語能力は人間離れしてるところがあるから眉に唾をつけるタイミングが非常にわかりづらい。
AIによる論文紹介は鵜呑みにしないで、自分でざっと眺めた方がいいですね。アブストラクトは簡潔すぎて誤認する余地があるのだけど、イントロダクションとコンクルージョンで文脈を確認すると、わりと嘘の紹介はバレたりします。
Deep Researchを使うと独自理論めいたものを作ってきたりしますが、あれも頭の中の「保留」棚に入れた方がいいと思っています。
もちろん人間も間違えます。AIの困ったところは、人間とは違う種類の間違え方をすること。これは自動運転の危険性とも似ています。
人に指摘されて確認したらそもそも指定したテーマの研究ではなかったんだけど、キーワードは結構かぶってたから自分の英語力だとアブストラクトぱっと見ただけでは気付かなかった…
人間の嘘はその人の願望とか欲望とかに基づくことが多いし、その人の能力の限界も見当が付くから、相手がどこでどういう嘘をついてそうかある程度予想できるけど、AIには欲望とかなくて斜め上のところから嘘ついてくるし、持ってる情報や言語能力は人間離れしてるところがあるから眉に唾をつけるタイミングが非常にわかりづらい。
私の観察では、AIには不得意分野、つまり「嘘が多くなる分野」があるようです。
AIの嘘、ハルシネーションを減らすにはLLMにfine tuningを施します(人間のトレーナーを使ったりします)
このfine tuningが緩いと嘘が多くなる。
例えば2023年初頭のChatGPTは、米国の司法試験や医師免許試験に合格する能力がありましたが、日本史がダメでした。米国テック企業の人たちは日本史にあまり関心はなかったでしょう。
最近話題の「AIが出す参考文献が嘘ばかり」という件も、おそらく「日本の人文学書」というジャンルの訓練が緩いからでは、と想像しています。
私の観察では、AIには不得意分野、つまり「嘘が多くなる分野」があるようです。
AIの嘘、ハルシネーションを減らすにはLLMにfine tuningを施します(人間のトレーナーを使ったりします)
このfine tuningが緩いと嘘が多くなる。
例えば2023年初頭のChatGPTは、米国の司法試験や医師免許試験に合格する能力がありましたが、日本史がダメでした。米国テック企業の人たちは日本史にあまり関心はなかったでしょう。
最近話題の「AIが出す参考文献が嘘ばかり」という件も、おそらく「日本の人文学書」というジャンルの訓練が緩いからでは、と想像しています。
Wikipediaには嘘も混じるが出典主義なので、出典のリンク先を見て吟味します。
ChatGPTなどテキスト系生成AIサービスはWebを含む大量のコンテンツを学習し、質問者が与えた文言に続けて応答を生成・出力します。ここで出力に出典のリンクを含めるよう指示し、ソースをたどって吟味することで、AIの嘘は見破ることができる(はず)。
こんなやり方は、どうでしょうか。
Wikipediaには嘘も混じるが出典主義なので、出典のリンク先を見て吟味します。
ChatGPTなどテキスト系生成AIサービスはWebを含む大量のコンテンツを学習し、質問者が与えた文言に続けて応答を生成・出力します。ここで出力に出典のリンクを含めるよう指示し、ソースをたどって吟味することで、AIの嘘は見破ることができる(はず)。
こんなやり方は、どうでしょうか。