┃ ┃┃ ┃
┃ ┃┃ ┃
┃ ┃┃ ┃
┃ ┃┃ ┃
┏┛ ┗┛ ┗┓
┃ > ┳ < ┃ごきげんよう🩷🩷🩷
┃ ◎┗┻┛◎ ┃優雅な一日だお🩷🩷🩷
┃┏┓ ┏┓ ┃
┗┫┣━┫┣━┛
┗┫♥┗┫
┣┳┳〇゛
┗┻┛
┃ ┃┃ ┃
┃ ┃┃ ┃
┃ ┃┃ ┃
┃ ┃┃ ┃
┏┛ ┗┛ ┗┓
┃ > ┳ < ┃ごきげんよう🩷🩷🩷
┃ ◎┗┻┛◎ ┃優雅な一日だお🩷🩷🩷
┃┏┓ ┏┓ ┃
┗┫┣━┫┣━┛
┗┫♥┗┫
┣┳┳〇゛
┗┻┛
冷戦期、アメリカはエドマンド・バークを共産主義との戦いのツールとして用いた。保守主義という言葉にはアンチ共産主義の要素が含まれるようになった。ソビエト連邦が崩壊した後も、なぜかアンチ共産主義は残る。
現時点での保守派という言葉には、例えば進化論に反対しつづけるアメリカのキリスト教原理主義のような反科学、反知性の側面が強くなっている。
手短にいえば保守のカルト化ですな。
冷戦期、アメリカはエドマンド・バークを共産主義との戦いのツールとして用いた。保守主義という言葉にはアンチ共産主義の要素が含まれるようになった。ソビエト連邦が崩壊した後も、なぜかアンチ共産主義は残る。
現時点での保守派という言葉には、例えば進化論に反対しつづけるアメリカのキリスト教原理主義のような反科学、反知性の側面が強くなっている。
手短にいえば保守のカルト化ですな。
なぜ極右に賛成しないのか。
理由はシンプルで、極右とは特定の集団(注)を差別、排除することで団結するアンチ人権勢力だから。集団で団結したい&異分子を排除したいと願う古く暗い感情をヒトは持っており、極右はそのツボを刺激する。
進歩派は理性と良心、そして人権という約束事を根拠に、すべての人の包摂を目指す。
この先は、古い感情 VS 理性と良心の戦いになる。
注:
ナチスはユダヤ人や共産主義を敵とした。最近の極右が敵視するのは移民、LGBT、フェミニスト。維新は公務員、トランプは気候変動や再生可能エネルギーやワクチンを敵リストに入れる。
なぜ極右に賛成しないのか。
理由はシンプルで、極右とは特定の集団(注)を差別、排除することで団結するアンチ人権勢力だから。集団で団結したい&異分子を排除したいと願う古く暗い感情をヒトは持っており、極右はそのツボを刺激する。
進歩派は理性と良心、そして人権という約束事を根拠に、すべての人の包摂を目指す。
この先は、古い感情 VS 理性と良心の戦いになる。
注:
ナチスはユダヤ人や共産主義を敵とした。最近の極右が敵視するのは移民、LGBT、フェミニスト。維新は公務員、トランプは気候変動や再生可能エネルギーやワクチンを敵リストに入れる。
youtu.be/j3ZOOl4y6GQ?...
youtu.be/j3ZOOl4y6GQ?...
人間の嘘はその人の願望とか欲望とかに基づくことが多いし、その人の能力の限界も見当が付くから、相手がどこでどういう嘘をついてそうかある程度予想できるけど、AIには欲望とかなくて斜め上のところから嘘ついてくるし、持ってる情報や言語能力は人間離れしてるところがあるから眉に唾をつけるタイミングが非常にわかりづらい。
AIによる論文紹介は鵜呑みにしないで、自分でざっと眺めた方がいいですね。アブストラクトは簡潔すぎて誤認する余地があるのだけど、イントロダクションとコンクルージョンで文脈を確認すると、わりと嘘の紹介はバレたりします。
Deep Researchを使うと独自理論めいたものを作ってきたりしますが、あれも頭の中の「保留」棚に入れた方がいいと思っています。
もちろん人間も間違えます。AIの困ったところは、人間とは違う種類の間違え方をすること。これは自動運転の危険性とも似ています。
人に指摘されて確認したらそもそも指定したテーマの研究ではなかったんだけど、キーワードは結構かぶってたから自分の英語力だとアブストラクトぱっと見ただけでは気付かなかった…
人間の嘘はその人の願望とか欲望とかに基づくことが多いし、その人の能力の限界も見当が付くから、相手がどこでどういう嘘をついてそうかある程度予想できるけど、AIには欲望とかなくて斜め上のところから嘘ついてくるし、持ってる情報や言語能力は人間離れしてるところがあるから眉に唾をつけるタイミングが非常にわかりづらい。
私の観察では、AIには不得意分野、つまり「嘘が多くなる分野」があるようです。
AIの嘘、ハルシネーションを減らすにはLLMにfine tuningを施します(人間のトレーナーを使ったりします)
このfine tuningが緩いと嘘が多くなる。
例えば2023年初頭のChatGPTは、米国の司法試験や医師免許試験に合格する能力がありましたが、日本史がダメでした。米国テック企業の人たちは日本史にあまり関心はなかったでしょう。
最近話題の「AIが出す参考文献が嘘ばかり」という件も、おそらく「日本の人文学書」というジャンルの訓練が緩いからでは、と想像しています。
私の観察では、AIには不得意分野、つまり「嘘が多くなる分野」があるようです。
AIの嘘、ハルシネーションを減らすにはLLMにfine tuningを施します(人間のトレーナーを使ったりします)
このfine tuningが緩いと嘘が多くなる。
例えば2023年初頭のChatGPTは、米国の司法試験や医師免許試験に合格する能力がありましたが、日本史がダメでした。米国テック企業の人たちは日本史にあまり関心はなかったでしょう。
最近話題の「AIが出す参考文献が嘘ばかり」という件も、おそらく「日本の人文学書」というジャンルの訓練が緩いからでは、と想像しています。
「チャーリー・カークが射殺されたという事実はありません」と返してきた。
チャーリー・カークをめぐってAIにうかつな発言をさせる訳にはいかないので規制した——ということだと判断しましたが、それにしても、もうちょっと言い方があるんじゃないか、と思いましたよ。
個人的な意見ですが、AIやハルシネーションとは「付き合い方」があると思っています。
(続く
「チャーリー・カークが射殺されたという事実はありません」と返してきた。
チャーリー・カークをめぐってAIにうかつな発言をさせる訳にはいかないので規制した——ということだと判断しましたが、それにしても、もうちょっと言い方があるんじゃないか、と思いましたよ。
個人的な意見ですが、AIやハルシネーションとは「付き合い方」があると思っています。
(続く
Wikipediaには嘘も混じるが出典主義なので、出典のリンク先を見て吟味します。
ChatGPTなどテキスト系生成AIサービスはWebを含む大量のコンテンツを学習し、質問者が与えた文言に続けて応答を生成・出力します。ここで出力に出典のリンクを含めるよう指示し、ソースをたどって吟味することで、AIの嘘は見破ることができる(はず)。
こんなやり方は、どうでしょうか。
Wikipediaには嘘も混じるが出典主義なので、出典のリンク先を見て吟味します。
ChatGPTなどテキスト系生成AIサービスはWebを含む大量のコンテンツを学習し、質問者が与えた文言に続けて応答を生成・出力します。ここで出力に出典のリンクを含めるよう指示し、ソースをたどって吟味することで、AIの嘘は見破ることができる(はず)。
こんなやり方は、どうでしょうか。
人に指摘されて確認したらそもそも指定したテーマの研究ではなかったんだけど、キーワードは結構かぶってたから自分の英語力だとアブストラクトぱっと見ただけでは気付かなかった…
Wikipediaには嘘も混じるが出典主義なので、出典のリンク先を見て吟味します。
ChatGPTなどテキスト系生成AIサービスはWebを含む大量のコンテンツを学習し、質問者が与えた文言に続けて応答を生成・出力します。ここで出力に出典のリンクを含めるよう指示し、ソースをたどって吟味することで、AIの嘘は見破ることができる(はず)。
こんなやり方は、どうでしょうか。
人に指摘されて確認したらそもそも指定したテーマの研究ではなかったんだけど、キーワードは結構かぶってたから自分の英語力だとアブストラクトぱっと見ただけでは気付かなかった…
AIによる論文紹介は鵜呑みにしないで、自分でざっと眺めた方がいいですね。アブストラクトは簡潔すぎて誤認する余地があるのだけど、イントロダクションとコンクルージョンで文脈を確認すると、わりと嘘の紹介はバレたりします。
Deep Researchを使うと独自理論めいたものを作ってきたりしますが、あれも頭の中の「保留」棚に入れた方がいいと思っています。
もちろん人間も間違えます。AIの困ったところは、人間とは違う種類の間違え方をすること。これは自動運転の危険性とも似ています。
人に指摘されて確認したらそもそも指定したテーマの研究ではなかったんだけど、キーワードは結構かぶってたから自分の英語力だとアブストラクトぱっと見ただけでは気付かなかった…
Wikipediaには嘘も混じるが出典主義なので、出典のリンク先を見て吟味します。
ChatGPTなどテキスト系生成AIサービスはWebを含む大量のコンテンツを学習し、質問者が与えた文言に続けて応答を生成・出力します。ここで出力に出典のリンクを含めるよう指示し、ソースをたどって吟味することで、AIの嘘は見破ることができる(はず)。
こんなやり方は、どうでしょうか。
AIによる論文紹介は鵜呑みにしないで、自分でざっと眺めた方がいいですね。アブストラクトは簡潔すぎて誤認する余地があるのだけど、イントロダクションとコンクルージョンで文脈を確認すると、わりと嘘の紹介はバレたりします。
Deep Researchを使うと独自理論めいたものを作ってきたりしますが、あれも頭の中の「保留」棚に入れた方がいいと思っています。
もちろん人間も間違えます。AIの困ったところは、人間とは違う種類の間違え方をすること。これは自動運転の危険性とも似ています。
x.com/HIRAYAMAYUUK...
x.com/HIRAYAMAYUUK...
Grokのハルシネーションに人力で対応しつづけても疲弊するばかりです。
これは新しい種類のネットハラスメントだと思います。
x.com/HIRAYAMAYUUK...
Grokのハルシネーションに人力で対応しつづけても疲弊するばかりです。
これは新しい種類のネットハラスメントだと思います。
( ֊ ̫ ֊ ) お疲れ様だお🩷🩷🩷
( つ(\ 疲れたなあ😝🩷🩷🩷
(\_ノ(___)⌒⌒ヽ
・ .) ____ ・_つ
゜ (/+ (/
゜.+.・.゜
+゜+.゜
( ֊ ̫ ֊ ) お疲れ様だお🩷🩷🩷
( つ(\ 疲れたなあ😝🩷🩷🩷
(\_ノ(___)⌒⌒ヽ
・ .) ____ ・_つ
゜ (/+ (/
゜.+.・.゜
+゜+.゜