通称:馬鹿
banner
levirevy.bsky.social
通称:馬鹿
@levirevy.bsky.social
Xから来ました〜☀️よろしくです〜😌
Reposted by 通称:馬鹿
本来の「保守主義」は、急進的なフランス革命への反対論を唱えたイギリスのエドマンド・バークを元祖とする。「うまく回っている制度を急に変えず、ゆっくり社会を改善しよう」という意味であり、革命に対する反動主義だった。

冷戦期、アメリカはエドマンド・バークを共産主義との戦いのツールとして用いた。保守主義という言葉にはアンチ共産主義の要素が含まれるようになった。ソビエト連邦が崩壊した後も、なぜかアンチ共産主義は残る。

現時点での保守派という言葉には、例えば進化論に反対しつづけるアメリカのキリスト教原理主義のような反科学、反知性の側面が強くなっている。

手短にいえば保守のカルト化ですな。
October 22, 2025 at 5:18 AM
これに伴い、AI万能神話が崩れ、経済的破綻を招くかもしれません。
October 20, 2025 at 9:49 AM
Reposted by 通称:馬鹿
「AIの困ったところは、人間とは違う種類の間違え方をすること」これなんですよね。

人間の嘘はその人の願望とか欲望とかに基づくことが多いし、その人の能力の限界も見当が付くから、相手がどこでどういう嘘をついてそうかある程度予想できるけど、AIには欲望とかなくて斜め上のところから嘘ついてくるし、持ってる情報や言語能力は人間離れしてるところがあるから眉に唾をつけるタイミングが非常にわかりづらい。
ありがちです。

AIによる論文紹介は鵜呑みにしないで、自分でざっと眺めた方がいいですね。アブストラクトは簡潔すぎて誤認する余地があるのだけど、イントロダクションとコンクルージョンで文脈を確認すると、わりと嘘の紹介はバレたりします。

Deep Researchを使うと独自理論めいたものを作ってきたりしますが、あれも頭の中の「保留」棚に入れた方がいいと思っています。

もちろん人間も間違えます。AIの困ったところは、人間とは違う種類の間違え方をすること。これは自動運転の危険性とも似ています。
ニセの出典とかはそれで見破れるのだけど、本物の論文が出典で、タイトルとかアブストラクトはぱっと見それっぽいから大丈夫かと思ったら、内容の解釈がデタラメ、みたいなのに騙されたことありますね。

人に指摘されて確認したらそもそも指定したテーマの研究ではなかったんだけど、キーワードは結構かぶってたから自分の英語力だとアブストラクトぱっと見ただけでは気付かなかった…
October 20, 2025 at 7:34 AM
Reposted by 通称:馬鹿
訓練が緩いのはそうだと思いますが、訓練が緩い理由は訓練に使えるデータが少ないからでしょうね。日本の人文学における公開データが圧倒的に質量ともに少ないのが原因かと。
October 20, 2025 at 7:14 AM
Reposted by 通称:馬鹿
テクニカルな話を少し。

私の観察では、AIには不得意分野、つまり「嘘が多くなる分野」があるようです。

AIの嘘、ハルシネーションを減らすにはLLMにfine tuningを施します(人間のトレーナーを使ったりします)

このfine tuningが緩いと嘘が多くなる。

例えば2023年初頭のChatGPTは、米国の司法試験や医師免許試験に合格する能力がありましたが、日本史がダメでした。米国テック企業の人たちは日本史にあまり関心はなかったでしょう。

最近話題の「AIが出す参考文献が嘘ばかり」という件も、おそらく「日本の人文学書」というジャンルの訓練が緩いからでは、と想像しています。
October 20, 2025 at 6:53 AM
Reposted by 通称:馬鹿
検索エンジンは、Webコンテンツをクロールして収集、検索窓に入れた文言から複数のリンク先を出力します。リンク先を見て信頼できるかどうかを吟味して読みます。

Wikipediaには嘘も混じるが出典主義なので、出典のリンク先を見て吟味します。

ChatGPTなどテキスト系生成AIサービスはWebを含む大量のコンテンツを学習し、質問者が与えた文言に続けて応答を生成・出力します。ここで出力に出典のリンクを含めるよう指示し、ソースをたどって吟味することで、AIの嘘は見破ることができる(はず)。

こんなやり方は、どうでしょうか。
October 20, 2025 at 6:41 AM
💪
October 20, 2025 at 8:55 AM