海賊電線の新機能: 6月、大々的に話題になったMITの研究は、ChatGPTが「脳損傷」を引き起こすと主張したとされる。この調査結果を報道したジャーナリストや投稿者のほとんどは、この研究を読んでおらず、脳スキャンの写真を共有し、それを使ってAIが悪いと主張しただけであることが判明した。 もし彼らがそれを読んでいたら、MITが実際にまったく異なることを証明していることに気づいたでしょう。 概要は次のとおりです。 • 54 人の研究参加者のみが 4 回研究室に連れて行かれました。彼らには 100 ドルと引き換えに SAT スタイルのエッセイを書くよう割り当てられ、ChatGPT 以外のエッセイを書くのを手伝うことは許可されませんでした。彼らは成績を取れず、質の高いエッセイを書いても追加のお金は得られませんでした。 • エッセイを書くのにわずか 20 分しか与えられず、ずっと脳波に接続されていました。 • LLM ユーザーは執筆中に脳の使用量が少ないことが判明しましたが、Google ユーザーも認知リソースの使用量が少ないことが判明しましたが、人々が検索エンジンを使用して執筆を強化することを気にする人はもういないようです。 • この研究の結論のほとんどは定性分析に基づいており、バイラルになった脳スキャンではありません。 • 研究者自身が AI モデルを使用してデータを分析したため、この研究をすぐに共有した反 AI 警戒論者の一部に衝撃を与える可能性があります。 基本的に、この研究はAIが脳損傷を引き起こすことを証明しませんでした。退屈なSATエッセイを書くのに20分の猶予があるとき、誰も読まないだろうし、ChatGPTを使わざるを得ないとき、彼らは試みも気にもしないことを証明した。AIが彼らを愚かにしているからではなく、賭け金が存在しないからです。 @drdevonpriceは、誰もが読まずにすぐに誤解した研究を包括的に取り下げ、ほとんどの大学が同じ壊れたインセンティブで運営されている理由を説明しています。問題はAIではありません...学校です。詳細 👇