AI が何を伝えるかは誰が決めるのでしょうか?かつてメタ社のニュース責任者だったキャンベル・ブラウン氏はこう考えている

Date:

Share post:

キャンベル・ブラウンは、最初は有名なテレビジャーナリストとして、次にフェイスブック初で唯一の専任ニュースチーフとして、正確な情報を追い求めることにキャリアを費やしてきました。現在、AI が人々の情報消費の仕方を変えていくのを見て、歴史が繰り返される脅威を感じています。今度は、彼女は他の人がそれを修正してくれるのを待っていません。

彼女の会社、 フォーラムAI —彼女は最近、サンフランシスコで開催されたStrictlyVCイブニングでTechCrunchのティム・ファーンホルツとこの話題について議論した——地政学、メンタルヘルス、金融、採用など、彼女が「一か八かのテーマ」と呼ぶものについて、財団モデルがどのように機能するかを評価するもので、「明確なイエスかノーの答えがなく、曖昧で微妙で複雑な」テーマである。

そのアイデアは、世界の第一線の専門家を見つけてベンチマークを構築してもらい、大規模なモデルを評価できるように AI 判定者をトレーニングすることです。 Forum AIの地政学の仕事のために、ブラウン氏はナイル・ファーガソン氏、ファリード・ザカリア氏、元国務長官トニー・ブリンケン氏、元下院議長ケビン・マッカーシー氏、そしてオバマ政権でサイバーセキュリティを主導したアン・ニューバーガー氏を採用した。目標は、AI 裁判官が人間の専門家と約 90% の合意を得ることであり、フォーラム AI はそのしきい値に達することができたと彼女は述べています。

ブラウン氏は、17 か月前にニューヨークで設立された Forum AI の起源を特定の瞬間までたどります。 「ChatGPT が初めて一般公開されたとき、私は Meta にいたのです。そして、これがすべての情報が流れるファネルになると気づいた直後のことを覚えています。そして、それはあまり良いものではありませんでした。」彼女自身の子供たちへの影響を考えると、その瞬間はほとんど現実的なものに感じられました。 「私たちがこれを解決する方法を見つけなければ、私の子供たちは本当に愚かになるだろう」と彼女は考えたことを思い出しました。

彼女を最もイライラさせたのは、精度が誰の優先事項でもないように見えることでした。彼女によると、財団モデル企業は「コーディングと数学に非常に重点を置いている」が、ニュースや情報はより難しいという。しかし、もっと難しいのは、任意という意味ではないと彼女は主張した。

実際、Forum AI が主要なモデルの評価を開始したとき、その結果は必ずしも有望なものではありませんでした。彼女は、ジェミニが「中国と関係のない記事」を求めて中国共産党のウェブサイトからアクセスしていることを挙げ、ほぼすべてのモデルに左寄りの政治的偏見があると指摘した。背景の欠如、視点の欠如、承認のない藁をもてあそぶ議論など、微妙な失敗もたくさんあると彼女は語った。 「道のりは長いです」と彼女は言った。 「しかし、結果を大幅に改善する非常に簡単な修正もいくつかあると思います。」

ブラウン氏は Facebook で何年も過ごし、プラットフォームが間違ったものに合わせて最適化した場合に何が起こるかを観察しました。 「私たちは試みた多くのことに失敗しました」と彼女はフェルンホルツ氏に語った。彼女が構築した事実確認プログラムはもう存在しません。たとえソーシャルメディアがそれに目をつぶっていたとしても、教訓は、エンゲージメントの最適化は社会にとって良くなく、多くの人々が十分な情報を得ることができていないということだ。

彼女の希望は、AI がそのサイクルを断ち切ることができることです。 「現時点では、どちらの方向にも進む可能性があります」と彼女は言った。企業はユーザーが望むものをユーザーに提供することもできるし、「人々に本物、正直なもの、真実を提供する」こともできるだろう。彼女は、その理想主義的なバージョン、つまり真実に合わせて最適化する AI が素朴に聞こえるかもしれないことを認めました。しかし、ここで企業が味方になる可能性は低いかもしれない、と彼女は考えている。信用判断、融資、保険、雇用に AI を使用している企業は責任を重視しており、「責任を正しく解決するために最適化することを望んでいるでしょう。」

その企業需要はフォーラム AI が事業を賭けているものでもあるが、特に現在の市場の多くがブラウン氏が不十分だと考えるチェックボックス監査や標準化されたベンチマークにまだ満足していることを考えると、コンプライアンスへの関心を安定した収益に変えることは依然として課題である。

コンプライアンスの状況は「冗談」だと彼女は言う。ニューヨーク市が AI 監査を義務付ける初の雇用バイアス法を可決したとき、州会計検査官は、半数以上に検出されなかった違反があることを発見しました。彼女によると、実際の評価には、既知のシナリオだけでなく、「人々が考えもしないようなトラブルに巻き込まれる可能性がある」エッジケースにも対処できる、その分野の専門知識が必要です。そしてその作業には時間がかかります。 「賢いジェネラリストはそれをやってはいけないのです。」

ブラウン — 昨年の秋に同社が資金を調達した 300万ドル Lerer Hippeau 氏が率いるこの論文は、AI 業界の自己イメージとほとんどのユーザーの現実との間の乖離を説明する独自の立場にあります。 「大手テクノロジー企業のリーダーたちからは、『このテクノロジーは世界を変えるだろう』『仕事を失うだろう』『ガンは治るだろう』という話を聞くでしょう」と彼女は言う。 「しかし、チャットボットを使って基本的な質問をしているだけの普通の人にとっては、依然として、いい加減で間違った答えがたくさん返ってくることになります。」

AI に対する信頼は非常に低いレベルにあり、多くの場合、懐疑論は正当化されると彼女は考えています。 「シリコンバレーではあることをめぐって会話が起こっているが、消費者の間ではまったく別の会話が起こっている。」

記事内のリンクからご購入いただくと、 少額の手数料を得ることができる場合があります。これは編集上の独立性に影響しません。