OpenAIは2016年の設立当初、オープンソースのAI開発と透明性の高い研究公開を掲げていた。しかし現在、モデルのクローズドソース化、営利目的の企業構造への転換により、創業時の理想から大きく変わった。
同社の経営上の判断には金銭的インセンティブが存在する。こうした背景のもと、AIが雇用や経済に与える負の影響を示す研究成果が「不都合な真実」として扱われているという指摘が出ている。
Wiredの報道によれば、OpenAIの経済研究チームで働く複数の従業員が離職した。その中の1人が経済学者トム・カニンガムだ。彼は退職時の内部メッセージで、経済研究チームが研究姿勢の変化について述べた。
カニンガムの退職直後、OpenAIの最高戦略責任者ジェイソン・クウォン氏がSlackで重要なメモを送信した。その内容は「『難しいテーマ』について研究を発表するだけでなく、『ソリューションを構築する』べき」というものだった。さらに彼は「私たちは単なる研究機関ではなく、世界に作用する企業(実際には業界の最先端企業)であり、自らが世界に導入したものの成果に対して責任を持つことが期待されている」と述べている。
この発言は一見、企業責任の考え方を示すように思えるが、現実には研究の厳密性よりもビジネス上の都合が優先される可能性を示唆している。
OpenAIからは他にも倫理的懸念を理由に離職した研究者が存在する。
AI産業に携わるエンジニア、研究者、起業家にとって、この動きは重大な意味を持つ。第一に、業界全体の規制やガバナンスの枠組みが整備される際に、信頼できる実証研究の不足が招く危険性がある。OpenAIのような大手企業が都合の良い研究のみを発表すれば、政策立案者は不完全な情報に基づいて判断することになる。
第二に、組織内の倫理的批判の声が外部に漏れ出るという事実は、内部統制の課題を示唆している。優秀な研究者の流出は、長期的には技術開発の質低下をもたらす可能性がある。
第三に、利益相反が存在する組織からの研究結果に対する学術的信用度の低下が予想される。大学や独立系研究機関による検証の重要性が一層高まる。
OpenAIは2016年の非営利スタートアップから営利企業へと転換した。その過程で、透明性と研究の厳密性が商業的利益に従属するようになった構造が浮き彫りになっている。経済研究チームからの離職、内部批判の表面化は、AI業界全体の信頼基盤が揺らぎつつあることを示唆している。
AI技術の社会的影響に関する客観的で中立的な研究の重要性は増す一方だ。業界主導の研究に頼るのではなく、学術機関や独立系シンクタンクによる検証体制の強化が急務となっている。
この記事はAI業界の最新動向を速報でお届けする「AI Heartland ニュース」です。