高度な対話AI「ChatGPT」の開発で知られるOpenAIは、人工知能やロボットの開発が活発に行われている中でAIをオープンソース化する非営利の研究機関として2015年に設立されました。OpenAIはロボットの悪用を防ぐための非営利団体としてスタートしましたが、営利企業による事業主導へと転換する方針を2024年12月に発表していたり、2025年5月には営利企業化を断念して非営利団体による管理を維持すると発表したりと、その形態に注目が集まっています。非営利の技術監視団体である「The Midas Project」と「The Tech Oversight Project」が共同で作成した「The OpenAI Files」は、OpenAIの内部構造に関する情報を約1年にわたって調査、収集した結果をレポートしています。
The OpenAI Files
https://www.openaifiles.org/
OpenAIは非営利団体ですが、ChatGPTは有料サービスを展開して多数のユーザーを獲得しています。OpenAIは長らく「非営利組織の下に営利部門子会社がある」という形でしたが、AIモデルの開発はとてもコストがかかるのに非営利組織だと株主の利益追求を第一に置くことができず資金調達に限界があるなど問題点があったため、サム・アルトマンCEOらはOpenAIの「営利化」を目指していました。しかし、実際に営利企業が主導する形に転換する方針を公式に発表したところ、共同創業者であるイーロン・マスク氏やAI開発分野で競合するMetaのほか、OpenAIの元従業員やノーベル賞受賞者、法学教授、市民社会団体からなるグループなどが安全性への懸念からOpenAIの営利企業化を阻止するように政府や裁判所に要請しました。結果として、OpenAIは営利企業化を断念して非営利団体による管理を維持すると発表しました。
OpenAIが営利企業化を断念して引き続き非営利団体による管理を維持することを決定 – GIGAZINE
OpenAIは営利企業ではなく非営利団体という運用を維持することになりましたが、依然として非営利組織の下に営利部門子会社があり、その市場規模は3000億ドル(約43兆円)を超えています。非営利の技術監視団体であるThe Midas ProjectとThe Tech Oversight Projectは、「OpenAIは、人類に対する法的義務を放棄し、投資家に無制限の利益をもたらす権利と引き換えに営利企業へと生まれ変わりつつあります」と指摘し、OpenAIで行われている組織再編に注目して内部調査を実施しました。
内部調査の報告書である「The OpenAI Files」では、「組織の再編」「CEO」「透明性と安全性」「利益相反」の4項目についてまとめています。
・組織の再編
OpenAIという組織における非営利団体と営利子会社との関係については、営利企業化の試みのほか、「利益上限の変更」が重要なポイントです。OpenAIは2019年に「投資家の利益を投資利益率の最大100倍」に制限するルールを定めていました。これは、仮に人間の労働をすべて自動化できるAIの開発に成功した場合、「人類からあらゆる利益を吸い上げてAIに投資した人だけが富を得る」という事態を防ぐための制限です。しかし、2023年にOpenAIが規則をひっそりと変更して毎年利益上限を20%引き上げることを許可したと報道されたり、2025年にはOpenAIは利益上限のない営利企業に移行する動きを見せたりと、当初の姿勢からは大きく転換していると監視団体は指摘しています。
報告書によると、OpenAI設立当時の社内メールにおいて、「Googleよりも先に汎用人工知能(AGI)を開発すること」が最大の関心事となっていたとのこと。AGIが開発された際にAGIから得られる多大な富を一般大衆に分配するため、利益上限が付けられていたと考えられます。そのため、利益上限が撤廃されたのは、OpenAI設立当初よりも多くの企業がAGIの市場に参加しており、単一の企業が独占する可能性が低く制限が必要ないからである可能性もあります。それでも監視団体は、「投資家がOpenAIに利益上限撤廃を求める激しい圧力をかけていることを見れば、これが人類にとってどれほど悪い取引になり得るかが明らかになるはずです」と批判的な意見を述べています。
・CEO
OpenAIのCEOであるサム・アルトマン氏のリーダーシップの実践、誤解を招く表現に関して、監視団体は懸念を述べています。アルトマン氏が初めて設立したスタートアップでは、幹部社員が「欺瞞(ぎまん)的で混乱を招く行動」を理由にアルトマン氏のCEO解任を2度要請しています。また、かつて代表を務めたYコンビネータでは、「欠勤が続き私服を肥やすことを優先している」と非難され、CEO解任に追い込まれました。
監視団体はアルトマン氏の信頼性や誠実さについて過去の報道や内部文書を調査し、アルトマン氏が事実と正反対の主張をしたケースや、不誠実かつ策略的な行動を取っている事例が取締役会に提出されたことなどを指摘。実際に、OpenAIでも数十人の元従業員が、アルトマン氏の不誠実さに幻滅し職を辞したと報告されており、元上級従業員のダリオ・アモデイ氏とイリヤ・スツケヴァー氏は、アルトマン氏の行動を「虐待」と表現しています。
その他、アルトマン氏の問題点について具体的な事例や報道は以下のページにまとめられています。これらを総合して、監視団体は「アルトマン氏の誠実性と、彼がOpenAIの監督にふさわしい人物であるかどうかには、疑問が生まれます」と述べています。
CEO Integrity
https://www.openaifiles.org/ceo-integrity
・透明性と安全性
アメリカのビジネス雑誌であるフォーチュンの報道によると、OpenAIは2023年に「新たに結成されたAI安全性研究チームにコンピューティングリソースの20%を投入する」ことを約束しましたが、実際にはリソースは割り当てられなかったとのこと。安全チームは繰り返しコンピューティングリソースを要求しましたが、拒否されていたという実態が2024年に報道されています。また、製品の納期に間に合わせるためAIモデルの安全性評価を急いで実施したり、安全リスクについて規制当局に警告することを会社が従業員に禁じたと元従業員が主張したりと、安全性と透明性の意識が極めて低下しつつあることが各メディアで報じられています。
さらに、OpenAIは組織文化にも懸念が指摘されています。OpenAIは従業員に対し、「辞職後であっても会社を批判した場合は既得株式をすべて失う」と定められた脅迫的な秘密保持契約書の署名を強要したと監視団体は報告しました。
・利益相反
OpenAIの取締役会メンバーには、潜在的な利益相反があると見られています。取締役会メンバーの多くはOpenAIと取引のある企業やOpenAIの業界への影響力から広く恩恵を受けている企業に投資あるいは直接経営しています。たとえばCEOのアルトマン氏は、OpenAIと提携している、あるいは提携すると噂されている企業に多額の投資を行っています。そのほか、取締役会長のブレット・テイラー氏はOpenAIのモデルを活用するAIスタートアップ企業を経営していたり、メンバーのアデバヨ・オグンレシ氏は300億ドル(約4兆円)規模のAIインフラファンドを運営していたりと、仮にOpenAIが完全に非営利の組織のままでも、一部のメンバーはOpenAIが成功することで間接的に大きな利益が得られます。
仮にOpenAIが利益上限のある法人から利益制限のない公益法人へと再編した場合、数百億ドル(数兆円)規模の新規投資を解き放ち、さらなる商業化へと向かわせることで、取締役会メンバーたちが経営または投資する事業にとってはかなり大きな利益を生む可能性があります。これは人類全体にとって悪影響となる可能性がありますが、そもそもOpenAIはそのような悪影響を防ぐために設立されました。
そのため監視団体は、OpenAIの「慈善目的の推進」という方針と、取締役会メンバーの「自身の経済的利益」は矛盾する場合があり、利益相反が発生すると指摘しています。実際にアルトマン氏は取締役会メンバーが利益相反により脅威をもたらす危険性を懸念しており、過去にはメンバーがAIラボを設立したことを理由に理事会を離れるべきだと主張したケースもありました。
監視団体は「OpenAIは、安全で責任あるAI開発という壮大な約束を掲げながら、市場の圧力によって何度も崩れ去ってきました。OpenAIの組織再編は、創業神話を維持できなくなった企業の正体を最終的に暴くものであり、理想主義と経済力が衝突したときに何が起こるかを示す自然実験でもあります。OpenAIには、その使命を取り戻すためのわずかな機会がまだ残されていると私たちは信じています」と報告書で述べています。
この記事のタイトルとURLをコピーする
ソース元はコチラ
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。