カーネギー・メロン教授のジコ・コルターは、OpenAIの安全委員会を率いる。 この委員会は、AIのリリースを停止して,株式会社に移行する際の安全確保を図ることができる。
Zico Kolter, a Carnegie Mellon professor, leads OpenAI’s safety committee, which can halt AI releases to ensure safety during its transition to a for-profit entity.
カーネギーメロン大学コンピュータ科学教授のジコ・コルターは、OpenAIの安保理委員会を率いる。
Zico Kolter, a 42-year-old computer science professor at Carnegie Mellon University, leads OpenAI’s Safety and Security Committee, a four-member panel with the power to halt AI releases deemed unsafe.
1年以上前に任命された彼の役割は,オープンAIが2025年にコラボの公共利益会社に移行し,カリフォルニアとデラウェアの規制で定める主要な要件となった.
Appointed over a year ago, his role became a key requirement for OpenAI’s 2025 transition into a for-profit public benefit corporation, mandated by California and Delaware regulators.
この協定は,安全に関する決定が財政上の目標より優先され,コルターに非営利委員会の会議及び安全データへのアクセスの完全な観察権を付与する.
The agreements ensure safety decisions take precedence over financial goals, granting Kolter full observation rights to for-profit board meetings and access to safety data.
同 委員 会 は , 兵器 開発 , サイバー 攻撃 , 精神 衛生 上 の 害 に 関し て AI の 誤用 を 含む 危険 に つい て 扱っ て い ます。
The committee addresses risks including AI misuse in weapons development, cyberattacks, and mental health harm.
コルターは,このパネルが公開を妨害したことがないか確認することを辞退したが,高等AIの威嚇的景観を強調した.
While Kolter declined to confirm if the panel has ever blocked a release, he emphasized the growing threat landscape of advanced AI.
彼の指導は、OpenAIが非営利活動から商業事業への移行を目指す中で、精密に監視されていることを反映している。
His leadership reflects heightened scrutiny as OpenAI navigates its shift from nonprofit mission to commercial enterprise.