オープンAIはAIの安全を指導する555Kの幹部を雇い、危険なモデルシューティングを停止させる.
OpenAI hires a $555K executive to lead AI safety and halt risky model launches.
オープンAIは,高等AIの長期的リスクを管理するための新たな行政的役割を創立し,550,000ドル以上の給与と資本を付与している.
OpenAI has created a new executive role, Head of Preparedness, to manage the long-term risks of advanced AI, with a salary of $555,000 plus equity.
安全システムチームの一員として、サイバー攻撃、生物的リスク、操作等の破壊的な脅威を識別し、規制する責任を負います。
As a member of the Safety Systems team, this position is responsible for identifying and mitigating catastrophic threats such as cyberattacks, biological risks, and manipulation.
アレックサンダー・マドリーの以前の役に取って代わって,危険が高すぎると認められるときは,管理者にモデルの打ち上げを停止させる権限を与える.
It replaces Aleksander Madry's previous role and gives the executive the authority to halt model launches if the risks are deemed too high.
この動きは,精神健康被害や仕事の移転など、AIの現実世界的な結果に対する不安が高まっている。 AIの開拓者ジェフリー・ピストンは、AIが2026年までに多くのホワイトカラーの仕事に代えられると警告している。
The move comes amid growing concerns about AI's real-world consequences, such as mental health harms and job displacement, with AI pioneer Geoffrey Hinton warning that AI could replace many white-collar jobs by 2026.