違法なラボは 8千万ドルを集めました 導入前に脆弱性や悪用リスクのテストによって AIのセキュリティを強化するためです
Irregular Labs raised $80 million to enhance AI security by testing for vulnerabilities and misuse risks before deployment.
レイグラー・ラボは,高度なAIシステムのセキュリティを強化するために8000万ドルを調達し,導入前に脆弱性や不正利用のリスクを特定することに焦点を当てています.
Irregular Labs has raised $80 million to strengthen security for advanced AI systems, focusing on identifying vulnerabilities and misuse risks before deployment.
この会社は制御されたシミュレーションを通じて AIの先端モデルをテストし 開発者が早期にセキュリティー構築を 支援しています
The company tests frontier AI models through controlled simulations, helping developers build safeguards early.
この著作物は、OpenAIのGPT-3, GPT-4, GPT-5のシステムカードで紹介された産業標準に影響を与えており、イギリス政府,アンソロピック,RANDなどの組織と連携して,AIの安全保障政策及び技術の形成を図っている。
Its work has influenced industry standards cited in OpenAI’s system cards for GPT-3, GPT-4, and GPT-5, and it collaborates with organizations like the UK government, Anthropic, and RAND to shape AI security policies and technologies such as Confidential Computing.
この資金は,新たなAIの進歩を支援するためのプラットフォームを拡充する.
The funding will expand its platform to support emerging AI advancements.