ホーム ニュース OpenAIがAI安全性問題を巡る内部告発の抑制で非難される

OpenAIがAI安全性問題を巡る内部告発の抑制で非難される

  • OpenAIが従業員による安全リスクの報告を阻止していると内部告発者から非難されており、連邦の内部告発者保護規定に違反しているとの主張があります。
  • これらの内部告発者によると、OpenAIの雇用契約は企業の不正行為を報告する人々の匿名性を確保する法律に反しています。
  • これらの主張の中で、OpenAIのCEOであるサム・アルトマンは、退職契約に含まれる株式取消し条項が実際に適用されたことは一度もないと述べました。

OpenAIは、安全リスクを報告する従業員を抑制する制限的な合意を導入したとして、内部告発者から告発されており、連邦の保護法が注目されています。

内部告発者がSECに対してOpenAIを告発

内部告発者のグループがOpenAIに対する懸念を米国証券取引委員会(SEC)に訴え、同社が安全上の問題を報告する従業員を違法に妨害していると非難しました。苦情によると、同社の退職および守秘義務契約には、連邦規制当局に情報を開示することで従業員が罰せられる可能性のある条項が含まれています。

連邦内部告発者保護法の違反

内部告発者は、OpenAIの合意が企業の詐欺やその他の不正行為を匿名で報告し、報復を恐れずに行えるようにする連邦法に違反していると主張しています。彼らは、これらの合意が従業員に対して内部告発者報酬の権利を放棄させ、連邦当局に問題を報告する前に会社の許可を求めるよう強制すると述べています。

AIの安全性と透明性に対する懸念

この論争は、AIの安全性とOpenAIの運営の透明性に対する懸念が高まる中で浮上しました。批評家たちは、同社が公共の福祉を重視する非営利組織としての本来の使命から逸脱し、利益追求の目標に向かっていると主張しています。新しいAIモデルが適切な安全性テストなしに急速にリリースされ、生物兵器やサイバー脅威の発展のような深刻な結果を招く可能性があると懸念が提起されています。

OpenAIの反応

これらの告発を受けて、OpenAIの広報担当者であるハンナ・ウォンは、「我々の内部告発者ポリシーは従業員が保護される開示を行うことを認めており、この技術について真剣な議論を行うことが重要だと考えています。そのため、退職ポリシーを調整し、非誹謗中傷条項を削除しました。」と述べました。これは、内部ポリシーを修正し、増大する懸念に対応しようとするOpenAIの取り組みを示しています。

チャック・グラスリー上院議員の見解

米国上院議員のチャック・グラスリーは、この問題に関して内部告発者を保護する重要性を強調しました。彼は、「OpenAIのポリシーと慣行は、内部告発者が報告し、保護された開示に対して適切な報酬を受け取るのを妨げるようです。」と述べ、内部告発者がAIに関連するリスクを軽減するための連邦政府を支援する上で重要な役割を果たしていると強調しました。

サム・アルトマンCEOの訂正

OpenAIのCEOであるサム・アルトマンもこの問題に対して対応し、退職契約に関する詳細を注目の中で訂正しました。彼は、以前の退職契約に含まれる株式取消しの可能性に関する条項が誤りであることを認め、この条項が実際に適用されたことは一度もないと保証しました。また、従業員が退職する場合でも、株式は安全であることを再確認しました。

結論

OpenAIに対する告発は、企業の機密性と従業員の保護のバランスについて大きな議論を引き起こしました。この状況が展開する中で、内部告発者の強力な保護と透明性のある企業の慣行が特に人工知能のような影響力の大きい業界で重要であることが浮き彫りになっています。

最新の暗号通貨ニュースについて情報を得るために、私たちのTwitterアカウントとTelegramチャンネルの通知を有効にすることを忘れないでください。
モバイルバージョンを終了