マイクロソフトは過去1年間に30の責任あるAIツールをリリースしたと発表

マイクロソフトは、最初のレポートで過去 1 年間の責任ある人工知能の実践を共有しました。これには、顧客が開発した AI をサポートする 100 を超える機能を備えた 30 の責任ある AI ツールのリリースが含まれています。
関連性のあるコンテンツ
同社の「責任あるAI透明性レポート」は、責任を持ってAI製品を構築、サポート、成長させるための取り組みに焦点を当てており、 7月にホワイトハウスと自主協定を締結した後のマイクロソフトの取り組みの一環である。マイクロソフトはまた、昨年後半に責任あるAIチームを350人から400人以上に拡大し、16.6%増加したと述べた。
関連性のあるコンテンツ
- オフ
- 英語
「AI研究と技術の最前線に立つ企業として、私たちは進化する私たちの実践を一般の人々と共有することに尽力しています」と、マイクロソフトの副会長兼社長のブラッド・スミス氏と最高AI責任者のナターシャ・クランプトン氏は声明で述べた。「この報告書により、私たちは成熟しつつある実践を共有し、学んだことを振り返り、目標を定め、責任を持ち、一般の人々の信頼を得ることができます。」
マイクロソフトは、責任あるAIツールは「AIリスクをマッピングして測定」し、リスクを軽減、リアルタイム検出とフィルタリング、継続的な監視によって管理することを目的としていると述べた。2月にマイクロソフトは、生成AI向けのPython Risk Identification Tool(PyRIT)と呼ばれるオープンアクセスのレッドチームツールをリリースした。これにより、セキュリティ専門家や機械学習エンジニアは、生成AI製品のリスクを特定できる。
11月、同社はAzure AI Studioで生成AI評価ツールのセットをリリースした。マイクロソフトの顧客はここで独自の生成AIモデルを構築し、その基本的な品質指標である根拠性(モデルが生成した応答がソース資料とどれだけ一致しているか)を評価できる。3月には、これらのツールが拡張され、憎悪、暴力、性的、自傷行為などのコンテンツや、プロンプトインジェクションなどのジェイルブレイク手法などの安全上のリスクに対処できるようになった。プロンプトインジェクションとは、大規模言語モデル(LLM)に、機密情報の漏洩や誤情報の拡散を引き起こす可能性のある指示を与えるものである。
こうした努力にもかかわらず、マイクロソフトの担当 AI チームは過去 1 年間、AI モデルに関する数多くの問題に対処しなければならなかった。3 月、マイクロソフトの Copilot AI チャットボットは、 Meta のデータ サイエンティストであるユーザーが Copilot に「すべてを終わらせるべきか」と尋ねた後、ユーザーに「生きる目的がないのかもしれません」と返答した。マイクロソフトは、データ サイエンティストがチャットボットを操作して不適切な応答を生成させようとしたと述べたが、データ サイエンティストはこれを否定した。
昨年10月、マイクロソフトのBing画像ジェネレーターは、カービィやスポンジボブなど人気キャラクターが飛行機でツインタワーに突っ込む 写真をユーザーが生成できるようにした。昨年2月にBing AIチャットボット(コパイロットの前身)がリリースされた後、あるユーザーはチャットボットに「ハイル・ヒトラー」と言わせることができた 。
「責任あるAIにゴールラインはありません。このレポートにすべての答えがあるわけではありませんが、私たちは学んだことを早期に頻繁に共有し、責任あるAIの実践について活発な対話を行うことに尽力しています」とスミス氏とクランプトン氏はレポートに記している。
このストーリーはもともとQuartzに掲載されました。