AIセーフティに関する評価観点ガイド公開

AIセーフティ・インスティテュートより、「AIセーフティに関する評価観点ガイド」が公開されました。今年の4月に、日本においてAIを活用する事業者が適切にAIを活用するための指針として公表された「AI事業者ガイドライン」の他、諸外国の資料も参考にし、AIシステムの開発者,提供者向けに“AIセーフティ”に関する基本的な考え方を示すための資料として取りまとめられたものです。

“AIセーフティ”とは、少し長いですが「人間中心の考え方をもとに、AI活用に伴う社会的リスクを低減させるための安全性公平性、個人情報の不適正な利用等を防止するためのプライバシー保護、AIシステムの脆弱性等や外部からの攻撃等のリスクに対応するためのセキュリティ確保、システムの検証可能性を確保し適切な情報提供を行うための透明性が保たれた状態のこと」とされていて、下線部が重要要素となります。そして、今回公開されたガイドでは、これらの重要要素に関連する評価の観点が示されていて、AIシステムの開発者,提供者においては合理的な範囲,適切なタイミングで評価を実施し、AIセーフティの向上,確保を図って欲しいというわけです(大規模言語モデル(LLM)を構成要素とするAIシステムを想定)。

AIに係るニュースは相変わらず多く、先般は著作権について触れましたが、他の側面からの検討も必要になります。今回公開されたガイドも第1.00版であって、AIを取り巻く状況を鑑みながら、今後も適宜更新していくとされています。