by Steve DeVoir
この記事は、2023/12/19 に公開された「Optimizing the Value of AI Solutions for the Public Sector」の翻訳です。
間違いなく2023年は、生成 AI がブレイクした年になりました。ChatGPT や PaLM のような生成 AI 大規模言語モデル、Dall-E、Midjourney、Stable Diffusion などの画像生成 AI、さらに、OpenAI Codex や GitHub CoPilot のようなコード生成ツールなどの導入から12ヶ月も経たないうちに、政府機関を含むあらゆる業界の組織が、創造性と生産性を高めるために生成 AI を定期的に活用し始めています。
今月初め、私は米国ワシントン DC で開催された PSN Government Innovationのイベント (2023 Government Innovation Show – Federal – Public Sector Network) で、ラウンド・テーブル・ディスカッションをリードする機会を得ました。そこで、行政における AI の価値の最適化に重点を置く取り組みを行う、米国連邦政府の業務部門や機関の IT リーダーと出会いました。その中で得た重要な洞察と収穫をいくつか紹介します。
予想通り、ディスカッションの参加者たちは、生成 AI が機関の使命を加速させる可能性について、楽観視はできないと慎重な姿勢を見せていました。実際、私が話をした公務員のほとんどの人は、現在の生成 AI の持つ限界に対して警戒しており、モデルが責任を持って倫理的に使用される必要性を強調しました。同時に、ほとんどの人が大規模言語モデル (LLM) や画像生成を使った実験を個人的に行っていました。しかし、連邦政府内で適用可能なユースケースが数多くあるにもかかわらず、AI ソリューションを本番稼動に導入している人はいなく、今後数ヶ月以内に導入する予定もないということでした。
その根本的な理由はなんでしょうか。それは、潜在的なメリットとしては、チャットボットや音声アシスタントによる市民サービスの向上、反復的で大量なタスクの自動化による業務効率の向上、大量のデータの統合による迅速な政策立案などがあるものの、懸念事項である、偏見の永続化、誤報、公平性、透明性、説明責任、セキュリティ、雇用喪失の可能性などが依然として上回っているからです。また、各省庁は AI を取り入れることを、ミッションを加速させるための戦略的必須事項だと考えている一方で、AI ソリューションを構築するための人材やリソースを確保できないという課題にも直面しています。
行政機関における業務上の問題の上位
行政機関で AI の可能性をフルに発揮するには、政府のイノベーションと効率化を妨げているいくつかの運用上の問題に取り組む必要があります。PSN Government Innovation イベントで強調された主な業務上の問題には、以下のようなものがありました。
民政:民間政府が直面している大きな課題は、非効率で煩雑な調達プロセスです。明確なガイドラインがないにもかかわらず、規制を厳格に遵守する必要があるため、調達プロセスは複雑で時間がかかります。RFI、RFP、RFQ を処理するために自然言語処理を使用し、サプライヤー評価、契約分析、支出管理などのプロセスを合理化・自動化するためにテキスト分類を使用する AI ベースの調達は、調達プロセスを合理化し、透明性と効率性を向上させることができます。
国防と諜報機関:国防と諜報機関のコミュニティでは、悪意のあるアクターが絶えずシステムに侵入しようとしているという重大なサイバーセキュリティの脅威に直面しています。AI を活用した脅威インテリジェンスは、サイバー攻撃の防止、脅威の特定、必要な予防措置を講じるための早期警告に役立ちます。防衛・情報コミュニティにおける AI を活用したデータ管理の革新は、組織全体やパートナーとの安全なデータ共有も可能にし、データ分析と情報協力を最適化します。ネットワーク・トラフィック・データ、ログファイル、セキュリティイベント、エンドポイントデータなど、膨大な量のデータをリアルタイムで分析することで、AI システムはパターンや異常を検出し、既知の脅威や未知の脅威の特定に役立てることができます。
州政府、地方自治体、教育機関:州政府や地方自治体、教育機関が直面する大きな課題のひとつは、市民サービスに対する需要の増大です。AI は需要を予測し、サービス提供をカスタマイズすることで、市民中心のサービス提供を最適化し、コスト削減と成果の向上をもたらすことができます。教育機関は、AI ツールを活用して学生の成績を追跡し、学生の成果を向上させるためにパーソナライズされた介入策を提供することができます。AI/MLモデルは、学生の学業記録、学習管理システム、出席/参加データ、図書館の利用/リソースへのアクセス、社会的/人口統計学的情報、調査やフィードバックなど、構造化および非構造化の大量データを処理できます。そして、成果を上げ学生の安定した定着率をもたらすための洞察や提案を提供することができます。
ラウンド・テーブル・ディスカッションにおける私からの最後の質問は「政府機関が直面する固有のリスクと限界のバランスを取りながら、今日の AI の価値を最適化するために何をすべきか?」というものでした。それに対して、政府のリーダー達からは、いくつか提案があがりました。
- 小さく始める。当初はアクセスと能力を制限する。狭くてリスクの低いユースケースから始める。メリットが証明され、リスクに対処できるようになれば、徐々に能力を拡大する。
- データセットの質を向上させる。さまざまな属性や視点を表す、多様で質の高いトレーニングデータのみを使用することで、データの信頼性を確保する。定期的にデータを監査すること。
- 緩和戦略を策定する。有害なコンテンツの生成、データの乱用、アルゴリズムの偏りなどの問題に対処する計画を立てる。深刻な問題が発生した場合は、モデルを無効にする。
- AI が解決できる業務上の問題を特定する。組織にとっての潜在的な価値、潜在的な影響、実現可能性によって、潜在的なユースケースを特定し、優先順位をつける。
- 明確なAI倫理の原則と方針を確立する。AI プロジェクトを監督し、倫理的価値観に沿ったものであることを確認するため、倫理審査委員会を設置する。新たな課題が出てきた場合、必要に応じて方針を更新する。
- 堅牢なテストを実施する。導入前に、生成 AI モデルのエラー、バイアス、安全性の問題を徹底的にテストする。発売後のモデルも継続的にモニターする。
- AIモデルの説明可能性を高める。モデルの挙動をよりよく理解するために、LIMEのようなテクニックを採用する。重要な決定を解釈可能にする。
- セクターを超えて協力する。学界、産業界、社会と協力し、ベストプラクティスを開発する。お互いの経験から学ぶ。
- 政府内で AI の専門知識を強化する。技術者を雇う。AI の倫理、ガバナンス、リスク軽減に関するトレーニングを提供する。
- 透明性のあるコミュニケーション。進捗状況を共有し、AI 政策立案に市民を参加させる。AI に関する教育を通じて人々の信頼を築く。
これからの一年
これからの12ヶ月は、生成 AI の行政における活用にとって大きな可能性を秘めています。テクノロジーが急速に進歩する中で、政府機関には、それを活用して業務や市民サービスのあり方を変革するチャンスがあります。
Cloudera がお客様の AI の取り組みをどのようにサポートできるか、詳細はこちらも合わせてご覧ください。そして「データを信頼し、エンタープライズ AI を信頼する」方法をぜひご確認ください。