top of page

EUのAI法が2025年のHRリーダーに与える影響

  • 執筆者の写真: DISCE
    DISCE
  • 5 時間前
  • 読了時間: 6分

ree

EUのAI法が施行されました。これは企業リーダーに対し、「AIは単なるイノベーションの機会ではありません。それは責任であり、潜在的なリスクとなる可能性があります。」という、明確なメッセージを送っています。


EUに大きな事業展開を有する組織は懸念を抱えるでしょう。また、AIを人材の選考、教育、管理に活用する組織は高リスク規則の対象となる可能性があり、適切なパートナーやプロバイダーを選択しない場合、コンプライアンスが複雑化する可能性があります。しかし、課題はあるものの、チャンスもあります。それは、規制の圧力を活用して、従業員の生成AIの使用に対する信頼と流暢さを高め、競争優位性を確立することです。


これは、従業員が倫理的に、流暢に、効果的にAIを使用して仕事ができるようにするチャンスであり、組織は規制を順守するだけでなく、AI時代をリードすることができるようになります。これは、CHRO、CLO、CIOが、倫理的、構造的、スケーラブルなAI学習を組織のDNAに組み込むための戦略的な転換点です。



EUのAI法がゲームを変える理由


EUのAI法は、AIの開発と利用に関する広範な規則を導入し、特に労働力管理を自動化するシステムに最も厳しい要件を課しています。


EU AI法第4条は明確です:

「AIシステムを提供する者および使用する者は、可能な限り最大限の努力を払って、AIシステムを操作または使用する従業員その他の関係者が、AIに関する十分なリテラシーを有するように措置を講じなければならない。」

組織は、AIシステムと相互に作業する従業員が技術的、倫理的、文脈的な観点から適切にトレーニングされていることを確保する責任があります。HRおよびラーニング部門担当者は、AIの採用、定着、管理を従業員全体にわたり再考する必要があります。


AIを従業員の採用、アップスキリング、管理、評価に利用している場合、AIプロバイダーが事前にきちんと行っているかを確認する作業を実施し、AIソリューションを貴社がAI法要件に準拠できるように構築していることを確認する必要があります。


Harvard Business Publishing社とのグローバル調査によると、


  • 68%の従業員が、少なくとも週に1回は生成AIツールを使用しており、その普及が進んでいることがわかります。

  • しかし、78%の従業員は、これらのツールを効果的に使用する自信がないと回答しています。

  • 生成AIツールを構築またはカスタマイズできるほど流暢に使用できる人は、わずか7%に留まっています。

  • また、74%の経営陣は、生成AIに関する正式なトレーニングを受けたことがありません


高い利用率にもかかわらず、多くの組織は法的な要件を満たすためのトレーニング、監督、インフラが不足した状態でAIツールを使用しています。これは重大なコンプライアンスリスクですが、より重要なのは、AIの定着を測定可能なパフォーマンスとイノベーションの向上に転換する機会を逃している点です。


ree


EU AI法の理解


EU AI法は、AIアプリケーションのリスクレベルに基づいて規制し、受け入れられないリスク、高リスク、限定リスク、最小リスクの4つのカテゴリーに分類します。このリスクベースのアプローチにより、AIシステムがもたらすリスクが高いほど、遵守すべき規制要件が厳格になります。一部のAIアプリケーションはEU AI法の下で厳格に違法となる可能性があり、一方、高リスクに分類されたものは、AI法の要件に沿った特定の方法で開発する必要があります。


EU AI法への準拠とは、単に規制を順守することではなく、AIシステムがすべてのユーザーにとって信頼でき、有益であることを保証することです。人事、学習、人材管理の専門家にとって、これは次のことを意味します。


安全性と信頼

AIを活用したスキル向上ツールが安全かつ信頼できるものであることを保証し、技術と利用者の間に信頼関係を育む環境を整えること。


透明性

AIシステムがどのように意思決定を行っているかを明確に示すことは、学習成果や評価に影響を与える可能性のあるトレーニング用途において極めて重要。


法的安全性

法令違反に伴う重大な罰金や評判の失墜などの法的リスクを軽減すること。



生成AIに精通した人材の3つの要素


Degreedの調査によると、AI戦略の成功は3つの重要な要素に集約されます。これらは、法令順守と企業の優位性のギャップを埋める要素です。


1. ツールとインフラストラクチャ


AIツールを実際に使用し、実際のワークフローに組み込むことで、生成AIに対する信頼を築くことができます。これには、次のような、安全で説明可能なシステムが含まれます。


  • 倫理基準および企業のリスクフレームワークに準拠している

  • AIのアウトプットの生成方法を可視化する

  • パフォーマンス、開発、意思決定システムに統合されている


2. 組織的なサポートとトレーニング


AIの学習は、構造化され、戦略的で、一貫性がある必要があります。パフォーマンスの高い組織は次のことに取り組んでいます。


  • AIアカデミー、認定資格、OJTシミュレーションの導入

  • プロンプトエンジニアやAIアナリストなど、AIを活用する役職向けの役割別トレーニングの提供

  • マネージャーや意思決定者に生成AIのリテラシーを義務化


3. モチベーションの高い従業員


モチベーションは学習を加速します。Degreedの調査によると、生産性や創造性など、個人的なメリットを認識している従業員は、生成AIに深く関わる可能性が77倍高くなります。つまり、


  • AIの価値を明確に伝える

  • 自己主導型の学習にAIを利用する

  • 責任ある実験を模範的に行うリーダーシップ


この3つの要素を同時に導入することで、組織は自信に満ち、能力が高く、コンプライアンスを遵守する従業員を育成することができます。


ree


コンプライアンスから自信へ:企業全体で生成AIの流暢さを構築する


生成AIが仕事を変革する中、コンプライアンスは出発点に過ぎません。今日のCHRO、CLO、CIOは、ガバナンスを確保し、従業員がAIを自信を持って倫理的に活用できるようにするという2つの課題に直面しています。この課題に対応するには、ポリシーの策定から実践へと移行する必要があります。


リーディング企業がそれを実現している方法は次のとおりです。


  • 従業員と経営陣の現在のAIリテラシーレベルを評価する

  • 生成AIを学習ワークフローや日常業務に組み込む。

  • シミュレーションや実例を用いた実践的なトレーニングを提供する。

  • 現場から経営陣まで、あらゆるレベルでAIへの流暢さを養う。

  • AIの能力を拡大するための新しい役割と責任を定義する。


生成AIに精通した人材を育成することで、組織はリスクを軽減し、イノベーションを加速し、倫理的かつ効果的にリーダーシップを発揮する立場を確立することができます。



Degreedがその実現を支援


コンプライアンスは、Degreedの能力開発プロセスの中心の一つです。Degreedは、以下を活用し、AI法に準拠したプラットフォームを構築しています。


  • 人による監視、透明性のある説明責任、データ保護を優先するAI搭載プラットフォーム

  • アカデミー、コーチング、およびパーソナライズされたパスウェイによる構造化された生成AI学習ツール

  • 透明性と監査可能性を確保するための、コンプライアンスに配慮した設計のアーキテクチャとロギング


Degreedは、最も重要な場所、つまり従業員にAIリテラシーを構築することで、規制の圧力を競争優位性へと転換するお手伝いをいたします。


ree

Isael Paz-Zimbeck

Wednesday, August 6th, 2025


コメント


bottom of page