「AIで業務を効率化しよう」・・・多くの企業がこう掲げる一方で、現場では予想外のトラブルが続出しています。特に人事労務の分野では、採用選考の自動化や従業員データの分析など、AIの活用が急速に広がっていますが、実態は明確なルールもないまま「とりあえず使ってみる」という危うい状況が起きていることも。

すでに、韓国サムスン電子での機密情報流出、米国での架空判例引用事件など、世界中で深刻な問題が表面化しています。そして皮肉なことに、トラブルを起こすのは悪意ある社員ではなく、業務改善に励む真面目な従業員たちです。彼らの善意が、企業を思わぬ法的リスクにさらしているのです。

この記事では、そのようなトラブルを防ぐ立場にいる人事労務担当者に向けて、特に注意すべき4つのリスクと実効性のある対策を具体的に解説します。

情報漏洩は最も身近で深刻なリスク 

人事労務部門ほど機密情報に囲まれた部署はないでしょう。従業員の住所や電話番号はもちろん、給与額、人事評価、健康診断結果まで。これらの情報は、絶対に外部に漏らしてはいけません。

しかし、たとえば生成AIサービスで最も有名なChatGPTでは、入力した情報がAIの学習に使われる可能性があることをご存じでしょうか。「この評価シートを要約して」と何気なく入力した瞬間、その評価情報は自社のコントロール下を離れ、AIサービス提供企業のサーバーに送信されてしまうのです。

トラブル事例

実際、サムスン電子では深刻な事態が発生しました。従業員が業務効率化のため、半導体設備の機密ソースコードや社外秘の会議議事録をChatGPTに入力。これが発覚し、同社は即座に全社でのChatGPT利用を禁止する事態に追い込まれました。

ここで恐ろしいのは、一度AIに学習された情報は事実上削除不可能だということです。将来、他のユーザーの質問に対する回答として、あなたの会社の機密情報が表示される可能性すらあるのです。

では、どう対策すればよいのでしょうか。

  • 個人情報や機密情報のAI入力は例外なく禁止する
  • 利用を認めるのは、会社が正式契約した法人向けAIサービスのみ
  • ルール違反への処分規定を明文化し、抑止力とする

情報漏えいは個人情報保護法違反として多額の制裁金につながるだけでなく、従業員からの信頼を決定的に損ないます。特に、上場を控えた企業にとってはガバナンス体制の不備として、投資家の評価を大きく下げる要因となります。

AIがつくる「もっともらしい嘘」の脅威

「AIは賢い」という印象をお持ちかもしれません。しかし実際のAIは、事実を理解しているわけではなく、膨大なデータから「それらしい」文章を生成しているにすぎません。この仕組みが生み出すのが「ハルシネーション」、つまり本物そっくりの偽情報です。

人事労務の現場を考えてみてください。労働基準法、育児・介護休業法、最低賃金法…複雑な法令の網の中で、わずかなミスも許されません。残業代の計算を1円間違えただけで、労基署の指導対象になりかねないのです。

トラブル事例

アメリカで実際に起きた事件が、ハルシネーションの危険性を如実に物語っています。ある弁護士がChatGPTを使って準備書面を作成し、裁判所に提出しました。ところが、そこに引用されていた6つの判例はすべてAIがつくり出した架空のもの。弁護士は法廷侮辱罪で5,000ドルの制裁金を科せられました。

日本でも、複数の社会保険労務士が同様の危険性を指摘しています。「36協定の上限時間について尋ねたら、実在しない条文番号を引用された」「育児休業給付金の計算方法で、明らかに間違った数式を提示された」という報告が相次いでいるのです。

この問題への対処法は明確です。

  • AIの回答は必ず「下書き」として扱い、人間が検証する
  • 法令にかかわる判断は、必ず原典にあたり、専門家に確認する
  • 「AIが言っているから正しい」という思い込みを捨てる

皮肉なことに、最も正確性が求められる場面ほど、AIの「手軽さ」という利点が失われます。結局、AIの回答を検証するのに膨大な時間がかかるなら、最初から専門書を調べた方が早い・・・これがAIがもたらす「効率化のパラドックス」です。

採用・評価に潜む差別の罠 

「公平な採用」は、企業の社会的責任の根幹です。性別や出身校で差別することなく、能力と適性で判断する・・・この当たり前の原則が、AIによって脅かされる可能性があります。

それはなぜでしょうか。AIは過去のデータから学習します。もし過去10年間の採用実績で男性の比率が高ければ、AIは「男性の方が優秀」と判断してしまうのです。直接的に性別を評価基準にしなくても、「女子大学卒業」「育児経験あり」といった間接的な情報から、女性を不利に扱う可能性があります。

トラブル事例

この問題を象徴するのが、Amazonの失敗です。同社は2014年から、AIを使った採用システムの開発に着手しました。過去10年分の履歴書データを学習させ、優秀な人材を自動的に見つけ出そうとしたのです。

しかし2018年、衝撃的な事実が判明します。AIは「女性」に関連する単語、たとえば「女子チェス部キャプテン」や特定の女子大学名を含む履歴書に、システマティックに低い評価を付けていたのです。技術力で世界をリードするAmazonですらこのバイアスを修正できず、プロジェクトの中止を余儀なくされました。

さらに問題なのは、多くのAIが「ブラックボックス」だということです。なぜその候補者を高く評価したのか、なぜ落としたのか、AIはその理由を説明できないのです。これでは、応募者から「なぜ不採用なのか」と問われても答えられません。

実効性のある対策は次のとおりです。

  • 採用の最終判断は必ず人間が行い、AIの判断は参考情報に留める
  • 一次スクリーニングに使う場合も、複数の観点でチェックする
  • 判断根拠を説明できるAIツールを選定する

男女雇用機会均等法違反のリスクだけでなく、「あの会社は公平な採用をしていない」という評判が立てば、優秀な人材は集まりません。ダイバーシティが企業の競争力に直結する時代、AIによる差別は企業の未来を閉ざしかねないのです。

知らずに犯す、著作権侵害のリスク

人事労務部門は日々さまざまなコンテンツを作成します。求人広告、研修資料、社内報・・・。AIを使えばこれらが簡単に作成できそうに思えますが、ここにも大きな落とし穴が潜んでいます。

生成AIは、インターネット上の膨大なテキストや画像を学習しており、その中には当然、著作権で保護されたコンテンツも含まれます。問題は、AIがこれらを「参考」にするだけでなく、時にほぼそのまま再現してしまうことです。

トラブル事例

2023年12月、米国の有力紙ニューヨーク・タイムズがOpenAI社を提訴しました。同紙の主張によれば、ChatGPTが自社の記事を一字一句そのまま生成するケースが確認されたといいます。画像の分野でも、Getty Imagesが画像生成AI「Stable Diffusion」の開発元を提訴。自社が著作権を持つ画像1200万点が無断で学習に使われたと主張しています。

こちらはAIの学習データにおける著作権侵害ですが、利用についてももちろん注意が必要です。「AIが作ったから知らなかった」は通用しません。

では、どうすればよいのでしょうか。

  • 生成されたコンテンツは、公開前に必ず類似性をチェックする
  • 対外的に重要な発信(求人広告など)には、AIを使わない
  • 社内向け資料でも、オリジナリティを重視する

著作権侵害が認定されれば、損害賠償は数百万円から数千万円に及ぶ可能性があります。さらに、該当コンテンツの使用差し止めにより、採用活動や研修が停止する事態も考えられます。「知らなかった」では済まされない、それが著作権の世界なのです。

今から始める ガイドライン作成3ステップ

リスクを考え、「AIは危険だから使用禁止」とする企業もあるでしょう。しかし、それは賢明な選択とはいえません。禁止は表面的な解決にすぎず、従業員の「隠れAI利用」を助長するだけ。必要なのは、リスクを理解した上での「賢い活用法」を従業員に示すことです。

ステップ1:利用の目的と範囲を明確にする

ゼロからガイドラインをつくる必要はありません。日本ディープラーニング協会(JDLA)などが公開しているテンプレートを活用しましょう。これらをベースに自社の事情に合わせてカスタマイズすればよいのです。

重要なのは「ホワイトリスト方式」の採用です。「使ってはいけないAI」を列挙するのではなく、「使ってよいAI」を明示します。たとえば「会社が契約したMicrosoft CopilotとChatGPT Enterpriseのみ利用可」といった具合です。

次に、具体的な利用シーンを示します。

【推奨される使い方】

  • 企画会議でのアイデア出し
  • 一般的なビジネスメールの文面作成
  • 公開されている情報(ニュース等)の要約

【禁止される使い方】

  • 採用の合否判定
  • 人事評価の決定
  • 個人情報を含むデータの処理

具体例を示すことで、従業員の「これは大丈夫かな?」という迷いを減らすことができます。

ステップ2:鉄則となる2つの原則を守る

ガイドラインの核心は、シンプルな2つの原則に集約できます。

原則1:「機密情報は絶対に入力しない」
これは譲れない鉄則です。ただし「機密情報」という言葉だけでは抽象的すぎます。人事部門として「従業員の氏名・住所・電話番号」「給与・賞与の金額」「人事評価の内容」「健康診断結果」など、具体的にリストアップしましょう。

原則2:「AIの生成物は必ず人間がチェックする」
AIが作成したものは、すべて「草稿」として扱います。そのまま使用するのではなく、必ず以下の3つの観点でチェックします。

  • 事実確認:内容は正確か?
  • 適切性確認:会社の公式文書としてふさわしいか?
  • オリジナリティ確認:他の文書と酷似していないか?

ステップ3:生きたガイドラインにする

素晴らしいガイドラインをつくっても、誰にも読まれなければ意味がありません。また、一度作成して終わりでは、すぐに時代遅れになってしまいます。

そこで必要なのは、全社員向けの研修です。単にルールを伝えるだけでなく、「なぜこのルールが必要なのか」を実際の事例を交えて説明します。サムスンの情報漏えい、Amazonの採用差別など、本記事で紹介した事例は研修でも活用できるでしょう。

次に、相談窓口の設置です。「このケースはどうすればいい?」と気軽に聞ける場所があれば、従業員の不安は解消され、ルール違反も防げます。

そして最も重要なのが、定期的な見直しです。AI技術は日々進化し、新たなリスクも生まれています。半年に一度はガイドラインを見直し、最新の状況に合わせて更新する。これを怠れば、せっかくのガイドラインも形骸化してしまいます。

ガイドラインで、AI活用レベルの向上を

AIは確かに強力なツールですが、適切な管理なしには「諸刃の剣」となります。本記事で見てきた4つのリスク、情報漏えい・ハルシネーション・採用差別・著作権侵害は、どれも企業の存続にかかわる重大な問題です。

だからといってAIを恐れる必要はありません。適切なガイドラインさえあれば、リスクを管理しながら、その恩恵を享受できます。定型的な業務をAIに任せることで、人事労務担当者はより創造的で戦略的な仕事・・・組織開発、人材育成、企業文化の醸成などに時間を使えるようになるでしょう。

忘れてはならないのは、AIはあくまで「アシスタント」だということです。特に法令遵守が求められる人事労務の分野では、最終的な判断と責任は人間が負わなければなりません。専門家の知見や、信頼できる情報源との併用が不可欠です。

今、多くの企業がAIという新しい波に直面しています。この波に飲み込まれるか、それとも上手く乗りこなすか。その分かれ目が、まさにガイドラインの有無なのです。明日からでも遅くありません。小さな一歩から始めてみませんか。