「患者さんや利用者さんの情報をAIに入れたら個人情報漏洩になるんじゃないか」——この不安は、医療・介護・福祉の現場で最もよく聞かれる疑問です。結論から言えば、正しいルールさえ守れば安全にAIを使えます。
個人情報とAI活用の安全ルールとは、「誰が・どの情報を・どのように入力するか」を組織として明確に決めることです。ツールの安全性だけでなく、使い方のルール設計が「安全なAI活用」の本質です。
ChatGPTに入力した情報はどうなるか
ChatGPTに入力した文章は、個人向けプランでは設定によってモデル改善に使われる場合があります。ただし、Settings の Data Controls で「Improve the model for everyone」をオフにすると、新しい会話は学習に使われません。ChatGPT Business や API では、契約条件に応じて学習利用の扱いが分かれるため、業務利用では契約内容と設定の両方を確認することが大切です。
- 無料版・Plus:Data Controls で学習利用をオフにできる
- Business・API:契約条件と設定を確認する
- Settings → Data Controls → Improve the model for everyone をオフにする
絶対に入力してはいけない情報
氏名・住所・電話番号・生年月日などの個人を特定できる情報、医療記録・診断情報・処方内容などの要配慮個人情報、金融情報・口座番号・マイナンバーなどの機密情報——これらは絶対にAIに入力してはいけません。これはChatGPTに限らず、全てのAIツールに共通するルールです。代わりに「患者Aさん(70代女性)」「利用者の方(仮名:田中さん)」のように匿名化・仮名化して入力することで、個人情報を使わずにAIを活用できます。
- 氏名・住所・電話番号・生年月日
- 医療記録・診断名・処方内容
- 口座番号・マイナンバー・保険証番号
- これらは匿名化・仮名化して使用する
現場で使える3つの安全ルール
安全なAI活用のために組織で決めるべきルールは3つです。①個人を特定できる情報は入力しない(仮名・匿名で代替)、②業務でAIを使う際は上長に報告する、③出力内容を必ず確認してから使用する(ファクトチェック)。このルールを「AI利用ガイドライン1枚」にまとめて全スタッフに共有するだけで、組織全体の安全性が大幅に向上します。
- 個人情報は入力せず、仮名・匿名で代替する
- 業務での使用は上長に報告する
- 出力内容は必ず確認してから使用する
安全に使える業務の具体例
個人情報を使わずにAIを活用できる業務は多くあります。ケア記録の文章整理(仮名使用)、スタッフへの連絡文の作成、研修資料の下書き、メールや手紙の文章改善、業務マニュアルの作成——これらは個人情報を含まないため、安全に使えます。「個人情報を使わずに使える業務」から始めることで、安心してAI活用をスタートできます。
この記事のまとめ
- 個人向けプランは Data Controls で学習利用をオフにできる
- 氏名・住所・医療情報などは絶対に入力しない
- 仮名・匿名化することで安全に業務へ活用できる
- 「個人情報なし・上長報告・出力確認」の3ルールを組織で決める
- 連絡文・記録整理・マニュアル作成は個人情報なしで活用できる
よくある質問
Q. 患者さんや利用者さんの記録を整理するのにAIを使っても大丈夫ですか?
氏名・住所・生年月日などの個人を特定できる情報を除外(仮名化)した上で使用すれば問題ありません。「70代女性の患者さんのケア記録をまとめてください」という形で匿名化して入力します。
Q. スマートフォンのChatGPTアプリは安全ですか?
アプリ版でも Data Controls の設定は確認できます。ただし、業務利用では端末管理や組織のセキュリティポリシーも重要です。スマートフォン利用を認めるかどうかは、組織のルールに従ってください。
Q. 「AI利用ガイドライン」はどう作ればいいですか?
A4一枚で十分です。「使っていいこと・使ってはいけないこと・使い方の手順・報告ルール」の4項目をシンプルにまとめます。BuildMateでは無料相談でガイドラインのひな形作成サポートも行っています。