B
BuildMate
安全・安心 AI入門

個人情報をAIに入力しても大丈夫?現場で使うための安全ルール

木村 拓隆 2026-03-17

「患者さんや利用者さんの情報をAIに入れたら個人情報漏洩になるんじゃないか」——この不安は、医療・介護・福祉の現場で最もよく聞かれる疑問です。結論から言えば、正しいルールさえ守れば安全にAIを使えます。

個人情報とAI活用の安全ルールとは、「誰が・どの情報を・どのように入力するか」を組織として明確に決めることです。ツールの安全性だけでなく、使い方のルール設計が「安全なAI活用」の本質です。

ChatGPTに入力した情報はどうなるか

ChatGPTに入力した文章は、個人向けプランでは設定によってモデル改善に使われる場合があります。ただし、Settings の Data Controls で「Improve the model for everyone」をオフにすると、新しい会話は学習に使われません。ChatGPT Business や API では、契約条件に応じて学習利用の扱いが分かれるため、業務利用では契約内容と設定の両方を確認することが大切です。

絶対に入力してはいけない情報

氏名・住所・電話番号・生年月日などの個人を特定できる情報、医療記録・診断情報・処方内容などの要配慮個人情報、金融情報・口座番号・マイナンバーなどの機密情報——これらは絶対にAIに入力してはいけません。これはChatGPTに限らず、全てのAIツールに共通するルールです。代わりに「患者Aさん(70代女性)」「利用者の方(仮名:田中さん)」のように匿名化・仮名化して入力することで、個人情報を使わずにAIを活用できます。

現場で使える3つの安全ルール

安全なAI活用のために組織で決めるべきルールは3つです。①個人を特定できる情報は入力しない(仮名・匿名で代替)、②業務でAIを使う際は上長に報告する、③出力内容を必ず確認してから使用する(ファクトチェック)。このルールを「AI利用ガイドライン1枚」にまとめて全スタッフに共有するだけで、組織全体の安全性が大幅に向上します。

安全に使える業務の具体例

個人情報を使わずにAIを活用できる業務は多くあります。ケア記録の文章整理(仮名使用)、スタッフへの連絡文の作成、研修資料の下書き、メールや手紙の文章改善、業務マニュアルの作成——これらは個人情報を含まないため、安全に使えます。「個人情報を使わずに使える業務」から始めることで、安心してAI活用をスタートできます。

この記事のまとめ

「安全なAI活用は「使わないこと」ではありません。正しいルールを決めて使うことが、現場を守りながら業務を改善する唯一の方法です。」BuildMate代表・木村拓隆

よくある質問

Q. 患者さんや利用者さんの記録を整理するのにAIを使っても大丈夫ですか?

氏名・住所・生年月日などの個人を特定できる情報を除外(仮名化)した上で使用すれば問題ありません。「70代女性の患者さんのケア記録をまとめてください」という形で匿名化して入力します。

Q. スマートフォンのChatGPTアプリは安全ですか?

アプリ版でも Data Controls の設定は確認できます。ただし、業務利用では端末管理や組織のセキュリティポリシーも重要です。スマートフォン利用を認めるかどうかは、組織のルールに従ってください。

Q. 「AI利用ガイドライン」はどう作ればいいですか?

A4一枚で十分です。「使っていいこと・使ってはいけないこと・使い方の手順・報告ルール」の4項目をシンプルにまとめます。BuildMateでは無料相談でガイドラインのひな形作成サポートも行っています。

木村 拓隆(BuildMate代表)

元・施工管理として1,200件以上の現場を経験後、SaaS企業で200社以上の業務効率化支援に従事。工務店・異業種を問わず「現場に定着するAI活用」を支援するAI活用コンシェルジュ。関西拠点・全国オンライン対応。

「うちでも使えるか」を一緒に確認しましょう

AIに詳しくなくても、相談内容が未整理でも大丈夫です。現状のお話を聞いてから、何から始めるかを一緒に整理します。勧誘・営業は一切行いません。

無料相談に申し込む
← AI活用入門ガイドに戻る