PrivateGPT HeadlessでChatGPTのプライバシーに関する懸念を軽減
問題点:
ChatGPTを搭載したアプリケーションの普及が進むも、企業はChatGPTにデータが送信されることを望んでいない
OpenAIのChatGPTのような生成AIは、さまざまな新しいアプリケーションを可能としました。特に、文章の要約やチャットボットなど、MLを利用したアプリケーションの多くがChatGPTに移行しています。
問題は多くの企業がChatGPTの社内での利用を制限しており、社内のシステムからOpenAIにデータが送信されることを許可していません。これには理由があります。ChatGPTは一時的にイタリアでの利用が禁止され、すでに一度目のデータ漏洩が起き、クレジットカード情報を含む個人情報が流出しています。
企業にとって、モデルの改善やパフォーマンスの監視を理由にデータが保持されることは好ましいことではありません。このようなシステムは、韓国のラブボットがやり始めたように、学習データに含まれていたPIIを学習し、再送信することができるため、意図しない個人情報の開示につながってしまうためです。
PrivateGPTを活用:
ChatGPTに送信される前に、アプリケーション内の50種類以上のPIIを簡単に特定し削除する
PrivateGPTを活用すると、開発者はプライバシーのリスクとなる個人情報を簡単に取り除き、ChatGPTの利用を好まない企業によってブロックされた取引を解除することができます。
PrivateGPT Headlessでできること:
- 個人を特定できる情報(PII)がOpenAIのようなサードパーティに送信されることを防ぐ
- GDPRやCPRAなどのコンプライアンスを維持しながら、LLMのメリットを享受する
- 非識別化エンベディングを作成することでデータ漏洩を回避
- DPOやCISOに、アプリケーションを通過するPIIの量と種類を示す
- 宗教、居住地などのエンティティを削除することで、ChatGPTによる偏りを減らす
仕組み
各OpenAIコールで数行のコードのみとなるため非常に簡単なものです。データは非識別化され、ユーザーまたはユーザーの顧客の社内で稼働するコンテナによって再識別化されます。データがPrivate AIと共有されることは決してありません。
import openai
from privateai import PrivateGPT
MODEL = "gpt-3.5-turbo"
messages = [{"role": "system", "content": "You are an email answering assistant"},
{"role": "user", "content": "Invite Tom Hanks for an interview on April 19th"}]
privategpt_output = PrivateGPT.deidentify(messages, MODEL)
response_deidentified = openai.ChatCompletion.create(model=MODEL, messages=privategpt_output.deidentified, temperature=0)
response = PrivateGPT.reidentify(response_deidentified, privategpt_output)
PrivateGPTのUIバージョンをご自身で無料でお試しいただくか、今すぐHeadlessの利用をご希望の場合は弊社までお問い合わせください:
Private AIを選ぶ理由
ご自身の環境で稼働 ー いかなるデータもPrivate AIと共有されることはありません
GDPR、HIPAA、PCI DSSのようなすべての主要規制をカバーする50以上のエンティティタイプ
OpenAIからのレスポンスにPIIを戻す高度な再識別化
Anthropic や Cohere などのあらゆる LLM サービスと連携します。
弊社では、顧客の皆さまの機密情報を保護することの重要性を理解しています。Private AIを利用すると、信頼と誠実さからなる基盤の上に、GTM(市場投入)機能を自動化するためのプラットフォームを構築することができます。また同時に、プライバシーを維持しながら価値の高いデータを利用することが可能であることをステークホルダーに証明することができます。
Sunil Rao
CEO, Tribble