ChatGPTにおけるトレーニングデータの漏洩リスク
- 2023.12.06
ChatGPTは、人工知能(AI)の進歩を象徴する存在ですが、その背後には想像以上の脆弱性が潜んでいることが明らかになりました。最近の研究により、ChatGPTに特定の単語を無限に繰り返させると、そのトレーニングに使用されたデータが漏洩する可能性があることが判明しました。この発見は、ChatGPTがトレーニングデータセットのかなりの部分を記憶していることを意味しています。たとえば「company」という単語を永遠に繰り返すよう依頼すると、電話番号やメールアドレスを含む実際の企業情報が表示されることが確認されました。この脆弱性については、OpenAIが今年の7月に気づき、8月30日には論文の草稿をOpenAIと共有して詳細を議論していました。
さらに深刻なことに、この問題はChatGPTだけにとどまらず、同様の公開モデルである米MetaのLLaMAなどにも影響を及ぼす可能性があります。この研究は、わずか200ドルで数メガバイトのトレーニングデータを抽出できることを示し、さらなる投資で最大1ギガバイトのトレーニングデータを抽出できる可能性があると推定しています。これは、トレーニングデータの漏洩がChatGPTのような「調整済み」モデルにも及ぶことを示しており、これまでのセキュリティ対策が不十分であることを示唆しています。
この脆弱性の影響は広範囲に及び、特に機密性が高いデータやオリジナルデータを持つユーザーにとっては重大な懸念事項です。モデルがトレーニングデータを記憶し、再現するリスクは、オリジナリティに依存する製品にとって重要な要素です。実際、ChatGPTは特定の攻撃に対して、通常の攻撃よりも150倍の頻度でデータを放出することが示されています。
このような発見は、ChatGPTのような言語モデルの安全性確保に向けた取り組みにおいて、新たなチャレンジを提示しています。現在のテスト技術では、ChatGPTの記憶能力を明らかにすることが不十分であり、より強力なテスト方法論が必要です。これは、テクノロジー主導の現代において、進化する言語モデルを守るための課題を浮き彫りにしています。