生成AI利用に関する身近な情報セキュリティ~具体的な事例のご紹介~

皆さんは生成AIをご利用されていますか?

私は日々、ChatGPTやGeminiなどの生成AIを利用しています。

今回は、生成AIを利用する際に注意すべき身近な情報セキュリティについて考えてみました。

様々な団体が発行しているガイドラインやルールブックによると、生成AI利用に関する注意点として、以下の3つが挙げられています。

  • 生成AIの脆弱性
  • ハルシネーション(誤情報の生成)
  • データプライバシーの保護

この記事では、これらの注意点について具体的な事例をご紹介します。

生成AIを利用されている方であれば、画面イメージを見ることで理解が深まると思います。


  • 生成AIの脆弱性

プロンプトを変更することで危険なコードを生成できる

記事のコンテンツ

プロンプトを変更することで倫理的な動作を解除できる

記事のコンテンツ

  • ハルシネーション(誤情報の生成)

誤情報が含まれている

記事のコンテンツ

※杉本はYouTubeで情報セキュリティを発信しておりません

  • データプライバシの保護

プライバシー情報が記憶される

記事のコンテンツ

生成AIの脆弱性については、悪用されない限り大きな問題にはならないかもしれませんが、ハルシネーションやデータプライバシーには十分な注意が必要です。

情報源が明確な生成AIを選び、提供される情報を検証することが重要です。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

error: Content is protected !!