本投稿は TECOTEC Advent Calendar 2024 の20日目の記事です。
次世代デジタル基盤開発事業部の椎葉です。最近はエンジニアとしてGoやNext.jsを使用したWebアプリケーションの設計開発に関わっています。
さて、昨今は業務でも生成AIサービスの活用が当たり前になってきました。直近のプロジェクトも生成AIの利用が好まれる土壌で、コーディングやコードレビュー、テストケースや資料作成など様々な工程に生成AIサービスを利用しています。
ですが一方で、ChatGPTを始めとした外部Webサービスは、コンプライアンスなどの観点から利用が難しい場合もあります。
例として、ChatGPTやClaudeは会話内容などを必要に応じて取得・利用する規約となっており、
業務で利用する場合は機密情報やセキュリティリスクとなる内容を送信しないよう注意が必要です。
User Content: We collect Personal Data that you provide in the input to our Services (“Content”), including your prompts and other content you upload, such as files(opens in a new window), images(opens in a new window), and audio(opens in a new window), depending on the features you use.
(引用 : 2024-11-29)
Inputs and Outputs: Our AI services allow you to prompt the Services in a variety of media including but not limited to the format of text, files and documents, photos and images, and other materials along with the metadata and other information contained therein (“Prompts” or "Inputs"), which generate responses (“Outputs” or “Completions”) based on your Inputs. If you include personal data in your Inputs, we will collect that information and this information may be reproduced in your Outputs.
(引用 : 2024-11-29)
もっとも、チャットならプロンプトに機密情報を含めないよう慎重に利用すればよいですが、GitHub Copilotを始めとしたコードアシスタントなど、AIが能動的にデータを読み取るサービスでは、“気をつけて利用する”という運用は現実的ではありません。
個々の作業者のワークスペースから読み取られる都合上、システム管理者が統括して機密性を担保することも困難です。*1
そこで有用なのが、ローカルLLMを利用したコードアシスタント環境の構築です。
続きを読む