米スタートアップProtecto、RAGで安全な生成AI利用を実現|情報漏洩を防ぐ

0

2024年05月26日 18:00  Techable

  • チェックする
  • つぶやく
  • 日記を書く

Techable

写真
生成AIが世界を変革する現代において、その効用を最大限に活用するためには、生成AI利用におけるデータプライバシーとセキュリティ保護の問題を解決する必要がある。

この問題解決を使命に掲げる米国スタートアップProtectoは、生成AIを安全に利用できるソリューションを開発。生成AIのトレーニング、チューニングから利用までのライフサイクル全体でデータを保護するプラットフォームだ。

[caption id="attachment_235120" align="aligncenter" width="1351"] Image Credits:Protecto[/caption]Microsoft AzureやSalesforce、Snowflakeなどのプラットフォームと提携するほか、既存顧客にはNOKIAをはじめ金融サービスやヘルスケア、テクノロジーなどさまざまな業界の企業が名を連ねている。

カルフォルニア州サンノゼ、通称シリコンバレーに拠点を置く同社は、2023年11月にシードラウンドで400万ドルの資金調達を行った。2021年のGoogleおよびMicrosoft幹部からのエンジェル投資と合わせると、これまでの資金調達総額は500万ドルとなる。新たに調達した資金を使って、トップエンジニアリング人材を採用すると共に、市場戦略の拡大に注力する計画だ。
生成AI活用に不安を抱える企業、漏洩事件も発生専門スキルがない人でもデータ分析が可能になる生成AI。その分析対象と複雑さ、扱うデータ量は日々拡大し続けている。探索対象は顧客データや業績データなどの構造化データに限らない。チャット履歴や文字起こしした営業電話の記録、SNSや自社コミュニティのディスカッションなど、非構造化データにまで広がりつつある。

こうした広範な非構造化データは非常に複雑なため、本質的に高いセキュリティリスクを伴う。さらに、個人情報や機密情報を含むため、不正アクセスやデータ漏洩、プライバシー侵害のリスクもあるのだ。

企業はChatGPTなどの生成AI利用の果実を享受する一方で、データプライバシーやセキュリティリスクなどの懸念を抱えている。事実、2023年4月に起きたサムソンのデータ漏洩事件は、従業員が悪意なく機密情報をChatGPTに入力したことから発生したケースだ。
セキュリティ懸念と規制が生成AI採用に影響する可能性も漏洩事件の結果、ChatGPTの利用禁止やガイドライン策定などの対応が取られた。しかし、ガイドラインや従業員教育だけでは、膨大な潜在リスクの管理は難しい。


2024年3月13日にEUが採択した人工知能アクト(AI Act)は、5月21日に最終承認を受けたばかり。AIに関する世界初の包括的な法的枠組みとされている。

AI Actはデータの質や透明性、人間による監視および説明責任に関してEU全体で規制を行うもの。厳しい要件と顕著な域外効果に加え、最大3500万ユーロまたは年間世界収益の7%(いずれか高い方)の罰金により、EUで事業を行う多くの企業に多大な影響を与えるだろう。

セキュリティと漏洩事故への懸念から、生成AIの採用が遅れる可能性があるのだ。Protecoの使命は、これら問題に対処するソリューションを提供することにある。
生成AI活用のライフサイクル全体を保護Protectoは、生成AIのトレーニング、RAGやプロンプトを含む生成AIのライフサイクル全体でデータを保護する〈中間層〉をソリューションとして提供する。

[caption id="attachment_235133" align="aligncenter" width="1518"] Image Credits:Protecto[/caption]「検索拡張生成」、「取得拡張生成」などと訳されるRAG (Retrieval-Augmented Generation)とは、LLMによるテキスト生成に外部情報の検索を組み合わせて回答精度を高める技術。生成AIが巧妙に嘘をつく・不正確な情報を生成するハルシネーション問題を解決するものだ。

Protecto社のサービスのひとつである「Secure RAG (SecRAG)」は、取得プロセスにロールベースのアクセスコントロール(RBAC)メカニズムを直接組み込むことで、回答の生成に用いられたすべての情報が厳密にチェックされる。

[caption id="attachment_235117" align="aligncenter" width="1242"] Image Credits:Protecto[/caption]上図が示すのは、企業の内部データを活用したチャットボットにProtectoのソリューションを適用したユースケースだ。元のデータ形式と意味を保持しながら、個人の機密データをマスキングする。これによって生成AIが文脈を理解し、正確な出力を生成できるのだ。
共同設立者2人はデータプライバシーのエキスパートProtectoは、2021年にCEOのAmar Kanagarj氏とCTOのBaskaran Alagarsamy氏によって設立されたスタートアップだ。シリコンバレーに拠点を置く同社は、インドのバンガロールに先進的な開発センターを持っている。

[caption id="attachment_235123" align="aligncenter" width="1656"] Image Credits:Protecto[/caption]CEOのKanagarj氏はSun Microsystemsの開発者としてキャリアをスタートさせ、のちにMicrosoft Search & AI部門でプロダクトマネジメントを率いた人物。起業は今回が2度目となり、1社目のFilecloud共同設立者としてデータプライバシーやガバナンス、コンプライアンスに関する貴重な洞察を得たという。CMOとしてFilecloudの年間経常収益を700万ドルにまでスケールアップした。

CTOのAlagarsamy氏は、データエンジニアリングのエキスパートとしてAppleに18年勤務。プライバシー エンジニアリングやペタバイト規模のデータ問題について取り組んだ。Protectoに出資を行ったSpeciale Invest社の記事によると、2018年にはGPDR(EU一般データ保護規則)要件に対応するためAppleのプライバシーソリューションを開発した実績を有している。

2人はその知見を活かし、生成AI活用におけるセキュリティとプライバシーの問題についてウェビナーを行うなど、精力的に活動している。AI5月下旬にも非営利団体Dallas AIのためにRAG Deploymentについてワークショップを開催している。

出資に参加したSpeciale InvestのDhanush Ram氏が期待を寄せるとおり、今後も生成AIの可能性を最大限に引き出しつつ、安全なデジタルエコシステム構築に貢献してくれそうだ。


引用元:Protecto

文・五条むい
X(Twitter):@catalyticforce

    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定