ほとんどのAIプロバイダーは、あなたのデータを信頼して預けるよう求めています。 私たちはただ自分たちをその方程式から外しただけです。 本日はChutes上でAI推論用のエンドツーエンド暗号化を出荷します。 これが実際に意味することは以下の通りです:
プロンプトはマシン上で、信頼実行環境内で動作する特定のGPUインスタンスに直接暗号化されます。 暗号文はAPIやロードバランサーを通過しますが、文字通り読み取れません。誰にもできません。ネットワークではなく。私たちは違います。ハードウェアを操作するマイナーたちではありません。 鍵交換は、NIST標準化されたポスト量子鍵カプセル化機構であるML-KEM 768をHKDF-SHA256およびChaCha20-Poly1305と組み合わせて使用しています。 TEEインスタンスはML-KEM公開鍵を公開し、すべてのリクエストは前方秘密保持のために新しい一時的なクライアントキーペアを使用します。 たとえ今日誰かがすべてのパケットをキャプチャしたとしても、将来の量子コンピュータはそれらを復号できません。
建築業者にとって重要な部分: この使い方はセットアップによって2通りあります。 OpenAI Python SDKを使っているなら、pip install chutes-e2eeを使い、カスタムトランスポートをクライアントに渡してください。 ベースのURLは同じままにでき、暗号化はHTTP層で透過的に行われ、クライアントの配線も最小限で済みます。
他のクライアントプラットフォームを使っている場合は、e2eeプロキシのDockerコンテナをローカルで実行し、クライアントをそちらに向けてください。OpenAI互換APIの両方をサポートしており、Codexのようなツールで使われている新しいResponses API仕様や、Claudeスタイルクライアント向けのAnthropicのMessages API仕様も含まれます。 プロキシはフォーマット変換、鍵交換、暗号化、ストリーミング復号を代わりに処理します。どちらもストリーミングに対応しています。どちらも通常のトークンベースの請求セマンティクスを保持しています。どちらもMITライセンスの下でオープンソースです。
2K