A technology born from a single question

이 글은 “Private Cloud Compute: 생성형 AI 시대의 새로운 신뢰 모델”을 완성하기 위한 연재의 첫 번째 글이다.

Chapter 1

단 하나의 질문에서 시작된 기술, Private Cloud Compute


단 하나의 질문

생성형 AI의 등장은 기존에 존재하지 않던 문제를 하나 만들어냈다. 모델의 크기와 연산량은 빠르게 증가했고, 더 이상 고사양 스마트폰 단독으로는 감당할 수 없는 작업들이 생겼다.

엔지니어들은 자연스럽게 클라우드로 눈을 돌렸다. 그리고 하나의 질문에 도달했다.

“사용자의 데이터가 디바이스를 벗어나
AI 서버에서 처리되더라도
유출되지 않음을 기술적으로 보장할 수 있을까?”

이 질문은 단순히 “암호화하면 되지 않나?” 수준의 문제가 아니다. 서버 운영자와 클라우드 관리자, 서비스 개발·운영 내부자, 디버깅 도구, 로그, 크래시 덤프까지 데이터가 스쳐 지나갈 수 있는 모든 지점이 문제의 범위에 포함된다.

2024년 6월, Apple은 이 질문에 대한 하나의 답으로 Private Cloud Compute를 공개했다. 이후 2025년에는 Meta의 Private Processing, 그리고 Google의 Private AI Compute까지, 이름은 다르지만 모두 같은 질문에서 출발한 기술들이 등장했다.


PCC (Private Cloud Compute)

개인적으로는 이 흐름을 Confidential AI Computing이라고 부르고 싶다. 하지만 현재 업계에서 통용되는 용어는 PCC이므로, 이 글에서는 PCC를 사용한다.

PCC의 이해당사자는 크게 세 주체다.

사용자는 디바이스에서 프롬프트를 보내고, AI 서비스 제공자는 클라우드 인프라 위에서 모델을 실행해 응답을 생성한다. 겉으로 보면 기존 클라우드 서비스 모델과 다르지 않다.

차이는 단 하나다. 처음 던졌던 질문에 답을 해야 한다는 점이다.


AI Processing이 만들어낸 새로운 요구사항

기존 클라우드 서비스의 보안 요구사항만으로는 충분하지 않다. AI 처리 과정에서 사용자의 데이터는 다음 조건을 동시에 만족해야 한다.

여기서 말하는 내부자란 단순한 악의적 직원을 의미하지 않는다. 시스템 운영, 개발, 장애 대응을 위해 기술적으로 접근 권한을 가진 모든 주체를 포함한다.

PCC는 이들조차 사용자 데이터에 접근할 수 없도록 설계되는 것을 목표로 한다.

이 요구사항은 단순한 보안 설정의 문제가 아니라, 시스템 아키텍처 전체를 다시 설계해야 하는 문제다.


각 회사의 접근 방식 (요약)

같은 질문에서 출발했지만, 구현 방식은 각자 다르다.

이 글에서는 각 구현을 깊게 다루지 않는다. 중요한 점은, 이들이 모두 같은 문제 정의에서 출발했다는 사실이다.


이 연재에서 다룰 것

이 글은 시작에 불과하다. 이후 글들에서는 다음 질문들을 하나씩 풀어갈 예정이다.