NISQ 시대의 종말? 지난 3년간의 양자 오류 수정 진전을 냉철하게 평가하다
지난 3년간 양자 컴퓨팅 분야에서 '오류 수정의 획기적 진전'이라는 뉴스가 끊이지 않았다. 구글의 윌로우 칩 발표부터 IBM의 새로운 오류 수정 코드까지, 미디어와 업계는 NISQ(노이지 중간규모 양자) 시대의 종말이 가까워졌다고 예고한다. 그러나 기술 진전의 실제 의미를 들여다보면, 상황은 훨씬 더 복잡하고 신중함을 요구한다.
NISQ 시대는 정말 끝나가고 있을까?
NISQ 시대의 정의부터 다시 생각해보자. 이 용어는 현재의 양자 컴퓨터들이 충분히 많은 큐비트(50~1000개)를 갖추고 있지만, 오류율이 매우 높다는 상태를 묘사한다. 기업들이 주장하는 '오류 수정 돌파'는 대부분 실험실 수준의 성과다. 몇십 개의 큐비트에서 오류 비율을 특정 조건 하에서 감소시키는 데 성공했다는 것이 무엇을 의미하는가? 이것이 대규모 양자 컴퓨터의 실제 가동을 의미하는가? 아직은 아니다.
NISQ 시대가 종말에 접어들었다고 선언하기 위해서는 다음이 필요하다: 오류율이 충분히 낮아서 큐비트 수를 실제로 늘릴 수 있고, 더 많은 오류 수정 코드를 구현할 수 있으며, 그 결과로 기존 컴퓨터에서 풀 수 없는 실제 문제를 해결하는 단계다. 우리는 아직 그 지점에 도달하지 못했다.
지난 3년간의 양자 오류 수정 진전: 무엇이 바뀌었나
2023년 이후의 진전을 객관적으로 평가해보면, 확실히 기술적 성과가 있었다. 서페이스 코드(surface code) 구현 연구가 진행되었고, 여러 큐비트 아키텍처에서 오류 율 개선이 보고되었다. 특히 개별 오류 수정 연산의 정확도와 재현성이 높아진 점은 의미 있다.
하지만 이 진전은 '선형적' 진행이지, '지수적' 도약이 아니다. 오류를 수정하려면 추가 큐비트가 필요하고, 이 추가 큐비트들도 스스로 오류가 난다. 이른바 '오버헤드' 문제는 여전히 논쟁의 중심에 있다. 실제 유용한 양자 컴퓨터를 만들기 위해 필요한 물리 큐비트 대 논리 큐비트의 비율은 여전히 현실적이지 않다.
아직도 남아 있는 난제들
업계 내에서 거의 언급되지 않는 것들이 있다. 첫째, 다양한 큐비트 기술(초전도, 이온 트랩, 중성 원자 등) 간의 오류 특성이 다르다는 점이다. 한 가지 큐비트 유형에서 개발한 오류 수정 전략이 다른 기술에서 동등한 효과를 낼 보장은 없다.
둘째, 스케일링 문제다. 몇십 개의 큐비트에서 효과적인 오류 수정이 수천 개, 수만 개의 큐비트 규모로 확장될 수 있을까? 온도 제어, 신호 간섭, 리소그래피의 정밀도 등 실무적인 문제들이 여전히 풀리지 않았다.
셋째, 비용 문제다. 양자 컴퓨터 자체도 비싼데, 오류 수정을 위한 추가 하드웨어, 냉각 장비, 제어 시스템의 비용은 지속적으로 증가한다.
과장된 기대치를 벗어나며
미디어와 기업의 보도 자료에는 '획기적', '혁명적', '곧 상용화' 같은 표현이 넘친다. 하지만 과학은 선형적이지 않다. 특히 양자 오류 수정은 이론적으로는 가능하지만, 현실로 구현하는 과정에서 예상치 못한 장애물이 계속 나타난다. 이것은 실패가 아니라 복잡한 문제의 자연스러운 특징이다.
현명한 관점은 이렇다: 진전이 있으나, 그것이 상용 수준의 오류 수정 양자 컴퓨터로 직결되는가는 미지수다. 향후 5년, 10년, 심지어 20년이 더 필요할 수 있다.
현실적인 전망: NISQ 시대는 계속된다
단호히 말하자면, NISQ 시대는 아직 끝나지 않았고, 당분간 계속될 것이다. 대신 'NISQ 2.0'이라고 부를 만한 진화는 일어나고 있다. 더 안정적인 큐비트, 더 정교한 제어 기술, 제한된 오류 수정 능력이 결합되어, 특정 영역에서 약간의 양자 이점을 제공할 수 있게 될 것이다.
산업은 이 현실을 받아들이고, 완벽한 오류 수정을 기다리지 말고, 현재 기술로 풀 수 있는 문제에 집중해야 한다. 양자 시뮬레이션, 최적화, 분자 모델링 같은 영역에서 NISQ 기술도 충분히 가치 있을 수 있다. 그것이 더 현실적인 길이다.