지식/인사이트
구글, 양자컴퓨터 오류율 AI로 잡았다… “알파큐빗, 기존보다 오류율 30% 낮춰”
등록일: 2024-11-22 14:21:21
작성자: 관리자

양자컴퓨터의 성능 향상과 상용화에 있어 여전히 가장 큰 과제 중 하나는 ‘오류 수정’이다. 이 오류 수정에  인공지능( AI) 기술을 활용한 결과 기존보다 오류율을 30%까지 줄일 수 있다는 연구 결과가 나왔다.

구글 퀀텀 AI(Google Quantum AI)와 딥마인드(Deepmind)의 연구원들은 양자 컴퓨터의 오류를 식별하고 수정하는 데 AI를 활용한 머신러닝 디코더인 알파큐빗(AlphaQubit)을 개발했다고 20일(현지시각) 발표했다. 이 ‘알파큐빗’은 구글의 블로그 뿐만 아니라 학술지 네이처(Nature)에도 소개됐다. 

양자 컴퓨터는 양자의 중첩(superposition), 얽힘(entanglement) 등의 현상을 사용해 특정 문제에서는 기존의 컴퓨터로 해결할 수 없는 규모까지 다룰 수 있는 방법을 제공한다. 하지만 양자 컴퓨터의 ‘큐비트’는 주변 상태에 대단히 민감하며 오류도 기존 컴퓨터에서는 상상하기 어려울 정도로 많이 생긴다. 

현재 양자 컴퓨터의 하드웨어 오류율은 작업당 1%에서 크게는 10% 정도에 이르는 것으로 알려졌다. 이는 전통적인 기준에서는 너무 높다. 이에 양자 컴퓨터의 ‘큐비트’ 수 중 상당수는 오류 수정에 사용되고 있다. 양자 컴퓨터의 성능 향상에는 큐비트 수를 늘리는 것 뿐만 아니라 오류를 줄여 실제 연산에 활용할 수 있는 실효 양자 수를 늘리는 것도 중요한 과제로 꼽힌다. 

현재 양자 오류 수정은 주로 중복성(redundancy)을 사용한다. 이는 여러 개의 물리적 큐비트를 하나의 논리적 큐비트로 구성하고 일관성 검사를 수행해 오류를 감지, 수정하는 방식이다.

‘알파큐빗’은 최신 거대언어모델(LLM)들에서도 많이 사용되는 ‘트랜스포머’ 아키텍처를 활용하는 신경망 기반 디코더다. 양자 컴퓨터의 일관성 검사 결과가 입력으로 들어가 논리적 큐비트가 준비된 방식에서 벗어났는지의 여부를 예측하는 작업을 하며 하드웨어의 다양한 노이즈 특성에 대한 사전 훈련과 미세조정을 거친다.

구글 퀀텀 AI와 딥마인드의 연구진들은 이 ‘알파큐빗’을 구글 시카모아(Sycamore) 양자 프로세서 내부의 49개 큐비트 집합에서 데이터를 디코딩하도록 모델을 훈련시키고 미세 조정을 거쳤다. 

이 결과, 알파큐빗은 플라타너스 실험에서 정확도가 높지만 비현실적으로 느린 텐서 네트워크 방법보다도 오류가 6% 적었다. 현재 충분한 성능과 확장성을 갖췄다고 평가받는 상관 매칭(Correlated matching)보다는 오류가 30% 적은 것으로 나타났다.

연구진은 이 ‘알파큐빗’의 확장성 측면에서도 최대 241큐비트의 시뮬레이션된 양자 시스템 데이터를 사용해 훈련한 결과, 기존의 상관 매칭 대비 더 높은 디코딩 정확도를 보여준다고 제시했다. 

한편, 연구진은 실용적인 양자컴퓨팅으로의 전환에 있어 여전히 속도와 확장성에 관련해 다양한 과제에 직면해 있다고 언급했다. 먼저, 알파큐빗은 기존 방식보다 오류를 정확하게 식별할 수 있지만 아직 양자 프로세서의 오류를 실시간 수정하기에는 여전히 느린 상태라고 지적했다. 앞으로 양자 컴퓨터가 수백만 큐비트로 확장될 것으로 예상되는데 이에 대응해 AI 기반 디코더를 훈련시키는 효율적인 방법도 찾을 필요가 있다고 언급했다.

▷ 원문보기 :https://it.chosun.com/news/articleView.html?idxno=2023092127909


이전글 美 양자컴퓨터 아이온큐, 엔비디아 업고 주가도 고공행진
다음글 양자물리학 교육 돕는 AI 챗봇 만든다…콕스웨이브-BTQ 맞손