지식/인사이트
인공 지능으로 양자 컴퓨터 오류 해결
등록일: 2024-07-16 09:03:28
작성자: 관리자

인공 지능(AI)이 양자 컴퓨팅의 가장 큰 장애물 중 하나를 극복할 수 있다.

호주 국립 과학 기관의 새로운 연구에 따르면 AI가 양자 컴퓨팅 오류를 해결하는 데 도움이 될 수 있는 것으로 나타났다. 미래 양자 컴퓨터가 복잡한 실제 문제를 해결하도록 이끌 수 있는 핵심 단계다.

Physical Review Research 저널에 서한으로 게재된 CSIRO 연구에서는 AI가 양자 물리학의 특성으로 인해 발생하는 큐비트 잡음으로 알려진 양자 오류를 처리하고 해결하는 데 도움이 될 수 있다는 사실을 처음으로 발견했다.

이러한 오류를 극복하는 것은 실험에서 도구로 이동하는 고급 양자 컴퓨터에 대한 가장 큰 장벽으로 널리 간주된다.

기존 컴퓨터에서 정보는 이진수의 원리에 따라 작동하는 “비트”로 저장되고 처리된다. 각 비트는 0 또는 1을 나타낼 수 있다. 그러나 양자 컴퓨팅 장치는 양자 비트 또는 “큐비트”로 구성된다.

양자 역학 속성 중첩(superposition)에 따라 0, 1 또는 0과 1을 동시에 나타낼 수 있다. 이를 활용하면 기존 컴퓨터의 범위를 넘어서는 문제를 해결할 수 있다.

큐비트 특성으로 인해 양자 컴퓨터는 출력에서 ​​’잡음(noise)’ 또는 오류를 생성하기도 한다. 이를 극복하기 위해 양자 오류 수정 코드를 사용하여 오류를 감지하고 수정한다.

CSIRO는 오류를 감지하고 적절한 수정을 하기 위해 AI 신경망 증후군(Artificial neural network syndrome) 디코더를 구현했다. CSIRO의 Data61 양자 시스템 팀 리더인 Muhammad Usman 박사는 이 작업이 실제 양자 하드웨어의 복잡한 오류를 효율적으로 처리할 수 있다고 말했다.

그는 “우리의 연구는 처음으로 기계 학습 기반 디코더가 IBM 장치의 측정에서 직접 얻은 오류 정보를 처리하고 매우 복잡한 잡음 특성에도 불구하고 적절한 수정을 제안할 수 있다는 것을 확립했다”며 “우리 작업에서는 현재 IBM 양자 프로세서의 높은 노이즈 수준(코드 임계값 이상)으로 인해 이론적으로 예상되는 것처럼 오류 정정 코드 거리가 증가할 때 오류 억제가 관찰되지 않는다”고 말했다.

양자 오류 정정 코드는 여러 물리적 큐비트에 논리적 정보를 분산시켜 큐비트의 기본 물리적 노이즈에 대처하기 위해 개발됐다.

이러한 코드는 신드롬 측정이라고 하는 큐비트 격자 내의 안정 장치를 측정하여 오류 정보를 해석한다. 계산적으로 비용이 많이 드는 처리 단계의 효율적이고 빠르며 확장 가능한 구현은 양자 오류 정정 코드의 전반적인 성능에 매우 중요하다.

이러한 수정 효율성을 향상시키기 위해 Usman 박사는 인공 신경망 디코더를 구현하고 훈련했다.

신경망 디코더의 성능은 IBM 양자 프로세서에서 직접 벤치마킹, 실제 양자 하드웨어의 복잡한 오류를 효율적으로 처리하고 적절하게 수정할 수 있음을 입증했다.

연구에 따르면 향후 몇 년 내에 물리적 오류율이 감소함에 따라 AI는 코드 거리가 증가함에 따라 오류 억제가 가능하고 코드 거리가 적절하게 커지면 완전한 내결함성을 달성할 수도 있다.

▷ 원문보기 : http://scimonitors.com/%EC%9D%B8%EA%B3%B5-%EC%A7%80%EB%8A%A5%EC%9C%BC%EB%A1%9C-%EC%96%91%EC%9E%90-%EC%BB%B4%ED%93%A8%ED%84%B0-%EC%98%A4%EB%A5%98-%ED%95%B4%EA%B2%B0/


이전글 메가존클라우드, ETRI와 양자컴퓨팅 분야 협력
다음글 한국 양자 컴퓨터 기술 2.3점 '꼴찌'…中 35점으로 美 이어 2위