뉴스

메모리 과부하 줄이는 구글 '터보퀀트', 오히려 메모리 기업에 이득 가져올 것

¬ìФ´ë지

구글이 거대언어모델(LLM)의 메모리 사용량을 극히 줄여주는 기술인 '터보퀀트'를 소개한 가운데, 이 기술의 잠재력에 많은 이들의 관심이 쏠리고 있다. 기술 발전을 반기는 한편, 이에 따른 경제적 여파도 가늠하고 있다.

구글은 이 기술로 인공지능(AI) 모델 메모리 사용량을 기존 대비 6분의 1로 줄일 수 있다고 밝혔다. 이와 관련, 한인수 한국과학기술원(KAIST) 전기 및 전자공학부 교수는 터보퀀트가 실제로 AI 모델의 고질적인 병목 현상, 메모리 과부하를 해결할 수 있는 기반이 된다고 설명했다.

한인수 한국과학기술원(KAIST) 전기 및 전자공학부 교수

한 교수는 지난 2024년, 실제로 터보퀀트의 핵심 알고리즘인 '양자화 존슨-린덴스트라우스 변환(QJL) 기술' 연구에 참여한 연구진이며, 지금도 구글 방문연구자 신분이다.

한 교수에 따르면 QJL은 '양자화 기술'이다. 고비트의 정보를 더 적은 비트로 압축해 계산 부담, 필요 자원을 줄이는 최적화 기법이다. 한 교수는 “QJL을 통해 16비트나 32, 64비트 등 고비트로 표현되는 데이터를 1비트로 근사화한다”며 “이로써 필요한 '메모리 비용'을 매우 극단적으로 줄일 수 있다”고 설명했다.

이 과정에서 기존 정보가 훼손된다면 그 의미가 퇴색되는데, 한 교수는 “그런 일은 없다”고 단언했다.

AI 모델은 이미지의 특징이나 단어 의미를 벡터로 이해하며 이 벡터는 데이터의 여러 특성(문맥·의미·특징)을 공간상 위치로 정의하는데, QJL로 정보를 근사화 해도 벡터와 벡터 사이 상관관계는 보존한다는 것이 한 교수의 설명이다.

그는 “이런 QJL 기술이 터보퀀트의 핵심 요소로 작용하며 AI 모델의 메모리 사용량 최소화에 기여한다”고 밝혔다.

터보퀀트의 등장은 향후 메모리 시장에 적잖은 파장을 불러일으킬 것으로 보인다. 먼저 AI 모델 활용 시 메모리 과부하를 줄이는 만큼, 메모리 반도체의 필요량이 줄어들 수 있다는 얘기가 나온다.

다만 한 교수는 오히려 반대의 상황이 올 것이라고 전망했다. 사회 전반의 AI 모델 활용을 촉진하고 영역을 확장해, 전체 메모리 사용량이 늘어날 수 있다는 주장이다.

한 교수는 “터보퀀트 기술을 통해 같은 양의 메모리로도 더 좋은 효율을 낼 수 있는 기반이 열리게 되는데, 이는 AI 모델의 기능을 강화하고 나아가 전체 메모리 반도체 시장의 활성화를 가져올 것”이라며 “단기간에는 현 메모리 시장의 위축을 우려할 수 있지만, 장기적으로는 상황이 반전돼 메모리 제조사에 이득이 될 것”이라고 말했다.

김영준 기자 kyj85@etnews.com

¹ì‹ 2026´ëª…궁금˜ì‹ ê°€

지ê¸ë°”로 AI가 분석˜ëŠ” 가•교¬ì£¼ 리포¸ë 받아보세

´ëª… œë‚˜ë¦¬ì˜¤ •인˜ê¸°