[한국정경신문=임윤희 기자] 국대 AI 선발전에 오른 네이버·SKT·업스테이지 모델이 외국 AI와의 유사성 논란에 휘말렸다. LG만 고유 설계 프런티어 모델을 내세우면서 누가 진짜 ‘프롬 스크래치’에 가까운 국가대표 AI인지 기준을 다시 가려야 한다는 지적이 나온다.
'독자 AI 파운데이션 모델' 1차 발표회 (사진=연합뉴스)
9일 업계에 따르면 정부 ‘독자 AI 파운데이션 모델’ 사업에 참여한 모델은 각기 다른 방식으로 중국·글로벌 AI 구조와 모듈을 끌어쓴 정황이 드러났다. 기술 의존도와 소버린 AI 기준 논쟁이 커지는 대목이다.
논란의 출발점은 네이버클라우드다. 네이버는 개발자 검증에서 비전 인코더 가중치 코사인 유사도가 99% 수준으로 나타났다. Qwen 2.5와 사실상 동일하다는 평가가 나왔다.
네이버 측은 "언어·추론 모델은 자체 설계·학습한 독자 엔진이고 비전 인코더는 글로벌 호환성과 효율을 위해 검증된 외부 모듈을 전략적으로 채택한 것"이라며 "비전 인코더는 언제든 자체 개발한 모델로 교체할 수 있는 영역이고 통제권은 네이버에 있다"는 점을 강조하고 있다.
SK텔레콤은 초거대 언어모델 A.X K1은 중국 딥시크 V3와 핵심 아키텍처·세부 파라미터가 닮았다는 지적을 받았다. MLA·MoE 구조와 전문가 병렬화 방식에서 딥시크와 유사한 설정값이 확인됐다.
SKT 측은 "A.X K1이 5190억 파라미터를 가진 독자 구조이며 딥시크와는 구조적으로 상이하고 타사 가중치를 쓰지 않은 5000억 파라미터 프롬 스크래치 모델"이라고 설명한다.
유사하다고 지적된 부분은 공개 모델을 실행하는 인퍼런스 코드에 국한된 것이며 학습 코드·가중치 독자성을 훼손하는 사안은 아니라는 입장이다.
업스테이지는 초기 솔라 모델이 미스트랄AI·GLM 구조를 참고하고도 저작권 표기를 제대로 하지 않았다는 논란을 겪었다.
회사는 “공개 검증회에서 솔라 오픈 100B가 가중치를 랜덤 초기화한 뒤 자체 데이터로 학습한 프롬 스크래치 모델임을 로그와 지표로 확인했다”며 “인퍼런스 코드 일부가 기존 모델과 비슷해 보일 수 있지만 이는 실행 효율을 위한 구현 선택일 뿐 이미 학습된 외부 가중치를 가져온 사례와는 다르다”고 설명했다.
반면 LG AI연구원은 자체 프런티어 모델 ‘K-엑사원’을 앞세워 동급 글로벌 모델보다 앞선 성능을 내세우며 고유 아키텍처를 직접 설계한 독자 모델이라는 점을 강조한다.
업계에서는 이번 경쟁에서 고유 구조를 바닥부터 설계한 곳은 LG 정도라는 평가가 나올 만큼 LG는 상대적으로 ‘원형 설계’ 이미지를 확보했다는 평가다. 다른 팀들은 글로벌 오픈소스 구조와 모듈을 일정 부분 조합해 개발 기간과 자원 제약을 줄이려 했다는 분석이 나온다.
정부는 해외 파생 모델은 독자 AI로 보지 않겠다는 원칙을 내세웠지만 인코더·아키텍처·가중치 등 구체 요소별로 어디까지를 해외 모델 활용으로 볼지 기준을 명확히 적시하지 못했다는 비판을 받고 있다.
업계관계자는 "국대 AI 경쟁이 누가 얼마나 베꼈나 공방으로 끝나면 또 다른 조립식 논란만 키울 것"이라며 "어디까지 외국 기술을 써도 되는지와 함께 국내가 구조와 가중치를 완전히 이해하고 스스로 손볼 수 있는 통제권을 어떻게 확보할지까지 포함해 프롬 스크래치와 소버린 AI 기준을 이번에 다시 정리해야한다"고 지적했다.