테더, QVAC 기반 AI 학습 프레임워크 공개…스마트폰서 대규모 모델 학습 가능

기사출처
강민승 기자

간단 요약

  • 테더가 QVAC 패브릭, 비트넷, LoRA 파인튜닝 프레임워크를 공개하며 AI 인프라 탈중앙화 전략을 본격화했다고 밝혔다.
  • 이번 기술로 노트북, 일반 GPU, 스마트폰 등에서 수십억 파라미터 규모 모델 학습이 가능해지고 메모리 사용량 최대 70% 절감 효율을 구현했다고 전했다.
  • 테더는 로컬 데이터 처리와 분산 학습, 연합학습(페더레이티드 러닝) 가능성을 강조하며 소수 클라우드 사업자 의존도를 낮추는 AI 환경 구축이 중요하다고 밝혔다.

기간별 예측 흐름 리포트

Loading IndicatorLoading Indicator
사진 = 테더 블로그 갈무리
사진 = 테더 블로그 갈무리

테더가 일반 소비자 기기에서도 대규모 인공지능(AI) 모델을 학습할 수 있는 기술을 공개하며 AI 인프라 탈중앙화 전략을 본격화했다. 앞서 예고한 QVAC 플랫폼 확장의 일환으로 해석된다.

17일 테더 블로그에 따르면 테더는 QVAC 패브릭(QVAC Fabric)을 기반으로 한 비트넷(BitNet)용 LoRA 파인튜닝 프레임워크를 출시했다고 밝혔다.

이번 기술은 마이크로소프트의 1비트 대형언어모델(LLM)인 비트넷을 대상으로 설계된 것으로, 기존에 엔비디아(NVIDIA) 기반 고성능 서버나 클라우드 인프라가 필요했던 AI 모델 학습을 일반 소비자 기기에서도 가능하도록 한 것이 특징이다.

테더는 해당 프레임워크를 통해 노트북, 일반 GPU, 스마트폰 등 다양한 환경에서 수십억 파라미터 규모의 모델 학습과 추론이 가능하다고 설명했다. 실제로 삼성 갤럭시 S25와 아이폰 16 등 모바일 기기에서도 수억~수십억 파라미터 모델의 파인튜닝이 가능하다는 테스트 결과를 공개했다.

또한 이번 기술은 애플 실리콘, AMD, 인텔 등 다양한 칩셋 환경을 지원하며, 기존 대비 최대 70% 이상 메모리 사용량을 절감하는 등 효율성을 크게 개선했다고 밝혔다. 이를 통해 비트넷 모델은 기존 16비트 모델 대비 적은 자원으로 더 큰 모델을 구동할 수 있는 것으로 나타났다.

테더는 특히 이번 프레임워크가 데이터의 로컬 처리를 가능하게 해 개인정보 보호와 분산 학습 환경 구축에도 기여할 수 있다고 강조했다. 중앙화된 클라우드 의존도를 낮추고, 개인 기기 기반의 연합학습(페더레이티드 러닝) 구현 가능성도 제시했다.

파올로 아르도이노 테더 최고경영자(CEO)는 "AI는 사회 구조를 결정짓는 핵심 요소가 될 것"이라며 "소수의 클라우드 사업자에 의존하지 않고 누구나 접근 가능한 AI 환경을 만드는 것이 중요하다"고 밝혔다.

앞서 테더는 QVAC 플랫폼을 통해 AI 사업에서 중대한 기술적 돌파구를 공개하겠다고 밝힌 바 있다. 이번 발표는 그 연장선에 있는 것으로 풀이된다.

#스테이블코인
#업데이트
강민승

강민승 기자

minriver@bloomingbit.io여러분의 웹3 투자 인사이트를 더해줄 강민승 기자입니다. 트레이드나우·알트코인나우와 함께하세요! 📊🚀
hot_people_entry_banner in news detail bottom articleshot_people_entry_banner in news detail mobile bottom articles
방금 읽은 기사 어떠셨나요?




PiCK 뉴스

해시태그 뉴스





랭킹뉴스