간단 요약
- 테더가 QVAC 패브릭, 비트넷, LoRA 파인튜닝 프레임워크를 공개하며 AI 인프라 탈중앙화 전략을 본격화했다고 밝혔다.
- 이번 기술로 노트북, 일반 GPU, 스마트폰 등에서 수십억 파라미터 규모 모델 학습이 가능해지고 메모리 사용량 최대 70% 절감 효율을 구현했다고 전했다.
- 테더는 로컬 데이터 처리와 분산 학습, 연합학습(페더레이티드 러닝) 가능성을 강조하며 소수 클라우드 사업자 의존도를 낮추는 AI 환경 구축이 중요하다고 밝혔다.
기간별 예측 흐름 리포트



테더가 일반 소비자 기기에서도 대규모 인공지능(AI) 모델을 학습할 수 있는 기술을 공개하며 AI 인프라 탈중앙화 전략을 본격화했다. 앞서 예고한 QVAC 플랫폼 확장의 일환으로 해석된다.
17일 테더 블로그에 따르면 테더는 QVAC 패브릭(QVAC Fabric)을 기반으로 한 비트넷(BitNet)용 LoRA 파인튜닝 프레임워크를 출시했다고 밝혔다.
이번 기술은 마이크로소프트의 1비트 대형언어모델(LLM)인 비트넷을 대상으로 설계된 것으로, 기존에 엔비디아(NVIDIA) 기반 고성능 서버나 클라우드 인프라가 필요했던 AI 모델 학습을 일반 소비자 기기에서도 가능하도록 한 것이 특징이다.
테더는 해당 프레임워크를 통해 노트북, 일반 GPU, 스마트폰 등 다양한 환경에서 수십억 파라미터 규모의 모델 학습과 추론이 가능하다고 설명했다. 실제로 삼성 갤럭시 S25와 아이폰 16 등 모바일 기기에서도 수억~수십억 파라미터 모델의 파인튜닝이 가능하다는 테스트 결과를 공개했다.
또한 이번 기술은 애플 실리콘, AMD, 인텔 등 다양한 칩셋 환경을 지원하며, 기존 대비 최대 70% 이상 메모리 사용량을 절감하는 등 효율성을 크게 개선했다고 밝혔다. 이를 통해 비트넷 모델은 기존 16비트 모델 대비 적은 자원으로 더 큰 모델을 구동할 수 있는 것으로 나타났다.
테더는 특히 이번 프레임워크가 데이터의 로컬 처리를 가능하게 해 개인정보 보호와 분산 학습 환경 구축에도 기여할 수 있다고 강조했다. 중앙화된 클라우드 의존도를 낮추고, 개인 기기 기반의 연합학습(페더레이티드 러닝) 구현 가능성도 제시했다.
파올로 아르도이노 테더 최고경영자(CEO)는 "AI는 사회 구조를 결정짓는 핵심 요소가 될 것"이라며 "소수의 클라우드 사업자에 의존하지 않고 누구나 접근 가능한 AI 환경을 만드는 것이 중요하다"고 밝혔다.
앞서 테더는 QVAC 플랫폼을 통해 AI 사업에서 중대한 기술적 돌파구를 공개하겠다고 밝힌 바 있다. 이번 발표는 그 연장선에 있는 것으로 풀이된다.

강민승 기자
minriver@bloomingbit.io여러분의 웹3 투자 인사이트를 더해줄 강민승 기자입니다. 트레이드나우·알트코인나우와 함께하세요! 📊🚀

!['매파적 동결?'…이란 전쟁에 셈법 복잡해진 FOMC [분석+]](https://media.bloomingbit.io/PROD/news/13cd35e7-eb6f-4cff-b93b-70a5c4d2a1de.webp?w=250)



