devway
홈전체 글태그

카테고리

  • 전체40
  • 인프라3
    • 하드웨어2
    • ubuntu1
  • AI34
    • 로컬 LLM8
    • AI 코딩 도구9
    • 컴퓨터 비전4
    • 디자인1
    • 이미지생성2
    • 데이터 아키텍쳐0
    • agent2
    • 모델3
  • Backend1
  • Architecture2
    • 분산 시스템1
    • 데이터0

태그

  • #로컬LLM9
  • #ClaudeCode9
  • #AI개발7
  • #LocalLLM6
  • #AI에이전트5
  • #에이전트4
  • #컴퓨터비전4
  • #MCP4
  • #LLM4
  • #RTX30904
  • #AI코딩4
  • #Anthropic4
  • #모델비교3
  • #객체탐지3
  • #로컬AI3
  • #딥러닝3
  • #개발도구3
  • #Gemma43
  • #이미지생성3
  • #백엔드3

구독

  • RSS
  • Sitemap

태그

#RTX30904개

이 태그가 달린 글 모음. 최신순.

AI/모델2026-05-09

Nemotron 3 Nano Omni — 모델 자체보다 인코더 합치는 방식이 더 흥미로움

NVIDIA의 새 omni-modal 모델 Nemotron 3 Nano Omni 발표. 30B 총 파라미터에 3B 액티브, 컨슈머 GPU에 INT4로 올릴 수 있다는 점도 화제지만, 진짜 흥미로운 부분은 모달리티별 best-of-breed 인코더를 얇은 projector로 합치는 reference architecture. 그리고 omni-modal 발표 때마다 반복되는 패턴에 대한 회의적인 메모.

  • #NVIDIA
  • #Nemotron
  • #omni모델
  • #MoE
  • #로컬LLM
  • +5
AI/로컬 LLM2026-05-07

Gemma 4 추론 3배 빨라진다는 발표, 한 번 뜯어봤음

Gemma 4 가족 전용 MTP 드래프터로 추론 속도가 최대 3배 빨라진다는 발표가 나왔다. speculative decoding 원리부터 발표 수치를 그대로 받으면 안 되는 이유, 그리고 RTX 3090 같은 컨슈머급 환경에서 이 향상이 실제로 얼마나 의미 있을지까지 따져봤다.

  • #Gemma4
  • #로컬LLM
  • #SpeculativeDecoding
  • +7
AI/로컬 LLM2026-03-26

Qwen 3.5 35B-A3B 깔고 나서 GPT 구독 끊을 뻔함

Alibaba Qwen 팀이 풀어놓은 35B-A3B 로컬 모델을 RTX 3090에 직접 돌려본 후기. 3B 액티브 파라미터로 Sonnet 4.5급 코딩을 뽑아내는 MoE 구조, 110 tok/s 만드는 플래그 셋업, Ollama가 왜 답이 아닌지까지 정리.

  • #로컬LLM
  • #Qwen
  • #AI코딩
  • +4
인프라/하드웨어2026-03-22

2026년에 로컬 AI 머신 짜려다가 결국 이거 샀음

클라우드 API 비용 무서워서 로컬 AI 머신 견적 일주일 굴린 후기. RTX 5090부터 중고 3090, M5 Max까지 직접 비교하고, 한국 전기료/아파트 환경까지 고려해서 결국 어떤 조합이 답인지 정리. 가성비 정답은 의외로 단순함.

  • #로컬AI
  • #GPU
  • #RTX3090
  • +4
소개개인정보처리방침RSSSitemapaickywayconvertprompt
© devway