<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>devway</title>
    <link>https://dev.aickyway.com</link>
    <description>프론트엔드/백엔드/인프라/AI 개발 기록.</description>
    <language>ko-kr</language>
    <atom:link href="https://dev.aickyway.com/rss.xml" rel="self" type="application/rss+xml"/>
    <item>
      <title>NVIDIA가 옴니 모델 또 풀었는데, 진짜 봐야 할 건 벤치마크가 아님</title>
      <link>https://dev.aickyway.com/posts/nemotron-nano-omni-composition</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/nemotron-nano-omni-composition</guid>
      <pubDate>Sat, 09 May 2026 05:01:12 GMT</pubDate>
      <description>NVIDIA가 며칠 전 공개한 30B-A3B 옴니 모달 모델 Nemotron 3 Nano Omni를 두고 다들 throughput·리더보드 얘기만 하는데, 진짜 메시지는 비전·오디오·언어 백본을 각각 best-of-breed로 골라 얇은 projector로 묶은 조립법 자체임. 에이전트 만드는 입장에서 이게 왜 중요한지 정리.</description>
      <category>NVIDIA</category>
      <category>Nemotron</category>
      <category>옴니모달</category>
      <category>MoE</category>
      <category>Mamba</category>
      <category>에이전트</category>
      <category>멀티모달</category>
      <category>로컬LLM</category>
      <category>AI개발</category>
    </item>
    <item>
      <title>object detection 비교 튜토리얼인데 사진 한 장으로 끝났음</title>
      <link>https://dev.aickyway.com/posts/object-detection-tutorial-no-comparison</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/object-detection-tutorial-no-comparison</guid>
      <pubDate>Sat, 09 May 2026 04:54:49 GMT</pubDate>
      <description>&quot;Faster R-CNN vs SSD 완벽 비교&quot;를 자처한 PyTorch 튜토리얼을 봤는데, 실제로는 사진 한 장에 두 모델 inference 한 번씩 돌리고 끝났음. 영어권 ML 튜토리얼 매체에서 자주 보이는 SEO-friendly &quot;deep dive&quot; 글의 흔한 패턴, mAP/FPS 없는 비교가 비교가 아닌 이유, 그리고 2026년에 거의 10년 전 모델 비교를 마케팅 키워드로 거는 게 의미 있는지에 대한 회의 메모.</description>
      <category>objectdetection</category>
      <category>FasterRCNN</category>
      <category>SSD</category>
      <category>PyTorch</category>
      <category>모델비교</category>
      <category>컴퓨터비전</category>
      <category>튜토리얼비판</category>
      <category>SEO콘텐츠</category>
      <category>ML</category>
      <category>ComputerVision</category>
    </item>
    <item>
      <title>Open-vocabulary 모델이라며, 결국 fine-tuning이 표준이 된 이유</title>
      <link>https://dev.aickyway.com/posts/open-vocab-finetuning-paradox</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/open-vocab-finetuning-paradox</guid>
      <pubDate>Sat, 09 May 2026 04:38:06 GMT</pubDate>
      <description>YOLO-World 같은 open-vocabulary 객체 탐지 모델의 셀링 포인트는 zero-shot 검출인데, 정작 영어권 튜토리얼은 절반 이상이 &quot;fine-tuning하는 법&quot;으로 끝나는 패러독스를 정리. 사실 이 둘은 모순이 아니라 워크플로의 단계가 다른 거고, 한국어 라벨을 쓰는 환경에선 fine-tuning이 더 일찍 필요해진다는 추가 변수까지 짚었음.
</description>
      <category>객체탐지</category>
      <category>YOLOWorld</category>
      <category>OpenVocabulary</category>
      <category>FineTuning</category>
      <category>컴퓨터비전</category>
      <category>ZeroShot</category>
      <category>한국어처리</category>
      <category>모델파인튜닝</category>
      <category>AI개발</category>
    </item>
    <item>
      <title>RAG는 죽었다는 글이 많은데 한국어 환경에서는 좀 다른 얘기</title>
      <link>https://dev.aickyway.com/posts/korean-rag-different-story</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/korean-rag-different-story</guid>
      <pubDate>Sat, 09 May 2026 04:23:03 GMT</pubDate>
      <description>영어권에서 자주 도는 &quot;RAG 파이프라인은 죽었다, 에이전트가 검색이다&quot; 흐름을 한국어 환경 관점에서 다시 따져봤음. hybrid retrieval의 BM25는 한국어 형태소 분석을 별도로 붙여야 하고, 한국어 임베딩 모델 선택지는 영어만큼 풍부하지 않으며, MCP 채택은 한국에서 아직 초기 단계라 영어권 thesis를 그대로 옮기기 어려운 변수들이 붙는다는 정리.</description>
      <category>RAG</category>
      <category>AI에이전트</category>
      <category>하이브리드검색</category>
      <category>DSPy</category>
      <category>CRAG</category>
      <category>MCP</category>
      <category>LangGraph</category>
      <category>한국어처리</category>
      <category>LLM</category>
    </item>
    <item>
      <title>Nemotron 3 Nano Omni — 모델 자체보다 인코더 합치는 방식이 더 흥미로움</title>
      <link>https://dev.aickyway.com/posts/nemotron-omni-composition-pattern</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/nemotron-omni-composition-pattern</guid>
      <pubDate>Sat, 09 May 2026 03:27:35 GMT</pubDate>
      <description>NVIDIA의 새 omni-modal 모델 Nemotron 3 Nano Omni 발표. 30B 총 파라미터에 3B 액티브, 컨슈머 GPU에 INT4로 올릴 수 있다는 점도 화제지만, 진짜 흥미로운 부분은 모달리티별 best-of-breed 인코더를 얇은 projector로 합치는 reference architecture. 그리고 omni-modal 발표 때마다 반복되는 패턴에 대한 회의적인 메모.</description>
      <category>NVIDIA</category>
      <category>Nemotron</category>
      <category>omni모델</category>
      <category>MoE</category>
      <category>로컬LLM</category>
      <category>RTX3090</category>
      <category>에이전트</category>
      <category>멀티모달</category>
      <category>LLMArchitecture</category>
      <category>OpenWeights</category>
    </item>
    <item>
      <title>로컬 LLM 도구 비교 글이 자주 비슷한 결론으로 가는 이유</title>
      <link>https://dev.aickyway.com/posts/why-local-llm-comparisons-converge</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/why-local-llm-comparisons-converge</guid>
      <pubDate>Sat, 09 May 2026 03:23:38 GMT</pubDate>
      <description>영어권 개발자 블로그에서 자주 보이는 Ollama·LM Studio·Jan 비교 글들이 결국 같은 결론으로 흘러가는 패턴을 짚고, 그 안에서 빠져 있는 모델 선택·fine-tuning·한국어 품질 문제를 한국 개발자 관점에서 정리. 도구 비교는 30%, 진짜 차이를 만드는 건 모델과 운영 시나리오 70%라는 게 핵심.</description>
      <category>로컬LLM</category>
      <category>로컬AI</category>
      <category>AI도구</category>
      <category>모델비교</category>
      <category>온디바이스AI</category>
      <category>Ollama</category>
      <category>LMStudio</category>
      <category>Jan</category>
      <category>LocalLLM</category>
    </item>
    <item>
      <title>에이전트 붐을 &apos;유저들의 반란&apos;으로 읽는 프레임</title>
      <link>https://dev.aickyway.com/posts/agent-boom-user-revolt-frame</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/agent-boom-user-revolt-frame</guid>
      <pubDate>Sat, 09 May 2026 03:07:02 GMT</pubDate>
      <description>AI 에이전트 열풍이 사실은 테크 업계가 유저들을 다뤄온 방식에 대한 누적된 분노의 표출이라는 해석. 큰 그림은 일리 있는데 디테일에선 동의 안 되는 부분이 꽤 있어서 정리해봤음. 한국 SaaS 맥락도 한 호흡 같이.</description>
      <category>AI에이전트</category>
      <category>LLM</category>
      <category>테크업계비판</category>
      <category>SaaS</category>
      <category>에이전트열풍</category>
      <category>AIAgents</category>
      <category>DeveloperTools</category>
      <category>TechCriticism</category>
    </item>
    <item>
      <title>RT-DETR이 YOLO 자리 가져간다는 얘기, 좀 걸러볼 만한 부분</title>
      <link>https://dev.aickyway.com/posts/rt-detr-replacing-yolo-skepticism</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/rt-detr-replacing-yolo-skepticism</guid>
      <pubDate>Sat, 09 May 2026 02:53:05 GMT</pubDate>
      <description>객체 탐지에서 Transformer 기반 RT-DETR이 YOLO를 대체한다는 주장이 자주 보이는데, NMS-free 구조의 의미와 실제 환경에서 무엇이 바뀌는지 정리. 다만 생태계·엣지 배포·학습 비용 측면에서 YOLO를 통째로 갈아엎기엔 빠진 조각이 많은 이유까지 짚었음.</description>
      <category>객체탐지</category>
      <category>컴퓨터비전</category>
      <category>AI모델</category>
      <category>모델비교</category>
      <category>딥러닝</category>
      <category>RTDETR</category>
      <category>YOLO</category>
      <category>Transformer</category>
      <category>Ultralytics</category>
    </item>
    <item>
      <title>Claude Code 옆에 캐시 레이어 붙이겠다는 발상</title>
      <link>https://dev.aickyway.com/posts/claude-code-cache-middleware-take</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/claude-code-cache-middleware-take</guid>
      <pubDate>Thu, 07 May 2026 15:08:01 GMT</pubDate>
      <description>Claude Code가 한 세션 안에서 같은 파일을 두세 번씩 다시 읽는 문제를 외부 미들웨어로 풀어보겠다는 오픈소스 프로젝트(OpenWolf)가 영어권에서 돌고 있음. 80% 토큰 절감이라는 수치는 어디까지 믿을 수 있는지, 백엔드 입장에서 보면 어떤 부분이 의심스러운지 정리.</description>
      <category>ClaudeCode</category>
      <category>AI코딩</category>
      <category>개발도구</category>
      <category>LLM</category>
      <category>에이전트</category>
      <category>미들웨어</category>
      <category>토큰최적화</category>
      <category>OpenWolf</category>
      <category>ClaudeCodeHooks</category>
      <category>DevTools</category>
    </item>
    <item>
      <title>1비트로 풀정밀도 따라잡았다는 8B 모델 — 후기 글들이 좀 이상함</title>
      <link>https://dev.aickyway.com/posts/bonsai-8b-1bit-llm-skeptic</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/bonsai-8b-1bit-llm-skeptic</guid>
      <pubDate>Thu, 07 May 2026 14:58:04 GMT</pubDate>
      <description>1.15GB짜리 8B 모델 Bonsai 8B가 풀정밀도와 동급이라는 영문 후기 글들이 한 다스쯤 도는 중인데, 공식 모델 카드 숫자와 대조하면 일부 셀이 어긋나고 빠진 디테일도 보임. Qwen3 베이스라는 점, 실제로는 1.125비트라는 점, 한국어 약점 가능성까지 한 번 짚어봤음.</description>
      <category>1비트LLM</category>
      <category>BitNet</category>
      <category>PrismML</category>
      <category>Bonsai8B</category>
      <category>엣지AI</category>
      <category>양자화</category>
      <category>로컬LLM</category>
      <category>Qwen3</category>
      <category>한국어AI</category>
    </item>
    <item>
      <title>Gemma 4 추론 3배 빨라진다는 발표, 한 번 뜯어봤음</title>
      <link>https://dev.aickyway.com/posts/gemma-4-mtp-drafters-3x-speedup</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/gemma-4-mtp-drafters-3x-speedup</guid>
      <pubDate>Wed, 06 May 2026 15:39:50 GMT</pubDate>
      <description>Gemma 4 가족 전용 MTP 드래프터로 추론 속도가 최대 3배 빨라진다는 발표가 나왔다. speculative decoding 원리부터 발표 수치를 그대로 받으면 안 되는 이유, 그리고 RTX 3090 같은 컨슈머급 환경에서 이 향상이 실제로 얼마나 의미 있을지까지 따져봤다.</description>
      <category>Gemma4</category>
      <category>로컬LLM</category>
      <category>SpeculativeDecoding</category>
      <category>추론최적화</category>
      <category>MTP</category>
      <category>드래프터</category>
      <category>LLM추론</category>
      <category>RTX3090</category>
      <category>LocalLLM</category>
      <category>AIInference</category>
    </item>
    <item>
      <title>노트북 NPU가 이미지 생성에서 GPU보다 빠른 경우</title>
      <link>https://dev.aickyway.com/posts/npu-vs-gpu-sdxl-turbo</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/npu-vs-gpu-sdxl-turbo</guid>
      <pubDate>Wed, 06 May 2026 06:32:30 GMT</pubDate>
      <description>Intel Panther Lake NPU에서 SDXL Turbo가 같은 머신 GPU보다 빠르게 끝나는 결과를 정리. Proxmox + LXC + OpenVINO 셋업의 까다로운 부분, U-Net만 NPU에 올리고 CLIP / VAE는 CPU에 두는 파이프라인 분리 방식, 그리고 한국에서 따라하기 어려운 한계까지 같이 짚어봄.</description>
      <category>NPU</category>
      <category>PantherLake</category>
      <category>StableDiffusion</category>
      <category>로컬AI</category>
      <category>OpenVINO</category>
      <category>이미지생성</category>
      <category>IntelCoreUltra</category>
      <category>SDXLTurbo</category>
      <category>Proxmox</category>
      <category>로컬추론</category>
    </item>
    <item>
      <title>Ubuntu 26.04 LTS, 데스크탑보다 시스템 안쪽이 더 흥미로움</title>
      <link>https://dev.aickyway.com/posts/ubuntu-26-04-lts-system-changes</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/ubuntu-26-04-lts-system-changes</guid>
      <pubDate>Wed, 06 May 2026 05:20:00 GMT</pubDate>
      <description>Ubuntu 26.04 LTS &quot;Resolute Raccoon&quot;이 4월 23일에 풀렸음. 화제는 데스크탑 쪽이지만 백엔드 개발자 입장에서는 sudo가 Rust 구현으로 갈아끼워진 거, coreutils 일부가 uutils로 바뀐 거가 훨씬 임팩트가 큼. 변화 정리와 실제로 운영 환경에 올릴 때 신중해야 할 포인트들.</description>
      <category>Ubuntu</category>
      <category>Ubuntu2604</category>
      <category>LTS</category>
      <category>Linux</category>
      <category>Wayland</category>
      <category>SudoRs</category>
      <category>개발환경</category>
      <category>서버운영</category>
      <category>리눅스데스크탑</category>
      <category>백엔드</category>
    </item>
    <item>
      <title>SD3가 SDXL보다 글자 잘 그리는 이유, 데이터 때문이 아니었음</title>
      <link>https://dev.aickyway.com/posts/mmdit-joint-attention-shift</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/mmdit-joint-attention-shift</guid>
      <pubDate>Wed, 06 May 2026 02:07:51 GMT</pubDate>
      <description>Stable Diffusion 3에서 U-Net이 transformer로 바뀌고 cross-attention 대신 joint attention이 들어간 게 어떤 의미인지, MMDiT 구조를 따라가면서 정리. 이미지 생성 사이트 운영자 입장에서 아키텍처 변화가 출력 품질에 어떻게 묻어나는지, 그리고 구조만 바뀐다고 다 풀리는 건 아니라는 회의까지.</description>
      <category>StableDiffusion3</category>
      <category>SD3</category>
      <category>MMDiT</category>
      <category>이미지생성</category>
      <category>DiffusionModel</category>
      <category>JointAttention</category>
      <category>DiT</category>
      <category>생성형AI</category>
      <category>모델아키텍처</category>
    </item>
    <item>
      <title>Jupyter 노트북이 .py로 저장된다는 게 왜 중요한가</title>
      <link>https://dev.aickyway.com/posts/marimo-py-notebook-worth-switching</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/marimo-py-notebook-worth-switching</guid>
      <pubDate>Tue, 05 May 2026 12:43:50 GMT</pubDate>
      <description>Jupyter 대안으로 떠오르는 marimo는 노트북(Jupyter처럼 셀 단위로 코드 실행하는 환경)을 .py 파일로 저장하고 셀 간 의존성을 자동 추적하는 반응형 도구. Git diff가 진짜로 읽힌다는 점, PEP 723 + uv 조합이 만드는 환경 재현성, 그리고 reactivity의 양면성에 대해 백엔드 개발자 관점에서 정리.</description>
      <category>marimo</category>
      <category>Jupyter</category>
      <category>파이썬노트북</category>
      <category>개발도구</category>
      <category>PythonNotebook</category>
      <category>ReactiveNotebook</category>
      <category>데이터분석</category>
      <category>PEP723</category>
      <category>uv</category>
      <category>백엔드개발</category>
    </item>
    <item>
      <title>Palantir 온톨로지를 오픈소스로 만들 수 있다는 주장이 놓치는 것</title>
      <link>https://dev.aickyway.com/posts/open-source-ontology-skeptic</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/open-source-ontology-skeptic</guid>
      <pubDate>Tue, 05 May 2026 12:17:44 GMT</pubDate>
      <description>Palantir Foundry의 Ontology를 Neo4j + dbt + Streamlit 같은 오픈소스 스택으로 대체할 수 있다는 주장이 종종 도는데, 백엔드 개발자 관점에서 이게 정말 같은 가치를 주는지, 그리고 우리 같은 보통 웹 개발자한테 이런 게 정말 필요한지 좀 따져봐야 할 듯.</description>
      <category>데이터아키텍처</category>
      <category>온톨로지</category>
      <category>지식그래프</category>
      <category>Neo4j</category>
      <category>Palantir</category>
      <category>백엔드</category>
      <category>데이터엔지니어링</category>
      <category>오픈소스</category>
      <category>KnowledgeGraph</category>
      <category>DataPlatform</category>
    </item>
    <item>
      <title>음성 변환 모델이 어정쩡한 목소리를 내는 이유</title>
      <link>https://dev.aickyway.com/posts/why-voice-conversion-sounds-mixed</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/why-voice-conversion-sounds-mixed</guid>
      <pubDate>Mon, 04 May 2026 08:53:52 GMT</pubDate>
      <description>음성 변환 데모를 들으면 늘 두 화자가 섞인 듯한 묘한 톤이 나오는데, 이게 단순한 학습 부족이 아니라 timbre leakage라는 구조적 문제임을 정리. Seed-VC라는 모델이 이걸 어떤 발상으로 우회하는지, 백엔드 입장에선 어떤 한계가 깔려있는지 솔직히 적었음.</description>
      <category>음성AI</category>
      <category>음성변환</category>
      <category>딥러닝</category>
      <category>AI개발</category>
      <category>VoiceConversion</category>
      <category>SeedVC</category>
      <category>diffusion</category>
      <category>머신러닝</category>
      <category>오디오ML</category>
      <category>모델리뷰</category>
    </item>
    <item>
      <title>토큰 다 써서 오늘 일 못 한다는 사람이 늘고 있음</title>
      <link>https://dev.aickyway.com/posts/local-llm-agentic-resilience</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/local-llm-agentic-resilience</guid>
      <pubDate>Mon, 04 May 2026 08:26:33 GMT</pubDate>
      <description>에이전틱 개발이 일상이 되면서 토큰 한도가 새로운 생산성 병목이 되어가는 중. 클라우드 단일 의존이 만든 redundancy 문제, pay-to-win 경쟁 구조, 로컬 모델이 지금 와있는 자리, 그리고 한국 개발자 입장에서 더 따끔한 부분까지 정리.</description>
      <category>로컬LLM</category>
      <category>에이전틱개발</category>
      <category>ClaudeCode</category>
      <category>Cursor</category>
      <category>개발자생산성</category>
      <category>LocalLLM</category>
      <category>AgenticDevelopment</category>
      <category>1인개발</category>
      <category>AI코딩</category>
      <category>토큰비용</category>
    </item>
    <item>
      <title>RAG가 산으로 가는 이유는 검색을 한 번만 해서임</title>
      <link>https://dev.aickyway.com/posts/multi-step-rag-reasoning-loop</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/multi-step-rag-reasoning-loop</guid>
      <pubDate>Mon, 04 May 2026 07:53:15 GMT</pubDate>
      <description>단일 RAG가 복잡한 질문에서 답을 못 내는 이유와, 사람의 추론 과정을 닮은 multi-agent self-RAG 패턴 정리. 가설을 세우고 추가 질문을 생성하는 흐름이 왜 효과적인지, 그리고 실서비스에 박을 때 비용·레이턴시·종료 조건 같은 백엔드 입장에서의 현실적인 고민을 같이 풀어봄.</description>
      <category>RAG</category>
      <category>멀티에이전트</category>
      <category>SelfRAG</category>
      <category>LangGraph</category>
      <category>LLM</category>
      <category>에이전트</category>
      <category>벡터DB</category>
      <category>백엔드</category>
      <category>AI개발</category>
      <category>MultiAgent</category>
    </item>
    <item>
      <title>데이터 분석 워크플로우를 AI에 통째로 맡긴다는 흐름, 진짜 병목은 다른 데 있음</title>
      <link>https://dev.aickyway.com/posts/ai-end-to-end-data-workflow-mcp</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/ai-end-to-end-data-workflow-mcp</guid>
      <pubDate>Mon, 04 May 2026 06:31:48 GMT</pubDate>
      <description>AI가 Google Drive에서 raw 데이터 찾아 BigQuery에 적재하고 분석 리포트까지 30분 안에 뽑아낸다는 시연이 도는데, 직접 MCP 깔아본 입장에서 보면 30분에서 빠진 시간이 더 길다. Plan Mode가 진짜 핵심인 이유, 첫 패스가 얕은 이유, 그리고 142GB짜리 로그 파일 일화까지.</description>
      <category>ClaudeCode</category>
      <category>Codex</category>
      <category>MCP</category>
      <category>BigQuery</category>
      <category>AI에이전트</category>
      <category>데이터분석</category>
      <category>DataScience</category>
      <category>AIWorkflow</category>
      <category>PlanMode</category>
    </item>
    <item>
      <title>Google AI 자격증 자랑글에서 진짜 건진 건 따로 있음</title>
      <link>https://dev.aickyway.com/posts/google-ai-cert-anthropic-academy</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/google-ai-cert-anthropic-academy</guid>
      <pubDate>Sun, 03 May 2026 12:10:40 GMT</pubDate>
      <description>&quot;AI 자격증 주말에 따버렸음&quot; 류의 자랑글이 콘텐츠 포맷으로 굳었어요. 그 중 하나를 끝까지 읽고 정리해봤는데, 자격증 자체보다 글 안에 묻혀 있던 한 줄(Anthropic Academy)이 훨씬 쓸모 있었습니다. 한국 개발자 입장에서 두 옵션을 어떻게 비교하면 될지, 그리고 &quot;AI 리터러시 = 새 Excel&quot; 비유의 게으른 부분에 대한 솔직한 정리.</description>
      <category>GoogleAI</category>
      <category>AnthropicAcademy</category>
      <category>AI자격증</category>
      <category>ClaudeCode</category>
      <category>MCP</category>
      <category>AI리터러시</category>
      <category>개발자커리어</category>
      <category>Coursera</category>
      <category>LinkedIn</category>
      <category>한국개발자</category>
    </item>
    <item>
      <title>Bounded Context가 틀렸다는 주장, 솔직히 절반만 맞음</title>
      <link>https://dev.aickyway.com/posts/half-agree-ddd-rpu-feature-slice</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/half-agree-ddd-rpu-feature-slice</guid>
      <pubDate>Sun, 03 May 2026 11:46:55 GMT</pubDate>
      <description>DDD 15년 한 시니어가 bounded context와 aggregate를 다 버리고 Request Processing Unit과 feature slice로 가자는 글을 한국 백엔드 개발자 입장에서 비판적으로 읽어봤습니다. anemic application 진단은 날카로운데, RPU가 정말 새로운 단위인지, event store를 &quot;그냥 인프라&quot;로 단정해도 되는지에 대한 솔직한 회의.</description>
      <category>백엔드아키텍처</category>
      <category>DDD</category>
      <category>도메인주도설계</category>
      <category>VerticalSlice</category>
      <category>이벤트소싱</category>
      <category>CQRS</category>
      <category>FastAPI</category>
      <category>SoftwareArchitecture</category>
      <category>anemicapplication</category>
    </item>
    <item>
      <title>Z-Image Turbo 글 보다가 OpenVINO 부분에서 멈춰버림</title>
      <link>https://dev.aickyway.com/posts/z-image-turbo-openvino-int4</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/z-image-turbo-openvino-int4</guid>
      <pubDate>Sun, 03 May 2026 11:19:32 GMT</pubDate>
      <description>Alibaba Tongyi 팀의 Z-Image Turbo 모델을 OpenVINO로 변환해 INT4 양자화까지 적용하는 영문 글을 한국 개발자 입장에서 다시 정리. 모델 자체의 매력과 INT4 압축의 흥미로운 부분, NVIDIA 중심 생태계에서 Intel 트랙이 갖는 애매한 위치, custom branch 의존성으로 인한 production 적용의 위험성을 솔직하게 짚어봤습니다.</description>
      <category>ZImageTurbo</category>
      <category>OpenVINO</category>
      <category>INT4양자화</category>
      <category>DiT모델</category>
      <category>텍스트투이미지</category>
      <category>Tongyi</category>
      <category>이미지생성</category>
      <category>intel</category>
      <category>huggingface</category>
      <category>AI개발</category>
    </item>
    <item>
      <title>ROS2 노드/토픽 구조, 결국 백엔드 마이크로서비스랑 같은 그림이었음</title>
      <link>https://dev.aickyway.com/posts/ros2-pubsub-feels-like-microservices</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/ros2-pubsub-feels-like-microservices</guid>
      <pubDate>Fri, 01 May 2026 03:52:37 GMT</pubDate>
      <description>ROS2 + C++로 자율 모바일 로봇 만드는 영문 튜토리얼을 보다가, 노드/토픽/서비스/액션 구조가 백엔드 마이크로서비스 pub/sub 패턴이랑 완전 같은 그림이라는 걸 발견. 분산 시스템에서 좋은 설계는 도메인 안 가리고 수렴한다는 관찰과, 입문 튜토리얼치곤 욕심이 과해 보이는 글 구성에 대한 한국 풀스택 개발자 관점의 후기.</description>
      <category>ROS2</category>
      <category>로봇틱스</category>
      <category>분산시스템</category>
      <category>pubsub</category>
      <category>마이크로서비스</category>
      <category>ROS</category>
      <category>Robotics</category>
      <category>DistributedSystems</category>
      <category>Cpp</category>
      <category>백엔드아키텍처</category>
    </item>
    <item>
      <title>Mac 두 대 묶어서 80B 굴리는 Exo, 우분투에선 아직 한참 멀었음</title>
      <link>https://dev.aickyway.com/posts/exo-mac-cluster-linux-gap</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/exo-mac-cluster-linux-gap</guid>
      <pubDate>Fri, 01 May 2026 03:20:30 GMT</pubDate>
      <description>Mac Mini와 MacBook Pro 두 대를 클러스터로 묶어 80B 모델을 70 tok/s 넘게 돌렸다는 영문 후기를 봤다. OpenAI 호환 API라 갈아끼우기는 좋아 보이는데, Linux 빌드는 아직 CPU 전용이라 우분투 서버 운영하는 입장에선 그림의 떡. 한국 1인 개발자 비용 관점에서 합리적인 시나리오와, Apple Silicon 종속 도구가 늘어나는 흐름에 대한 후기.</description>
      <category>Exo</category>
      <category>로컬LLM</category>
      <category>분산추론</category>
      <category>Mac클러스터</category>
      <category>MLX</category>
      <category>LocalLLM</category>
      <category>DistributedInference</category>
      <category>Qwen3</category>
      <category>홈서버</category>
      <category>AI개발</category>
    </item>
    <item>
      <title>YOLOv3 워크스루 글 다시 보다가, 정작 흥미로운 부분은 따로 있었음</title>
      <link>https://dev.aickyway.com/posts/yolov3-walkthrough-revisited</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/yolov3-walkthrough-revisited</guid>
      <pubDate>Fri, 01 May 2026 03:11:52 GMT</pubDate>
      <description>어디선가 본 영문 YOLOv3 페이퍼 워크스루 글을 한국 개발자 입장에서 다시 정리. Darknet-53, 멀티스케일 예측, 독립 로지스틱 분류기 같은 변경점을 설명만 하고 끝나는 게 아니라, 그 중에서 실제로 의미 있었던 변화는 무엇인지, 페이퍼 자체의 묘한 톤과 저자의 그 이후 행보까지 묶어서 보는 큐레이션 후기.</description>
      <category>YOLOv3</category>
      <category>객체인식</category>
      <category>ObjectDetection</category>
      <category>ComputerVision</category>
      <category>딥러닝</category>
      <category>논문리뷰</category>
      <category>PyTorch</category>
      <category>DeepLearning</category>
    </item>
    <item>
      <title>AI가 UI 디자인 잡아먹었다는 외국 글, 결론은 그게 아닌 듯</title>
      <link>https://dev.aickyway.com/posts/ai-killed-ui-design-no</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/ai-killed-ui-design-no</guid>
      <pubDate>Wed, 29 Apr 2026 14:49:25 GMT</pubDate>
      <description>OpenAI 새 이미지 모델로 UI 디자인 뽑아봤더니 dribbble 샷 9/10 수준이라는 외국 글을 한국 개발자 입장에서 다시 정리. AI 클리셰 관찰(이름 &apos;Ava&apos;, 시간 9:41)은 흥미로웠지만, 디자이너 일자리 늘어날 거라는 낙관론은 한국 시장 풍토 보면 좀 다르게 봐야 한다는 후기.</description>
      <category>AI디자인</category>
      <category>UI디자인</category>
      <category>OpenAI</category>
      <category>ClaudeDesign</category>
      <category>프로덕트디자인</category>
      <category>디자이너위기설</category>
      <category>한국개발</category>
      <category>dribbble</category>
      <category>UXUI</category>
      <category>AItools</category>
    </item>
    <item>
      <title>Google이 DESIGN.md를 풀었길래 한참 봤음</title>
      <link>https://dev.aickyway.com/posts/design-md-spec-impression</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/design-md-spec-impression</guid>
      <pubDate>Wed, 29 Apr 2026 14:21:51 GMT</pubDate>
      <description>Google Stitch가 4월에 오픈소스로 푼 DESIGN.md 스펙. AI 코딩 에이전트한테 브랜드 톤 입히려는 시도다. getdesign.md에 모인 70여 개 사이트 추출본 둘러보고 든 생각, 그리고 풀스택 입장에서 정말 쓸모 있을지에 대한 메모.</description>
      <category>designmd</category>
      <category>google_stitch</category>
      <category>ai코딩</category>
      <category>디자인시스템</category>
      <category>프론트엔드</category>
      <category>aiagent</category>
      <category>cursor</category>
      <category>claudecode</category>
      <category>웹개발</category>
      <category>voltagent</category>
    </item>
    <item>
      <title>내가 만든 Harness 절반은 Opus 4.7 깔리자마자 쓰레기가 됐다</title>
      <link>https://dev.aickyway.com/posts/harness-engineering-build-to-delete-opus-47</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/harness-engineering-build-to-delete-opus-47</guid>
      <pubDate>Wed, 29 Apr 2026 06:23:52 GMT</pubDate>
      <description>90일 전에 등장한 Harness Engineering이라는 신생 분야가 벌써 자기 규칙을 갈아엎고 있어요. OpenAI/Anthropic/ThoughtWorks 세 진영이 각자 다른 길로 도착한 같은 결론, 그리고 4월 16일 Opus 4.7 출시로 멀쩡했던 harness 절반이 죽은 무게가 된 사연을 정리했습니다. &quot;Build to Delete&quot; 원칙이 왜 단순한 슬로건이 아닌지.</description>
      <category>HarnessEngineering</category>
      <category>ClaudeOpus</category>
      <category>AI에이전트</category>
      <category>AgentArchitecture</category>
      <category>Anthropic</category>
      <category>BuildToDelete</category>
    </item>
    <item>
      <title>Warp에 Claude Code 얹어서 두 달, Cursor 다시 켜본 적 없음</title>
      <link>https://dev.aickyway.com/posts/warp-claude-code-two-months</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/warp-claude-code-two-months</guid>
      <pubDate>Wed, 29 Apr 2026 05:55:45 GMT</pubDate>
      <description>CLI에서 Claude Code 굴리다 Warp로 넘어왔다. Mac/Windows/Ubuntu 다 깔리고 알림이랑 코드 리뷰 코멘트가 진짜 편함. IDE 무게감도 안 받고 깡 터미널 답답함도 없어진 두 달치 솔직 후기.</description>
      <category>ClaudeCode</category>
      <category>Warp</category>
      <category>터미널</category>
      <category>개발도구</category>
      <category>에이전트개발</category>
      <category>코딩에이전트</category>
      <category>풀스택개발</category>
      <category>DevTools</category>
      <category>Anthropic</category>
      <category>AICoding</category>
    </item>
    <item>
      <title>Gemma 4 한 달 굴려봤더니 로컬 LLM이 갑자기 무서워졌음</title>
      <link>https://dev.aickyway.com/posts/gemma-4-local-llm-honest-review</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/gemma-4-local-llm-honest-review</guid>
      <pubDate>Mon, 27 Apr 2026 16:34:00 GMT</pubDate>
      <description>구글이 4월 초에 풀어버린 Gemma 4를 한 달간 직접 노트북에 깔아 굴려본 솔직한 후기. Apache 2.0으로 풀린 31B와 26B MoE 모델이 폐쇄 프론티어 모델을 어디까지 따라잡는지, 설치하다 폭사한 얘기, 그리고 한국어 처리나 검열 같은 실제 한계까지 정리.</description>
      <category>Gemma4</category>
      <category>로컬LLM</category>
      <category>오픈소스AI</category>
      <category>구글AI</category>
      <category>Apache2</category>
      <category>AI도구</category>
    </item>
    <item>
      <title>YOLO 버리고 RT-DETR 깔아봤더니 이렇게 됨</title>
      <link>https://dev.aickyway.com/posts/rt-detr-vs-yolo-python-tutorial</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/rt-detr-vs-yolo-python-tutorial</guid>
      <pubDate>Sun, 26 Apr 2026 05:55:00 GMT</pubDate>
      <description>객체 탐지 모델을 YOLO에서 RT-DETR로 갈아탔다. Transformer 기반이라 NMS가 없고 추론도 안정적인 편. Python 3.12 환경에서 설치부터 이미지/영상 추론까지 직접 돌려본 후기와 솔직한 단점, 그리고 실제 코드까지 정리했다.</description>
      <category>객체탐지</category>
      <category>RTDETR</category>
      <category>Ultralytics</category>
      <category>Python</category>
      <category>YOLO</category>
      <category>컴퓨터비전</category>
    </item>
    <item>
      <title>Figma 주가 7% 떨어뜨린 Claude Design 일주일 써봤더니</title>
      <link>https://dev.aickyway.com/posts/claude-design-honest-week-review</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/claude-design-honest-week-review</guid>
      <pubDate>Fri, 24 Apr 2026 09:23:00 GMT</pubDate>
      <description>Anthropic이 4월 17일에 풀어버린 Claude Design을 AI 아트 포트폴리오 사이트 만든다고 일주일 굴려본 후기. Figma 주가까지 흔든 화제작이지만 까놓고 보면 그냥 Claude Code에 디자인 탭 붙인 거 아닌가 하는 의심부터, 비디자이너 입장에서 진짜 쓸 만한지까지 솔직하게 정리.</description>
      <category>ClaudeDesign</category>
      <category>AI디자인툴</category>
      <category>Anthropic</category>
      <category>Figma</category>
      <category>프로토타이핑</category>
      <category>AI아트</category>
    </item>
    <item>
      <title>Antigravity 두 달 쓰다 갈아탄 후기 - Google이 자기 IDE 죽이는 중</title>
      <link>https://dev.aickyway.com/posts/google-antigravity-collapse-decouple-workflow</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/google-antigravity-collapse-decouple-workflow</guid>
      <pubDate>Sat, 18 Apr 2026 14:51:00 GMT</pubDate>
      <description>Google Antigravity 출시 초반에 환호했던 개발자들이 지금은 503 에러랑 &quot;Baseline model quota reached&quot; 메시지에 좌초 중. 이게 단순 버그가 아니라 stateful 아키텍처의 구조적 한계라는 분석을 정리하고, 왜 워크플로우를 한 회사에 묶어두면 안 되는지 한 달 굴려본 경험으로 풀어봤어요.</description>
      <category>Antigravity</category>
      <category>Cursor</category>
      <category>ClaudeCode</category>
      <category>AI개발도구</category>
      <category>BYOK</category>
      <category>개발자워크플로우</category>
    </item>
    <item>
      <title>Gemma 4 31B 로컬에 깔고 Claude랑 일주일 붙여본 결과</title>
      <link>https://dev.aickyway.com/posts/gemma-4-vs-claude-opus-week-python-test</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/gemma-4-vs-claude-opus-week-python-test</guid>
      <pubDate>Mon, 13 Apr 2026 10:42:00 GMT</pubDate>
      <description>4월 초 공개된 Gemma 4 31B를 RTX 4090에 올려놓고 일주일 동안 실제 파이썬 작업으로 Claude Opus 4.6, GPT-5.4와 정면으로 붙여봤습니다. 벤치마크 말고 신규 기능 작성, 디버깅, 리팩터링, 테스트에서 어디까지 따라오고 어디서 무너지는지 솔직하게 정리했어요.</description>
      <category>Gemma4</category>
      <category>LocalLLM</category>
      <category>파이썬</category>
      <category>AI코딩</category>
      <category>ClaudeOpus</category>
      <category>오픈소스AI</category>
    </item>
    <item>
      <title>Claude Code 4.7 올리고 청구서 2배 된 진짜 이유</title>
      <link>https://dev.aickyway.com/posts/claude-code-token-bloat-context-engineering</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/claude-code-token-bloat-context-engineering</guid>
      <pubDate>Thu, 09 Apr 2026 13:08:00 GMT</pubDate>
      <description>Sonnet 4.7로 업그레이드한 뒤 Claude Code 토큰 사용량이 갑자기 폭증했다면, 모델 탓이 아닙니다. 진짜 원인은 백엔드 MCP 서버가 컨텍스트 윈도우에 쓰레기를 자꾸 부어넣는 구조. 실측 벤치마크와 InsForge 같은 컨텍스트 엔지니어링 도구로 토큰비 2~3배 줄이는 구조를 정리했어요.</description>
      <category>ClaudeCode</category>
      <category>AI개발</category>
      <category>ContextEngineering</category>
      <category>토큰최적화</category>
      <category>InsForge</category>
      <category>MCP</category>
    </item>
    <item>
      <title>MCP 서버 안 쓰면 결국 너가 미들웨어임</title>
      <link>https://dev.aickyway.com/posts/claude-mcp-servers-stop-being-middleware</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/claude-mcp-servers-stop-being-middleware</guid>
      <pubDate>Sat, 04 Apr 2026 07:48:00 GMT</pubDate>
      <description>Claude Pro 월 20달러 내고 채팅창에 에러 로그 복붙만 하고 있다면 돈 절반은 버리는 중. MCP 서버 깔고 한 달 써본 결과 Claude가 진짜 다른 모델처럼 일하기 시작했어요. 실제로 가치 있던 4개 레이어와 처음 깔 때 절대 한 번에 다 깔지 말아야 하는 이유, 그리고 솔직한 한계까지 정리했습니다.
</description>
      <category>ClaudeMCP</category>
      <category>MCP서버</category>
      <category>AI개발도구</category>
      <category>ClaudePro</category>
      <category>개발자생산성</category>
      <category>ContextProtocol</category>
    </item>
    <item>
      <title>Claude Code가 6개월만에 1조 찍은 비결은 모델이 아니라 이거였음</title>
      <link>https://dev.aickyway.com/posts/claude-code-harness-engineering-explained</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/claude-code-harness-engineering-explained</guid>
      <pubDate>Tue, 31 Mar 2026 13:35:00 GMT</pubDate>
      <description>같은 Claude 모델 쓰는데 Claude Code랑 그냥 클로드는 왜 이렇게 다르게 느껴질까. 1조 매출 비결은 새 모델이 아니라 모델 주변에 엮어둔 &quot;하네스(harness)&quot;였다는 분석을 AI 아트 자동화 워크플로우 만든 경험과 함께 풀어본다. 비개발자 AI 창작자도 알면 도움 되는 내용.</description>
      <category>ClaudeCode</category>
      <category>AI에이전트</category>
      <category>하네스엔지니어링</category>
      <category>AI자동화</category>
      <category>AI아트</category>
      <category>Anthropic</category>
    </item>
    <item>
      <title>Qwen 3.5 35B-A3B 깔고 나서 GPT 구독 끊을 뻔함</title>
      <link>https://dev.aickyway.com/posts/qwen-3-5-35b-a3b-local-llm-rtx-3090-review</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/qwen-3-5-35b-a3b-local-llm-rtx-3090-review</guid>
      <pubDate>Thu, 26 Mar 2026 14:12:00 GMT</pubDate>
      <description>Alibaba Qwen 팀이 풀어놓은 35B-A3B 로컬 모델을 RTX 3090에 직접 돌려본 후기. 3B 액티브 파라미터로 Sonnet 4.5급 코딩을 뽑아내는 MoE 구조, 110 tok/s 만드는 플래그 셋업, Ollama가 왜 답이 아닌지까지 정리.</description>
      <category>로컬LLM</category>
      <category>Qwen</category>
      <category>AI코딩</category>
      <category>LocalAI</category>
      <category>ClaudeCode</category>
      <category>프론티어모델</category>
      <category>RTX3090</category>
    </item>
    <item>
      <title>2026년에 로컬 AI 머신 짜려다가 결국 이거 샀음</title>
      <link>https://dev.aickyway.com/posts/local-ai-pc-build-2026-budget-guide</link>
      <guid isPermaLink="true">https://dev.aickyway.com/posts/local-ai-pc-build-2026-budget-guide</guid>
      <pubDate>Sun, 22 Mar 2026 12:47:00 GMT</pubDate>
      <description>클라우드 API 비용 무서워서 로컬 AI 머신 견적 일주일 굴린 후기. RTX 5090부터 중고 3090, M5 Max까지 직접 비교하고, 한국 전기료/아파트 환경까지 고려해서 결국 어떤 조합이 답인지 정리. 가성비 정답은 의외로 단순함.</description>
      <category>로컬AI</category>
      <category>GPU</category>
      <category>RTX3090</category>
      <category>LocalLLM</category>
      <category>AI머신</category>
      <category>PC견적</category>
      <category>LocalAI</category>
    </item>
  </channel>
</rss>