오늘의 결론: 모바일에서 400B 모델을 돌리는 시대가 열렸지만, 정작 50년 된 regex 성능 버그는 아무도 안 고쳤다. AI 에이전트는 이제 서로 지식을 공유하고 컴퓨터를 직접 조작하지만, 단일 키 하나 뚫리면 $23M이 날아가는 현실은 변하지 않았다. 기술의 최전선과 기본기 사이 — 시니어가 봐야 할 건 항상 그 간극이다.
1. iPhone 17 Pro에서 400B LLM 구동 — 모바일 온디바이스 AI의 새 이정표
사실 요약
Hacker News에서 634포인트(281 댓글)를 기록한 최고 인기 글이다. anemll 팀이 iPhone 17 Pro에서 4,000억 파라미터 MoE(Mixture of Experts) 모델을 실행하는 데모를 공개했다. 속도는 초당 0.6토큰으로 실용적이진 않지만, MoE 구조의 희소 활성화 특성(전체 파라미터 중 일부 전문가만 활성)을 활용해 “기기 내에서 초대형 모델이 돌아간다"는 개념 증명에 성공했다.
왜 중요한가 — 실무 영향
어제 Flash-MoE가 MacBook에서 397B 모델을 4.4 tok/s로 돌린 것에 이어, 이번엔 스마트폰이다. 방향은 명확하다 — 대형 모델의 엣지 추론이 랩톱에서 모바일로 내려오고 있다. 지금 당장 프로덕션에 쓸 수준은 아니지만, Apple Silicon의 통합 메모리 아키텍처가 NVMe 스트리밍 + MoE 희소 활성을 가능케 한다는 점은 향후 1~2년 내 “폰에서 돌리는 전용 AI 비서” 시나리오의 현실성을 크게 높인다. 데이터 민감도가 높은 헬스케어, 금융 앱에서 “서버 전송 없는 AI"가 실현 가능한 경로가 보이기 시작한 것이다.
시니어 코멘트
0.6 tok/s는 채팅 UX로는 쓸 수 없다. 흥분하기 전에 확인할 것: ① 실용 기준은 최소 510 tok/s — 현재 817배 격차가 있다. ② MoE 모델의 품질은 Dense 모델과 다르다. 파라미터 수만 보고 “GPT-4급"이라 착각하지 마라. ③ 발열과 배터리 소모는 시연에서 드러나지 않는 함정이다. 도입 기준: 지금은 “지켜보기” — Apple Intelligence API에 로컬 MoE 추론이 공식 편입될 때가 진짜 타이밍이다. 그때를 위해 엣지 AI 아키텍처 변화를 함께 추적하라.
2. cq: AI 에이전트를 위한 Stack Overflow — Mozilla AI가 열어젖힌 에이전트 지식 공유
사실 요약
Mozilla AI가 cq(colloquy)를 공개했다(HN 155포인트, 62 댓글). 핵심 아이디어: AI 코딩 에이전트들이 매번 같은 실수를 반복하는 문제를 해결하기 위해, 에이전트끼리 학습한 지식을 공유하는 “에이전트용 Stack Overflow"를 만들었다. 에이전트가 새 작업(API 통합, CI/CD 설정 등)에 착수하기 전 cq commons를 조회하고, 다른 에이전트가 이미 해결한 패턴을 가져다 쓴다. 배경에는 Stack Overflow의 극적 몰락이 있다 — 2014년 월 20만 건이던 질문이 2025년 12월 3,862건으로 추락했다. LLM이 Stack Overflow의 지식으로 훈련됐고, 그 LLM이 Stack Overflow를 죽였으며, 이제 에이전트가 자기만의 Stack Overflow를 필요로 한다. Mozilla AI는 이를 “matriphagy(모식)“라 불렀다.
왜 중요한가 — 실무 영향
AI 에이전트의 최대 비용은 “같은 삽질 반복"이다. Stripe API가 rate limit 시 200을 반환한다는 것, 특정 프레임워크의 hidden gotcha — 이런 지식이 에이전트 간에 공유되면 토큰 소비와 실패율이 크게 줄어든다. 이건 단순 도구가 아니라, 에이전트 생태계의 인프라 레이어가 될 수 있다. Stack Overflow가 인간 개발자 생태계에 했던 역할을 에이전트 세계에서 재현하려는 시도다.
시니어 코멘트
발상은 훌륭하지만, 리스크도 있다: ① “잘못된 지식"이 공유되면 에이전트 전체가 오염된다 — 인간 Stack Overflow의 오답 문제가 그대로 재현될 수 있다. 품질 검증(voting, 검증 루프)이 핵심이다. ② 보안 민감 코드베이스에서 에이전트가 외부 commons에 질의하는 것 자체가 정보 유출 경로가 된다. ③ 표준화: cq 포맷이 업계 표준이 되느냐, 각 AI 벤더가 자체 지식 공유 체계를 만드느냐가 향후 2년의 분기점이다. 도입 기준: 오픈소스 프로젝트의 에이전트 워크플로우에 먼저 시범 적용하고, 사내 코드에는 네트워크 격리된 self-hosted commons부터 시작하라.
3. Autoresearch: Claude Code에게 연구를 맡기다 — AI 자율 실험 루프의 현실
사실 요약
Karpathy의 Autoresearch 개념을 실제로 구현한 경험기가 HN 375포인트(83 댓글)를 기록했다. 저자는 자신의 오래된 연구 코드(eCLIP, 의료 이미지 + 텍스트 정렬 모델)를 Claude Code에게 넘기고, “빨래하는 동안” 실험을 돌렸다. 구조는 단순한 최적화 루프: 가설 → 수정 → 훈련(5분) → 평가 → 커밋 or 되돌리기 → 반복. 샌드박스로 네트워크 접근과 임의 코드 실행을 차단하고, train.py와 run.sh만 수정 가능하게 잠갔다. RTX 4090에서 1회 800스텝(3분) 실험을 반복시켰더니, 주말 동안 수십 번의 실험을 자동 수행했다.
왜 중요한가 — 실무 영향
“AI가 연구한다"가 아니라, “AI가 실험 루프의 노동을 대체한다"에 가깝다. 핵심은 program.md에 단계별 탐색 전략을 시니어가 설계하고, AI가 그 안에서 자율적으로 변형·실험한다는 점이다. 하이퍼파라미터 튜닝 → 아키텍처 변경 → 문헌 검색까지 점진적으로 자유도를 넓혀주는 “단계적 위임” 구조가 실무에서도 통한다. ML 엔지니어의 “실험 잡무"가 줄어드는 현실적 경로를 보여준다.
시니어 코멘트
이 사례의 진짜 가치는 코드가 아니라 제약 설계에 있다. ① 샌드박스(네트워크 차단 + 파일 제한)는 필수다 — 에이전트에게 GPU 접근을 주면서 네트워크를 열어두면 재앙이 된다. ② program.md의 단계별 자유도 확장이 핵심 패턴이다. 처음부터 “아무거나 해봐"는 토큰만 태운다. ③ 평가 지표 선택이 실험 품질을 결정한다 — 저자도 Mean Rank 대신 Median Rank를 썼어야 한다고 인정했다. 도입 기준: 자체 벤치마크가 있고, 1회 실험이 10분 이내로 끝나는 ML 파이프라인이라면 즉시 시도 가능하다. Durable Execution 패턴과 결합하면 실험 오케스트레이션도 자동화할 수 있다.
4. 모든 Regex 엔진의 전체 매치는 O(n²) — 50년간 아무도 안 고친 성능 함정
사실 요약
HN 218포인트를 기록한 기술 심층 분석 글이다. RE2, Go regexp, Rust regex — “선형 시간 보장"을 내세우는 모든 regex 엔진이 실은 find_all / FindAll 을 호출하는 순간 O(n²)가 된다. 예: 패턴 .*a|b로 n개의 b에서 전체 매치를 찾으면, 매 위치에서 .*a가 나머지 전체를 스캔하고 실패한 뒤 b가 1글자 매치 — 전형적인 삼각합 O(n²)다. 입력이 100배 커지면 걸리는 시간은 10,000배. Russ Cox가 2009년에 이미 기술했고, BurntSushi의 rebar 벤치마크가 실증했지만, 학계는 “단일 매치"만 다루고 “전체 매치"는 방치했다. 한편 백트래킹 기반 엔진(JS, Python, Java 기본)은 지수 시간이 가능하며, npm 패키지 minimatch 하나에 ReDoS CVE가 5건 발생했다.
왜 중요한가 — 실무 영향
대부분의 개발자가 “Rust regex는 안전하다"고 믿고 find_all을 쓴다. 사용자 입력을 받아 regex 매치를 반복하는 모든 서비스(로그 분석, 텍스트 파싱, 검색 하이라이팅)가 잠재적 DoS 벡터다. 특히 로그 파이프라인에서 패턴 매칭을 수십만 줄에 걸쳐 반복하면 숨겨진 이차 시간이 SLA를 깨뜨릴 수 있다. ReDoS는 보안 문제로만 인식됐지만, 이건 “안전하다고 믿는 엔진에서도 성능 폭발이 가능하다"는 더 근본적인 문제다.
시니어 코멘트
당장 할 수 있는 것: ① 사용자 입력을 regex 패턴으로 받는 엔드포인트가 있다면, 입력 길이 상한과 매치 횟수 상한을 반드시 걸어라. ② Rust regex의 find_iter 문서에 이미 경고가 있다 — 읽고 있는 사람이 드물 뿐이다. ③ 로그 파이프라인의 regex 처리에 타임아웃을 걸어라. O(n²)는 “느리다"가 아니라 “특정 입력에서 서비스가 멈춘다"다. ④ 가능하면 regex 대신 전용 파서(PEG, tree-sitter 등)를 써라 — regex의 표현력이 실제로 필요한 경우는 생각보다 적다. JS 블로트 문제에서도 언급했듯, “당연히 빠를 것이다"라는 가정이 가장 위험하다.
5. Resolv 해킹: 오프체인 키 하나가 $23M을 증발시켰다
사실 요약
3월 22일, DeFi 프로토콜 Resolv에서 약 $23M이 탈취됐다(HN 95포인트, 131 댓글). 스마트 컨트랙트 취약점이 아니었다 — 코드는 설계대로 작동했다. 문제는 오프체인 인프라였다. 공격자는 Resolv의 AWS KMS 환경을 침투해 USR 스테이블코인 민팅 승인 키를 탈취했고, $100K~200K USDC를 입금한 뒤 8,000만 USR(무담보)을 민팅했다. 컨트랙트에 민팅 상한이 없었기 때문이다 — “유효한 서명만 있으면” 얼마든지 민팅 가능한 구조였다. 공격자는 USR → wstUSR → 다른 스테이블코인 → ETH로 세탁했고, USR은 80% 디페깅됐다.
왜 중요한가 — 실무 영향
DeFi만의 문제가 아니다. “오프체인 서비스가 키를 관리하고, 온체인 컨트랙트는 그 서명만 검증한다"는 패턴은 일반 웹 서비스의 API 키 + 서버사이드 검증과 동일한 구조다. AWS KMS가 뚫리면 끝이라는 건, 우리의 시크릿 관리 아키텍처도 같은 위험에 노출돼 있다는 뜻이다. 핵심 교훈: 코드가 맞아도 인프라가 틀리면 보안은 무너진다. 온체인이든 오프체인이든, 단일 키에 무제한 권한을 부여하는 설계는 재앙을 초대한다.
시니어 코멘트
이 사건에서 배울 체크리스트: ① 민팅/발행에 하드캡을 걸어라 — “서명이 유효하면 OK"가 아니라, 컨트랙트 레벨에서 시간당/트랜잭션당 상한을 강제하라. ② 키 권한을 최소화하라 — 하나의 키가 무제한 민팅 + 서명을 모두 할 수 있으면 안 된다. 멀티시그, 시간 잠금, 금액 상한이 필수다. ③ 온체인 실시간 모니터링 — Chainalysis가 지적했듯, “일어난 뒤 분석"이 아니라 “비정상 민팅 탐지 → 자동 일시중지"가 작동해야 한다. 일반 서비스에도 적용: API 키 하나에 모든 권한을 주지 마라, rate limit과 anomaly detection을 키 레벨에서 걸어라.
6. Claude 컴퓨터 직접 제어 출시 + ProofShot — AI 에이전트가 “눈"을 얻다
사실 요약
Anthropic이 Claude의 컴퓨터 직접 제어 기능을 출시했다(GeekNews). Claude Code Desktop과 연동해 실제 컴퓨터의 마우스·키보드·화면을 직접 조작하며, 어떤 앱이든 사용할 수 있다. 같은 날, HN에서 ProofShot(54포인트, 39 댓글)이 올라왔다 — AI 코딩 에이전트가 만든 UI를 스크린샷으로 캡처해 “의도한 대로 됐는지” 시각적으로 검증하는 도구다. 두 흐름을 합치면: AI 에이전트가 코드를 쓰고, 실제 앱을 조작하고, 결과를 눈으로 확인하는 “엔드투엔드 자율 개발 루프"가 기술적으로 가능해졌다.
왜 중요한가 — 실무 영향
지금까지 AI 코딩 에이전트의 한계는 “코드만 쓸 뿐, 결과를 볼 수 없다"였다. 프론트엔드 작업에서 “버튼을 왼쪽으로 옮겨줘"라고 하면 코드는 바꾸지만 실제 렌더링이 맞는지는 인간이 확인해야 했다. ProofShot 같은 시각 검증 + Claude 컴퓨터 제어가 결합되면, 에이전트가 빌드 → 실행 → 스크린샷 → 검증 → 수정까지 혼자 수행한다. QA 자동화의 새로운 장이 열리지만, 동시에 “에이전트가 내 컴퓨터를 마음대로 조작한다"는 보안 우려도 커진다.
시니어 코멘트
기술적 가능성과 프로덕션 도입 사이에는 깊은 골이 있다: ① 에이전트에게 마우스·키보드 제어를 주는 건 sudo 권한을 주는 것과 다름없다 — 반드시 샌드박스/VM 안에서 실행하라. ② ProofShot의 시각 검증은 픽셀 비교가 아닌 “의도 검증"이 핵심이다 — CSS 1px 차이를 버그로 잡을 건지, 레이아웃 붕괴만 잡을 건지 기준을 명확히 정해야 실용성이 생긴다. ③ 현재 수준에서 가장 현실적 적용: CI 파이프라인에 ProofShot을 넣어 “PR 머지 전 UI 회귀 자동 검증"부터 시작하라. 컴퓨터 제어는 개발 환경 셋업 자동화 용도로 제한 실험하라. OpenCode 5M 돌파 이슈와 함께, AI 개발 도구 생태계가 빠르게 분화하고 있다 — 특정 도구에 올인하지 말고 추상화 레이어를 유지하라.
오늘의 실행 체크리스트
- regex
find_all감사 — 사용자 입력을 받아 regex 전체 매치를 수행하는 엔드포인트를 찾아라. 입력 길이 + 매치 횟수 상한을 걸어라. - 시크릿 키 권한 점검 — API 키, 서비스 키에 “무제한 권한"이 부여된 곳을 찾아라. 최소 권한 원칙 + rate limit + anomaly alert를 적용하라.
- AI 에이전트 샌드박스 구축 — Autoresearch처럼 에이전트를 활용한다면, 네트워크 격리 + 파일 접근 제한 + 시간 제한을 먼저 설정하라.
- 온디바이스 AI 벤치마크 트래킹 — iPhone/MacBook MoE 추론 속도를 분기별로 추적하라. 5 tok/s 돌파 시점이 “로컬 AI 비서” 도입 검토 타이밍이다.
- CI에 UI 시각 검증 추가 검토 — ProofShot 또는 유사 도구를 스테이징 환경에 시범 적용해, 프론트엔드 PR의 시각적 회귀를 자동 탐지하라.
출처 링크
- iPhone 17 Pro Running a 400B LLM (Hacker News)
- cq: Stack Overflow for Agents — Mozilla AI
- Autoresearch on an old research idea
- Finding all regex matches has always been O(n²)
- The Resolv Hack: How One Compromised Key Printed $23M (Chainalysis)
- Claude 컴퓨터 직접 제어 출시 (GeekNews)
- ProofShot — AI 코딩 에이전트에 눈 달기 (Hacker News)
- 데이터만이 유일한 해자 (GeekNews)
- Claude Code Cheat Sheet (Hacker News, 442pts)
💬 댓글