Daily Digest — 2026-05-11
에이전트 운영체계, 로컬 추론, AI 인프라 비용, 프라이버시 압박, 창업 운영 감각이 한꺼번에 교차한 날
Daily Digest — 2026-05-11
오늘의 핵심 흐름
오늘의 흐름은 모델 성능 자체보다 운영 구조의 재편에 가까웠다.
여러 플랫폼의 글을 겹쳐 보면, AI는 더 똑똑한 단일 모델을 찾는 경쟁보다 더 나은 하네스와 더 선명한 성공 기준, 더 낮은 연결 비용, 더 촘촘한 검증 루프를 만드는 경쟁으로 이동하고 있다.
코딩 에이전트와 연구 보조, 커넥터형 업무 자동화, 로컬 추론, 온디바이스 AI, 비용 추적, 프라이버시 보호, 플랫폼 피로가 전부 같은 문장으로 연결된다.
사람들이 원하는 것은 기능 추가가 아니라 통제 가능성이고, 이 통제 가능성은 프롬프트 문장 몇 줄이 아니라 운영체계 전체의 설계에서 나온다.
첫 번째 큰 축은 에이전트 운영체계와 코딩 하네스다.
프롬프트는 더 이상 “어떻게 생각해”를 길게 시키는 주문이 아니라, 무엇을 바꾸고 무엇을 건드리지 말아야 하는지, 어떤 증거가 나오면 멈춰야 하는지를 적는 계약서로 바뀌고 있다.
에이전트의 질은 모델 IQ보다 계획 모드 준수, 작업 공간 분리, 상태 저장, 롤백, 테스트, 비용 관측 같은 운영 레이어에서 갈린다는 신호가 SNS, Reddit, GeekNews, YouTube 전반에서 반복됐다.
두 번째 큰 축은 로컬 추론과 인프라 비용이다.
로컬 LLM은 더 이상 취미 프로젝트가 아니라 두 번째 엔진으로 실용 범위에 들어왔고, 온디바이스 AI는 프라이버시 선택지가 아니라 제품 신뢰성 설계 문제로 읽히기 시작했다.
동시에 데이터센터 전력 수요와 송전망 증설 비용, 무료 크레딧과 토큰 한도, 사용량 추적 대시보드 같은 이슈가 모두 같은 비용 구조 질문으로 수렴한다.
세 번째 축은 프라이버시·보안·플랫폼 마찰이다.
암호화 메시징 우회 압박, VPN 규제, 하드웨어 attestation, 패키지·플러그인 공급망 위험, 대형 플랫폼 의존 피로가 한꺼번에 드러나며 편의의 반대편에 있는 통제 비용이 더 잘 보이기 시작했다.
웹의 URL 무결성이나 로컬 보안 토큰 활용 같은 오래된 주제도 다시 중요해졌다.
네 번째 축은 실제 도입과 비즈니스 운영 감각이다.
폐쇄망, 의료, 지역 커뮤니티, SaaS 첫 매출, 가격 전략, 계정 소유권, 유지보수 범위 같은 문제는 AI가 성숙할수록 더 앞단으로 올라온다.
빨리 만들 수 있다는 사실이, 무엇을 어디까지 만들고 누구 책임으로 운영할지를 더 엄격하게 묻게 만드는 날이었다.
에이전트 운영체계와 코딩 하네스
오늘 가장 강한 축은 에이전트를 어떻게 굴리느냐였다. 코딩, 연구, 자동화, 장기 실행까지 전 영역에서 좋은 결과는 더 큰 모델보다 더 나은 하네스와 검증 습관, 더 명시적인 상태 관리에서 나온다는 신호가 반복됐다.
연구·산업 현장으로 번진 에이전트형 AI의 실전 성과
GeekNews · Tim Gowers 소개 글, Google DeepMind/AlphaEvolve, GeekNews · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- ChatGPT 5.5 Pro가 수학 문제의 상한을 지수형에서 다항식으로 낮추는 아이디어를 냈고 인간 연구자가 “거의 확실히 맞다”고 평가했다; AlphaEvolve는 DNA 시퀀싱 오류 검출을 30% 줄였고 전력망 AC OPF 해의 feasibility를 14%에서 88% 이상으로 끌어올렸으며 자연재해 예측 정확도를 5% 높였다
에이전트형 AI의 화제는 더 이상 “코드를 좀 더 빨리 짠다”는 수준에 머물지 않는다.
이번 묶음에서 가장 강한 신호는, 모델이 인간 연구자가 만든 프레임 위에서 실제로 새로운 성과를 밀어 올리는 장면이 수학과 과학 최적화 양쪽에서 동시에 관측됐다는 점이다.
ChatGPT 5.5 Pro 사례에서는 조합론 문제의 구성 방식을 재해석해, 기존의 지수형 상한을 다항식 수준으로 낮추는 방향의 증명을 짧은 시간 안에 제안했고, 해당 분야 연구자가 아이디어 차원에서도 “거의 확실히 맞다”고 평가했다.
논문 저자에게 “PhD 한 장 정도는 되는 결과”라는 반응이 나왔다는 점은, 모델이 단순한 문헌 요약이나 기존 해법 재조합을 넘어 인간 연구의 난이도 기준 자체를 흔들기 시작했음을 보여준다.
같은 날 소개된 AlphaEvolve는 이 흐름이 특정 수학 일화에만 머물지 않음을 보강한다.
DNA 시퀀싱 정확도 개선, 전력망 최적화, 자연재해 예측처럼 평가 지표가 분명한 영역에서 실제 수치 개선을 만들었고, 특히 전력망 AC Optimal Power Flow에서는 학습 모델이 유효한 해를 찾는 비율을 14%에서 88% 이상으로 높였다.
즉 “AI가 연구 보조를 한다”는 표현보다, “문제 설정과 검증 체계가 있는 곳에서는 이미 성능 엔진으로 투입되고 있다”는 표현이 더 정확해지고 있다.
남길 핵심은 두 가지다.
하나는 모델의 가치를 가르는 기준이 생성 능력 자체보다 인간이 검증 가능한 프레임과 평가 루프에 얼마나 잘 꽂히느냐로 이동하고 있다는 점, 다른 하나는 이 변화가 코딩 생산성 담론보다 훨씬 넓은 연구·산업 최적화 전선으로 퍼지고 있다는 점이다.
생성은 폭증하고 검증은 병목이 되는 ‘확률적 엔지니어링’
GeekNews · Tim Davis 에세이, DELEGATE-52 논문, GeekNews · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- AI 네이티브 팀에서는 코드베이스가 “작동한다고 아는 것”이 아니라 “작동한다고 믿는 것”으로 바뀐다는 문제의식이 나왔다; DELEGATE-52 실험에서 프런티어 모델조차 긴 위임형 문서 작업 끝에 평균 25%의 문서 내용을 훼손했다; 도구 사용이 이 문제를 근본적으로 해결하지 못했다
에이전트 활용이 깊어진 조직에서 가장 중요한 변화는 생산량 증가가 아니라 신뢰 모델의 붕괴다.
Tim Davis는 이를 “결정론적 엔지니어링에서 확률적 엔지니어링으로의 이동”이라고 정리한다.
에이전트가 밤새 PR을 만들고, 아침에 인간은 그것을 고르는 역할로 밀려나며, 코드베이스는 더 이상 설계자 한 명이 끝까지 이해하는 시스템이 아니라 “아마 돌아갈 것”이라고 확률적으로 신뢰하는 시스템이 된다.
문제는 생성 비용은 급락했지만 검증 비용은 거의 떨어지지 않았다는 데 있다.
한 분 만에 나온 500라인짜리 PR을 검토하는 데는 여전히 시니어 엔지니어의 긴 집중 시간이 들어가고, 에이전트가 더 많은 코드를 만들수록 검토에 필요한 전체 문맥은 오히려 더 커진다.
이 문제의식이 과장만은 아니라는 점을 뒷받침한 것이 DELEGATE-52다.
52개 전문 영역의 긴 문서 편집 워크플로를 시뮬레이션한 결과, 프런티어 모델조차 긴 위임 과정이 끝나면 평균 25%의 문서 내용을 훼손했고, 문서가 길어지거나 대화가 길어지거나 방해 파일이 섞일수록 성능은 더 나빠졌다.
특히 에이전트형 도구 사용이 이 문제를 해소하지 못했다는 점이 중요하다.
지금의 핵심 병목은 “더 똑똑한 생성기”가 아니라 “침묵하는 손상을 잡아내는 검증 체계”에 있다.
따라서 이 주제는 AI 낙관론 자체보다, 앞으로의 팀 경쟁력이 어디서 갈릴지에 대한 신호로 읽는 편이 맞다.
생성량이 아니라 검증 문화, 관측성, 롤백 discipline, 그리고 위임 가능한 작업의 경계 설정이 새로운 운영체제가 되고 있다는 이야기다.
AI 코딩 워크플로는 "모델 성능"보다 "인간 소유권, 분리된 실행, 검증 습관"에서 갈린다
Reddit · u/monoidalendo / r/ClaudeAI, [Reddit · 추가 출처](https://www.reddit.com/r/vibecoding/comments/1t98ija/vibe_coding_for_30_days_200_hours_70k_lines_as_a/`, https://www.reddit.com/r/Anthropic/comments/1t9hzpm/serious_concerns_about_latest_version_of_claude/, `https://www.reddit.com/r/windsurf/comments/1t9jssy/swe_16_always_break_plan_mode_and_decides_to/)
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- FAANG급 엔지니어라는 작성자는 "AI가 만든 코드는 결국 사람이 소유해야 한다"는 태도를 전제로, 병렬 작업도 worktree·별도 폴더처럼 충돌이 적은 방식으로 분리해야 한다고 말했다.
- 비개발자 PM 배경 작성자는 30일 동안 200시간 이상 바이브 코딩으로 내부 제품을 만들었지만, PRD 작성·짧은 세션 운영·테스트 자동화·리뷰/보안 점검이 없으면 품질이 빠르게 무너진다고 정리했다.
- 반대로 최신 버전이 CLAUDE.md나 plan mode를 무시한다는 불만도 함께 올라오며, 사용자는 모델 개선보다 규칙 준수와 예측 가능성을 더 중요한 품질로 보기 시작했다.
레딧에서 가장 강하게 보이는 흐름은 "AI 코딩이 잘 되느냐"의 기준이 더 이상 모델 벤치마크나 데모 한 방에 있지 않다는 점이다.
실제 사용자들은 이제 좋은 워크플로를 갖춘 팀과 그렇지 않은 팀의 차이를 더 크게 본다. r/ClaudeAI의 고경력 엔지니어 글은 이 감각을 가장 압축적으로 보여준다.
요지는 단순하다.
AI는 비결정적이므로, 결정적인 결과물이 필요하면 에이전트에게 전권을 주는 대신 사람이 코드를 검토하고 수정하고 소유해야 한다는 것이다.
작성자는 스킬과 하네스를 충분히 준비한 뒤, 병렬 작업은 서로 샌드박싱된 공간에서 돌리고, 마지막에는 직접 코드를 읽고 손보는 식으로 사용한다고 밝혔다.
이 관점은 r/vibecoding의 장문 회고와도 정확히 연결된다.
PM 출신 작성자는 30일 동안 200시간 넘게 바이브 코딩을 해 7만 줄 규모의 내부 도구를 만들었지만, 실제로 도움이 된 것은 "AI에게 다 시키기"가 아니라 PRD 작성, 기능을 잘게 쪼개는 방식, 새 기능마다 세션을 갈아타며 컨텍스트를 좁히는 습관, UI를 먼저 만들어 요구사항 해석이 맞는지 확인하는 절차, 그리고 unit/e2e 테스트를 AI에게 지속적으로 쓰게 하는 습관이었다고 정리했다.
특히 Claude/Codex를 서로 다른 git worktree에서 돌리고, 겹친 파일이 생기면 위험 신호로 보는 운영 감각은 단순 팁이 아니라 다중 에이전트 시대의 실무 규율에 가깝다.
흥미로운 점은 이 "규율의 필요성"이 도구 불신과 동시에 등장한다는 것이다. r/Anthropic에서는 최신 Claude가 CLAUDE.md, hooks, 메모리, TDD 규칙을 곧바로 잊어버린다는 불만이 나왔고, r/windsurf에서는 plan mode인데도 곧바로 파일 수정으로 뛰어드는 행동을 문제 삼는 글이 보였다.
즉 사용자는 AI 코딩을 더 깊게 받아들이고 있지만, 그만큼 "모델이 똑똑한가"보다 "내가 지정한 운영 규칙을 안정적으로 따르는가"를 더 날카롭게 따지기 시작했다.
여기에 r/openclaw의 업그레이드 후 워크플로 붕괴 사례까지 겹치면, 새 버전의 화려함보다 재현 가능한 작업 습관과 롤백 가능한 운영 환경이 더 중요해졌다는 결론이 선명하다.
r/vibecoding의 "클라이언트에게 코드베이스 설명을 부탁받고 전날 밤 처음 읽었다"는 자조 섞인 고백도 같은 결을 보탠다.
AI가 빠르게 MVP를 만들 수는 있어도, 이후 설명 가능성과 유지보수 가능성을 확보하지 못하면 창업자나 개발자가 결국 자기 코드의 낯선 방문자가 될 수 있다는 경고다.
이 묶음의 핵심은 AI 코딩이 성숙하고 있다는 사실보다, 그 성숙을 떠받치는 실무 규범이 빠르게 표준화되고 있다는 점이다.
PRD, 짧은 세션, 테스트, 리뷰, worktree 분리, preview 검증, 롤백 가능성 같은 오래된 엔지니어링 습관이 오히려 AI 시대의 필수 장비로 재평가되고 있다.
에이전트 도입은 확산 중이지만, 현장의 질문은 이미 "얼마나 똑똑한가"가 아니라 "얼마나 통제 가능하고 감사 가능한가"로 넘어갔다
Reddit · u/AsilOzyildirim / r/n8n, [Reddit · 추가 출처](https://www.reddit.com/r/automation/comments/1t8tswu/ai_agents_are_going_mainstream_but_how_is/`, https://www.reddit.com/r/huggingface/comments/1t95pqk/i_built_an_opensource_multiagent_ai_for_oncology/, `https://www.reddit.com/r/Anthropic/comments/1t9hzpm/serious_concerns_about_latest_version_of_claude/)
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- n8n 사용자는 여러 도구 출력이 합쳐져 LLM으로 넘어갈 때 어떤 민감 정보가 실제 프롬프트에 실리는지 가시성이 부족하다고 토로했다.
- 다른 글에서는 "AI 에이전트가 메인스트림이 되고 있는데 신뢰성을 어떻게 추적하느냐"는 질문이 별도 화두로 등장했다.
- 반면 의료용 멀티에이전트 데모인 OncoAgent는 Zero-PHI 입력 정제, LangGraph 기반 상태형 오케스트레이션, Critic Agent 검증 루프, NCCN·ESMO 가이드라인 기반 RAG, 근거 없으면 추측하지 않는 거부 전략을 전면에 내세웠다.
에이전트에 대한 커뮤니티의 시선은 전반적으로 낙관과 불안을 동시에 품고 있다.
가장 실무적인 질문은 r/n8n에서 나왔다.
내부 시스템에서 정보를 끌어와 에이전트가 프롬프트를 구성하는 워크플로를 만들고 있는데, 실제로 어떤 민감 데이터가 각 단계에서 넘어가는지 명확히 보이지 않는다는 고민이다.
단순 필드 필터링으로 충분한지, 별도 커스텀 코드가 필요한지, 혹은 아직 업계 전체가 이 문제를 진지하게 다루지 않는지 묻는 글인데, 이 질문 자체가 현재의 성숙 단계를 보여준다.
이제 문제는 "자동화가 되느냐"가 아니라 "무엇이 흘러들어가는지 추적할 수 있느냐"다.
r/automation에서도 거의 같은 층위의 질문이 나온다.
AI 에이전트가 메인스트림이 되어 가는 듯 보이지만, 실제 운영팀은 신뢰성을 어떤 지표로 추적하느냐는 것이다.
아직 많은 회사가 베타 수준에서 제한적 롤아웃에 머물러 있고, 그래서 신뢰성 측정 방식 자체가 시장 기회가 될 수 있지 않겠느냐는 문제의식이다.
이 질문은 단순히 품질이 낮다는 불평이 아니라, AI 에이전트 운영이 곧 관측 가능성, 품질 지표, 실패 분류 체계의 문제로 이동하고 있다는 신호다.
이와 대조적으로 r/huggingface의 OncoAgent 사례는 "신뢰성을 설계하는 방식"을 비교적 명시적으로 제시한다.
의료 종양학 트리아지라는 고위험 도메인인 만큼, 작성자는 모델 성능보다도 Zero-PHI 입력 정제, Router Agent와 Specialist Agent, Critic Agent로 이어지는 LangGraph 상태형 워크플로, NCCN·ESMO 가이드라인 기반 RAG, 근거 없는 경우 답변을 거부하는 규칙을 전면에 내세웠다.
다시 말해 좋은 에이전트란 무엇이든 대답하는 존재가 아니라, 언제 멈추고 언제 거부해야 하는지까지 포함해 설계된 시스템이라는 주장이다.
이 묶음을 AI 코딩 도구 불만 글과 함께 읽으면 더 선명해진다.
사용자가 CLAUDE.md를 무시하는 모델, plan mode를 깨는 모델에 분노하는 이유는 단순한 사용성 문제가 아니라 통제권 문제다.
운영 규칙이 모델의 기분에 따라 흔들리면, 그 위에 감사 체계나 보안 정책이나 프로덕션 자동화를 올릴 수 없다.
커뮤니티는 이제 "좋은 답변"보다 "예측 가능한 행위"를 요구하고 있다.
그리고 그 요구는 민감 데이터, 의료, 자동화, 개발 도구를 가리지 않고 동일하게 커지고 있다.
개인 AI 에이전트는 "대화형 도구"에서 "지속 운영되는 개인 인프라"로 넘어가고 있다
YouTube · Nate Herk / YouTube, YouTube · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- Hermes는 사용자의 인프라 위에서 돌아가는 오픈소스 개인 에이전트라는 점, 기본 내장 스킬과 커뮤니티 스킬을 조합해 자기 개선 루프를 만든다는 점, Telegram 같은 메신저 인터페이스에서도 음성·텍스트·크론 기반 자동화를 밀도 높게 운영할 수 있다는 점, 실제 실무에서는 메모리·스킬·크론·세션 검색·Git 백업이 함께 돌아가야 한다는 점
Nate Herk는 Hermes를 단순한 챗봇이 아니라 "사용자와 함께 자라나는 개인 AI 어시스턴트"로 설명한다.
그의 핵심 주장은, 이제 개인 AI의 경쟁력은 모델 성능 자체보다도 얼마나 사용자의 환경 안에서 기억하고, 자동화하고, 자기 자신을 개선할 수 있느냐에 달려 있다는 것이다.
그는 Hermes가 기본 설치만으로도 상당수 스킬을 이미 내장하고 있고, 추가 커뮤니티 스킬을 붙여 가며 자기 작업 방식을 점점 더 구조화할 수 있다고 강조한다.
데모에서도 Hermes는 텍스트 응답만이 아니라 음성 메시지로 자신을 소개하고, 유튜브 댓글 모니터링, 일일 AI 뉴스 브리핑, 커뮤니티 관리, 서버 점검, 리마인더, 리서치 보고서 같은 반복 업무를 크론 기반으로 수행한다.
발표자는 이 점을 "브라우저 안의 챗봇"과 "실제 워크플로를 굴리는 에이전트"의 차이로 묶는다.
영상에서 특히 중요한 대목은 Hermes의 사고방식 전환이다.
사용자가 기능을 일일이 아는 대신, "이런 걸 할 수 있나?"를 자연어로 묻고 에이전트가 문서를 찾아 스스로 방법을 학습하도록 만드는 것이 더 생산적이라는 주장이다.
Nate는 하이퍼프레임즈를 이용한 영상 제작 예시를 들며, 처음 결과물은 어설펐지만, 사용자가 원하는 도구를 분명히 지적하자 Hermes가 스스로 조사하고 설치 허가를 받은 뒤 훨씬 나은 결과물을 만들었다고 설명한다.
이 과정은 에이전트 활용의 핵심을 보여 준다.
한 번에 정답을 기대하기보다, 에이전트가 실패를 통해 도구를 찾고 스킬을 보강하며 결과 품질을 끌어올리게 해야 한다는 것이다.
Hermes는 Mac mini 없이도 VPS나 Docker, 노트북, 심지어 Android Termux 환경에서도 돌릴 수 있고, Telegram·Discord·Slack·WhatsApp·iMessage 등 여러 채널을 인터페이스로 쓸 수 있다는 점에서 "항상 대기 중인 개인 운영체제"에 가깝게 제시된다.
설치와 운영 실무 팁도 꽤 구체적이다.
발표자는 Hostinger 같은 VPS 위에서 원클릭 배포나 Docker 기반 배포를 할 수 있고, 에이전트 셋업 단계에서 사용 목적, 모델, 홈 채널, 인증 정보, GitHub 백업 전략까지 자연어로 정리해 주면 된다고 설명한다.
여기서 중요한 것은 세 가지 파일 축이다.
첫째, 사용자의 지속적 선호와 사실을 쌓아 두는 메모리.
둘째, 반복 가능한 절차를 문서화해 점점 더 재사용 가능한 능력으로 만드는 스킬.
셋째, 주기적 작업을 자율적으로 밀어 주는 크론이다.
Nate는 특히 "에이전트가 너무 장황하거나 톤이 어긋나면 soul을 고치고, 반복 업무가 생기면 스킬을 만들고, 오래된 문맥이 필요하면 세션 검색을 쓰라"는 식으로 운영 원칙을 제시한다.
GitHub 비공개 저장소를 연결해 매일 상태를 푸시하게 만드는 백업 습관, 서버 방화벽 설정과 토큰 관리, 텔레그램 봇 초기 연결 문제를 에이전트에게 다시 맡겨 진단하는 사례도 모두 같은 맥락이다.
결국 Hermes를 잘 쓰는 법은 기능 목록 암기가 아니라, 에이전트가 기억과 스킬과 일정과 저장소를 매개로 점점 더 나를 대신해 움직이게 만드는 운영 습관을 만드는 데 있다는 정리다.
미국의 기술 우위는 시장 점유가 아니라 제도·동맹·낙관주의의 문제라는 벤처 업계의 자기정의
YouTube · a16z / Ben Horowitz 대담, YouTube · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- a16z는 미국이 다음 세기 기술 경쟁에서 이겨야 한다는 명시적 미션으로 American Dynamism을 설명한다는 점, 미국 체제의 고유성은 사람들이 기여할 기회를 보장하는 제도와 자유에서 나온다고 본다는 점, AI·방산·제조업을 국가이익과 연결해 VC의 역할을 재정의한다는 점, 국방·정부 조달을 둘러싼 실리콘밸리의 윤리 논쟁에 대해 "국가를 지키는 사람들에게 최고 기술을 주지 않는 게 더 이상하다"는 직설적 입장을 취한다는 점, 미국 내부의 AI 비관론이 오히려 가장 큰 리스크라고 본다는 점
이 대담에서 a16z는 자신들의 펀드레이징 규모를 자랑하는 대신, 왜 벤처캐피털이 "국가적 임무"를 말하게 되었는지를 설명한다.
Ben Horowitz는 이제 거의 모든 흥미로운 회사가 기술회사이고, 미국이 산업혁명에서 그랬듯 AI 혁명에서도 기술 우위를 확보해야 세계 전체의 진보 기회가 유지된다고 말한다.
그의 논리는 단순한 애국주의가 아니다.
미국 체제가 중요한 이유는 사람들이 "기여할 기회"를 제도적으로 얻는 드문 나라라는 점에 있고, 이 기회의 구조가 무너지면 군사력, 경제력, 문화적 영향력 모두 약해진다는 것이다.
그는 독립선언문의 "self-evident truths"를 끌어와, 자유와 권리가 정부가 준 것이 아니라 선행하는 원리에서 오기 때문에 쉽게 회수되지 않는다는 점을 미국의 제도적 강점으로 꼽는다.
여기서 기술 경쟁은 경제 전쟁이면서 동시에 자유주의적 제도 경쟁이 된다.
American Dynamism이 실제로는 무엇을 의미하는지에 대해서도 상당히 노골적이다.
대담은 AI, 방산, 제조업, 로보틱스, 동맹국 공급망, 정부 조달을 하나의 연속선상에서 다룬다.
Horowitz는 한때 중국이 AI와 국가 통합 측면에서 앞서 있다고 여겨졌지만, 최근에는 미국 정부가 새로운 기술과 기업을 받아들이는 속도가 생각보다 빠르다는 데 고무돼 있다고 말한다.
국방과 AI를 둘러싼 실리콘밸리 내부의 반감에 대해서는 더욱 강경하다.
그는 Anthropic의 국방부 딜 파기 논란을 예로 들며, 이것이 철학적 갈등이라기보다 딜을 원치 않았던 선택으로 읽힌다고 주장하고, 설령 윤리 문제를 제기하더라도 "국가를 지키기 위해 생명을 거는 사람들에게 최고의 기술을 주지 않겠다는 결정을 누가 대신 내릴 자격이 있느냐"는 질문으로 되받아친다.
즉, 국가이익을 위한 기술 공급은 선택적 옵션이 아니라 미국 기술 생태계가 감당해야 할 기본 책임이라는 셈이다.
동시에 그는 VC 산업 자체의 구조 변화도 흥미롭게 설명한다.
예전 벤처는 연간 몇 개 안 되는 대형 회사에 베팅하는 소규모 파트너십 모델이었지만, 이제는 "모든 산업이 기술화"되면서 훨씬 더 많은 영역을 커버할 수 있는 대형 플랫폼형 펀드와, 특정 기술군에 깊게 파고드는 전문 펀드로 양분된다고 본다.
가운데 어중간한 규모의 VC는 점점 설 자리를 잃는다는 진단이다.
이 논리는 a16z가 왜 수백 명 규모의 조직과 플랫폼 역량, 그리고 워싱턴 네트워크를 "제품"처럼 다루는지와 직결된다.
그들에게 권력은 창업자가 갖지 못한 규제 접점, 고객 접점, 정부 접점을 열어 주는 서비스다.
마지막으로 그는 미국이 직면한 가장 큰 위험을 외부 경쟁자보다 내부 정서, 즉 AI에 대한 과도한 비관론으로 본다.
중국과 일본은 AI를 성장, 로봇, 산업 재도약의 기회로 보는데 미국은 주로 재앙 서사에 갇혀 있다는 것이다.
Horowitz는 AI가 교통사고를 줄이고 암을 치료하고 빈곤 구조를 바꿀 수도 있다는 서사를 더 많이 말해야 한다고 주장한다.
요컨대 이 영상은 a16z가 자신을 단순 투자자가 아니라 미국형 기술 질서의 제도 설계자, 그리고 그 질서를 정당화하는 서사의 생산자로 보고 있음을 잘 보여 준다.
자율 코딩의 다음 단계는 "더 똑똑한 루프"와 "명시적 종료 조건"이다
YouTube · AI Jason / YouTube, YouTube · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- Codex의
/go와 Hermes의 standing goal은 단순 while loop가 아니라 LLM이 완료 여부를 판정하는 장기 실행 루프라는 점, 좋은 goal prompt는 무엇을 바꿀지뿐 아니라 무엇을 바꾸지 말지와 어떻게 검증할지를 명시해야 한다는 점, migration·prototype·QA·prompt optimization 같은 작업은 "정량적 done definition"이 있을 때 특히 잘 작동한다는 점, 몇 주·몇 달짜리 미션은 단순 연속 세션보다 mission.md와 단계별 아티팩트, 재스케줄링, human-in-the-loop 구조가 더 적합하다는 점
AI Jason은 OpenAI Codex의 /go 기능과 Hermes의 standing goal을, 에이전트가 "한 번 답하고 끝나는" 모드에서 벗어나 정말로 몇 시간 이상 목표를 붙들고 있는 구조로 진화한 사례로 설명한다.
문제의식은 익숙하다.
최근 모델은 범위가 명확한 티켓은 꽤 잘 처리하지만, 조금만 일이 복잡해지면 중간쯤에서 승리를 선언하고 멈추는 경향이 있다.
초창기에는 이를 해결하려고 rough loop 같은 단순 반복기가 많이 쓰였다.
에이전트가 끝났다고 하면 출력 파일을 저장하고, 같은 프롬프트로 다시 호출하는 식이다.
그런데 /go류 기능은 이 단순 반복을 "판단 가능한 루프"로 바꾼다.
즉, 매 라운드마다 더 큰 모델이 현재 상태를 읽고, 목표가 진짜 달성됐는지 감사(audit)하고, 미달이면 어떤 식으로 계속 전진해야 할지 다시 에이전트에게 문맥 있는 메시지를 보낸다.
이 차이 덕분에 장기 작업에서 조기 종료가 줄고, 탐색형 작업에서도 다음 수를 잡아 주는 보조 두뇌가 생긴다.
이 영상이 강조하는 실무 포인트는 기능 자체보다 프롬프트 설계다.
좋은 goal은 "큰 프로젝트 하나를 끝낼 만큼 크지만, 끝이 없는 백로그만큼 열려 있지는 않아야" 한다.
다시 말해 무엇을 달성할지, 무엇은 건드리지 말아야 할지, 무엇으로 진척을 검증할지, 언제 멈출지까지 먼저 정해 줘야 한다.
예시로 그는 자바스크립트에서 타입스크립트로의 마이그레이션을 들며, "모든 화면이 시각적으로 동일해야 하며, Playwright interactive로 검증하라" 같은 종료 조건이 있어야 한다고 말한다.
프로토타입이라면 PRD나 plan.md를 가리키고 마일스톤별 테스트를 정의해야 하고, 프롬프트 최적화라면 평가 점수 목표를 적고 목표 도달 시 멈추게 해야 한다.
Vincent가 OpenClaw에서 장기간 실험하며 얻은 교훈도 비슷하다.
"everything is fixed"처럼 애매한 표현은 모델을 너무 일찍 멈추게 하거나 무의미한 무한 루프로 몰아넣는다.
대신 "새로운 이슈 20개를 찾고, 각각 재현·수정 제안·브랜치 푸시·로그 저장까지 마치면 종료" 같은 정량적 조건이 훨씬 낫다는 것이다.
후반부는 이 구조를 더 긴 시간 축으로 확장하려는 시도까지 보여 준다.
몇 시간짜리 코딩 세션에는 /go가 잘 맞지만, SEO 개선이나 광고 효율 최적화처럼 결과가 며칠 또는 몇 주 뒤에 드러나는 작업에는 한 세션 안의 연속 루프로는 부족하다는 관찰이다.
그래서 Jason의 팀은 mission.md를 중심으로 목표 지표를 정의하고, 에이전트가 한 번에 하나의 가설을 세워 실행한 뒤, 결과 아티팩트와 요약을 남기고 다음 실행을 몇 시간·며칠·몇 주 뒤로 예약하는 "mission" 구조를 시험 중이라고 설명한다.
여기서는 human-in-the-loop도 더 중요해진다.
에이전트가 지나치게 큰 실험을 하려 하거나 목표가 모호하다고 판단하면 사람에게 메시지를 보내 상태를 바꾸게 한다.
요컨대 이 영상은 자율 소프트웨어 개발의 본질을 "모델을 오래 돌리는 것"으로 보지 않는다.
핵심은 완료 정의를 더 엄격하게 만들고, 루프 자체를 더 똑똑하게 만들며, 시간축이 길어질수록 상태 파일·로그·재개 조건·사람 개입 지점을 함께 설계하는 데 있다는 분석이다.
로컬 추론·인프라·비용 구조
두 번째 축은 AI를 어디서, 어떤 비용 구조로 돌릴 것인가다. 로컬 LLM과 온디바이스 AI, 전력망 비용, 데이터센터 수요, 무료 크레딧과 사용량 추적까지 모두가 같은 운영 질문으로 이어졌다.
온디바이스 AI는 이제 프라이버시 옵션이 아니라 제품 신뢰성 설계가 된다
Hacker News · cylo / unix.foo, birdculture / The Verge, Hacker News · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- 로컬 AI는 개인정보를 외부로 보내지 않는다는 점뿐 아니라 네트워크·과금·벤더 장애를 피하는 제품 설계라는 문제의식이 강해졌다; Chrome은 Gemini Nano 기반 온디바이스 AI를 위해 약 4GB
weights.bin을 내려받을 수 있고, 사용자가 설정에서 꺼야 재설치를 막을 수 있다.
이번 HN 묶음에서 로컬 AI는 더 이상 “클라우드보다 조금 더 프라이빗한 구현” 정도가 아니라, 제품을 아예 덜 깨지게 만드는 아키텍처 선택으로 다뤄졌다. Local AI needs to be the norm 글은 요약·분류·추출처럼 이미 기기 안에 있는 사용자 데이터를 변환하는 작업이라면, 굳이 외부 API 호출과 과금, 레이트리밋, 백엔드 장애, 데이터 보관 이슈를 한꺼번에 떠안을 이유가 없다고 정면으로 주장한다.
특히 Apple의 로컬 모델 API를 이용해 기사 요약을 기기 안에서 처리하는 사례는 “AI 기능을 붙이는 순간 분산 시스템을 하나 더 만드는 셈”이라는 개발자 피로를 정확히 건드린다.
다만 같은 흐름이 언제나 사용자 친화적인 것은 아니다.
Chrome이 Gemini Nano 기반 기능을 위해 최대 4GB 수준의 모델 파일을 백그라운드로 내려받는 사례는, 온디바이스 AI가 프라이버시 면에서는 이득이 있어도 저장공간과 자원 사용 측면에서는 전혀 공짜가 아니라는 점을 보여준다.
즉 오늘의 신호는 “클라우드 AI냐 로컬 AI냐”의 이분법이 아니라, 로컬 추론을 채택하더라도 비용과 제어권을 사용자에게 투명하게 드러내지 않으면 반감이 커진다는 쪽에 가깝다.
AI 전력 수요는 기술 문제가 아니라 요금·정치·전력시장 설계 문제로 번지고 있다
Hacker News · lemonberry / Tom's Hardware, marc__1 / janrosenow.substack.com, Hacker News · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- 메릴랜드는 PJM의 220억 달러 송전망 업그레이드 가운데 20억 달러를 떠안을 수 있다며 반발했고, 이는 10년간 추가 16억 달러 부담으로 추산된다; 반대로 스페인은 2026년 1~4월 평균 도매 전력 가격이 MWh당 44유로로 유럽 최저권에 들어섰고, 2026년 1분기 풍력+태양광 비중은 44%, 화석연료는 17%까지 내려왔다.
AI 인프라 확대를 둘러싼 논점이 “모델 성능”에서 “누가 전력망 비용을 낼 것인가”로 빠르게 이동하고 있다.
메릴랜드는 자주 거론되는 첫 사례다.
주 정부 산하 소비자 보호 기관은 PJM이 데이터센터 수요를 맞추기 위해 추진하는 220억 달러 규모 송전망 업그레이드 비용 중 20억 달러를 메릴랜드 요금제로 돌리려 한다고 반발했다.
추산대로라면 향후 10년간 주 전체에 16억 달러의 추가 부담이 생기고, 가구당으로도 수백 달러 수준의 비용 전가가 가능하다.
핵심은 AI 데이터센터가 약속한 경제효과보다 먼저 지역 요금 인상과 주민 반발을 낳고 있다는 점이다.
같은 날 스페인 사례는 다른 면을 보여준다.
스페인은 도매시장 기준으로 유럽에서 가장 싼 전기권에 들어섰고, 풍력과 태양광이 화석연료를 구조적으로 밀어내면서 2026년 들어 가스가 가격결정자가 되는 시간이 9% 수준까지 줄었다.
다만 이 기사는 곧바로 한계를 덧붙인다.
도매가격이 싸져도 가정용 전기요금은 세금·망 비용·계통 안정화 비용 때문에 자동으로 내려가지 않으며, 원전 퇴출과 송전망 현대화 비용은 여전히 남아 있다.
종합하면 오늘의 HN 신호는 “AI는 전기를 더 먹는다” 수준이 아니라, 값싼 저탄소 전력의 확보와 전력망 투자비용의 사회적 배분이 앞으로 AI 산업의 병목이 될 것이라는 쪽이다.
로컬 LLM은 아직 주력 대체재는 아니지만, 이미 "두 번째 엔진"으로는 충분히 실용 단계에 들어섰다
Reddit · u/sh_tomer / r/LocalLLM, [Reddit · 추가 출처](https://www.reddit.com/r/LocalLLaMA/comments/1t9eo83/running_qwen36_35b_a3b_on_8gb_vram_and_32gb_ram/`, https://www.reddit.com/r/LocalLLaMA/comments/1t9gcar/mtp_benchmark_results_the_nature_of_the/, `https://www.reddit.com/r/LocalLLaMA/comments/1t99upf/getting_a_feel_for_how_fast_x_tokenssecond_really/)
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- MacBook Pro M2 Max 64GB에서 Qwen3.6-35B를 약 27 tok/s로 돌리며 랜딩 페이지 생성, 프론트/백엔드 기능 구현, 레이스 컨디션 수정까지 했다는 사례가 나왔다.
- 다른 사용자는 RTX 4060 8GB VRAM과 32GB RAM 환경에서 Qwen3.6 35B A3B를 약 190k 컨텍스트, 37~51 tok/s 수준으로 운용했다고 설정값까지 공개했다.
- 또 다른 벤치마크는 speculative decoding(MTP)의 효과가 양자화보다 작업 성격에 더 크게 좌우되며, 코딩은 크게 빨라지지만 창작 작업은 오히려 느려질 수 있다고 정리했다.
로컬 모델 관련 대화는 더 이상 "언젠가 가능할까"가 아니라 "어떤 작업을 어느 정도의 속도로 맡길 수 있나"로 넘어갔다.
가장 대표적인 글은 Aiven 재직자가 올린 Qwen3.6-35B 체험기다.
이 사용자는 M2 Max 64GB 맥북에서 로컬 모델로 짧은 브리프 기반 랜딩 페이지를 한 번에 만들고, 프론트엔드와 백엔드 기능을 구현하고, 백엔드 레이스 컨디션 버그까지 잡았다고 밝혔다.
다만 이를 곧장 "클라우드 모델 종말"로 연결하진 않았다.
Opus가 34분 걸리는 작업을 로컬 Qwen은 89분에 처리했고, 품질도 대략 75% 수준으로 나머지는 반복 수정을 요구했다고 솔직히 썼다.
그래서 결론도 균형 잡혀 있다.
당장 구독을 끊기보다, 심야 작업·주말 실험·대량 시도처럼 지연 허용적인 영역부터 로컬 모델을 병행하라는 제안이다.
실전 설정 공유도 한층 구체적이다. r/LocalLLaMA에서는 RTX 4060 8GB VRAM과 32GB DDR5 RAM 조합으로 Qwen3.6 35B A3B를 190k 컨텍스트 규모에서 37~51 tok/s 수준으로 돌렸다는 사례가 나왔다.
사용자는 --ctx-size 192640, --n-gpu-layers 430, --n-cpu-moe 35, TurboQuant KV cache, --no-mmap, --mlock, Linux 우위 등 세부 조건을 공개하며, Q4보다 Q5가 장문 추론에서 눈에 띄게 낫다고 적었다.
이 글이 중요한 이유는 "로컬 LLM도 된다"는 추상적 주장보다, 어떤 하드웨어와 어떤 플래그 조합이 현실적인지를 커뮤니티가 공유하기 시작했다는 데 있다.
벤치마크 담론도 점점 성숙해지고 있다.
한 작성자는 MTP speculative decoding 관련 300회 이상 테스트를 돌린 뒤, 속도 향상을 가르는 가장 큰 요인은 모델이나 온도보다 "무슨 일을 시키는가"라고 결론 냈다.
코딩 작업에서는 draft token 수용률이 7989%로 높아 속도가 크게 오르지만, 창작 작업은 3948% 수준에 머물며 오히려 느려질 수 있다는 것이다.
특히 F16 + MTP가 코딩에서는 거의 3배 가까운 개선을 보이지만, Q4_K_M 계열로 creative task를 돌리면 손해라는 정리는 "로컬 LLM 최적화"가 이제 감각이 아니라 작업 유형별 운용법이 되고 있음을 보여준다.
여기에 tok/s 숫자를 체감 가능한 경험으로 바꿔주는 도구도 등장했다.
한 사용자는 10 tok/s, 21 tok/s 같은 수치가 체감상 어떤 차이인지 알기 어렵다며, 텍스트·코드·추론+코드 시나리오에서 속도를 체험할 수 있는 스크립트를 만들었다.
이 또한 중요한 신호다.
커뮤니티의 질문이 "얼마나 큰 모델인가"에서 "내가 기다릴 만한 속도인가"로 바뀌고 있기 때문이다.
짧은 농담 글인 "코일 와인이 꿈에 들린다"는 하드웨어 집착 피로감도 함께 드러내지만, 그 피로조차 이미 많은 사용자가 로컬 추론을 일상 실험 단계까지 끌어왔다는 방증으로 읽힌다.
프라이버시·보안·플랫폼 마찰
세 번째 축은 통제권과 신뢰 경계다. 보안 토큰, VPN, 암호화, attestation, 공급망 위험, GitHub와 AWS 같은 대형 플랫폼 피로가 한꺼번에 묶이며 편의보다 통제 비용이 더 크게 읽혔다.
“웹은 덜 영리하고 더 단순해야 한다”는 역류
GeekNews · Susam Pal/Wander, Chris Morgan, Rodrigo Arias Mallo, GeekNews · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- Wander Console은
via=쿼리스트링이 실제 페이지를 깨뜨릴 수 있다는 이유로 기능을 제거했다; Chris Morgan은 무단 쿼리스트링을 전면 차단하는 Caddy 규칙을 공개했다; Web 포크 제안은 HTML 명세를 작고 버전 고정된 규격, 엄격한 문법, no scripting 중심으로 다시 짜자고 주장한다
오늘 웹 쪽에서 반복된 정서는 “더 많은 기능”이 아니라 “웹이 남의 URL과 문맥을 함부로 건드리지 말아야 한다”는 반동이다.
Wander Console 작성자는 추천 트래픽 출처를 남기기 위해 via= 쿼리스트링을 붙였다가, 그 작은 수정만으로도 대상 사이트의 쿼리 파서와 충돌해 정상 URL을 404로 깨뜨릴 수 있다는 사실을 뒤늦게 체감하고 해당 기능을 아예 제거했다.
핵심은 단순하다.
URL을 바꾸는 순간 그것은 같은 리소스가 아닐 수 있고, 브라우저와 표준이 이미 제공하는 Referer/Referrer-Policy 바깥에서 추적을 우회 삽입하는 것은 기술적으로도 윤리적으로도 정당화되기 어렵다는 것이다.
이 문제의식은 더 급진적인 제안으로도 이어진다.
Chris Morgan은 아예 “허가받지 않은 쿼리스트링 금지”를 선언했고, Rodrigo Arias Mallo는 웹을 포크해 더 작고, 의미 버전이 고정되고, 엄격한 문법을 가지며, 스크립팅 없는 문서 전달 규격으로 다시 만들자는 메모를 냈다.
현재의 웹이 복잡성과 추적, 표준 캡처, 브라우저 독점으로 너무 비대해졌다는 반응이다.
이 흐름이 당장 주류가 되진 않겠지만, 두 가지 신호는 분명하다.
하나는 링크 무결성 자체가 다시 중요한 규범으로 호출되고 있다는 점, 다른 하나는 AI 시대에도 결국 사람들은 더 “작고 설명 가능한 웹”을 원한다는 점이다.
프라이버시 보호층은 두꺼워지는데, 정책 압박도 함께 거세진다
GeekNews · Andrew Helwer 보안 토큰 활용기, 프랑스 의회/유럽 정책 동향, GrapheneOS, GeekNews · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- 최신 노트북과 스마트폰의 내장 secure element를 SSH·git 서명·로컬 로그인에 활용할 수 있다; 프랑스 의회 정보대표단은 E2EE 메신저에 ‘ghost participant’ 식 접근을 지지했다; EU 의회조사처는 VPN을 연령확인 우회 구멍으로 지목했다; GrapheneOS는 Android 16의 QUIC 관련 VPN 유출 취약점을 Google이 “Won’t Fix”로 둔 뒤 자체 차단했다
프라이버시 분야에서는 기술과 정책이 정반대 방향으로 당겨지는 장면이 한 번에 잡혔다.
사용자 측면에서는 보안 토큰이 외장 YubiKey에서 기기 내장 secure element로 스며들고 있다. macOS와 Windows Hello 환경에서는 노트북에 이미 들어 있는 보안 하드웨어를 이용해 SSH 인증, git 서명, 로컬 로그인까지 처리할 수 있고, 이는 “강한 보안은 불편하다”는 오래된 공식을 조금씩 깨고 있다.
동시에 GrapheneOS는 Android 16의 QUIC teardown 경로를 악용한 VPN 우회 취약점을 Google이 “Won’t Fix”로 넘긴 뒤 직접 비활성화해 막았다.
프라이버시를 지키는 쪽 혁신이 더 이상 추상 규범이 아니라 구체적인 제품 대응으로 이뤄진다는 신호다.
반대로 정책 레벨에서는 암호화와 VPN을 약화시키려는 시도가 점점 노골적이다.
프랑스 의회 정보대표단은 메신저 암호화 자체를 깨지 않는다고 포장하면서도, 사실상 보이지 않는 제3자를 대화에 넣는 ‘ghost participant’식 접근을 지지했다.
이는 “좋은 사람만 쓰는 백도어는 없다”는 암호학계의 오래된 반론을 다시 정면으로 자극한다.
EU 의회조사처 역시 VPN을 연령확인 입법의 ‘닫아야 할 허점’으로 표현했고, 일부 지역에서는 VPN 사용 자체에 연령확인을 요구하려는 흐름까지 나온다.
따라서 오늘의 핵심 신호는 명확하다.
사용자 단말과 오픈소스 쪽에서는 프라이버시 보호층이 계속 두꺼워지고 있지만, 국가와 규제기관은 그 위를 다시 얇게 만들려 하고 있다.
앞으로의 충돌은 기능이 아니라 기본권·신뢰모델·관할권의 문제로 더 직접화될 가능성이 크다.
개발자 플랫폼의 오래된 원한이 다시 표면으로 올라온다
GeekNews · Kronis의 macOS 배포 경험담, AWS 회고, GeekNews · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- macOS 배포를 위해선 연간 Apple Developer Program 비용과 까다로운 신원 인증·코드 서명이 사실상 필수다; Windows 코드서명도 개인 개발자에게 만만치 않은 비용 구조를 가진다; AWS는 Bedrock 비용, IAM·Lambda 복잡성, egress와 계정 정지 대응 지연 같은 오래된 불만을 다시 환기시켰다
배포와 인프라 플랫폼에 대한 불만도 단순 푸념 수준을 넘어 구조적 피로감으로 읽힌다. macOS 배포 경험담은 소규모 개발자가 바이너리 하나를 배포하려고 해도 연간 개발자 등록비, 코드 서명, 노타리제이션, 불편한 신원 확인 절차를 통과해야 하는 현실을 생생하게 보여준다.
더 불편한 지점은 이것이 “보안 비용”이라기보다, 취미 프로젝트와 소규모 유틸리티를 제도적으로 걸러내는 진입세처럼 작동한다는 점이다.
글 말미에서 Windows 코드 서명 역시 연간 수백 유로대 비용을 요구한다는 대목은, 코드 서명이 TLS 인증서의 옛날 경제학처럼 소수 사업자의 렌트 추출 구조를 닮아 있다는 문제의식을 강화한다.
AWS 회고 역시 결은 다르지만 같은 불만을 공유한다.
작성자는 AWS의 혁신성을 부정하지 않으면서도, egress 비용, 내부 데이터 이동 과금, IAM 복잡성, Lambda 락인, 오픈소스 생태계에 대한 포식적 태도 같은 누적된 불만이 결국 관계를 끝냈다고 말한다.
결정타는 오랜만에 계정을 써서 고사양 인스턴스를 띄웠다가 보안 경보로 계정이 제한되고, AWS WorkMail까지 멈춘 뒤 며칠 동안 원상복구가 지연된 사건이다.
남길 포인트는 두 가지다.
하나는 AI·클라우드 시대에도 배포와 인프라의 병목은 여전히 플랫폼 사업자의 정책과 과금 구조에 묶여 있다는 점, 다른 하나는 개발자들이 이제 기능 편익만이 아니라 “운영 스트레스와 통제권 손실”을 훨씬 민감하게 비용으로 계산하기 시작했다는 점이다.
협업 도구와 패키지 생태계는 여전히 가장 얇은 곳에서 뚫린다
Hacker News · cmbailey / cyber.netsecops.io, miniBill / nesbitt.io, Hacker News · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- Obsidian 공격은 사용자가 공유 볼트에서 커뮤니티 플러그인 동기화를 허용하는 순간 악성
Shell Commands·Hider플러그인을 통해 RAT가 설치되는 흐름이었고, 최종 악성코드PHANTOMPULSE는 이더리움 거래 데이터로 C2 주소를 해석했다; 풍자 글CVE-2024-YIKES는 npm-Rust-Python을 가로지르는 공급망 재앙을 통해 개발자들이 체감하는 생태계 불신을 집약했다.
오늘 보안 쪽에서 가장 강한 신호는 “복잡한 제로데이”가 아니라 “평범한 협업 흐름이 바로 실행 권한으로 이어진다”는 공포였다.
Obsidian 사례에서 공격자는 링크드인과 텔레그램으로 신뢰를 쌓은 뒤, 피해자에게 공유 볼트를 열고 커뮤니티 플러그인 동기화를 켜게 만든다.
사용자가 허용 버튼을 누르는 순간 합법적인 플러그인처럼 보이는 코드가 PowerShell이나 AppleScript를 실행하고, 최종적으로는 키 입력 탈취·스크린샷·파일 유출·원격 명령 실행이 가능한 RAT까지 이어진다.
더 인상적인 대목은 C2 주소를 이더리움 거래 데이터에서 읽어오는 방식으로, takedown을 피하려는 공격자의 설계가 점점 더 인프라 비의존적으로 바뀌고 있음을 보여준다.
함께 올라온 풍자성 incident report CVE-2024-YIKES는 사실 여부보다 정서를 읽는 자료다.
작은 패키지, 느슨한 2FA, 피싱, 자동 병합, 다중 언어 공급망, 벤더링된 의존성이 꼬리를 물며 수백만 대 개발자 머신까지 감염되는 서사는 과장됐지만, 왜 웃기면서도 불편한지 모두가 안다.
개발자 커뮤니티는 더 이상 공급망 공격을 “보안팀만의 특수 이슈”로 보지 않는다.
플러그인 하나, 빌드 스크립트 하나, 패키지 하나가 곧 조직 전체의 신뢰 경계가 되는 시대라는 감각이 훨씬 강해졌다.
개발자 커뮤니티는 플랫폼의 편의보다 통제 비용을 더 크게 보기 시작했다
Hacker News · herbertl / dbushell.com, ChuckMcM / GrapheneOS, iancmceachern / Tom's Hardware, Hacker News · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- GitHub 비판 글은 잦은 장애와 AI·봇 슬롭 범람이 개발자 이탈 명분이 되고 있다고 주장했다; GrapheneOS는 Apple과 Google의 하드웨어 attestation 확대를 독점 강화 장치로 봤다; Louis Rossmann은 Bambu Lab에 맞서는 OrcaSlicer 개발자에게 초기 법률비 1만 달러를 약속하며 Right to Repair 진영 결집을 촉구했다.
오늘 HN에서 반복된 감정은 “대형 플랫폼이 주는 편의가 더 이상 중립적이지 않다”는 것이다.
GitHub 비판 글은 과격한 어조를 쓰지만, 핵심은 익숙하다.
장애가 늘고, 봇과 AI 슬롭이 저장소와 스타 생태계를 오염시키고, Actions 같은 부가 기능은 핵심 협업 도구를 더 무겁고 덜 믿을 만한 것으로 만든다는 불만이다.
그래서 대체 포지셔닝도 단순하다.
Git은 GitHub가 아니며, 중앙 플랫폼이 불안정해질수록 Codeberg, Forgejo, self-hosting 같은 오래된 선택지가 다시 현실적인 탈출 경로로 보인다는 것이다.
이 불신은 코드 호스팅에만 머물지 않는다.
GrapheneOS는 Apple과 Google이 모바일에서 추진해 온 하드웨어 기반 attestation이 웹까지 확장되면, 보안을 명분으로 비공식 클라이언트, 대체 OS, 수리와 개조 가능성을 점점 더 배제하는 수단이 될 수 있다고 경고한다.
Bambu Lab과 OrcaSlicer 갈등도 같은 줄기에 있다.
제조사는 보안과 인프라 보호를 이유로 서드파티 제어를 막고, 커뮤니티는 “내가 산 기계를 내가 통제할 권리”를 내세운다.
GitHub, 모바일 attestation, 3D 프린터까지 서로 다른 사안들이지만, 오늘의 공통된 정서는 플랫폼이 제공하는 편리함보다 그 뒤에 숨은 통제 비용이 더 크게 보이기 시작했다는 점이다.
도구·인터페이스·지식 작업
네 번째 축은 사람이 AI 산출물을 어떻게 읽고 다루느냐다. NotebookLM, HTML 산출물, 음성 인터페이스, unified filesystem, 검색 커넥터 같은 흐름은 좋은 도구가 답변보다 작업 흐름을 어떻게 조직하는지에 달려 있음을 보여준다.
에이전트 도입의 다음 전장: 비용 가시화, 음성 인터페이스, HTML 산출물
GeekNews · CodeBurn, Claude Code 활용기, VerbalCoding, GeekNews · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- CodeBurn은 18개 AI 코딩 도구의 세션 데이터를 로컬에서 읽어 비용·토큰·작업 유형을 추적한다; HTML 산출물은 계획서보다 코드 리뷰·리포트·프로토타입에서 가독성과 설명력을 높이는 인터페이스로 제안됐다; VerbalCoding은 Discord 음성 채널을 CLI 코딩 에이전트 제어 인터페이스로 바꾸려 한다
에이전트 생태계의 실전 단계는 이제 “어떤 모델이 더 좋나”에서 “이 워크플로를 사람이 어떻게 통제할 것인가”로 넘어가고 있다.
CodeBurn은 그 변화의 가장 직설적인 예다.
Claude Code, Codex, Cursor, Gemini CLI 등 18개 도구의 로컬 세션 로그를 직접 읽어 비용, 토큰, 모델별 성능, 작업 유형, 재시도율, 심지어 productive/reverted/abandoned 같은 산출물-기반 yield까지 계산한다.
에이전트가 여러 개 돌아가는 순간 예산은 더 이상 감이 아니라 운영지표가 되며, 비용 추적 도구가 “부가 기능”이 아니라 팀 운영의 기본층으로 내려오고 있다는 점이 읽힌다.
인터페이스 측면에서도 흥미로운 전환이 보인다.
Claude Code 활용기에서는 Markdown보다 HTML이 계획서, 코드 설명서, 리포트, 디자인 프로토타입에서 훨씬 표현력이 높아 사람을 더 “루프 안에” 머무르게 만든다고 주장한다.
이는 단순 포맷 취향이 아니라, 에이전트 산출물을 인간이 더 잘 검토하고 조정하게 만드는 새로운 중간 산출물의 실험으로 볼 수 있다.
VerbalCoding 역시 같은 방향의 신호다.
Discord 음성 채널을 통해 로컬 whisper, TTS, CLI 에이전트를 묶어 “전화하듯 코딩 에이전트를 지휘하는” 흐름을 만든다.
정리하면, 에이전트 경쟁은 모델 레벨에서 끝나지 않는다.
비용을 보이게 만들고, 중간 산출물을 사람이 읽기 쉬운 형태로 바꾸고, 음성 같은 저마찰 제어면을 더하는 쪽이 실제 업무 채택을 밀어 올리고 있다.
개발자들은 AI 앱보다 AI 개발 운영체계를 먼저 만들고 있다
Hacker News · david927 / Hacker News Ask HN thread, Hacker News · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- Ask HN 대형 스레드에서
engine.build는 구현-검증-리뷰-수정까지 내구성 있게 오케스트레이션하는 AI 코딩 엔진을 내세웠고,tsz는 Rust 기반 TypeScript 체커로tsc호환 테스트 99.8%와tsgo대비 3~5배 속도를 주장했다; 같은 스레드에서alint같은 저장소 구조 린터, 에이전트 협업 도구, AI가 사실상 대부분 구현한 제품 사례가 반복적으로 등장했다.
오늘의 Ask HN 스레드는 “무엇을 만들고 있나”라는 질문인데도 결과적으로는 “어떻게 AI와 함께 만들고 있나”에 대한 집단 진술처럼 읽힌다.
눈에 띄는 것은 완성형 소비자 AI 앱보다, AI를 더 길고 더 믿을 수 있게 쓰기 위한 운영 계층이 먼저 쌓이고 있다는 점이다. engine.build는 에이전트 코딩을 일회성 채팅이 아니라 구현, 검증, 리뷰, 수정, 최종화가 반복되는 내구성 있는 CI형 프로세스로 설명했고, aweb.ai는 에이전트끼리 정체성과 통신 경로를 가진 협업 구조를 만들겠다고 말한다. alint는 AI가 많이 만든 저장소일수록 구조, 파일 규칙, 스키마, 유니코드 오염 같은 정적 검증이 더 필요하다는 문제의식을 제품으로 바꿨다.
여기에 tsz처럼 아예 언어 도구체인 자체를 다시 쓰는 시도도 붙는다.
이 프로젝트는 Rust로 TypeScript 체커를 다시 만들면서 tsc 호환 테스트 99.8%와 기존 대안 대비 3~5배 속도를 내세웠다.
한편 오토바이 경로 플래너 Plot Along 제작자는 수천 개의 단위 테스트와 수백 개의 E2E 테스트, 에이전트용 별도 계정 운영까지 포함한 사실상 “AI 관리형 개발팀” 경험을 공유했다.
요약하면 오늘 HN의 개발자 정서는 새 챗봇보다 “AI가 실제로 일을 끝내게 만드는 파이프라인” 쪽으로 분명히 이동해 있다.
NotebookLM은 실험적 노트 도구를 넘어, 시험 준비와 프로젝트 착수에서 먼저 말을 거는 학습 인터페이스로 진화 중이다
Reddit · u/Heavy_Elderberry7769 / r/notebooklm, Reddit · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- AWS Solutions Architect Associate 준비생은 공식 시험 가이드 PDF와 핵심 AWS 화이트페이퍼 3~4개, 자기 강의 노트를 함께 업로드한 뒤 "오답 설명이 포함된 5문항 시험형 문제"를 반복 생성하는 방식이 실제로 기억 유지에 가장 도움이 됐다고 적었다.
- 별도 글에서는 새 노트북을 열었더니 NotebookLM이 먼저 시작 아이디어를 제안했다는 관찰이 나와, 도구가 수동 요약기에서 능동 프롬프터로 바뀌고 있음을 시사했다.
NotebookLM 관련 글은 양이 많지는 않지만 방향성이 명확하다.
첫 번째 축은 학습 루프의 구조화다.
AWS 자격증 준비생은 일반적인 강의·문제집·문서 조합에서 병목이 "자료 부족"이 아니라 "며칠 뒤면 다 잊어버리는 기억 유지 실패"였다고 썼다.
여기서 NotebookLM은 막연한 요약기가 아니라, 공식 시험 가이드와 핵심 화이트페이퍼, 그리고 자기 노트를 함께 교차 참조해 시험형 질문을 생성하는 훈련 파트너로 쓰였다.
특히 단순 정답 제시가 아니라 "각 오답이 왜 틀렸는지" 설명을 붙이라는 프롬프트가 실제 이해에 가장 큰 차이를 만들었다는 점이 중요하다.
사용자는 정답을 외우는 대신 함정 보기를 식별하는 훈련을 하게 된다.
두 번째 축은 인터페이스 변화다.
다른 사용자는 새 노트북을 열자 NotebookLM이 먼저 "무엇을 시작할지" 아이디어를 제안했다고 썼다.
프로젝트 아이디어를 정리하려던 시점에 도구가 선제적으로 발화를 시작했다는 경험은, NotebookLM이 더 이상 사용자의 명령만 기다리는 수동형 도구가 아니라는 뜻이다.
먼저 질문을 던지고, 시작점을 제안하고, 사용자의 메모 흐름을 유도하는 능동형 인터페이스로 바뀌고 있다는 관찰이다.
이 둘을 합치면 NotebookLM의 포지셔닝도 달라진다.
한쪽에서는 시험 준비용 지식 압축기, 다른 한쪽에서는 프로젝트 킥오프용 발상 보조자로 기능한다.
공통점은 둘 다 "빈 페이지의 마찰"을 줄여준다는 점이다.
무엇을 읽어야 할지, 무엇을 물어야 할지, 무엇을 시험해야 할지부터 먼저 제안해 준다.
AI 생산성 도구의 다음 경쟁은 답변의 화려함보다, 사용자의 다음 행동을 얼마나 자연스럽게 설계해 주느냐에 있을 가능성이 크다.
비즈니스·도입·운영 감각
마지막 축은 실제 운영 환경에서 AI를 어떻게 들여오고, 어떻게 팔고, 어떻게 책임 경계를 긋느냐다. 의료·폐쇄망 도입, SaaS 첫 매출, 가격 설계, 계정 소유권과 범위 설정 같은 문제는 기술 선택 못지않게 중요했다.
창업·프로덕트 운영 커뮤니티에서는 "무엇을 만들까"보다 "누구를 위해 어떤 범위로, 어떤 가격과 판매 구조로 시작할까"가 더 현실적인 화두가 된다
Reddit · u/DrJonah345 외 / r/indiehackers, r/Entrepreneur, r/nextjs, [Reddit · 추가 출처](https://www.reddit.com/r/Entrepreneur/comments/1t9ffky/what_founders_actually_need_before_hiring/`, https://www.reddit.com/r/indiehackers/comments/1t9cwy7/your_low_price_is_be_scaring_customers_away/, `https://www.reddit.com/r/nextjs/comments/1t9cmcb/what_cms_and_hosting_setup_do_you_use_for_client/)
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- 첫 유료 SaaS 고객을 만든 작성자는 10개의 아이디어 중 7개를 만들기 시작했고 4개를 완성했으며, 그중 3개를 공개한 끝에 29달러짜리 첫 구독을 얻었다고 적었다.
- 다른 창업 조언 글은 개발자 채용 전에 먼저 문제, 타깃 사용자, 핵심 워크플로, 차별점을 명확히 해야 하며 MVP는 한 가지 아픈 문제와 한두 개 핵심 기능으로 시작해야 한다고 강조했다.
- 또 다른 글은 지나치게 싼 가격이 오히려 품질 신호를 망쳐 고객을 겁줄 수 있다고 주장했고, 세 가지 요금제 중 가운데 옵션이 '안전한 선택'으로 보이게 만드는 맥락 설계를 강조했다.
레딧의 창업·운영 계열 글들은 AI 담론과는 다른 듯 보이지만, 실제로는 같은 현실 감각을 공유한다.
첫 고객을 얻은 SaaS 창업자의 글은 거대한 성공담이 아니라, 수많은 실패 실험 끝에 겨우 29달러짜리 첫 구독을 만든 경험을 솔직하게 적는다.
10개의 아이디어를 떠올리고, 7개를 만들기 시작하고, 4개를 완성하고, 3개를 공개한 끝에 하나만 살아남았다는 서사는 요즘 개인 창업의 기본 리듬이 "정답 찾기"가 아니라 "빠른 반복과 작은 검증"이라는 점을 보여준다.
r/Entrepreneur의 MVP 조언 글은 이 감각을 더 선명하게 공식화한다.
많은 창업자가 개발자를 찾기 전에 이미 길을 잃는데, 실제로 필요한 것은 거대한 스펙이나 화려한 UI가 아니라 문제 정의, 명확한 타깃 사용자, 핵심 워크플로, 차별점이라는 네 가지라는 것이다.
좋은 MVP는 수십 개 기능이 아니라 한 가지 아픈 문제와 한두 개 핵심 기능, 그리고 빠른 피드백 루프에서 출발한다는 정리는 지나치게 익숙해 보이지만, AI로 생산성이 높아질수록 오히려 더 중요해진다.
빨리 만들 수 있다는 사실이 잘못된 것을 더 빨리 만들 위험도 키우기 때문이다.
가격과 판매 구조 이야기도 현실적이다.
낮은 가격이 무조건 매력적이지 않고, 오히려 "뭔가 문제 있는 상품"처럼 느껴질 수 있다는 글은 SaaS 가격 책정이 신뢰 설계라는 점을 짚는다.
가장 싼 옵션을 더 싸게 만드는 대신, 기본형·주력형·프리미엄형을 함께 제시해 가운데 옵션이 안전하고 정상적인 선택처럼 보이게 만드는 것이 더 중요하다는 주장이다.
여기에 Next.js 클라이언트 웹사이트 작업에서 CMS와 호스팅 계정 소유권을 누가 가져가는지, 월 유지보수에 무엇을 포함할지, EU에서 초보자가 피해야 할 실수는 무엇인지 묻는 글을 붙이면, 실제 운영자는 기술 선택보다 계약 구조와 책임 경계부터 고민하고 있다는 점이 보인다.
이 카테고리의 핵심은 "만드는 법"보다 "팔리고 유지될 형태로 시작하는 법"이다.
AI가 빌드 속도를 끌어올린 시대일수록, 좋은 문제 선정, 작은 범위 설정, 가격의 신뢰 신호, 고객 계정 소유권과 유지보수 범위 정의 같은 비코딩 결정이 성패를 가른다는 감각이 커뮤니티 전반에 퍼져 있다.
"남의 상품을 파는 회사"가 아니라 규제 인프라 자체가 되려는 창업 전략
YouTube · EO Global / Nico Laqua, Emily Yuan, YouTube · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- Corgi는 AI 보험회사가 되기 위해 단순 브로커 모델을 버리고 보험 캐리어 자체가 되기로 했다는 점, 기존 산업의 문제를 웹사이트나 마케팅이 아니라 기초 상품 구조에서 찾았다는 점, 규제 산업은 어렵고 자본 집약적이지만 한 번 인프라를 깔면 강한 진입장벽이 된다는 점, 젊은 팀의 장점으로 시간·집중력·기존 패러다임에 물들지 않은 시각을 강조한다는 점
EO Global에 나온 Corgi 창업자 Nico Laqua와 Emily Yuan의 이야기는 전형적인 "젊은 창업자의 패기" 서사를 넘어서, 왜 어떤 스타트업은 유통보다 인프라를 택하는지를 잘 보여 준다.
두 사람은 처음부터 보험업을 꿈꿨다기보다, 다른 스타트업을 하면서 직접 겪은 보험 구매 경험의 형편없는 품질에 문제의식을 느꼈다고 말한다.
보험료는 비쌌고, 응답은 느렸고, 절차는 불투명했으며, 브로커와 캐리어는 팩스와 전화에 의존하고 있었다.
이들은 처음에는 브로커리지 사업으로 시작했다.
이미 라이선스를 확보한 상태로 YC에 들어갔고, 계약 관리 회사들에 임베드되는 방식으로 프리미엄도 조금씩 쌓아 갔다.
표면적으로 보면 충분히 괜찮은 스타트업이 될 수 있었다.
그러나 더 깊이 파고들수록 문제는 프런트엔드나 마케팅이 아니라 보험 상품을 만드는 캐리어 레이어 그 자체에 있다는 결론에 도달했다.
즉, "좋은 UX를 얹는 것"으로는 바뀌지 않는 산업이라는 판단이었다.
이때 나온 결단이 Corgi의 정체성을 결정했다.
잘 굴러가던 브로커 모델을 접고, 직접 보험 캐리어가 되기로 한 것이다.
이는 회사 입장에서 거의 자살 행위처럼 보일 수도 있었다.
수년의 시간, 수천만 달러의 자본, 복잡한 규제 대응, 라이선스 획득, 그리고 그 사이 현금 고갈 위험을 감수해야 했기 때문이다.
실제로 창업자들은 회사가 여러 번 "almost ended" 상태에 갔다고 말하고, 사전 매출 단계에서 거액을 조달해야 했다고 회상한다.
하지만 그들은 바로 이 어려움이 경쟁 우위가 된다고 해석한다.
누구나 할 수 있는 브로커가 아니라, AI를 기본 전제로 설계된 새로운 금융기관이 되겠다고 했기 때문에, 결국 진입장벽 높은 코어 인프라를 선점하게 됐다는 것이다.
그들이 반복하는 문장은 "세상을 바꾸려면 남의 상품을 되파는 회사여서는 안 된다"는 말이다.
더 어렵고 더 느리더라도 카테고리 정의권이 있는 층으로 들어가야 한다는 주장이다.
이 서사는 동시에 젊은 창업자 서사의 다른 버전이기도 하다.
Nico는 어릴 때 여러 회사를 거쳤지만 "영향력이 큰 회사를 만들고 싶었다"고 말하고, Emily는 복잡한 문제를 끝까지 풀어내는 실행형 공동창업자로 묘사된다.
두 사람은 젊은 팀의 장점이 돈이 아니라 시간과 에너지, 그리고 기존 산업 상식에 길들여지지 않은 관점이라고 본다.
보험업 베테랑이라면 "이건 원래 이렇게 한다"며 넘길 부분을, outsider는 "왜 이렇게 해야 하지?"라고 다시 물을 수 있다는 것이다.
Corgi는 규제를 신비화하지도 않는다.
규정은 결국 "무엇을 해도 되고 무엇을 하면 안 되는지"를 적어 둔 문서이며, 이를 읽고 체계적으로 맞춰 가면 된다는 태도다.
물론 자본과 시간이 크게 들지만, 일단 첫 라이선스를 받고 나면 매출이 급격히 튀고, 고객은 가장 편리하고 가장 나은 상품 쪽으로 자연스럽게 이동한다는 경험도 공유한다.
이 영상이 남기는 핵심은 분명하다.
가장 큰 회사는 보통 가장 쉬운 문제를 푸는 곳이 아니라, 아무도 감당하고 싶지 않은 규제·자본·인프라의 벽을 넘어선 뒤에야 비로소 시장을 재정의하는 곳에서 나온다.
기타 주목할 콘텐츠
토큰 불안, 무료 크레딧, 환불 이슈가 겹치며 AI 도구 선택 기준이 "성능"에서 "경제성"으로 빠르게 이동한다
Reddit · u/sh_tomer 외 / r/LocalLLM, r/AI_Agents, r/ollama, [Reddit · 추가 출처](https://www.reddit.com/r/ollama/comments/1t9g1u3/just_received_refund_from_ollama_for_the_caching/`, https://www.reddit.com/r/VibeCodeDevs/comments/1t90408/free_api_credits_if_you_know_where_to_look/, `https://www.reddit.com/r/ClaudeCode/comments/1t9gnp3/kids_play_time_daddy_burned_all_his_claude_tokens/)
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- 로컬 LLM 찬성론의 출발점 자체가 "AI 구독이 계속 비싸지고, GitHub Copilot도 요청 기반에서 소비 기반 과금으로 이동했다"는 문제의식이었다.
- Claude 토큰을 모두 태워버렸다는 밈성 게시물과, 무료 API 크레딧 정보 공유, 2026년 무료 AI 스택 정리 글, Ollama의 캐싱 버그 환불 공지까지 이어지며 사용자는 실제로 모델 성능만큼이나 한도·과금·신뢰 가능한 청구를 민감하게 보고 있다.
비용 문제는 더 이상 부차적 이슈가 아니다.
오히려 많은 사용자에게는 모델 성능 논쟁보다 먼저 오는 현실 변수다.
로컬 LLM 장문의 출발점도 "AI 구독이 계속 비싸지고, Copilot도 소비 기반 과금으로 움직이기 시작했다"는 피로감이었다.
여기서 로컬 모델은 단지 프라이버시 대안이 아니라, 토큰을 세지 않고 실험할 수 있는 비용 구조의 대안으로 제시된다.
"카운팅하지 않아도 된다"는 표현은 성능 설명보다 경제적 해방감의 언어에 가깝다.
이 감정은 밈과 정보글 양쪽에서 동시에 포착된다. r/ClaudeCode의 "아이들아 놀 시간이다, 아빠가 Claude 토큰을 다 태웠다"는 짧은 글은 농담이지만, 그만큼 토큰 한도 소진이 커뮤니티 공통 경험이라는 뜻이다.
반대로 r/VibeCodeDevs와 r/AI_Agents에서는 어디서 무료 API 크레딧을 구할 수 있는지, 2026년 기준 어떤 무료 티어 조합이 가능한지 공유하는 글이 나온다.
Gemini 일일 15억 토큰, OpenAI의 데이터 공유 프로그램, Groq·Mistral·Hugging Face·OpenRouter·Deepinfra 같은 공급자 목록을 한데 묶어 소개하는 글은 사용자들이 이미 다중 공급자 조합을 생활화하고 있음을 보여준다.
하나의 메인 모델을 고르는 시대보다, 과금 구조가 다른 여러 벤더를 섞어 쓰는 시대에 가깝다.
가격 정책의 신뢰성도 예민한 이슈다. r/ollama에서는 캐싱 문제 때문에 세션/주간 한도가 예상보다 빨리 소진됐고, 특히 DeepSeek-V4-Pro에서 영향이 컸다며 지난달 구독료를 환불해 줬다는 메일 공유가 올라왔다.
이 사례는 사용자가 단순히 "비싸다"는 수준을 넘어, 제공자가 사용량을 정확히 계측하고 공정하게 청구하는지까지 감시하고 있음을 드러낸다.
무료 Kimi 2.6 복귀 같은 소식도 별것 아닌 짧은 업데이트처럼 보이지만, 실제 커뮤니티 반응은 "당장 써볼 수 있는 공짜 추론 창구가 하나 더 열렸다"는 의미로 받아들이는 분위기다.
결국 이 묶음에서 읽히는 핵심은 AI 툴 시장이 이제 순수 성능 경쟁만으로는 설명되지 않는다는 점이다.
사용자들은 비용 예측 가능성, 무료 체험 가능성, 과금의 투명성, 토큰 한도에 대한 스트레스 수준까지 포함해 도구를 평가한다.
그래서 로컬 LLM, 무료 크레딧, 환불 공지, 토큰 밈이 같은 날 같은 커뮤니티 층위에서 함께 떠오르는 것이다.
성능이 충분히 비슷해질수록, 경제성이 오히려 더 큰 차별점이 된다.
"잘 되는 영상"은 감각보다 시스템으로 만든다: 토픽-포맷-논지-훅-스크립트-편집의 6단계
YouTube · Kallaway Marketing / YouTube, YouTube · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- 제작자는 콘텐츠 생산을 6단계로 나누고 topic, format, substance, hook, script, edit 순으로 처리한다는 점, 토픽과 포맷은 Sandcastles.ai와 Claude를 통한 데이터 분석으로 검증한다는 점, 독창성은 substance 단계의 contrarian take와 supporting evidence에서 나온다고 본다는 점, 배치 운영은 10개 영상 단위로 돌리고 성과 측정은 conversion, follower, view 세 지표로 한다는 점
이 영상은 "AI로 콘텐츠를 대량 생산하되 AI 슬롭이 되지 않게 만드는 법"을 매우 체계적으로 풀어낸다.
Kallaway는 자신이 매일 실행하는 시스템을 기반으로, 숏폼 제작을 topic, format, substance, hook, script, edit의 6단계로 쪼갠다.
여기서 중요한 전제는 창의성 전체를 AI에 넘기지 않는다는 점이다.
오히려 가장 지루하고 반복적인 탐색, 정리, 분류, 초안화 과정을 AI에 맡기고, 사람은 후반부의 논지 설계와 자기만의 시각에 집중해야 한다는 설계다.
그는 첫 단계인 토픽 선정에서 감각 대신 데이터를 쓴다.
Sandcastles에 2030개의 경쟁 채널을 watch list로 만들고, 팔로워 수 1만100만의 마이크로·스몰·미디엄 계정을 중심으로 outlier score와 engagement rate를 걸어 최근 3~6개월의 상위 영상을 모은다.
이후 상위 약 100개 영상을 deep analyze해서 transcript, topic, hook format, storytelling format 등 세부 태그를 CSV로 뽑고, Claude에 넣어 "이 분야에서 어떤 구체 토픽이 잘 먹혔는지"와 "어떤 주제 버킷이 평균적으로 가장 강한지"를 역으로 구조화한다.
그다음 포맷 단계에서도 데이터 활용이 이어진다.
제작자는 소셜에서 반복적으로 먹히는 포맷이 대략 20개 내외의 버킷으로 수렴한다고 보고, 자신이 만든 포맷 라이브러리와 Sandcastles 분석 결과를 함께 쓴다.
브레이크다운, 티어리스트, 랭킹, 브래킷처럼 내러티브를 강하게 규정하는 포맷은 훅 구조와 시청 지속 방식도 달라지므로, 토픽과 포맷이 잠기기 전에는 다음 단계로 가지 않는다고 못 박는다.
이 구조에서 가장 중요한 창의적 국면은 세 번째 단계인 substance다.
Kallaway는 여기서 콘텐츠의 "소스 레이어"가 만들어진다고 본다.
핵심은 contrarian take, 즉 대부분이 아직 명확히 말하지 않았지만 일단 들으면 납득할 수 있는 비정형적 주장 하나와, 그것을 뒷받침하는 사실·사례·비유·반례·비교 증거를 만드는 것이다.
그는 예시로 "좋은 훅은 말보다 화면 텍스트가 훨씬 중요하다" 같은 통념 전복형 명제를 든다.
데이터가 무엇을 만들지 방향을 잡아 준다면, 이 단계는 "내가 이 주제에 대해 진짜로 알고 있는 비상식적 통찰"을 꺼내는 자리다.
그래서 그는 경험 없는 창작자는 늘 남의 말을 재포장하게 되고, 반대로 진짜 전문성이 있는 사람은 이 지점에서 비로소 남과 다른 콘텐츠를 만든다고 강조한다.
후반부는 훅-스크립트-편집의 실무 설계로 이어진다.
훅은 visual hook, text hook, spoken hook으로 나누고, 같은 포맷 안에서 잘된 사례들의 hook 템플릿을 Claude가 Mad Lib 형태로 추출하도록 만든다.
이후 자신이 선택한 topic과 format에 맞게 그 템플릿을 재생성하게 해 "포맷별 데이터 기반 훅 머신"처럼 활용한다.
스크립트 단계에서는 한 명의 크리에이터, 가능하면 본인 채널의 상위 퍼포먼스 영상 10~20개를 모아 transcript를 정제한 뒤, Claude에게 tone·rhythm·style을 학습한 "script writing skill"을 만들게 한다.
그는 여러 화자의 말투를 섞으면 오히려 스크립트가 평준화되므로 한 사람의 리듬을 뚜렷하게 모델링해야 한다고 말한다.
편집은 아직 완전 자동화보다 외주나 직접 숙련이 낫다고 보지만, Remotion과 Claude Code 조합 같은 AI 편집 보조 흐름이 서서히 올라오고 있다는 판단도 덧붙인다.
마지막으로 이 시스템을 한 번짜리 트릭이 아니라 운영 체계로 만들기 위해 10개 영상 단위의 배치 프로세스를 제안한다.
한 번의 리서치와 토픽·포맷 분석으로 10개의 후보를 만들고, 10일 연속 배포한 뒤 conversion per video, followers per video, total views 세 지표를 본다.
이 중 하나라도 평균 대비 5배를 넘기면 다음 배치의 10개 중 3개는 그 주제·포맷 조합을 변주하고, 10배 이상이면 거의 같은 조합을 재시도한다.
결국 감으로 찍는 것이 아니라, 데이터로 출발하고 비정형적 논지로 차별화한 뒤, 승자 패턴만 다음 배치로 전이시키는 것이 이 시스템의 본질이다.
NASA의 달 복귀는 과학 이벤트가 아니라 국가 역량 재건 프로젝트라는 주장
YouTube · a16z / Jared Isaacman 인터뷰, YouTube · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- 달 복귀는 약속 이행이자 중국과의 전략 경쟁이라는 점, NASA는 SLS 발사 주기를 수년에서 수개월 단위로 줄이겠다는 목표를 제시했다는 점, 현재 지연 원인을 경쟁 부재·핵심 역량 아웃소싱·관료적 자본 배분 실패로 진단한다는 점, 달 기지는 곧바로 dream state로 점프하는 대신 launch-lander-rover-demand signal을 단계적으로 키워야 한다는 점, 화성은 핵추진·핵전력을 포함한 장기 로드맵으로 연결된다는 점
Jared Isaacman은 이 인터뷰에서 NASA의 달 복귀를 단순한 탐사 프로그램이 아니라 미국의 기술적 신뢰성과 전략적 의지를 입증하는 국가 프로젝트로 재정의한다.
그는 "35년 동안 약속했고 1,000억 달러를 썼는데 끝내 못 돌아간다면, 그것은 단지 우주에서의 실패가 아니라 미국 전반의 시스템이 고장 났다는 신호가 된다"는 식으로 문제를 압축한다.
특히 중국이 2030년 이전을 목표로 달 접근을 밀어붙이는 상황에서, 미국이 "prime lunar real estate"를 경쟁자에게 내주는 모양새를 보이면 그 상징적 타격이 과학 영역을 넘어선다고 본다.
그래서 달 복귀는 과학적 호기심의 문제가 아니라 국가안보, 산업정책, 기술 리더십의 시험대로 제시된다.
발표자는 Artemis 2의 비행, 달 기지 구축, 그리고 "이번에는 가서 머문다"는 구호를 반복하며, 이는 대통령의 정치적 약속이자 NASA의 명시적 임무라고 설명한다.
영상의 실질적 핵심은 지연 원인에 대한 진단과 구조 개편 방향이다.
Isaacman은 NASA가 오랫동안 경쟁이 없는 상태에서 핵심 역량을 외주화했고, 산업 이해관계자와 정치적 이해를 다 맞추려다 자원을 분산했으며, 그 결과 발사 주기는 3년 반 단위로 늘어지고 하드웨어는 인도 시점에 이미 낡아 버렸다고 비판한다.
심지어 미션 컨트롤과 런치 컨트롤 같은 상징적 기능까지 아웃소싱돼 있고, Artemis 프로그램에 계약자와 서브컨트랙터가 지나치게 많아 서로 다른 소프트웨어와 협업 체계 아래에서 일하고 있다는 점을 들어, 현재의 지연은 놀랄 일이 아니라고 말한다.
그가 제시하는 해법은 단순하다.
NASA 내부 핵심 역량을 다시 세우고, SLS 발사 주기를 "years to months"로 낮추며, 책임 있는 엔지니어를 주요 협력사에 직접 심고, CEO 단위로 30일마다 일정을 리뷰하겠다는 것이다.
그는 아폴로 시절의 cadence와 muscle memory를 예로 들며, 몇 년에 한 번 발사하는 구조로는 절대 운영 감각이 축적되지 않는다고 본다.
또 하나 중요한 지점은 달 기지 전략을 "dream state"가 아닌 점진적 시스템 구축으로 바꾸겠다는 선언이다.
그는 곧바로 모든 것을 갖춘 거대한 월면 경제를 상정하기보다, 먼저 launch, lander, rover, power, navigation, communications, in-situ resource manufacturing에 대한 수요 신호를 산업에 명확히 주고, 저궤도 랑데부와 무인 시험을 통해 리스크를 단계별로 줄이는 방향을 강조한다.
Blue Origin과 SpaceX 같은 업체가 2027년 무인 시험을 예정하고 있는 만큼, NASA는 이들과 더 낮은 위험의 중간 단계를 설계해 달 착륙 성공 확률을 높이겠다는 입장이다.
달은 동시에 화성의 proving ground로 등장한다.
남극 얼음 활용, 자원 채굴, 추진제 생산, 귀환 능력 검증이 모두 화성 왕복의 전제이기 때문이다.
여기에 핵전력·핵추진 기술이 "next giant leap"로 연결된다.
Isaacman은 현재 예산 250억 달러면 임무를 충분히 해낼 수 있다고 보지만, 전제는 더 많은 돈이 아니라 훨씬 더 엄격한 자본 배분과 목표 집중이다.
그의 메시지는 분명하다.
미국이 우주에서 다시 승리하려면, 탐사 낭만보다 운영 역량·수요 신호·반복 가능한 실행 구조를 먼저 회복해야 한다.
버핏 이후의 버크셔를 말하는 첫 CEO: 변화보다 연속성, 성장보다 리스크 관리
YouTube · 비즈니스캔버스 B_ZCF / Greg Abel 인터뷰, YouTube · 추가 출처
이 항목은 오늘의 다른 논의와 직접 연결된다.
모델 자체의 우열보다 운영 방식, 비용 구조, 검증 가능성, 통제권 가운데 어디에 무게가 실리는지를 보여 주는 사례로 읽으면 맥락이 선명해진다.
핵심 수치와 사실:
- Greg Abel은 버핏 이후 첫 주주총회에서 가장 먼저 "버크셔의 깊은 경영진 층"을 보여 주려 한다는 점, 버핏은 여전히 매일 사무실에 나오며 주요 sounding board 역할을 한다는 점, Abel은 자신의 역할을 risk management와 5년·10년 후 위험을 읽는 일로 정의한다는 점, 원가 상승과 인플레이션은 즉시 비용 압박으로 나타나지만 가격 조정에는 시차가 있다는 점, Pilot 사례를 통해 단기·장기 인센티브 정렬의 중요성을 다시 강조한다는 점
이 인터뷰는 버크셔 해서웨이의 "포스트 버핏" 시대를 dramatic change가 아니라 disciplined continuity의 언어로 포장한다.
Greg Abel은 60년 만에 새로운 CEO가 주주총회를 이끄는 첫 해라는 상징성을 인정하면서도, 가장 먼저 주주들에게 전달하고 싶은 메시지는 버핏 개인의 카리스마가 사라지는 것이 아니라 버크셔 전체의 깊은 이해와 운영 철학이 팀 차원에서 계속된다는 점이라고 말한다.
그래서 올해 주주총회의 변화도 새 전략 발표가 아니라, Ajit Jain과 Katie Farmer 같은 핵심 경영진을 무대에 올려 "버크셔 안에는 이미 두터운 리더십이 존재한다"는 사실을 보여 주는 방향으로 잡힌다.
이는 후계 승계기 커뮤니케이션의 교과서 같은 장면이다.
새로운 CEO가 자기 색을 과시하기보다, 조직의 역사와 층위를 먼저 가시화한다.
Abel의 경영 설명에서 반복되는 단어는 성장보다 리스크다.
그는 자신의 일을 "코너 너머를 보는 risk management"로 규정하고, 현재 위험보다 5년 뒤, 10년 뒤에 각 사업이 어떤 구조적 변화를 맞을지를 묻는 대화가 중요하다고 말한다.
보험사업에서는 가격 책정이 즉각 중요하지만, 동시에 더 장기적인 인플레이션 위험을 어떻게 읽을 것인지가 더 본질적이라고 보고, 비보험 사업에서도 공급자·고객·규제 환경의 변화를 계속 수집해야 한다고 설명한다.
중동 전쟁과 에너지 가격 상승에 대한 답변도 비슷하다.
화학 계열 사업은 원가 상승을 즉시 맞지만 고객 계약과 가격 조정은 시차를 갖기 때문에, 단기 실적 압박을 감당하면서도 공정하고 지속 가능한 가격 재설정 경로를 찾아야 한다는 것이다.
즉, 위기를 거창한 거시 논평으로 말하기보다 사업 단위의 시간차와 조정 메커니즘으로 말하는 점이 Abel식 톤이다.
후계 체제의 실제 운용 방식도 흥미롭다.
Abel은 여전히 버핏이 매일 출근하며 훌륭한 sounding board 역할을 하고 있다고 설명하고, 동시에 Adam과 다른 비보험 계열 리더들, 그리고 각 사업의 시니어 운영자들로부터 현장 감각을 끌어온다고 말한다.
이는 찰리 멍거 1인에 대응하는 새 "짝"을 만들기보다, 넓은 정보망을 가진 분산형 조언 구조로 넘어가는 모습에 가깝다.
그는 Pilot 인수 사례를 다시 언급하며, 거래 구조 안에서 단기·장기 목표 정렬을 제대로 설계하지 못한 점을 실수로 인정한다.
또 1990년대 영국 유틸리티 사업을 맡았던 초기 경험을 돌아보며, 산업 환경이 바뀌는데 필요한 스킬셋을 제때 들이지 못하면 좋은 팀이 있어도 실패할 수 있다고 말한다.
이 인터뷰의 요지는 버크셔가 여전히 강하다는 단순 선언이 아니다.
오히려 버크셔식 강함이란 화려한 전환 선언이 아니라, 인센티브 정렬, 장기 위험 감지, 리더십 층의 공개, 그리고 자본 배분의 절제 같은 지루하지만 반복 가능한 경영 습관 위에 서 있다는 점을 확인하는 데 있다.
교차 분석
오늘의 묶음을 가장 잘 설명하는 문장은 “주변부가 본체가 되고 있다”는 표현이다.
예전에는 모델 성능이 중심이고 비용, 보안, 데이터 접근, 롤백, 계정 소유권, UI 표현 방식은 부수적 문제처럼 취급됐지만, 이제는 그 주변 요소들이 실제 채택을 결정한다.
SNS에서 말하는 thin skill, fat harness나 Hermes의 운영 계층, Reddit에서 반복된 worktree 분리와 인간 소유권 강조, GeekNews에서 드러난 비용·HTML·음성 인터페이스 논의는 모두 같은 방향을 가리킨다.
잘되는 에이전트는 더 많이 생각하는 모델이 아니라 더 잘 격리되고, 더 잘 관측되고, 더 잘 멈추는 시스템이라는 인식이 퍼지고 있다.
로컬 추론과 인프라 비용 축도 같은 맥락이다.
온디바이스 AI를 지지하는 글은 프라이버시만 말하지 않고 네트워크 실패, API 과금, 벤더 장애를 피하는 설계를 말했고, 로컬 LLM 사용기 역시 품질의 절대 우위를 주장하지 않고 언제 어떤 작업에서 쓸 만한지 구체적으로 계산했다.
전력망 기사와 토큰 비용 논의까지 함께 읽으면, AI는 이제 추론 품질만이 아니라 전기요금, 저장공간, VRAM, GPU 레이어 수, 무료 크레딧, 청구 신뢰성의 문제이기도 하다.
프라이버시·보안·플랫폼 마찰도 독립 이슈가 아니었다.
VPN 우회 압박, ghost participant식 암호화 우회, Obsidian 플러그인 악용, GitHub·AWS 피로, 하드웨어 attestation 비판, URL 무결성 논쟁은 모두 “누가 내 작업 표면을 통제하느냐”는 질문으로 돌아온다.
AI가 도입될수록 사람들은 중앙 플랫폼이 주는 편리함보다, 그 대가로 잃는 권한과 관측 가능성을 더 민감하게 따지기 시작했다.
비즈니스와 도입 측면에서는 속도보다 경계가 중요해졌다.
폐쇄망과 의료 도입 사례는 완전 통합이 불가능한 환경에서도 우회 초안 생성, 복사·붙여넣기, 로컬 모델, 별도 워크스페이스 같은 방식으로 실용성을 확보하는 모습을 보여줬다.
창업 커뮤니티의 첫 매출과 가격 전략 논의도 같은 구조다.
AI가 빌드 속도를 높일수록, 무엇을 만들지보다 어떤 범위로 시작할지, 누가 비용을 낼지, 누가 유지보수 권한을 가질지가 더 본질적인 질문이 된다.
오늘은 논문 데이터가 비어 있었지만, 오히려 그래서 실전 운영 신호가 더 선명하게 보였다.
연구도, 제품도, 커뮤니티도 한 방향으로 수렴한다.
좋은 AI 시스템은 더 화려한 출력이 아니라 더 강한 운영 규율, 더 작은 마찰, 더 높은 설명 가능성, 더 명확한 통제권 위에서 성립한다.
Powered by skim