AI.zip
  • AI 모델
  • 방법론
  • AI 서비스
  • 가격 비교
  • 블로그

AI.zip

AI 모델, 서비스, 방법론을 큐레이션하는 에디토리얼 플랫폼

탐색

  • AI 모델
  • AI 서비스
  • 방법론
  • 블로그

커뮤니티

  • 소개
  • 디스코드 참여
  • 문의

법적고지

  • 이용약관
  • 개인정보처리방침

© 2026 ai.zip. All rights reserved.

Discord 커뮤니티
모델Anthropic: Claude Sonnet 4

Claude Sonnet 4

AnthropicLLM자연어 처리컴퓨터 비전오디오 처리200K 토큰
2025년 5월 23일Proprietary

한줄 소개

Claude Sonnet 4는 Anthropic이 2025년 5월 22일에 출시한 4세대 중급 AI 모델이다. Claude Opus 4와 함께 발표되었으며, 코딩과 에이전트 작업에 특화된 하이브리드 추론 모델로 설계되었다. Sonnet 라인업의 전통대로 성능과 비용의 균형을 잡는 것이 핵심 포지션이며, 실제로 SWE-bench Verified에서 72.7%를 기록하며 출시 당시 최상위 코딩 벤치마크 성적을 달성했다.

주요 특징

Claude Sonnet 4가 이전 세대 Sonnet 3.7과 구분되는 핵심 포인트는 다음과 같다.

하이브리드 추론 아키텍처: 즉시 응답 모드와 확장 사고(Extended Thinking) 모드를 상황에 따라 전환한다. 단순 질문에는 빠르게 답하고, 복잡한 추론이 필요한 경우 내부적으로 긴 사고 과정을 거친다. 확장 사고 모드에서는 GPQA Diamond가 70.0%에서 83.8%로, AIME가 33.1%에서 90.0%로 크게 상승한다 (출처: 공식 블로그).

코딩 에이전트 최적화: GitHub이 Copilot의 코딩 에이전트 구동 모델로 Claude Sonnet 4를 채택했다. 자율적으로 코드베이스를 탐색하고, 파일을 수정하며, 테스트를 실행하는 에이전트 워크플로우에 최적화되어 있다. 실사용자들은 "페어 프로그래머로 쓸 때 Sonnet이 가장 자연스럽다"고 평가한다 (출처: Reddit 커뮤니티 후기).

정밀한 지시 수행력(Steerability): Anthropic이 특히 강조한 개선 사항이다. 복잡한 지시를 정확히 따르는 능력이 향상되었고, 에이전트 시나리오에서의 오류율이 감소했다. 실제로 "Sonnet 4는 컨텍스트를 먼저 읽고 나서 코드를 수정한다"는 평가가 개발자 커뮤니티에서 자주 나온다.

도구 사용 중 추론: 확장 사고 모드에서 웹 검색 등 도구를 호출하면서 동시에 추론을 이어갈 수 있다. 추론과 도구 사용을 번갈아 수행하는 것은 에이전트 작업에서 핵심적인 차별점이다.

멀티모달 입력: 텍스트와 이미지를 동시에 입력받아 처리할 수 있으며, MMMU(시각적 추론) 벤치마크에서 74.4%를 달성했다 (출처: llm-stats.com).

Claude Sonnet 4 핵심 역량

할 수 있는 것

코딩 에이전트: Sonnet 4가 가장 빛나는 영역이다. Claude Code와 결합하면 대규모 코드베이스에서 자율적으로 이슈를 분석하고, 코드를 수정하고, 테스트를 돌리는 전체 워크플로우를 수행한다. Reddit 개발자들은 "git 작업이나 bash 스크립팅 같은 비코딩 CLI 작업에서도 편하다"고 평가한다. SWE-bench Verified 72.7%라는 수치가 이를 뒷받침하는데, 고컴퓨팅 환경에서는 80.2%까지 올라간다 (출처: 공식 블로그).

대규모 코드 리뷰: 200K 토큰 컨텍스트 윈도우(베타로 1M까지 확장 가능)를 활용해 전체 프로젝트를 한 번에 분석할 수 있다. "아키텍처 토론이나 큰 기능 단위의 설계에서 특히 강하다"는 평가가 있다 (출처: Reddit 커뮤니티).

전문 분야 질의응답: GPQA Diamond 75.4%로 대학원 수준의 과학/수학 문제에서 경쟁력 있는 성능을 보인다. MMLU 86.5%, MMLU-PRO 83.7%로 광범위한 지식 영역을 커버한다 (출처: llm-stats.com).

GUI 기반 컴퓨터 사용: OSWorld 43.9%로 GUI 환경에서의 자동화 작업에서도 의미 있는 성능을 보여준다. 웹 브라우저 조작, 데스크톱 앱 자동화 등 컴퓨터 사용 에이전트로서의 역할이 가능하다 (출처: llm-stats.com).

다만 한계도 있다: 수학 경시대회 수준의 문제에서는 AIME 70.5%로 Gemini 2.5 Pro(86.7%)에 뒤처진다. TerminalBench 35.5%는 CLI 환경 코딩에서 아직 개선 여지가 있음을 보여준다. 한국어 사용자들 사이에서는 "영어 대비 한국어 응답 품질이 약간 떨어진다"는 피드백이 있으며, 한국어 토큰 효율 데이터는 미공개 상태다.

성능

벤치마크 요약

벤치마크점수카테고리출처
SWE-bench Verified72.7%Agentic공식 블로그
HumanEval96.3%LLMllm-stats.com
GPQA Diamond75.4%LLM공식 블로그
MMLU-PRO83.7%LLMllm-stats.com
MMLU86.5%Capabilityllm-stats.com
MMMU74.4%Capabilityllm-stats.com
OSWorld43.9%Agenticllm-stats.com
AIME 202570.5%수학llm-stats.com
TerminalBench35.5%Agentic공식 블로그
tau-bench (Retail)80.5%Agentic공식 블로그
tau-bench (Airline)60.0%Agentic공식 블로그

경쟁 모델 비교

코딩 벤치마크에서 Sonnet 4는 같은 가격대의 경쟁 모델을 압도한다. SWE-bench Verified 72.7%는 GPT-4.1의 54.6%, Gemini 2.5 Pro의 63.8%를 크게 앞선다 (출처: 공식 블로그, analyticsvidhya.com). 같은 Anthropic 라인업의 Opus 4(72.5%)와 비슷한 수준이면서 가격은 5분의 1이라는 점이 핵심 가성비 포인트다.

반면 수학과 추론 영역에서는 Gemini 2.5 Pro가 더 강하다. AIME에서 Gemini 2.5 Pro는 86.7%를 기록해 Sonnet 4의 70.5%를 앞선다. 순수 추론 성능만 따지면 중상위권이지만, 코딩과 에이전트 작업에서의 우위가 전체 가치를 끌어올린다.

실사용자들의 체감 평가를 보면, "벤치마크 수치보다 실제 코딩 작업에서의 안정성이 더 인상적이다"는 의견이 많다. 특히 "복잡한 로직을 다룰 때 차트 라이브러리, API 통합, 상태 관리 패턴 사이의 컨텍스트 전환을 놓치지 않는다"는 구체적인 후기가 있다 (출처: Reddit 커뮤니티). 반면 "사용량 제한에 자주 걸린다"는 불만도 Pro 구독자($20/월) 사이에서 빈번하게 나온다.

Claude Sonnet 4 벤치마크 비교

사용 방법

웹/앱 (일반 사용자): claude.ai에서 무료로 사용 가능하다. Pro 플랜(20/월),Max플랜(20/월), Max 플랜(20/월),Max플랜(100/월, $200/월), Team 플랜, Enterprise 플랜이 있다. 무료 사용자도 Sonnet 4에 접근할 수 있지만, 사용량에 제한이 있다.

API (개발자): Anthropic API(platform.claude.com), Amazon Bedrock, Google Cloud Vertex AI를 통해 사용 가능하다. 모델 ID는 claude-sonnet-4-20250514이다. 확장 사고 모드는 API에서 별도 파라미터로 활성화하며, 1M 컨텍스트 윈도우는 베타 헤더(context-1m-2025-08-07)를 추가해서 사용한다.

Claude Code (에이전트 개발자): 터미널에서 claude 명령어로 실행하는 에이전트 코딩 도구로, Sonnet 4가 기본 모델이다. 코드베이스 탐색, 파일 수정, 테스트 실행 등을 자율적으로 수행한다.

가격

구독 요금: 무료 티어(제한적), Pro 20/월,Max20/월, Max 20/월,Max100/월 또는 $200/월. Team과 Enterprise는 별도 문의.

API 가격: 입력 3.00/1M토큰,출력3.00/1M 토큰, 출력 3.00/1M토큰,출력15.00/1M 토큰. Batch API 사용 시 50% 할인(1.50/1.50/1.50/7.50)이 적용되며 24시간 이내 처리된다. 프롬프트 캐싱으로 반복 입력 비용을 추가 절감할 수 있다.

가성비 평가: Opus 4와 거의 동일한 코딩 성능(SWE-bench 72.7% vs 72.5%)을 5분의 1 가격에 제공한다는 점이 최대 장점이다. GPT-4.1(2/2/2/8)보다 비싸지만 코딩 성능이 월등히 높고, Gemini 2.5 Pro(1.25/1.25/1.25/10)보다 비싸지만 SWE-bench에서 약 9%p 앞선다. 실사용자들은 "코딩 에이전트 용도로는 Sonnet 4의 가성비가 최고"라고 평가하지만, "Pro 플랜의 사용량 제한이 빡빡하다"는 불만도 있다 (출처: Reddit, gamsgo.com).

한국어 토큰 효율 데이터는 미공개이나, Anthropic의 공식 문서에 따르면 한국어는 "고자원 언어"로 분류되어 영어 대비 80% 이상의 성능을 유지한다고 밝히고 있다 (출처: platform.claude.com 다국어 지원 문서).

Claude Sonnet 4 가격 비교

기술 사양

항목사양
모델 IDclaude-sonnet-4-20250514
개발사Anthropic
출시일2025년 5월 22일
컨텍스트 윈도우200,000 토큰 (베타: 1,000,000 토큰)
최대 출력64,000 토큰
입력 모달리티텍스트, 이미지
출력 모달리티텍스트
지식 기준일2025년 3월 1일
학습 데이터 마감2025년 1월 31일
라이선스Proprietary (독점)
아키텍처하이브리드 추론 (즉시 응답 + 확장 사고)
API 가격입력 3.00/1M,출력3.00/1M, 출력 3.00/1M,출력15.00/1M
제공 플랫폼Anthropic API, Amazon Bedrock, Google Cloud Vertex AI
파라미터 수비공개

Claude Sonnet 4 기술 사양

참고 자료

Introducing Claude 4
anthropic.com

Introducing Claude 4

Discover Claude 4's breakthrough AI capabilities. Experience more reliable, interpretable assistance for complex tasks across work and learning.

Models overview
Claude API Docs

Models overview

Claude is a family of state-of-the-art large language models developed by Anthropic. This guide introduces the available models and compares their performance.

Pricing
Claude API Docs

Pricing

Learn about Anthropic's pricing structure for models and features

Claude 4 Sonnet - Intelligence, Performance & Price Analysis
artificialanalysis.ai

Claude 4 Sonnet - Intelligence, Performance & Price Analysis

Analysis of Anthropic's Claude 4 Sonnet (Reasoning) and comparison to other AI models across key metrics including quality, price, performance (tokens per second & time to first token), context window & more.

Claude Sonnet 4: Pricing, Benchmarks & Performance
LLM Stats

Claude Sonnet 4: Pricing, Benchmarks & Performance

Claude Sonnet 4, part of the Claude 4 family, is a significant upgrade to Claude Sonnet 3.7. It excels in coding (72.7% on SWE-bench) and reasoning, responding more precisely to instructions. Sonnet 4 offers an optimal mix of capability and practicality, with enhanced steerability, and supports extended thinking with tool use.

datacamp.com

datacamp.com

Multilingual support
Claude API Docs

Multilingual support

Claude excels at tasks across multiple languages, maintaining strong cross-lingual performance relative to English.

스펙

컨텍스트 윈도우

200K 토큰

라이선스

Proprietary

출시일

2025년 5월 23일

학습 마감일

2025년 1월 31일

가성비 지수

0.5

API 가격 (혼합)

입력 $3.00/1M

조회수

0

API 가격 (USD 기준)

입력 (Prompt)

$3.00 / 1M 토큰

출력 (Completion)

$15.00 / 1M 토큰

용도별 성능

태스크 관련 벤치마크 평균 점수

일반지식최강

83.7

다양한 분야 지식 및 이해

멀티모달

74.4

이미지, 비디오 등 멀티모달 이해

수학/추론

73.0

수학, 과학, 논리적 추론

Provider

Anthropic

Anthropic의 다른 모델

Anthropic: Claude 3.5 HaikuAnthropic: Claude Opus 4Anthropic: Claude 3 HaikuAnthropic: Claude 3.7 SonnetAnthropic: Claude Opus 4.5

분류

자연어 처리컴퓨터 비전오디오 처리TransformerLLM

성능 평가

꼭지점 클릭 → 벤치마크 행 이동

벤치마크카테고리이 모델전체 평균전체 최고단위
AIME 202670.589.195.8%

유사 모델 비교

모델ProviderLLM 점수GPQA·MMLU·MATH·IFEval·HumanEvalAgentic 점수SWE·τ-bench·OSWorld·GAIA
Claude Sonnet 4Anthropic81.866.5
o1-proOpenAI86.4-
o3OpenAI88.847.7
Grok 4.1 FastxAI74.4-
Command ACohere69.1-

관련 블로그 글

튜토리얼2026년 3월 21일

AI 워크플로우 에이전트 만들기: n8n + Docker로 처음부터 끝까지

## 뭘 만드나 이 튜토리얼을 끝까지 따라하면 n8n 기반의 AI 워크플로우 자동화 시스템을 만들 수 있다. 채팅 메시지를 입력하면 AI가 내용을 분석하고, 외부 서비스(Google Calendar, Slack 등)와 연동해서 자동으로 작업을 수행하는 에이전트다. 예를 들어 "내일 오후 3시에 팀 미팅 잡아줘"라고 입력하면 AI가 일정 정보를 추출해서 Google Calendar에 이벤트를 생성하고, Slack에 알림을 보내는 식이다. 사용 기술 스택: n8n(셀프호스팅), Docker Compose, PostgreSQL, OpenAI GPT-4o 또는 Anthropic Claude Sonnet, LangChain(n8n 내장). "이 튜토리얼을 끝까지 따라하면 이것을 만들 수 있다": HTTPS로 접근 가능한 AI 에이전트가 Docker 컨테이너 위에서 동작하고, 채팅 인터페이스로 대화하면 외부 API를 호출해서 실제 업무를 처리하는 시스템. ## 시작 전 준비 ![프로젝트 아키텍처 다이어그램](https://www.aizip.shop/leaderboard/api/uploads/blog/b13a55c9ee653ef3.png) 왜 n8n인가: 2026년 현재 워크플로우 자동화 도구 시장에서 n8n, Zapier, Make가 3강 구도를 형성하고 있다. Zapier는 8,000개 이상 앱 연동과 최저 진입 장벽으로 비개발자에게 적합하지만, 월 10,000 태스크 기준 연간 $3,588 수준으로 비용이 급증한다. Make는 시각적 빌더가 뛰어나고 가격 대비 성능이 좋지만 셀프호스팅이 불가능하다. n8n은 셀프호스팅 시 태스크 제한 없이 무료이며, n8n 2.0에서 LangChain 네이티브 통합으로 70개 이상 AI 노드를 제공한다. 데이터 주권이 중요하거나, 월 수만 건의 자동화를 돌려야 하는 팀이라면 n8n이 유일한 현실적 선택지다. 한 DEV Community 기고자는 Zapier에서 n8n으로 전환 후 연간 2,000 유로 이상을 절감했다고 보고했다. 비용 절감도 있지만, 실질적인 차이는 셀프호스팅으로 얻는 데이터 통제권과 커스텀 코드 노드(JavaScript/Python)로 만드는 자유도라고 설명했다. (출처: DEV Community) ### 사전 요구사항 - Docker Desktop 설치 (Docker Compose 포함) - OpenAI API 키 또는 Anthropic API 키 (하나만 있으면 된다) - 기본적인 터미널 사용 경험 - (선택) Google Calendar, Slack API 키 - Step 4 Tool 연동 시 필요 ### 버전 정보 (2026년 4월 기준) - n8n: v1.80+ (Docker 이미지 `n8nio/n8n:latest`) - Docker Compose: v2.x - PostgreSQL: 16 - Node.js: 18+ (n8n 내부 코드 노드용) ### 예상 API 비용 OpenAI GPT-4o 기준 테스트 단계에서 약 $0.50 ~ $2.00 수준. Claude Sonnet 사용 시에도 비슷한 범위. 이 튜토리얼의 모든 단계를 따라하며 여러 번 테스트해도 $5를 넘기기 어렵다. ## 진행 로드맵 ![수평 스텝 다이어그램](https://www.aizip.shop/leaderboard/api/uploads/blog/f52fd99b2d5885a1.png) ## Step 1: n8n Docker 환경 설정 (입문자 기준 약 15분, 추정치) 프로젝트 디렉토리를 만들고 Docker Compose 파일을 작성한다. ```bash mkdir ~/n8n-ai-agent && cd ~/n8n-ai-agent ``` `docker-compose.yml` 파일을 생성한다: ```yaml version: '3.8' services: postgres: image: postgres:16 restart: always environment: POSTGRES_USER: n8n POSTGRES_PASSWORD: n8n_password POSTGRES_DB: n8n volumes: - postgres_data:/var/lib/postgresql/data n8n: image: n8nio/n8n:latest restart: always ports: - "5678:5678" environment: - DB_TYPE=postgresdb - DB_POSTGRESDB_HOST=postgres - DB_POSTGRESDB_PORT=5432 - DB_POSTGRESDB_DATABASE=n8n - DB_POSTGRESDB_USER=n8n - DB_POSTGRESDB_PASSWORD=n8n_password - N8N_ENCRYPTION_KEY=your-encryption-key-here volumes: - n8n_data:/home/node/.n8n depends_on: - postgres volumes: postgres_data: n8n_data: ``` 컨테이너를 실행한다: ```bash docker compose up -d ``` > 왜 PostgreSQL인가: n8n은 기본적으로 SQLite를 사용하지만, 프로덕션 환경에서는 PostgreSQL이 권장된다. 워크플로우 실행 이력과 자격증명을 안정적으로 저장하고, 컨테이너 재시작 시에도 데이터가 유지된다. n8n 공식 문서에서도 Docker 배포 시 PostgreSQL 사용을 명시적으로 권장하고 있다. 체크포인트: 브라우저에서 `http://localhost:5678`에 접속하면 n8n 초기 설정 화면이 나타나면 성공. 이메일과 비밀번호를 입력해서 owner 계정을 생성한다. 실패 경로: - `port 5678 already in use` 에러 -> `docker-compose.yml`에서 포트를 `5679:5678`로 변경 후 `docker compose up -d` 재실행 - `postgres` 컨테이너가 계속 재시작 -> `docker logs n8n-ai-agent-postgres-1`로 로그 확인. 대부분 볼륨 권한 문제이며, `docker volume rm n8n-ai-agent_postgres_data` 후 재시작으로 해결 - n8n 컨테이너가 `postgres` 연결 실패로 종료 -> `depends_on`이 있어도 PostgreSQL 초기화가 늦을 수 있다. `docker compose down && docker compose up -d`로 재시작 ## Step 2: 트리거 + 기본 플로우 구성 (입문자 기준 약 10분, 추정치) n8n UI에서 첫 번째 워크플로우를 만든다. 1. 좌측 메뉴에서 "Workflows" > "Add Workflow" 클릭 2. 캔버스에 "Chat Trigger" 노드 추가 (노드 추가 버튼 `+` 클릭 후 검색) 3. "Set" 노드 추가하고 Chat Trigger의 출력에 연결 4. Set 노드에서 `response` 필드를 추가하고 값에 `{{ $json.chatInput }}` 입력 이 구성은 사용자가 채팅에 입력한 내용을 그대로 돌려주는 에코 워크플로우다. 단순하지만, 트리거-노드-출력의 기본 흐름을 확인하는 데 필수적이다. > 왜 Chat Trigger인가: n8n의 트리거 노드는 Webhook, Schedule, Chat Trigger 등 여러 종류가 있다. Chat Trigger를 선택하면 n8n UI 내에서 바로 채팅 인터페이스로 테스트할 수 있어서 외부 도구 없이 개발이 가능하다. 프로덕션에서는 Webhook 트리거로 교체해서 Slack이나 커스텀 프론트엔드와 연결할 수 있다. 체크포인트: 워크플로우를 활성화(토글 On)한 뒤, 좌측 하단 채팅 아이콘을 클릭해서 "hello"를 입력한다. "hello"가 그대로 응답으로 돌아오면 성공. 실패 경로: - 채팅 아이콘이 보이지 않음 -> 워크플로우가 비활성 상태. 우측 상단 토글을 확인 - `{{ $json.chatInput }}`이 빈 값 -> Chat Trigger 노드 설정에서 "Chat Input" 필드가 활성화되어 있는지 확인 ## Step 3: AI Agent 노드 연결 - MVE 완성 (입문자 기준 약 20분, 추정치) 이 단계가 핵심이다. n8n의 AI Agent 노드는 LangChain 프레임워크를 내장하고 있어서, 코드를 작성하지 않고도 AI 에이전트를 구성할 수 있다. 1. Step 2에서 만든 Set 노드를 삭제한다 2. "AI Agent" 노드를 추가하고 Chat Trigger에 연결한다 3. AI Agent 노드를 클릭하면 하단에 서브노드 연결 슬롯이 보인다: - "Chat Model" 슬롯: 여기에 LLM을 연결한다 - "Memory" 슬롯: 대화 기록 유지용 (이 단계에서는 비워둔다) - "Tool" 슬롯: 외부 도구 연결용 (이 단계에서는 비워둔다) 4. "OpenAI Chat Model" 또는 "Anthropic Chat Model" 노드를 추가해서 Chat Model 슬롯에 연결: OpenAI 사용 시: - Credential: "Create New Credential" > OpenAI API 키 입력 - Model: `gpt-4o` Anthropic 사용 시: - Credential: "Create New Credential" > Anthropic API 키 입력 - Model: `claude-sonnet-4-20250514` 5. AI Agent 노드의 System Message에 에이전트 역할을 지정한다: ``` You are a helpful assistant that helps users manage their schedule and tasks. When a user asks to create an event, extract the date, time, and description. Respond in Korean. ``` > 왜 AI Agent 노드인가: n8n에는 단순한 "OpenAI" 노드도 있지만, AI Agent 노드를 선택하는 이유는 Tool 연동과 Memory 지원 때문이다. 일반 LLM 노드는 텍스트 입출력만 처리하지만, AI Agent는 "이 작업을 하려면 Google Calendar API를 호출해야 한다"는 판단을 스스로 내릴 수 있다. n8n 2.0에서 LangChain 네이티브 통합이 이루어진 덕분에, ReAct(Think-Act-Observe) 루프가 노드 내부에서 자동으로 동작한다. 체크포인트: 채팅에 "안녕하세요, 당신은 누구인가요?"를 입력한다. AI가 한국어로 자기 소개를 응답하면 MVE(Minimum Viable Example) 완성. 이 시점에서 AI 에이전트의 기본 동작이 확인된 것이다. 실패 경로: - `401 Unauthorized` 에러 -> API 키 확인. Settings > Credentials에서 키 값이 정확한지 점검 - `model not found` 에러 -> 모델명 오타 확인. `gpt-4o`(소문자 o)인지, `claude-sonnet-4-20250514`인지 정확히 입력 - 응답이 영어로 나옴 -> System Message에 "Respond in Korean" 지시가 있는지 확인 - 토큰 초과 에러 -> System Message가 너무 길면 발생. 500자 이내로 줄여본다 ## Step 4: Tool 노드 연결 - 외부 서비스 연동 (입문자 기준 약 15분, 추정치) MVE가 동작하는 상태에서 AI Agent에 도구(Tool)를 추가한다. 이제 AI가 단순히 텍스트를 생성하는 것이 아니라, 실제 외부 API를 호출할 수 있게 된다. 1. AI Agent 노드의 "Tool" 슬롯에 "HTTP Request Tool" 노드를 추가한다 2. HTTP Request Tool 설정: - Name: `create_calendar_event` - Description: `Creates a new event on Google Calendar. Requires: summary (event title), startDateTime (ISO 8601), endDateTime (ISO 8601)` - Method: POST - URL: `https://www.googleapis.com/calendar/v3/calendars/primary/events` - Authentication: OAuth2 (Google Calendar API Credential 필요) - Body: ```json { "summary": "{{ $fromAI('summary') }}", "start": { "dateTime": "{{ $fromAI('startDateTime') }}" }, "end": { "dateTime": "{{ $fromAI('endDateTime') }}" } } ``` `$fromAI()` 함수는 n8n의 핵심 기능이다. AI Agent가 Tool의 Description을 읽고, 필요한 파라미터를 자체적으로 추출해서 전달한다. 개발자가 파싱 로직을 작성할 필요가 없다. > Google Calendar API 설정이 번거롭다면 대안이 있다. n8n에는 "Google Calendar" 전용 노드가 있어서 OAuth2 연결만 하면 된다. HTTP Request Tool 대신 "Google Calendar Tool" 노드를 Tool 슬롯에 연결하면 더 간단하다. 이 튜토리얼에서 HTTP Request를 먼저 보여주는 이유는, 대부분의 실무 API 연동이 HTTP Request 기반이기 때문이다. 체크포인트: 채팅에 "내일 오후 3시에 1시간짜리 팀 미팅 만들어줘"라고 입력한다. AI가 일정 정보를 추출하고 Google Calendar에 이벤트가 생성되면 성공. 실패 경로: - `403 Forbidden` -> Google Calendar API가 활성화되지 않음. Google Cloud Console에서 Calendar API 활성화 필요 - AI가 Tool을 호출하지 않음 -> Tool의 Description이 너무 모호하면 AI가 언제 사용해야 하는지 판단하지 못한다. Description을 구체적으로 작성 - 날짜 파싱 오류 -> System Message에 "현재 날짜는 2026-04-05이다. 날짜를 ISO 8601 형식으로 변환하라"를 추가 ## Step 5: Memory + RAG 확장 (입문자 기준 약 20분, 추정치) 여기까지 오면 AI 에이전트가 동작하지만, 대화 기록을 기억하지 못한다. 매번 새로운 대화처럼 취급된다. Memory 노드를 추가해서 이전 대화 맥락을 유지하게 만든다. ### 5 -1: 대화 메모리 추가 1. AI Agent 노드의 "Memory" 슬롯에 "Buffer Memory" 노드를 연결한다 2. Buffer Memory 설정: - Session Key: `sessionId` (기본값 사용) - Context Window Length: `10` (최근 10턴의 대화를 기억) 이것만으로 AI가 이전 대화를 기억한다. "아까 말한 미팅 시간 변경해줘"라는 요청을 이해할 수 있게 된다. > 왜 Buffer Memory인가: n8n은 Buffer Memory(인메모리), PostgreSQL Chat Memory(영구 저장), Zep Memory(외부 서비스) 등 여러 메모리 옵션을 제공한다. 개발 단계에서는 Buffer Memory가 가장 간단하다. 프로덕션에서는 PostgreSQL Chat Memory로 교체하면 컨테이너 재시작 후에도 대화 이력이 유지된다. 이미 docker-compose.yml에 PostgreSQL이 있으므로 교체가 간단하다. ### 5 -2: RAG(문서 검색) 추가 (선택) AI가 특정 문서를 참조해서 답변하게 만들려면 Vector Store를 추가한다. 1. "Vector Store Tool" 노드를 AI Agent의 Tool 슬롯에 추가 2. Vector Store로 "In-Memory Vector Store" 선택 (테스트용) 3. 임베딩 모델로 "OpenAI Embeddings" 노드 연결 4. 문서 로더로 "PDF Loader" 또는 "Text Loader" 연결 ``` Vector Store Tool 설정: - Name: search_company_docs - Description: Search internal company documents for policies, procedures, and guidelines - Top K: 3 ``` 이 구성은 회사 내부 문서를 검색해서 답변하는 사내 AI 어시스턴트의 기초가 된다. 체크포인트: - 메모리: "내 이름은 김개발이야"라고 입력한 뒤, 다음 메시지로 "내 이름이 뭐야?"라고 물어본다. "김개발"이라고 답하면 메모리가 정상 동작. - RAG: 문서를 로드한 뒤 해당 문서 내용에 대해 질문한다. 관련 내용을 인용하며 답하면 성공. 실패 경로: - 메모리가 동작하지 않음 -> Memory 노드가 AI Agent의 Memory 슬롯에 연결되어 있는지 확인. 독립 노드로 배치하면 동작하지 않는다 - Session ID 불일치 -> 매번 새 세션으로 취급되면 대화가 이어지지 않는다. Session Key 설정 확인 ## Step 6: 프로덕션 배포 (입문자 기준 약 10분, 추정치) 로컬에서 동작하는 AI 에이전트를 외부에서 접근 가능하게 만든다. `docker-compose.yml`에 Nginx 리버스 프록시와 SSL을 추가한다: ```yaml nginx: image: nginx:alpine ports: - "80:80" - "443:443" volumes: - ./nginx.conf:/etc/nginx/conf.d/default.conf - certbot_data:/etc/letsencrypt depends_on: - n8n ``` `nginx.conf` 예시: ```nginx server { listen 80; server_name your-domain.com; location / { proxy_pass http://n8n:5678; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "upgrade"; proxy_set_header Host $host; } } ``` SSL은 Let's Encrypt certbot을 사용하거나, Cloudflare Tunnel을 활용하면 인증서 관리 없이 HTTPS를 적용할 수 있다. VPS 비용은 월 $5 수준(DigitalOcean, Contabo 등)이면 충분하다. n8n의 환경변수에 웹훅 URL을 추가한다: ```yaml - N8N_HOST=your-domain.com - N8N_PROTOCOL=https - WEBHOOK_URL=https://your-domain.com/ ``` 체크포인트: 외부 네트워크에서 `https://your-domain.com`으로 접속해서 n8n UI가 뜨면 성공. 채팅 워크플로우를 Webhook 트리거로 교체하면 Slack 봇이나 웹 프론트엔드와 연결할 수 있다. ## 확장 과제 ### 난이도: 쉬움 - Slack 봇 연동 Chat Trigger를 Slack Webhook으로 교체하고, Slack 채널에서 AI 에이전트와 대화하는 구조로 변경한다. n8n의 Slack 노드를 사용하면 30분 이내에 구현 가능. ### 난이도: 보통 - 다중 도구 에이전트 Google Calendar 외에 Gmail(이메일 전송), Google Sheets(데이터 기록), Notion(문서 관리) 등 여러 Tool을 AI Agent에 연결한다. AI가 사용자 요청에 따라 적절한 도구를 자동 선택하게 된다. n8n 커뮤니티에 6,200개 이상의 워크플로우 템플릿이 공개되어 있어 참고할 수 있다. (출처: n8n.io) ### 난이도: 어려움 - Orchestrator-Agent-Worker 패턴 2026년 n8n 생태계에서 주목받는 패턴으로, n8n이 오케스트레이터 역할을 하고 여러 AI 에이전트가 각자 전문 영역을 담당하는 구조다. 예를 들어 "리서치 에이전트"가 웹 검색을 수행하고, "작성 에이전트"가 보고서를 생성하며, "검수 에이전트"가 품질을 확인하는 파이프라인이다. 이 구조는 단일 에이전트보다 복잡하지만, 각 에이전트의 시스템 프롬프트를 작업 특화로 작성할 수 있어 품질이 높아진다. (출처: OpenClaw 2026 Conference) ## 트러블슈팅 ![의사결정 트리](https://www.aizip.shop/leaderboard/api/uploads/blog/f50b52fe1dbff6c8.png) ### Docker 컨테이너 문제 - `docker compose up` 시 에러 -> `docker compose version`으로 v2 이상인지 확인. macOS의 Docker Desktop 최신 버전이면 기본 포함 - 메모리 부족 -> Docker Desktop Settings > Resources에서 메모리를 4GB 이상으로 설정 - 볼륨 데이터 손상 -> `docker compose down -v`로 볼륨 삭제 후 재시작 (데이터 초기화됨) ### AI Agent 노드 문제 - `429 Too Many Requests` -> API rate limit. OpenAI는 분당 요청 제한이 있다. n8n의 "Wait" 노드를 중간에 넣어서 간격을 둘 수 있다 - 응답이 너무 느림 -> GPT-4o 대신 GPT-4o-mini를 사용하면 속도가 2-3배 빨라지지만 품질이 다소 하락한다. Claude Sonnet은 GPT-4o와 비슷한 속도-품질 밸런스를 제공한다 - AI가 Tool을 호출했지만 결과를 무시함 -> AI Agent의 "Return Intermediate Steps"를 활성화해서 중간 과정을 확인. Tool 호출 결과가 Agent에 제대로 전달되는지 점검 ### n 8n 공식 리소스 문제 해결이 안 되면 n8n 커뮤니티 포럼(community.n8n.io)에서 에러 메시지로 검색하는 것이 가장 빠르다. 공식 문서(docs.n8n.io)의 Advanced AI 섹션에 AI 워크플로우 전용 가이드가 있다. ```references https://docs.n8n.io/advanced-ai/intro-tutorial/ https://n8n.io/ai/ https://n8n.io/ai-agents/ https://blog.n8n.io/ai-workflow-automation/ https://dev.to/automatewithai/n8n-vs-zapier-in-2026-why-i-switched-and-saved-eu2000year-59l7 https://contabo.com/blog/n8n-vs-zapier-vs-make-an-in-depth-comparison/ https://docs.n8n.io/hosting/installation/docker/ https://kollox.com/openclaw-2026-architecting-agentic-workflows-with-n8n/ https://www.lowcode.agency/blog/n8n-features https://hatchworks.com/blog/ai-agents/n8n-ai-agent/ ```

이전글

Anthropic: Claude Opus 4.6

다음글

Anthropic: Claude Sonnet 4.5

댓글

0개

댓글을 작성하려면

로그인

해주세요

사용하는 서비스

Claude Code

Code Generation (코드 생성)

Claude API

Summarization (문서 요약)

Claude

Summarization (문서 요약)

관련 기사

AI 워크플로우 에이전트 만들기: n8n + Docker로 처음부터 끝까지

TUTORIAL

유사 모델

OpenAI: o1-pro

OpenAI

OpenAI: o3

OpenAI

코딩

68.2

코드 생성, 버그 수정, 소프트웨어 엔지니어링

GPQALLM75.464.094.3%
HumanEvalLLM96.386.097.6%
MMLU86.584.298.0%
MMLU-PROLLM83.773.890.5%
MMMU74.471.185.0%
OSWorldAgentic43.951.572.7%
SWE-bench VerifiedAgentic72.763.680.9%
TerminalBench35.541.359.3%
τ-benchAgentic80.561.799.3%
Mistral Large 3 2512Mistral AI72.8-

xAI: Grok 4.1 Fast

xAI

Cohere: Command A

Cohere

Mistral: Mistral Large 3 2512

Mistral AI