시작하기 전에: 무엇을 구축하는지 이해하기
대부분의 AI 설치 가이드는 소프트웨어를 블랙박스로 취급합니다: 다운로드, 설치, 잊어버리기. clawbot은 다릅니다. 왜냐하면 앱을 설치하는 것이 아니라—인프라를 구축하는 것이기 때문입니다. 이것은 메시지를 관리하는 대신 디지털 환경을 진정으로 제어할 수 있는 AI를 조율하는, 자신만의 개인 이메일 서버를 설정하는 것과 같습니다.
이 가이드는 각 단계가 무엇을 하는지 그리고 왜 중요한지 설명합니다. 아키텍처를 이해하면 문제 해결이 직관적이고 사용자 정의가 간단해집니다.
30분 후에 갖게 될 것
- 장치에서 지속적으로 실행되며 모든 AI 활동을 조율하는 Gateway 서비스
- 선택한 AI 모델(Claude, GPT-4 또는 무료 로컬 Ollama)에 연결
- AI에 연결된 최소 하나의 메시징 채널(WhatsApp, Telegram 등)
- 진정한 시스템 제어를 보여주는 작동하는 자동화
- 설정을 확장, 사용자 정의 및 문제 해결하는 방법에 대한 이해
필수 조건: 실제로 필요한 것
무엇이든 다운로드하기 전에 시스템이 이러한 요구 사항을 충족하는지 확인하십시오. 각각은 특정 목적을 제공합니다:
하드웨어 요구 사항
- 운영 체제: macOS 11+, Linux(Ubuntu 20.04+, Debian 11+), 또는 WSL2가 있는 Windows 10+
- RAM: 최소 2GB 사용 가능(더 원활한 작동을 위해 4GB 권장)
- 디스크 공간: 핵심 설치를 위한 500MB + AI 모델 캐싱을 위한 공간
- 네트워크: AI API 호출을 위한 안정적인 인터넷 연결(로컬 Ollama를 사용하지 않는 경우)
소프트웨어 종속성
clawbot은 Node.js 22 이상이 필요합니다. 왜 이 특정 버전인가요? 최신 Node.js 버전에는 clawbot의 실시간 통신이 의존하는 중요한 성능 개선 및 보안 패치가 포함되어 있습니다. 설치 프로그램은 일반적으로 이것을 처리하지만 수동 설치에는 사전 설치가 필요합니다.
AI 모델 접근(하나 선택)
비용-편익 분석: 어떤 AI 모델을 선택해야 하나요?
옵션 1: Anthropic Claude (대부분의 사용자에게 권장)
- 비용: 일반적인 개인 사용에 대해 월 약 $20-40
- 장점: 뛰어난 추론, 강력한 보안 인식, 긴 컨텍스트 윈도우
- API 키 받기: console.anthropic.com
옵션 2: OpenAI GPT-4
- 비용: 사용 패턴에 따라 월 약 $25-50
- 장점: 광범위한 지식 기반, 창의적 작업에 탁월
- API 키 받기: platform.openai.com
옵션 3: 로컬 Ollama 모델 (완전 무료)
- 비용: $0 (하드웨어에서 완전히 실행)
- 장점: 지속적인 비용 없음, 완전한 프라이버시, 오프라인 작동
- 단점: 느린 응답, 더 강력한 하드웨어 필요(8GB+ RAM 권장)
- 설정: ollama.ai
1단계: 플랫폼에 적합한 패키지 다운로드
clawbot은 필요한 모든 것을 번들로 제공하는 플랫폼별 설치 프로그램을 배포합니다. 왜 여러 형식인가요? 서로 다른 운영 체제는 백그라운드 서비스를 다르게 처리합니다—설치 프로그램이 이를 올바르게 구성합니다.
macOS 설치
가장 간단한 경험을 위해 DMG 설치 프로그램을 다운로드하세요:
curl -fsSL https://github.com/steipete/clawbot/releases/download/v2026.1.23/clawbot-2026.1.23.dmg -o clawbot.dmg
또는 GitHub Releases에서 직접 다운로드하세요.
설치 프로그램이 하는 일:
/Applications/clawbot.app에 Gateway 서비스 설치~/.clawbot/에 구성 디렉토리 생성- 자동화 기능을 위한 시스템 권한 구성
- 선택적으로 시작 시 실행 설정(권장)
2단계: Gateway 설치 및 실행
Gateway는 clawbot의 핵심입니다—메시징 플랫폼, AI 모델 및 시스템 간의 모든 통신을 관리하는 지속적 서비스입니다. 중추 신경계로 생각하세요: 채널은 Gateway에 메시지를 보내고, Gateway는 적절한 AI 모델로 라우팅하고, 응답을 받아 다시 전달합니다.
설치 프로그램 실행
macOS: 다운로드한 DMG를 열고 clawbot을 Applications로 드래그합니다. 실행하세요.
Linux/WSL: npm 설치 후 Gateway를 시작하세요:
clawbot gateway start
실행 중인지 확인하세요:
clawbot gateway status
다음을 확인해야 합니다: Gateway is running on ws://127.0.0.1:18789
3단계: AI 브레인 연결
Gateway가 실행 중이면 응답을 생성할 AI 모델이 필요합니다. 이 단계에서는 사용할 모델을 구성하고 API 액세스를 인증합니다.
AI 제공업체 구성
구성 파일을 여세요:
clawbot config edit
또는 ~/.clawbot/clawbot.json을 수동으로 편집하세요. API 자격 증명을 추가하세요:
{
"aiProviders": {
"anthropic": {
"apiKey": "sk-ant-your-api-key-here",
"model": "claude-3-5-sonnet-20250219",
"enabled": true
}
},
"defaultProvider": "anthropic"
}
대신 로컬 Ollama의 경우:
{
"aiProviders": {
"ollama": {
"baseURL": "http://localhost:11434",
"model": "llama3.1:8b",
"enabled": true
}
},
"defaultProvider": "ollama"
}
4단계: 첫 번째 자율 작업 실행
모든 것이 구성되면 clawbot이 시스템을 진정으로 제어할 수 있는지—단순히 텍스트로 응답하는 것이 아니라—확인해 봅시다.
시스템 통합 테스트
연결된 메시징 채널(WhatsApp, Telegram 등)을 열고 이 메시지를 보내세요:
"Documents 폴더에 오늘 날짜와 동기 부여 인용문이 있는 test.txt라는 텍스트 파일을 만드세요."
예상되는 일:
- clawbot이 채널을 통해 메시지를 받습니다
- Gateway가 구성된 AI 모델로 라우팅합니다
- AI가 셸 명령을 포함한 응답 계획을 생성합니다
- clawbot이 실행합니다:
echo "..." > ~/Documents/test.txt - 확인 메시지를 받습니다: "Created test.txt with..."
- Documents 폴더를 확인하세요—파일이 존재합니다
축하합니다! 진정한 AI 자동화를 시연했습니다
clawbot을 ChatGPT나 Siri와 구별하는 것: 파일을 만드는 방법을 알려주는 것이 아니라—실제로 만들었습니다. 동일한 기능이 다음으로 확장됩니다:
- 캘린더 관리 및 회의 초대 보내기
- 로그 파일 모니터링 및 오류 알림
- API에서 데이터 가져오기 및 보고서 생성
- Home Assistant를 통한 스마트 홈 장치 제어
- 개발 워크플로 실행(테스트, 빌드, 배포)
이제 자신만의 AI 인프라를 실행하고 있습니다
구축한 것은 단순한 챗봇이 아닙니다—최전선 AI 모델의 인텔리전스와 로컬 시스템 제어의 기능을 결합한 개인 자동화 플랫폼입니다. AI가 할 수 있는 것을 제한하는 클라우드 서비스와 달리, clawbot 설치는 당신과 동일한 디지털 환경 액세스 권한을 갖습니다.
이 힘에는 책임이 따릅니다: clawbot은 승인한 모든 명령을 실행할 수 있습니다. 샌드박싱 및 권한 시스템은 우발적 손상을 방지하지만 궁극적으로 AI에 의미 있는 제어 권한을 부여하는 것입니다. 간단한 자동화로 시작하고, 결정이 어떻게 내려지는지 이해하고, 신뢰를 쌓으면서 점진적으로 기능을 확장하세요.