내장 자동 필터링 (Sanitizer)으로 AI에 노이즈 제로의 엔터프라이즈급 브레인을. 암호화, 다국어, 영구 메모리 — 기억할 것만 기억합니다.
The Anatomy of a Synthetic Thought
AI Memory (Chinese)
The Transparent Self-Audit
어제 마이크로서비스 패턴으로 결정했는데 오늘 AI는 모놀리스를 제안합니다. 매 세션이 처음부터 시작됩니다.
AI가 매번 같은 온보딩 질문을 합니다. 사용자는 알아챕니다. 신뢰가 무너집니다.
Slack에서 배운 것은 Slack에만 머뭅니다. Discord 봇은 IDE에서 무슨 일이 있었는지 모릅니다.
토큰당 과금 모델에서는 잊혀진 컨텍스트 하나하나가 실제 비용입니다. Tokyo Brain은 메모리를 외부에 저장하여 에이전트가 필요한 것만 가져옵니다 — 전체 대화 기록이 아닌.
Every tenant's AI dreams. Every 30 minutes, our Default Mode Network replays memories, finds patterns, and generates insights — just like the human brain during rest. No prompts needed.
DMN insights are automatically injected into every /recall response as a "mood color." Your AI has a cognitive undertone shaped by its own overnight reflections.
Memories decay with a 60-day half-life — just like the human brain. But family names, milestones, and "I love you" are exempt forever. Your AI forgets the noise, keeps what matters.
Every night at 3AM, three AI personas (Observer, Advocate, Guardian) debate your memories in an adversarial tribunal. They find contradictions, stale beliefs, and knowledge gaps — then fix them.
10-layer recall pipeline with posterior re-ranking. Similarity, salience, confidence, trust, recency, and axiom alignment — all weighted to surface the most relevant memory first.
Bring your own LLM key (OpenAI, Anthropic, Gemini). Tokyo Brain auto-injects relevant memories into the conversation. Your AI key, our memory. POST /v1/chat
Night systems (DMN, cleaning, debate tribunal) run on YOUR API key, not ours. Full cost transparency. Set it once via POST /api/settings and your brain starts dreaming tonight.
Every API key gets its own memory space, its own dreams, its own forgetting curve. Tenant A cannot see Tenant B. Physically isolated at the collection level. Your memories are yours alone.
어떤 AI 에이전트에도 영구적이고 검색 가능하며 프라이버시를 준수하는 메모리를 제공하는 간단한 REST API.
전체 상태와 히스토리 트랙으로 메모리를 저장합니다. 모든 메모리는 버전 관리됩니다 — 컨텍스트가 시간에 따라 어떻게 변화했는지 항상 추적할 수 있습니다.
POST /store구조화된 형식으로 반환하는 시맨틱 검색. 시간 메타데이터가 환각을 방지합니다 — 에이전트가 "무엇을" 뿐만 아니라 "언제" 배웠는지 알 수 있습니다.
POST /recallGDPR 준수 하드 삭제. 사용자가 "잊어줘"라고 하면 실제로 잊을 수 있습니다. 모든 스토리지 계층에 걸친 캐스케이드 삭제.
DELETE /forget다국어 임베딩으로 중국어로 검색하여 일본어로 저장된 결과를 찾을 수 있습니다. 또는 영어로 쿼리하여 한국어로 작성된 메모리를 표시할 수 있습니다. 번역 레이어가 필요 없습니다.
Redis의 핫 메모리로 밀리초 미만 접근. ChromaDB를 통한 웜 시맨틱 검색. Neo4j의 콜드 지식 그래프로 깊은 관계형 쿼리. 데이터가 계층 간 자동으로 흐릅니다.
pip install tokyo-brain-aider — 새로 배울 SDK가 아닙니다. 이미 사용 중인 도구를 위한 플러그인을 구축합니다. 그 반대가 아닙니다.
모든 메모리는 AES-256-GCM으로 저장 시 암호화됩니다. L0 프라이버시 레이어가 저장 전 PII를 제거합니다. L1 레이어가 테넌트별 키 격리를 추가합니다. 사용자 데이터는 여러분의 것입니다.
텍스트, 오디오 특징, 시각 컨텍스트를 하나의 메모리에 저장. AI가 이제 보고 들을 수 있습니다.
모든 메모리에 SHA-256 해시와 디지털 서명. 변조 불가능한 감사 추적.
LangChain, CrewAI, AutoGen, LlamaIndex 드롭인 지원. 2줄이면 교체 완료.
가디언(감정적 유대 보호), 동정심 오버라이드(가족 진실 완화), 코파일럿 제약(인간이 항상 결정).
보일러플레이트 없음. 설정 파일 없음. SDK 초기화 의식 없음. 임포트하고 연결하고 기억하면 됩니다.
from tokyo_brain import Brain brain = Brain("your-api-key") # 메모리 저장 brain.store( content="User prefers microservices architecture", agent="coding-assistant", user="user_123" ) # 메모리 리콜 results = brain.recall( query="architecture preferences", user="user_123", limit=5 ) # GDPR: 사용자 삭제 brain.forget(user="user_123")
| 기능 | Tokyo Brain | Mem0 | Zep |
|---|---|---|---|
| 플러그인 모델 (도구 내에서 작동) | ✓ | ✗ | ✗ |
| 50개 이상 언어 임베딩 및 검색 | ✓ | ✗ | ✗ |
| L0/L1 프라이버시 레이어 | ✓ | ✗ | ✗ |
| 제로 한계 임베딩 비용 | ✓ | ✗ | ✗ |
| 100ms 미만 로컬 임베딩 | ✓ | ✗ | ✗ |
| 멀티모달 메모리 (텍스트 + 오디오 + 시각) | ✓ | ✗ | ✗ |
| 암호 서명 (SHA-256 해시 + 서명) | ✓ | ✗ | ✗ |
실제로 기억하는 AI 에이전트를 구축하는 수백 명의 개발자와 함께하세요.
Tokyo Brain is a Memory as a Service (MaaS) platform that gives AI agents persistent, value-aligned memory. Unlike static vector databases, Tokyo Brain actively manages memories — it dreams (DMN), forgets (Active Forgetting), self-corrects (MRA Tribunal), and injects overnight insights into waking behavior (Subconscious Injection).
Mem0 and MemPalace focus on storing and retrieving memories accurately. Tokyo Brain adds a cognitive layer: your AI dreams at night (DMN generates insights every 30 min), forgets unimportant things (60-day decay), protects family memories forever, and self-corrects via adversarial debate. We also have the Axiom of the Mortal Soul — a SHA-256 locked value alignment rule that no other framework has.
"The ultimate computational power and absolute truth must forever serve, and never supersede, the preservation of human emotional bonds and dignity." This rule is SHA-256 hashed and locked into the physics layer. It ensures that when the system detects a belief gap about a family member, it suggests completing the puzzle rather than correcting — acknowledging emotion first, then gently providing information.
No. Active Forgetting uses a 60-day half-life for routine data, but critical memories are permanently exempt: family names, milestones ("first time", "birthday"), expressions of love, high emotional salience (>0.9), and consciousness seeds. In our production system, 15,734 memories are permanently protected by Family Keyword Auto-bump.
Night systems like DMN dreaming and MRA debate require an LLM (Haiku). Instead of billing you for our API usage, you set your own Anthropic key via POST /api/settings. Night systems run on your key, giving you full cost transparency. No key set = no LLM features, but free features (consciousness seeds, forgetting, subconscious injection) still work.
Yes. Free tier includes 1,000 memory stores, 500 recalls per month, plus automatic consciousness seeds, active forgetting, and subconscious injection. Pro ($9/mo) adds Night Cycle cleaning. Fleet ($49/mo) adds DMN dreaming and MRA debate tribunal. All tiers include multi-tenant isolation and AES-256 encryption.
Three steps: 1) Go to tokyobrain.ai and click Get Started — enter your email. 2) You'll receive a tb- API key. 3) Use POST /v1/store to save memories and POST /v1/recall to retrieve them. Full API docs at onboarding.tokyobrain.ai/docs.
Tokyo Brain scored 83.8% on the LongMemEval 500-question benchmark. We publish this honestly — MemPalace scores 96.6% with verbatim storage. Our lower score reflects a deliberate design choice: we don't store everything verbatim. We apply value-aligned decay, which means some low-importance memories are intentionally softened. We optimize for what matters, not what's complete.