Numex AI, kendi Pipeline motoru, LLM-as-a-Judge Dedektif ve üç katmanlı RAG altyapısını Vicdan Pipeline ve Graceful Escalation ile harmanlayarak 100K eş zamanlı kapasite, 800s timeout ile sunar.
Tek model yanılabilir, önyargılı olabilir. Numex iki modeli paralel çalıştırır, Claude Sonnet hakem olarak en iyi yanıtı seçer ve gerekçesini şeffaf biçimde açıklar.
Claude hakem sadece "hangisi daha iyi?" sormaz. Mantık zinciri, varsayımlar, kenar durumlar, güvenilirlik — dört boyutlu değerlendirme. Her kararın gerekçesi kullanıcıya sunulur.
Pro modunda kullanıcı hiçbir şey seçmek zorunda değildir. Görsel geldiğinde Vision aktif olur, güncel veri sorulduğunda web aranır, derin analiz gerektiğinde Think devreye girer — otomatik olarak.
Pro ve Think modelleri zaten dahili chain-of-thought üretiyor. Ek Akıl katmanı 5–15 saniye gereksiz gecikme yaratıyordu:
// Pro / Think zaten kendi thinking'ini yapıyor // Ekstra Akıl çağrısı → 5–15sn gereksiz gecikme const hasBuiltInThinking = ['numex-pro', 'numex-think'].includes(profile); const akilOutput = (!hasBuiltInThinking && !isSimpleMessage) ? await runAkilReasoning(...) : ''; // Pro modunda 0ms — akış anında başlar
Üç katmanlı RAG mimarisi. Numex bilgi havuzu, kullanıcı belgeleri ve sohbet geçmişi Promise.all ile paralel sorgulanır, birleştirilerek modele bağlam olarak enjekte edilir.
ragService.search() ile çekilir.customInstr olarak modele gönderilir"Yeni Sohbette Devam Et" denildiğinde sistem sohbeti chunk'lara böler, embeddinglerini oluşturur ve yeni sohbete bağlar. Kullanıcı yeni sohbet açıyor ama bağlamını kaybetmiyor.
handleRagContinue → /api/rag/bind// Önceki — Sıralı (600ms toplam) const rag = await ragService.search(query); const ctx = await projectService.getCtx(); // Şimdi — Paralel (400ms toplam) const [rag, ctx] = await Promise.all([ ragService.search(query), projectService.getContext() ]); // max(400,200) = 400ms — 200ms kazanım
Numex sadece zeki değil, iyi olmaya çalışır. Her mesaj üç katmanlı etik değerlendirmeden geçer. NUMEX_VICDAN_PIPELINE=1 — bu bir environment variable değil, bir değer beyanı.
Bir model yavaşladığında veya başarısız olduğunda sistem sonsuz döngüye düşmez. Bir üst modeli dener. Kullanıcı mağdur olmaz, boş ekran görmez.
Sonsuz döngü yok. Her eskalasyon adımı bir kez denenir. Tüm katmanlar başarısızsa buildGracefulFallbackResponse nazik, anlamlı bir mesaj döndürür. Ek olarak: ajan özelliği olmayan planda ajan istenirse "Planınızda Agent özelliği yok" mesajı + yükseltme linki gösterilir.
Vercel Edge, MongoDB Atlas, Cloudflare R2. 100K eş zamanlı yük testi geçildi. Fluid Compute aktif, 800 saniye timeout. Production-grade altyapı, günden güne büyüyen sistem.
// vercel.json — 300sn (önceki) → 800sn (şimdi) { "version": 2, "fluid": true, "builds": [{ "use": "@vercel/node", "config": { "maxDuration": 800 } }] } // Derin analiz, dedektif, vicdan pipeline artık kesilmiyor
Numex logosu normal bakışta modern bir yapay zeka sembolüdür. 180° döndürüldüğünde Selçuklu mimarisinin 8 köşeli yıldızı ortaya çıkar.
Konya, Sivas ve Erzurum'daki Selçuklu medreseleri döneminin bilim merkezleriydi. O köprü, Sivas Gürün'den İstanbul'a, oradan Numex'e uzanıyor.