OpenRouter Nedir? Tek API ile 50+ LLM Modeline Erişim Rehberi
OpenRouter, tek bir API anahtarıyla GPT-4, Claude, Gemini gibi 50+ yapay zeka modelini kullanmanızı sağlayan birleşik platform. Maliyet optimizasyonu nasıl yapılır?

Her yapay zeka modeli için ayrı API anahtarı yönetmek, faturaları takip etmek ve hangi modelin hangi görevde daha iyi çalıştığını test etmek yorucu. Ben FUTIA'da otomasyon projeleri geliştirirken bu sorunu yaşadım: OpenAI için bir key, Anthropic için başka bir key, Google AI Studio için bir tane daha. Her birinin dokümantasyonu farklı, fiyatlandırması farklı, rate limitleri farklı. OpenRouter bu kaosun ortasında bulduğum en pratik çözüm oldu. 2023'ün başından beri projelerimde aktif kullanıyorum ve şu ana kadar 50'den fazla farklı modeli tek bir entegrasyonla test edebildim. Bu yazıda OpenRouter'ın ne olduğunu, nasıl çalıştığını ve gerçek projelerimizde nasıl kullandığımızı paylaşacağım. Eğer şirketinizde yapay zeka entegrasyonları yapıyorsanız veya hangi modelin işinize yarayacağını merak ediyorsanız, bu platform size ciddi zaman ve maliyet tasarrufu sağlayabilir.
OpenRouter'ın Teknik Mimarisi ve Çalışma Mantığı
OpenRouter, basitçe söylemek gerekirse bir LLM aggregator. Yani farklı yapay zeka sağlayıcılarının modellerini tek bir API çatısı altında toplayan bir proxy katmanı. Siz OpenRouter'a istek atıyorsunuz, o da arka planda OpenAI'ya, Anthropic'e, Google'a veya Cohere'ye yönlendiriyor. Ancak işin püf noktası şu: aynı request formatını kullanarak farklı modellere erişebiliyorsunuz.
Ben ilk kez OpenRouter'ı kullanmaya başladığımda en çok şaşırdığım şey buydu. OpenAI'nın API formatı zaten sektörde standart haline gelmişti, OpenRouter da bu formatı benimsemiş. Yani eğer daha önce OpenAI API kullandıysanız, kodunuzda sadece base URL'i ve model adını değiştirmeniz yeterli. Örneğin:
# OpenAI ile
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[{"role": "user", "content": "Merhaba"}]
)
# OpenRouter ile
response = requests.post(
"https://openrouter.ai/api/v1/chat/completions",
headers={"Authorization": f"Bearer {OPENROUTER_KEY}"},
json={
"model": "anthropic/claude-3-opus",
"messages": [{"role": "user", "content": "Merhaba"}]
}
)
Görüldüğü gibi request yapısı aynı. Bu sayede mevcut kodunuzu büyük değişiklikler yapmadan OpenRouter'a taşıyabilirsiniz. Ben FUTIA'da doktorbul.com projesinde içerik üretimi yaparken bu esnekliği çok kullandım. Bazen Claude daha iyi sonuç veriyordu, bazen GPT-4. Kod tarafında sadece model parametresini değiştirerek A/B testi yapabiliyordum.
Desteklenen Modeller ve Kategoriler
OpenRouter şu an 50'den fazla modeli destekliyor ve bu liste sürekli genişliyor. Başlıca kategoriler:
- OpenAI Ailesi: GPT-4 Turbo, GPT-4, GPT-3.5 Turbo, o1-preview, o1-mini
- Anthropic Claude: Claude 3 Opus, Sonnet, Haiku (en çok kullandığım seriler)
- Google: Gemini Pro, Gemini 1.5 Pro, PaLM 2
- Meta: Llama 2, Llama 3 (çeşitli boyutlarda)
- Mistral AI: Mistral Large, Medium, Small, Mixtral
- Cohere: Command R+, Command
- Açık Kaynak Modeller: Nous Hermes, WizardLM, Dolphin vb.
Ben projelerimde çoğunlukla Claude 3 Haiku kullanıyorum çünkü hız/maliyet dengesi mükemmel. Örneğin memuratamalari.com'da günlük ilan özetleri üretirken Haiku tercih ediyorum: saniyede 100+ token, düşük maliyet, yeterli kalite. Ancak daha karmaşık analiz gerektiren durumlarda (örneğin diolivo.com'da ürün açıklamaları optimizasyonu) Claude 3 Opus veya GPT-4'e geçiyorum.
OpenRouter Hesap Açma ve İlk Kurulum
OpenRouter'a başlamak oldukça basit. openrouter.ai adresinden ücretsiz hesap açabilirsiniz. İlk kayıtta size 5 dolar kredi veriyorlar, bu da yaklaşık 2-3 milyon token test etmenize yetiyor (modele bağlı olarak). Ben ilk testlerimi bu ücretsiz krediyle yaptım.
Hesap açtıktan sonra yapmanız gerekenler:
1. API Key oluşturma: Dashboard'dan "Keys" sekmesine gidip yeni bir key oluşturun. Ben proje bazlı key kullanıyorum, böylece hangi projenin ne kadar harcadığını takip edebiliyorum.
2. Kredi yükleme: Hesabınıza kredi kartı ile minimum 5 dolar yükleyebilirsiniz. OpenRouter postpaid (sonradan ödeme) sistemi yok, prepaid çalışıyor. Bu aslında bütçe kontrolü açısından avantaj.
3. Rate limit ayarları: Hesap ayarlarından günlük veya aylık harcama limiti koyabilirsiniz. Ben FUTIA projelerinde her zaman aylık limit koyuyorum, beklenmedik maliyetlere karşı güvenlik ağı.
4. Model tercihleri: Bazı modeller için fallback (yedek) model tanımlayabilirsiniz. Örneğin birincil modeliniz rate limite takılırsa otomatik olarak ikincil modele geçer.
Bir detay daha: OpenRouter'da "credits" ve "usage" ayrımı var. Credits sizin yüklediğiniz para, usage ise gerçek kullanım. Ben başlangıçta bunu karıştırmıştım, dashboard'da usage grafiklerine bakarak hangi modelin ne kadar harcadığını görebilirsiniz.
Gerçek Proje Örneği: FUTIA'da OpenRouter Kullanımı
İtalyanmutfagi.com projesi OpenRouter'ın gücünü göstermek için iyi bir örnek. Bu sitede 618 adet tarif otomatik üretildi ve her tarif için Schema.org Recipe markup'ı eklendi. İşin ilginç tarafı: farklı tarif kategorileri için farklı modeller kullandık.
Kullanım stratejimiz şöyleydi:
- Basit tarifler (salata, aperatif): Claude 3 Haiku (hızlı + ucuz)
- Karmaşık tarifler (pasta, et yemekleri): GPT-4 Turbo (daha detaylı adımlar)
- Tarif başlık ve özet: Mistral Small (yaratıcı + uygun fiyat)
Bu hibrit yaklaşım sayesinde toplam maliyet %40 düştü. Eğer her şeyi GPT-4 ile yapsaydık, aynı kaliteyi alamayacaktık ama çok daha pahalıya gelecekti. OpenRouter'ın sağladığı esneklik sayesinde her görev için en uygun modeli seçebildik.
Kod tarafında şöyle bir wrapper yazdım:
def get_recipe_content(recipe_type, ingredients):
if recipe_type in ["salad", "appetizer"]:
model = "anthropic/claude-3-haiku"
elif recipe_type in ["pasta", "main_course"]:
model = "openai/gpt-4-turbo"
else:
model = "mistralai/mistral-small"
response = openrouter_request(
model=model,
messages=[...]
)
return response
Bu yaklaşım sayesinde 618 tarif için toplam maliyet 47 dolar oldu. Eğer sadece GPT-4 kullansaydık, bu rakam 120 dolar civarında olurdu. Ayrıca bazı tarifler için Claude'un ürettiği içerik GPT-4'ten daha doğaldı, özellikle İtalyanca terimler konusunda.
Maliyet Optimizasyonu ve Model Seçimi
OpenRouter'ın en büyük avantajlarından biri gerçek zamanlı fiyat karşılaştırması yapabilmeniz. Dashboard'da her modelin token başına maliyetini görebiliyorsunuz. Şubat 2024 itibarıyla bazı popüler modellerin fiyatları:
- Claude 3 Opus: $15 / 1M input token, $75 / 1M output token
- GPT-4 Turbo: $10 / 1M input, $30 / 1M output
- Claude 3 Haiku: $0.25 / 1M input, $1.25 / 1M output
- GPT-3.5 Turbo: $0.50 / 1M input, $1.50 / 1M output
- Mistral Small: $2 / 1M input, $6 / 1M output
Ben FUTIA projelerinde şu stratejiyi uyguluyorum:
1. Prototipi GPT-4 ile test et: İlk aşamada kalite önemli, hızlı iterasyon için GPT-4 kullanıyorum. 2. Production'a geçerken ucuz alternatifleri dene: Aynı prompt'u Haiku, Mistral Small, GPT-3.5 ile test ediyorum. 3. Kalite/maliyet sweet spot'unu bul: Çoğu zaman Haiku yeterli oluyor, bazı durumlarda GPT-3.5 Turbo daha mantıklı. 4. Fallback sistemi kur: Birincil model fail ederse veya rate limite takılırsa ikincil modele geçiş.
Örneğin kamupersonelhaber.com'da günlük 50+ ilan özetliyoruz. İlk versiyonda GPT-4 kullandık, aylık maliyet 180 dolar civarındaydı. Haiku'ya geçince bu rakam 15 dolara düştü ve kalite farkı kullanıcılar tarafından fark edilmedi. Bu tür optimizasyonlar özellikle yüksek hacimli projelerde kritik.
Token Kullanımı İzleme ve Raporlama
OpenRouter'ın dashboard'u oldukça detaylı. Ben her hafta şu metriklere bakıyorum:
- Model bazında harcama: Hangi model ne kadar harcadı?
- Endpoint bazında kullanım: Chat completion mi, embedding mi daha çok kullanılıyor?
- Hata oranları: Hangi modelde rate limit veya timeout daha fazla?
- Ortalama response süresi: Hangi model daha hızlı cevap veriyor?
Bu verileri Google Sheets'e aktarıp müşterilere aylık rapor olarak sunuyorum. Şeffaflık önemli, özellikle AI maliyetleri konusunda. Müşteriler hangi modelin ne kadar harcadığını görmek istiyor ve OpenRouter bu konuda çok şeffaf.
OpenRouter vs Doğrudan API Kullanımı
Bir soru sık soruluyor: "Neden doğrudan OpenAI veya Anthropic API kullanmıyorsun?" Geçerli bir soru. İşte benim deneyimlerime göre karşılaştırma:
OpenRouter'ın avantajları:
- Tek entegrasyon, çoklu model erişimi
- Kolay A/B testing (model değiştirmek sadece parametre değişikliği)
- Unified billing (tek fatura, tek kredi kartı)
- Bazı modellere erken erişim (OpenRouter bazen yeni modelleri hızlı ekliyor)
- Rate limit yönetimi daha esnek
Dezavantajları:
- Ek bir katman olduğu için minimal gecikme (genelde 50-100ms)
- Bazı provider-specific özellikler eksik olabilir
- Fiyatlar bazen doğrudan API'den %5-10 daha pahalı (OpenRouter'ın komisyonu)
Ben şahsen çoğu projede OpenRouter kullanıyorum çünkü esneklik benim için maliyetten daha önemli. Ancak eğer sadece tek bir model kullanacaksanız (örneğin sadece GPT-4) ve hacim çok yüksekse, doğrudan OpenAI API daha mantıklı olabilir.
Bir örnek: futia.net sitesinde video script üretimi için sadece Claude 3 Opus kullanıyoruz. 3 ayda 2000+ video ürettik ve bu projede doğrudan Anthropic API'yi tercih ettim çünkü hacim yüksekti ve tek model yeterliydi. Ancak doktorbul.com'da 79.000 doktor profili için içerik üretirken OpenRouter kullandım çünkü farklı profil kategorileri için farklı modeller test etmem gerekiyordu.
Güvenlik, Rate Limiting ve Best Practices
OpenRouter kullanırken dikkat etmeniz gereken birkaç nokta var:
API Key Güvenliği
API key'inizi asla frontend kodunda veya public repository'de tutmayın. Ben FUTIA projelerinde şu yapıyı kullanıyorum:
- Backend'de environment variable olarak sakla
- Her proje için ayrı key kullan (izole etmek için)
- Production ve development için farklı keyler
- Düzenli olarak key rotation yap (3 ayda bir)
Bir keresinde test projemizin key'i yanlışlıkla GitHub'a pushlandi. Neyse ki OpenRouter'da hemen key'i revoke edebildim ve yeni bir tane oluşturdum. Dashboard'dan tüm aktif keyleri görebilir ve anında iptal edebilirsiniz.
Rate Limiting Stratejisi
Her modelin farklı rate limitleri var. OpenRouter bu limitleri otomatik yönetiyor ama siz de uygulama tarafında kontrol eklemelisiniz:
import time
from functools import wraps
def rate_limit(max_per_minute=60):
min_interval = 60.0 / max_per_minute
last_called = [0.0]
def decorator(func):
@wraps(func)
def wrapper(*args, **kwargs):
elapsed = time.time() - last_called[0]
left_to_wait = min_interval - elapsed
if left_to_wait > 0:
time.sleep(left_to_wait)
ret = func(*args, **kwargs)
last_called[0] = time.time()
return ret
return wrapper
return decorator
@rate_limit(max_per_minute=50)
def call_openrouter(prompt):
# API çağrısı
pass
Bu basit decorator sayesinde rate limit hatalarını %90 azalttım. Özellikle toplu işlemlerde (batch processing) kritik.
Error Handling ve Retry Logic
API çağrıları her zaman başarılı olmayabilir. Network hatası, rate limit, model geçici olarak unavailable olabilir. Ben şu retry mantığını kullanıyorum:
import time
import requests
from requests.adapters import HTTPAdapter
from requests.packages.urllib3.util.retry import Retry
def requests_retry_session(
retries=3,
backoff_factor=0.3,
status_forcelist=(500, 502, 504),
):
session = requests.Session()
retry = Retry(
total=retries,
read=retries,
connect=retries,
backoff_factor=backoff_factor,
status_forcelist=status_forcelist,
)
adapter = HTTPAdapter(max_retries=retry)
session.mount('http://', adapter)
session.mount('https://', adapter)
return session
Bu yaklaşım sayesinde geçici hatalar otomatik olarak retry ediliyor ve kullanıcı deneyimi kesintiye uğramıyor.
Gelecek Trendler ve OpenRouter'ın Yol Haritası
Yapay zeka alanı çok hızlı gelişiyor ve OpenRouter da bu gelişmelere ayak uyduruyor. Şu an beta aşamasında olan veya yakında gelecek özellikler:
- Fine-tuned model desteği: Kendi fine-tune ettiğiniz modelleri OpenRouter üzerinden servis edebileceksiniz
- Streaming desteği: Gerçek zamanlı token streaming (bazı modellerde zaten var)
- Embedding endpoints: Sadece chat değil, embedding modelleri de eklenecek
- Multimodal modeller: GPT-4 Vision, Claude 3 gibi görsel anlayan modeller
Ben özellikle fine-tuned model desteğini bekliyorum. FUTIA'da bazı müşteriler için özel modeller eğitiyoruz (örneğin sektöre özel terminoloji) ve bunları OpenRouter üzerinden sunmak deployment'ı çok kolaylaştıracak.
Ayrıca OpenRouter'ın fiyatlandırma modeli de gelişiyor. Şu an volume discount yok ama yüksek hacimli kullanıcılar için özel fiyatlandırma planları üzerinde çalışıldığını biliyorum. Ben FUTIA olarak aylık 500 dolar üzeri harcama yapıyoruz, eğer volume discount gelse maliyet optimizasyonu daha da iyi olacak.
FUTIA'da AI Otomasyon Nasıl Yapıyoruz?
Bu yazıda OpenRouter'ı anlattım ama gerçek değer araçlarda değil, nasıl kullandığınızda. Ben FUTIA'da müşterilere sadece "yapay zeka entegrasyonu" yapmıyorum, end-to-end otomasyon sistemleri kuruyorum. OpenRouter bu sistemin bir parçası.
Örneğin diolivo.com projesinde sepet kurtarma otomasyonu kurduk. Kullanıcı sepetini terk ettiğinde:
1. CartBounty eklentisi bunu algılıyor 2. Webhook ile bizim sunucuya bildirim geliyor 3. OpenRouter üzerinden Claude 3 Haiku'ya kullanıcının sepet içeriğine göre kişiselleştirilmiş mail içeriği ürettiriyoruz 4. SMTP ile otomatik mail gönderiliyor 5. Kullanıcı geri dönerse conversion tracking yapıyoruz
Bu sistem 6 ayda %340 trafik artışına katkıda bulundu. Ama işin püf noktası sadece "AI kullanmak" değil, doğru yerde doğru modeli kullanmak ve sistemleri entegre etmek.
Eğer siz de yapay zeka otomasyonlarını işinize entegre etmek istiyorsanız, benimle iletişime geçebilirsiniz. WhatsApp: +90 532 491 17 05 veya mail: info@futia.net. FUTIA olarak site kurulumundan otomasyona, aylık bakıma kadar full paket hizmet veriyoruz. Hollanda'dan çalışıyorum ama Türk markalarına özel odaklanıyorum, bu yüzden yerel pazar dinamiklerini iyi biliyorum.
Sıkça Sorulanlar
OpenRouter ücretsiz mi, yoksa ücretli mi?
OpenRouter temel olarak ücretli bir servistir ancak yeni kullanıcılara 5 dolar ücretsiz kredi veriliyor. Bu kredi ile yaklaşık 2-3 milyon token test edebilirsiniz (modele bağlı olarak değişir). Ücretsiz kredi bittikten sonra kredi kartı ile minimum 5 dolar yükleyerek devam edebilirsiniz. Aylık abonelik veya sabit ücret yok, sadece kullandığınız kadar ödüyorsunuz (pay-as-you-go model). Ben FUTIA projelerinde aylık ortalama 150-200 dolar harcıyorum, bu da yaklaşık 50-100 milyon token işleme denk geliyor.
OpenRouter'da hangi yapay zeka modelleri kullanılabilir?
OpenRouter şu an 50'den fazla LLM modelini destekliyor. Başlıcaları: OpenAI GPT-4 Turbo, GPT-4, GPT-3.5 Turbo, o1-preview; Anthropic Claude 3 Opus, Sonnet, Haiku; Google Gemini Pro ve 1.5 Pro; Meta Llama 2 ve 3 serileri; Mistral AI modelleri (Large, Medium, Small, Mixtral); Cohere Command serisi; açık kaynak modeller (Nous Hermes, WizardLM, Dolphin vb.). Liste sürekli güncelleniyor, yeni modeller genellikle çıktıktan 1-2 hafta sonra OpenRouter'a ekleniyor. Dashboard'dan güncel model listesini ve her birinin fiyatını görebilirsiniz.
OpenRouter ile OpenAI API arasındaki fark nedir?
OpenAI API sadece OpenAI modellerine (GPT-4, GPT-3.5 vb.) erişim sağlarken, OpenRouter 50+ farklı sağlayıcının modellerine tek bir API ile erişim sunar. Yani OpenRouter bir aggregator, OpenAI ise doğrudan sağlayıcı. OpenRouter'ın avantajı: tek entegrasyon ile çoklu model testi, kolay A/B testing, unified billing. Dezavantajı: minimal ek gecikme (50-100ms) ve bazı durumlarda %5-10 daha yüksek fiyat. Eğer sadece GPT-4 kullanacaksanız ve hacim çok yüksekse, doğrudan OpenAI API daha mantıklı olabilir. Ancak farklı modelleri test etmek veya maliyet optimizasyonu yapmak istiyorsanız OpenRouter ideal.
OpenRouter API'yi nasıl entegre edebilirim?
OpenRouter entegrasyonu çok basit, özellikle daha önce OpenAI API kullandıysanız. Adımlar: 1) openrouter.ai'dan ücretsiz hesap açın, 2) Dashboard'dan API key oluşturun, 3) Kodunuzda base URL'i 'https://openrouter.ai/api/v1/chat/completions' olarak değiştirin, 4) Authorization header'a 'Bearer YOUR_API_KEY' ekleyin, 5) Model parametresinde kullanmak istediğiniz modeli belirtin (örn: 'anthropic/claude-3-haiku'). Request formatı OpenAI ile neredeyse aynı olduğu için mevcut kodunuzu minimal değişiklikle taşıyabilirsiniz. Python, JavaScript, cURL, her dilde kullanabilirsiniz. Dokümantasyon çok detaylı ve örnek kodlar mevcut.
OpenRouter'da maliyet optimizasyonu nasıl yapılır?
Maliyet optimizasyonu için şu stratejileri uyguluyorum: 1) Farklı modelleri test edin, her zaman en pahalı model gerekmiyor. Örneğin basit görevlerde Claude 3 Haiku, GPT-4'ten 60 kat ucuz ve çoğu durumda yeterli. 2) Dashboard'dan model bazlı harcama raporlarını inceleyin, hangi model ne kadar harcıyor görün. 3) Prompt optimizasyonu yapın, gereksiz token kullanımını azaltın. 4) Caching kullanın, aynı prompt'u tekrar göndermek yerine sonuçları cache'leyin. 5) Batch processing yapın, tek tek istek atmak yerine toplu işlem daha verimli. Ben FUTIA projelerinde bu yöntemlerle maliyeti ortalama %40-50 düşürüyorum. İtalyanmutfagi.com projesinde hibrit model kullanımı ile 120 dolar yerine 47 dolar harcadık.
Bu yazıdaki tekniklerden birini uygulamak ister misiniz? Kısa bir form doldurun, 48 saat içinde ücretsiz ön inceleme raporu mailinize düşsün.