Googlebot sitenize geldiğinde linklerden linklere atlayarak ilerler. Bazen derinlerdeki içerikleri hiç bulamaz — özellikle iç link yapısı zayıfsa. XML sitemap tam da bu sorunu çözer: sitenizin tüm önemli adreslerini tek bir dosyada toplar ve arama motorlarına "bak, bunlar var" der.
Yüzlerce sayfası olan bir sitede bazı içerikler haftalarca indekslenmeden kalabiliyor. Sitemap'le bu beklemeyi ortadan kaldırırsınız. Hangi adreslerin mevcut olduğunu, hangilerinin yakın zamanda değiştiğini doğrudan bildirirsiniz.
XML sitemap nedir?
Kök dizinde duran, sitenizin önemli adreslerini listeleyen bir XML dosyası. Her URL kaydına son güncelleme tarihi, değişim sıklığı ve öncelik gibi ek veriler eklenebilir. Googlebot, Bingbot, Yandex — hangisi gelirse gelsin — önce bu dosyaya bakar.
Protokolün geçmişi 2005'e uzanıyor. O yıl Google, Yahoo ve Microsoft bir araya gelip ortak bir standart belirledi. Aradan geçen sürede tüm büyük arama motorları bu formatı benimsedi ve hâlâ aktif olarak destekliyor.
Basit bir örnek
Tipik bir XML sitemap şöyle görünür:
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://www.seodenetim.com/</loc>
<lastmod>2026-02-04</lastmod>
<changefreq>daily</changefreq>
<priority>1.0</priority>
</url>
</urlset>
Tek bir URL kaydı var burada: ana sayfa. <lastmod> son güncelleme tarihini gösteriyor, <changefreq> ne sıklıkla değiştiğini, <priority> ise site içindeki ağırlığını.
Neden önemli?
Hızlı indeksleme
Evet, arama motorları sitenizi zaten otomatik tarıyor. Ama yeni eklediğiniz bir blog yazısını keşfetmeleri günler sürebilir. Sitemap devredeyken Search Console üzerinden ping atarsınız, birkaç saat içinde indeksleme tamamlanır. Bu dosya olmadan? Aynı içerik belki bir hafta bekler.
Derin sayfaları keşfetme
Ana sayfadan 5-6 tık uzaklıktaki içerikler ciddi bir sorun. Botlar oraya kadar inemeyebilir. E-ticaret sitelerinde alt kategorilerdeki ürünler, bloglarda arşiv derinliklerinde kalmış eski yazılar — hep aynı hikaye. Sitemap bu adreslerin tamamını tek dosyada sunarak crawl bütçesinin verimli harcanmasını sağlar.
Güncelleme takibi
Diyelim eski bir yazıyı baştan aşağı güncellediniz. <lastmod> tarihini değiştirirsiniz, bot bir sonraki ziyaretinde farkı yakalar ve o adresi yeniden tarar. Haber siteleri için bu özellik vazgeçilmez — dakikalar içinde güncellenen içeriklerde lastmod farkı, yeniden taranma ile taranmama arasındaki çizgiyi belirler.
Nasıl çalışır?
Süreç oldukça doğrudan.
Dosyayı oluşturursunuz, kök dizine yüklersiniz, Search Console'a bildirirsiniz. Arama motoru belirli aralıklarla bu dosyayı kontrol eder — yeni adresleri tarama kuyruğuna ekler, değişenleri yeniden ziyaret eder, kaldırılmış olanları indeksten düşürür. Üç adım, hepsi bu.
Tek bir dosyada 50.000 URL'e kadar yer alabilir, boyut sınırı 50MB. Daha büyük siteler için sitemap index dosyası devreye girer — birden fazla sitemap'i tek çatı altında toplayan bir üst dosya. 200.000 ürünü olan bir e-ticaret sitesi mesela 4-5 ayrı sitemap dosyasını tek bir index ile yönetebilir.
Hangi sayfalar eklenmeli?
Her adresi sitemap'e koymak gerekmez. Hatta koymamalısınız.
Eklenmesi gerekenler
Ana sayfa, kategori sayfaları, ürün detayları, blog yazıları, hizmet sayfaları — arama sonuçlarında görünmesini istediğiniz ne varsa sitemap'te yer almalı. Kural basit: indekslensin istiyorsanız ekleyin.
Bir de özel formatlar var. Görseller için image sitemap, videolar için video sitemap. Google Images ve Google Videos'ta görünürlük istiyorsanız bunları da değerlendirin — standart sitemap'ten ayrı tutulurlar ama aynı index dosyasında birleştirilebilirler.
Eklenmemesi gerekenler
Admin paneli, giriş ekranları, sepet ve ödeme adımları kesinlikle sitemap dışında kalmalı. Bunların zaten robots.txt ile engellenmiş olması gerekir.
Filtre parametreleri, sıralama seçenekleri gibi duplicate content üreten URL'ler de eklenmemeli — canonical etiketiyle yönetilirler. 404 dönen veya yönlendirme yapan adresler ise dosyayı kirletir. Arama motoru bu tür kayıtları gördükçe sitemap'inizin güvenilirliğini sorgulamaya başlar.
Nasıl oluşturulur?
Manuel oluşturma
Küçük siteler için bir metin editöründe XML formatında yazıp sitemap.xml olarak kaydetmek teknik olarak yeterli. Pratik mi? Pek değil. Her yeni içerik eklediğinizde dosyayı elle güncellemeniz gerekir, tek bir kapatılmamış etiket tüm dosyayı bozar. 10-15 sayfalık bir portfolyo sitesi için belki, ama ötesi için zahmetli.
Online araçlar
Adres listenizi girip otomatik XML çıktısı alan araçlar işi epey kolaylaştırır. Changefreq ve priority değerlerini ayarlarsınız, dosyayı indirirsiniz, bitti. Henüz bir sitemap'iniz yoksa birkaç dakikada hazırlayabilirsiniz.
CMS eklentileri
WordPress kullanıyorsanız Yoast SEO veya Rank Math zaten sitemap'i otomatik oluşturur — her yeni yazı yayınladığınızda dosya güncellenir, elinizi sürmenize gerek kalmaz. Shopify ve WooCommerce gibi platformlarda da yerleşik destek var. Ürün ekledikçe, kategori oluşturdukça dosya kendiliğinden genişler.
Changefreq ve priority ne işe yarar?
Changefreq (değişim sıklığı)
İçeriğin ne sıklıkla güncellendiğini belirten bir ipucu. Alabileceği değerler: always, hourly, daily, weekly, monthly, yearly, never.
Ana sayfa için daily, blog yazıları için monthly, statik sayfalar için yearly mantıklı tercihler. Ama dikkat — bu değer kesin bir talimat değil, sadece öneri niteliğinde. Ana sayfanız günde bir kez bile değişmiyorken always yazarsanız bot bunu fark eder. Gerçekle örtüşmeyen changefreq değerleri sitemap'in güvenilirliğini aşındırır.
Priority (öncelik)
0.0 ile 1.0 arasında bir sayı. Adresin siteniz içindeki görece ağırlığını ifade eder.
Tüm sayfalara 1.0 vermek? Anlamsız — arama motoru kendi algoritmasıyla zaten bir sıralama yapıyor. Mantıklı bir dağılım şöyle olabilir: ana sayfa 1.0, kategoriler 0.8, ürün ve blog içerikleri 0.6, derinlerdeki sayfalar 0.3. Gerçekçi olmak önemli, abartılı priority değerleri görmezden gelinir.
Search Console'a gönderme
Dosyayı oluşturduktan sonra Search Console'a bildirmeniz gerekir. Sol menüden "Sitemaps" bölümüne girin, URL'yi yapıştırın, gönderin. Birkaç saat içinde durum "Başarılı" olarak görünecektir — kaç adres gönderildiği ve kaçının indekslendiği de aynı ekranda takip edilir.
Robots.txt dosyanıza da konumu eklemeyi unutmayın:
Sitemap: https://www.seodenetim.com/sitemap.xml
Bu satır sayesinde Search Console dışındaki arama motorları — Bing, Yandex ve diğerleri — sitemap'inizi otomatik keşfeder.
Yaygın hatalar
Yanlış konum
Dosya kök dizinde durmalı: https://siteniz.com/sitemap.xml. Alt klasöre yüklerseniz botlar bulamaz. Basit ama sık yapılan bir hata.
XML syntax hatası
XML hata affetmez. Kapatılmamış tek bir etiket tüm dosyayı geçersiz kılar — tarayıcıda açıp kontrol etseniz bile bazen gözden kaçar. Özel karakterler de ayrı bir tuzak: &, <, > gibi sembollerin kaçış karşılıklarıyla yazılması şart. Bir URL'de & yerine düz & kullanmak dosyayı bozar.
Geçersiz URL'ler
404 dönen veya yönlendirme yapan adresler sitemap'te durmamalı. Arama motoru bu tür kayıtları gördükçe dosyanızın kalite puanını düşürür. Ayda bir kontrol edip temizlemek iyi bir alışkanlık.
Robots.txt ile çelişki
Robots.txt'te engellediğiniz bir adresi sitemap'e eklemek çelişki yaratır. Bot hangisine uyacağını bilemez — engelle mi, tara mı? İki dosyanın birbiriyle tutarlı olması şart.
Küçük bir dosya, büyük bir fark. Doğru yapılandırılmış bir sitemap, arama motorlarının sitenizi daha verimli taramasını, gizli kalmış içerikleri keşfetmesini ve güncellemeleri hızla yakalamasını sağlar. Henüz yoksa kurulumu 10 dakikanızı almaz — getirisi ise uzun vadeli.