Mengenal GoogleBot, Freshbot Dan Deepbot

Googlebot adalah software yang digunakan untuk mencari bot dari Google, yaitu mengumpulkan dokumen-dokumen yang terdapat pada sebuah web dan tentunya web tersebut sudah terindeks dulu oleh search engine Google. Menurut Webmaster Google Support, Googlebot adalah bot perayapan web Google (terkadang juga disebut "spider"). Perayapan adalah proses Googlebot dalam menemukan laman baru dan termutakhir untuk dimasukkan ke dalam indeks Google. Kami menggunakan banyak sekali komputer untuk mengambil (atau "merayapi") miliaran laman di web. Googlebot menggunakan proses algoritme: program komputer menentukan situs mana yang dirayapi, seberapa sering, dan berapa banyak laman yang diambil dari tiap situs. 

Proses perayapan Googlebot dimulai dengan daftar URL laman web, yang dihasilkan dari proses perayapan sebelumnya ditambah dengan data Peta Situs yang diberikan oleh webmaster. Saat mengunjungi tiap situs web ini, Googlebot mendeteksi tautan (SRC dan HREF) pada tiap laman dan menambahkannya ke dalam daftar laman untuk dirayapi. Situs baru, perubahan terhadap situs yang ada, dan tautan mati dicatat dan digunakan untuk memperbarui Google indeks.

Googlebot yang dimiliki mempunyai 2 sistem kerja, yaitu:

Freshbot
Freshbot akan meng-crawl website dan mencari fresh content. Freshbot akan mengunjungi website yang memiliki frekuensi perubahannya tinggi, serta tergantung seberapa cepat berubahnya frekwensi tersebut. Jika frekwensi content website Anda tinggi, maka Freshbot akan sering datang ke rumah Anda dan Googlebot hanya akan mengikuti Href Link dan SCR Link.

Deepbot
Deepbot akan mencoba untuk mengikuti setiap link dalam sebuah website dan mendowload sebanyak mungkin halaman website Anda. Proses ini akan selesai sekitar sebulan sekali.
Sitemap Google


Oleh sebab itulah kami menyarankan untuk Anda membuat SiteMap (peta) agar robot Google lebih mudah lagi untuk mengindeks halaman situs atau blog Anda. Penjabaran dari kronologisnya kurang lebih seperti ini: Web Crawler biasanya akan menemukan halaman sebuah situs dari link-link di dalam situs itu sendiri atau dari situs yang lain. Sebuah sitemap akan menyediakan data-data link itu dan mengijinkan crawler yang men-support Sitemap untuk menjelajah semua URL yang  ada  di dalamnya, lalu mengalanisa masing-masing URL tersebut dengan menggunakan Metadata yang menyertainya. Jadi Sitemap merupakan sebuah cara yang sederhana bagi para webmaster untuk menginformasikan kepada Google tentang halaman-halaman pada situs mereka yang bisa di-crawl. Bentuk paling sederhana dari Sitemap adalah file yang berupa XML yang berisi daftar URL sebuah situs, beserta masing-masing Metadata-nya.

#
Artikel Terkait:
7 Trik Ajaib SEO -- 7 Pendekatan SEO Terbaik -- Sejarah Google SEO -- Cara Backlink Keyword SEO -- 5 Manfaat Besar Google SEO -- Preposisi Kata Dalam SEO -- 13 Cara Ajaib Keyword SEO -- Update SEO Indonesia 2016 -- Cara Sistem Pengindeksan Google -- Cara Google Menemukan Website Anda -- Mengenal Googlebot, Freshbot dan Deepbot -- Alexa: Claim Has Been Retired - May 2016 -- 3 Konseptualisasi Komunikasi SEO -- Backlink Adalah Usaha Untuk Memperoleh Makna ---

Cinarana Maya

Tidak ada komentar:

Posting Komentar

Instagram