Cara Optimasi Crawl Budget untuk meningkatkan SEO

by

helmy

TIPS MENGOPTIMASI CRAWL BUDGET UNTUK MENINGKATKAN SEO

Cara Optimasi Crawl Budget agar SEO

Selamat Datang di Blog Orang IT . Postingan kali ini saya cuma mau share beberapa tips untuk meningkatkan index artikel blog dengan memanfaat crawl budget serta mengoptimasinya untuk meningkatkan kekuatan seo . Beberapa pemiliki situs web pasti menginginkan agar setiap postinganya segera diindex oleh bot google maupun bing lalu ditampilkan hasilnya dimesin pencari . 

Tidak semua link yang ada diblog kita harus di index , dengan kuota index crawl budget yang terbatas setiap harinya lebih efektif jika kita mencegah bot google untuk mengindex halaman yang sifatnya berkualitas rendah dan tidak penting sehingga halaman postingan yang benar-benar relevan akan mudah muncul di pencarian google

Apa itu crawl budget ?

Crawl budget merupakan jumlah halaman yang akan diindex oleh bot mesin pencari pada sebuah website , jumlah ini memang bervariasi dari hari kehari namun biasanya relatif stabil . 
Bisa juga dikatakan sebagai kuota index yang diberikan kepada masing-masing situs yang jumlahnya sangat terbatas yang dipengaruhi oleh kualitas website ( sering nya bot melakukan crawl ) seperti sering melakukan uptodate artikel , jumlah tautan link dalam sebuah website , backlink sampai linkjuice , bahkan broken link
Google tidak selalu menjelajahi sebuah website setiap harinya , terkadang beberapa hari sekali sampai beberapa minggu sekali umumnya bisa sampai 6000 – 10000 link link dijelajahi dalam proses satu kali crawl
Oleh karena itu penting bagi pemilik web untuk mengatur botcrawl yang jumlahnya terbatas ini untuk mengoptimalkan index halaman postingan yang sifatnya penting termasuk internal link sampai mencegah bot untuk mengindex halaman tidak penting seperti pencarian , archive , label , link download , broken link , link komentar , link eksternal , backlink low quality dll

Mengapa harus mengatur crawl budget ?

Dengan mengatur crawl budget dalam rangka meningkatkan optimasi seo berarti anda memberi prioritas mana halaman yang memang penting dan dibutuhkan untuk di tampilkan dimesin pencari sehingga halaman tersebut segera ditemukan oleh pengunjung
Dengan mengabaikan halaman yang tidak perlu diingat seperti tos , about , privacy karena memang biasanya pengguna tidak mencari informasi tersebut di internet

Bagaimana cara membantu google bot mengindex halaman yang tepat ?

Ada beberapa tips yang saya berikan untuk membantu mengarahkan bot crawl google untuk mengakses halaman yang memang sifatnya penting mengingat pada satu halaman biasanya terdapat lebih dari 1000 link dengan mengoptimasi crawl budget membuat blog anda lebih cepat terindex
1. Setting robot txt
Setting robot txt

Yang pertama kali dibaca oleh bot crawl sebelum menjelajahi sebuah website adalah aturan robot txt untuk membaca mana halaman yang boleh diindex dan mana halaman yang tidak perlu untuk diindex biasanya dilihat pada ( helmykkediri.com/robots.txt )
Anda bisa membaca postingan saya yang lalu mengenai bagaimana cara setting robot txt dengan aman , karena kesalahan pemblokiran oleh bot mengakibatkan sebagian atau seluruh halaman tidak bisa dirayapi oleh bot google .

Baca : Cara aman setting robot txt

Setelah mengotak-atik robot txt selalu melakukan pengujian dengan menggunakan tools yang telah disediakan oleh webmaster google search console untuk memastikan bahwa rule yang kita buat berjalan lancar tanpa menyebabkan error
2. No index tags
Anda bisa menambahkan tag noindex dibagian header template anda untuk membatasi halaman yang boleh maupun tidak untuk diindex , biasanya bawaan template premium sudah otomatis memberikan label noindex pada halaman archive maupun label tapi untuk template buatan sendiri silahkan diperiksa sendiri
Contoh tag noindex pemblokiran halaman archive sebagai berikut

 <b:if cond=’data:blog.searchLabel’><meta content=’noindex,nofollow’ name=’robots’/></b:if>

3. URL Parameters
Bagi sebagian pengguna CMS atau ecommerce yang biasanya sering menghasilkan url yang sifatnya dinamis berubah-ubah sesuai kode pemesanan biasanya menyebabkan duplikat halaman . Googlebot mudah terjebak dan membuang banyak kuota index hanya untuk merayapi halaman dinamis yang sifatnya tidak penting
Anda bisa mensetting url parameter di google webmaster console untuk membantu membedakan mana url yang sifatnya dinamis mana yang statis , misalnya dalam kasus duplikat karena seluler m=0 m=1 kita bisa mencekalnya dengan memberikan parameter pada m dan mencekal angka 0 jika anda menggunakan template yang sudah mobile friendly ( pernah saya bahas dipostingan sebelumnya )
4. Update xml sitemap
Sitemap berisi peta situs , meskipun google tidak mengambil url dari sitemap namun semua link yang berada didalam sitemap dijadikan  sebagai rujukan
Jika anda banyak mengupdate beberapa link yang mati / broken link silahkan submit kembali sitemap ke google webmaster agar broken link sebelumnya tidak dirayapi oleh bot google

5. Fix internal links

Fix internal links

Google bot menjelajahi semua link yang ada didalam artikel blog baik internal link maupun eksternal link jadi untuk mencegah kegiatan crawl budget sia-sia pastikan anda memperbaiki broken link dengan cara mengganti url yang tidak ditemukan dengan url yang masih ada
Cara cek broken link buka diwebmaster google cari halaman dengan kode 404 lalu lihat ditaut dari mana saja jika mungkin segera perbaiki atau gunakan broken link checker yang banyak bertebaran dimesin pencari

6. Kurangi page load times
Saat melakukan index bot google memuat beberapa halaman sekaligus, dengan mengoptimalkan page load times membantu bot google menjelajah dan mengindex halaman lain dengan waktu yang sama
7. Site terstruktur
Struktur template yang baik membantu bot google merayapi laman anda dengan mudah , dengan mengkategorikan sebuah halaman pada label yang jelas dan tidak menyembunyikanya terlalu dalam membuat halaman tersebut mudah ditemukan lalu dijelajahi oleh bot google 
Perhatikan juga error data terstruktur pada template anda , jika menemukan error yang berkaitan dengan laman segera perbaiki karena jika dibiarkan bot crawl akan kesulitan menjelajahi setiap halaman yang ada didalam diblog

Baca : Cara memperbaiki error data terstruktur

8. Setting tag tajuk robot khusus
Ini hanya ada di blogger , dipengaturan / setelan – tag tajuk robot khusus secara default memang non aktif . Anda bisa mengaktifkanya serta memberikan centang pada beberapa laman agar tidak diindex 
Saya pernah bahas sih silahkan dibaca saja mengenai cara aman setting tag tajuk robot khusus agar seo optimal

Apasih keuntungan seo ?

Bosen dengan kata-kata seo ? apasih keuntungan mempelajari seo dan menerapkanya keblog ? seo search engine optimation merupakan sebuah ilmu yang mempelajari mengenai tingkah laku mesin pencari termasuk robot yang merayapi halaman semua dipelajari dalam seo . Jika anda ingin memiliki blog yang bersaing dimesin pencari mau tidak mau harus mempelajari serta menerapkan yang namanya seo kedalam blog anda masing-masing
Jika google sering menjelajahi halaman anda bisa dipastikan beberapa postingan yang sifatnya masih fresh akan cepat terindex dimesin pencari tanpa harus memaksa melakukan ping maupun mengambil url sebagai google yang ujung-ujungnya hanya index sementara kedepanya masih rawan deindex jika ditemukan beberapa tindakan yang memacu spam
Untuk mengecek apakah crawl budget blog anda bagus atau tidak coba buat lah sebuah postingan lalu terbitkan , tidak usah melakukan ping atau ambil sebagai google , cek berapa jam atau berapa hari postingan tersebut diindex oleh mesin pencari 
Jika beberapa jam saja sudah terindex mengindikasin bahwa blog anda bagus karena sering didatang oleh bot crawl baik karena sering update atau kualitas blog yang memang bagus , tapi jika beberapa hari baru terindex silahkan dioptimasi dengan mengurangi crawl budget blog kalian masing-masing
Demikian postingan saya mengenai bagaimana cara mengoptimasi crawl budget agar meningkatkankan kekuatan seo blog semoga bermanfaat jika ada yang mau menambah silahkan berkomentar dibawah sekian dan terimakasih sudah berkunjung

Related Post