Sebetulnya saya sendiri penasaran bagaimana sebuah mesin pencari atau yang dikenal dengan sebutan search engine
menentukan hasil pencariannya dari sekian juta data situs di dunia.
Karena penasaran saya mencari informasinya sampai pada menemukan proses
bagaimana cara kerja search engine tersebut.
Sebuah blog yang baru saja di publikasikan akan di datangi oleh spider search engine untuk menyimpan seluruh informasi yang ada dalam blog, tidak terkecuali dengan seluruh link di blog tersebut. Isi setiap halaman blog sekaligus halaman blog dari link yang disertakan pada blog ini akan di analisa, baik dari struktur Header tag (H1 sampai H6), meta tag, title sampai pada pembacaan data berupa text yang ada di dalamnya. Sayangnya, data yang berupa gambar, spider search engine manapun masih belum dapat mengcrawlnya jika tidak disertai dengan atribut alt.
Seluruh proses crawling ini sebenarnya di atur oleh halaman robots.txt yang ada dalam blog kita. Halaman robots.txt tersebut akan memberi tahu pada spider search engine tentang mana yang boleh di crawling dan yang tidak boleh dicrawling. Beberapa halaman blog kita diharuskan tidak dapat di crawling demi keamanan blog dari para hacker dan virus serta melindungi script penting dalam blog agar tidak terbajak pihak lain seperti script cms platform blog yang kita pergunakan.
Catatan : Terkadang kerja spider ini bisa terhambat jika dalam blog kita terdapat banyak error line pada template yang digunakan. Untuk itu perlu mempertimbangkan pemilihan template blog. Pemilihan sebaiknya kita jatuhkan pada template yang telah tervalidasi atau setidaknya mengandung sedikit error line. Bila template memiliki ratusan error line, dikhawatirkan proses crawling akan gagal. Sehingga blog tidak akan pernah muncul dalam halaman pencarian search engine. Contoh search engine yang sensitive terhadap masalah validasi template blog adalah search engine bing.
Proses Index.
Semua data yang berhasil di crawl oleh spider search engine tersebut disimpan dalam sebuah database index yang disertai dengan alamat urlnya. Tujuan penyimpanan ini adalah untuk mempercepat menampilkan hasil pencarian. Data blog yang paling banyak dicari adalah yang memiliki kesempatan lebih besar untuk keluar di hasil pencarian search engine.
Proses Search
Ketika kita memasukkan query ke dalam search engine, search engine akan memeriksa database index dan memberikan daftar halaman web yang paling cocok menurut kriteria, biasanya dengan ringkasan singkat yang berisi judul, isi halaman dan alamat urlnya.
Begitulah kira - kira cara kerja search engine dalam menentukan hasil pencarian.
Semoga posting ini dapat bermanfaat...
Ada tiga proses yang harus dilakukan sebelum data tersebut di tampilkan oleh search engine di halaman pencarian, diantaranya :
Proses Crawling.
Sebuah blog yang baru saja di publikasikan akan di datangi oleh spider search engine untuk menyimpan seluruh informasi yang ada dalam blog, tidak terkecuali dengan seluruh link di blog tersebut. Isi setiap halaman blog sekaligus halaman blog dari link yang disertakan pada blog ini akan di analisa, baik dari struktur Header tag (H1 sampai H6), meta tag, title sampai pada pembacaan data berupa text yang ada di dalamnya. Sayangnya, data yang berupa gambar, spider search engine manapun masih belum dapat mengcrawlnya jika tidak disertai dengan atribut alt.
Seluruh proses crawling ini sebenarnya di atur oleh halaman robots.txt yang ada dalam blog kita. Halaman robots.txt tersebut akan memberi tahu pada spider search engine tentang mana yang boleh di crawling dan yang tidak boleh dicrawling. Beberapa halaman blog kita diharuskan tidak dapat di crawling demi keamanan blog dari para hacker dan virus serta melindungi script penting dalam blog agar tidak terbajak pihak lain seperti script cms platform blog yang kita pergunakan.
Catatan : Terkadang kerja spider ini bisa terhambat jika dalam blog kita terdapat banyak error line pada template yang digunakan. Untuk itu perlu mempertimbangkan pemilihan template blog. Pemilihan sebaiknya kita jatuhkan pada template yang telah tervalidasi atau setidaknya mengandung sedikit error line. Bila template memiliki ratusan error line, dikhawatirkan proses crawling akan gagal. Sehingga blog tidak akan pernah muncul dalam halaman pencarian search engine. Contoh search engine yang sensitive terhadap masalah validasi template blog adalah search engine bing.
Proses Index.
Semua data yang berhasil di crawl oleh spider search engine tersebut disimpan dalam sebuah database index yang disertai dengan alamat urlnya. Tujuan penyimpanan ini adalah untuk mempercepat menampilkan hasil pencarian. Data blog yang paling banyak dicari adalah yang memiliki kesempatan lebih besar untuk keluar di hasil pencarian search engine.
Proses Search
Ketika kita memasukkan query ke dalam search engine, search engine akan memeriksa database index dan memberikan daftar halaman web yang paling cocok menurut kriteria, biasanya dengan ringkasan singkat yang berisi judul, isi halaman dan alamat urlnya.
Begitulah kira - kira cara kerja search engine dalam menentukan hasil pencarian.
Semoga posting ini dapat bermanfaat...
mampir bro
BalasHapushttp://servicewellsyogyakarta.blogspot.com/
Terus pengaruhnya backlink, optimasi off page dan sebagainya dimana sob?
BalasHapusVery informative, keep posting such good articles, it really helps to know about things.
BalasHapusThe article on this site is very interesting, thank you
BalasHapusSelamat datang di LENOVOPOKER ™ Top 1 Judi Online
Promo Terbaru LENOVOPOKER :
- Bonus New Member Depo +20%
- Bonus All Member Next Depo +5%
- Bonus All Member Refferal 30%
- Bonus All Member Rollingan 0.5%
Contact : BBM : LENOVO88
WA : +6281375260652
Agen Domino 99
Bandar Poker
Agen Ceme
Bandar Ceme
Judi Poker Terpercaya