Menjawab Soal Mengenai SEO
1.
Jelaskan mengapa SEO
berperan terhadap menentukan ranking halaman suatu website !
Jawab :
Karena, dengan melakukan optimasi SEO pada website.
Website kita berpeluang untuk muncul di halaman pertama mesin pencari. Sehingga
brand bisnis kita akan mudah dikenal oleh calon pelanggan. Selain itu, dapat
meningkatkan kredibilitas bisnis. Dengan menerapkan optimasi SEO, website kita
akan dioptimasi secara menyeluruh. Mulai dari SEO On-Page, Off-Page, dan
Technical. Ketiga elemen ini dapat menghasilkan website yang dinilai positif
dari sisi mesin pencari maupun pembaca.
Website yang dikelola tanpa memperhatikan SEO, tentu tidak
akan maksimal pada hasil pencarian mesin pencari. Kita akan kehilangan peluang
untuk mendapatkan trafik gratis dari mesin pencari. Dengan menerapkan optimasi
SEO, website kita bisa dinilai positif baik dari sisi mesin pencari maupun
pembaca. Sehingga, website kita berpeluang untuk mendapatkan trafik yang lebih
banyak dari mesin pencari.
2. Jelaskan apa yang kalian ketahui apa itu spider dalam search
engine !
Jawab
:
Spider adalah istilah yang biasanya digunakan untuk mesin
pencari di Internet. Spider bertugas untuk menggali informasi dari sebuah blog.
Spider merupakan yang menentukan relevansi dari suatu blog dan menentukan blog
dapat tampil di Search Engine Result Page (SERP). Dengan kata lain spider
merupakan sebuah program dari mesin pencari yang tugasnya menjelajahi setiap
situs web, mengumpulkan data web, mengikuti link web, membuat salinan
situs-situs web yang baru maupun yang diperbarui serta menyimpan URL dalam
index di mesin pencari.
3. Jelaskan apa yang kalian ketahui mengenai Web Crawler:
Jawab
:
·
Bingbot
Bingbot
adalah salah satu web spiders paling populer yang didukung
oleh Microsoft. Bingbot membantu mesin pencari, Bing, untuk membuat indeks yang
paling relevan bagi penggunanya.
·
FAST Crawler
FAST
Crawler adalah crawler terdistribusi, yang digunakan oleh Fast Search &
Transfer, dan deskripsi umum arsitekturnya tersedia.
·
Googlebot
Googlebot
adalah crawler khusus mesin pencari paling populer di dunia, Google. Googlebot
digunakan untuk mengindeks konten di Google.
·
GM Crawl
-
·
Polybot
PolyBot
adalah crawler terdistribusi yang ditulis dalam C ++ dan Python, yang terdiri
dari "manajer perayapan", satu atau lebih "pengunduh" dan
satu atau lebih "dns resolvers". URL yang dikumpulkan ditambahkan ke
antrean pada disk, dan diproses nanti untuk mencari URL yang terlihat dalam
mode batch.
·
RBSE
RBSE
adalah crawler web pertama yang diterbitkan. Itu didasarkan pada dua program:
program pertama, "spider" mempertahankan antrian dalam database
relasional, dan program kedua "tungau", adalah browser www ASCII yang
dimodifikasi yang mengunduh halaman dari Web.
·
Swiftbot
Swiftbot
adalah crawler web Swiftype - sepotong perangkat lunak yang mengambil informasi
dari (atau "menjelajah") situs web untuk membuat mereka dapat dicari.
Ini mirip dengan Googlebot atau msnbot / bingbot.
Komentar
Posting Komentar