Search Engine optimization #1:Online Optimization-Generating Robots and sitemap file

Halo teman teman!! Selamat datang di saluran kami HIGH-TECHDROID dan
ini BharathKrishna. Hari ini, kita akan membahas tentang apa itu Search
Engine Optimization (SEO), kategorinya, dan kegunaannya dalam video ini. Mari masuk ke videonya. Jadi, Sebelum masuk ke Search Engine Optimization,
mari kita lihat situs webnya. Sebuah situs web terdiri dari front end dan
back end. Misalnya saya pernah membuka aplikasi
bernama Facebook. Dalam hal ini, pengguna berinteraksi dengan browser
yang disebut front end.

Sekarang jika saya memberikan nama pengguna dan kata sandi saya,
browser akan mencari dan memberikan hasilnya. Hal ini dilakukan dengan bantuan dukungan yang
disebut back end. Front end dirancang menggunakan HTML, CSS, PHP,
dll., yang disebut bahasa mark-up. Pengembangan dilakukan menggunakan C, C++, Java dan
baru-baru ini bahkan Python digunakan. Berikutnya ada konsep ketiga yang disebut Digital
Marketing. Pemasaran Digital berarti, ketika kami meluncurkan
situs web baru kami, pengguna (yaitu pelanggan) tidak memiliki gagasan apa pun tentang situs web kami. Jadi, kita perlu mempromosikan, yaitu mengiklankan situs web kita. Dengan bantuan promosi, level pengguna kami
meningkat. Ketika level pengguna meningkat, tampilan dan peringkat situs web kami
meningkat.

Ini dikenal sebagai Pemasaran Digital. Sekarang ada konsep yang disebut optimasi mesin pencari
. Optimisasi mesin pencari adalah proses
mendapatkan lalu lintas dari mesin pencari. Jadi, sekarang mari kita ambil Google. Di Google, jika kami menciptakan lalu lintas ke situs web kami,
peringkat pemirsa dan pengguna kami akan meningkat. Ini disebut optimasi mesin pencari. Dalam optimasi mesin pencari ini
ada dua kategori. Mereka termasuk 1.Optimasi Onpage dan
2.Optimasi Offpage. Pengoptimalan pada halaman terdiri dari semua aktivitas
yang kami lakukan di situs web kami untuk menyempurnakan situs web kami. Bagi situs web kami, aktivitas apa pun yang kami lakukan
selain yang kami lakukan di situs web dikenal sebagai optimasi di luar halaman. Di bawah optimasi di luar halaman ini, ada
kategori lain yang disebut Pengoptimalan Media Sosial. Dalam optimasi media sosial ini, kami memberikan
detail website dan promosi kami melalui pengiriman gambar, pengiriman video atau aktivitas sejenis lainnya dan mempublikasikan website kami di media sosial.

Singkatnya, ini adalah optimasi di luar halaman. Izinkan saya menjelaskan tentang optimasi off-page
secara detail lebih lanjut di video berikutnya. Sekarang mari masuk ke optimasi pada halaman. Ada banyak strategi dalam optimasi pada halaman
dan salah satunya adalah file robots. Di situs web kami, akan ada file pribadi
atau file rahasia di situs web kami yang harus dilindungi dari perayap Web. Perayap web adalah yang mencakup Google
Bot, perayap web Google. Begitu pula Bing, Yahoo dan sebagainya memiliki web crawlernya masing-masing
. Perayap web ini merayapi file robot kami dari situs web kami, yaitu membaca situs web kami. Dalam file robots.txt, halaman yang tidak
diizinkan untuk dirayapi akan diminta. Jadi perayap web ini tidak merayapi file robot kami
tetapi merayapi situs web kami. Oleh karena itu, file robots digunakan untuk tujuan ini. Sekarang izinkan saya menunjukkan kepada Anda bagaimana tampilan file robots. Saya mengambil aplikasi bernama WordPress sebagai
contoh. WordPress.com/robot.txt. saat memberikan ini,
situs tertentu yang file robot.txtnya ingin Anda lihat akan ditampilkan. Dalam hal ini, Agen pengguna diberikan sebagai *. Sebenarnya
ini diberikan untuk menunjukkan bahwa agen pengguna mengacu pada mesin pencari. * Menunjukkan 'untuk semua' yaitu semua
mesin pencari harus mengikuti perintahnya.

Oleh karena itu, ini diberikan sebagai Agen pengguna=*. Selanjutnya, Izinkan dan larangan ini memungkinkan kami memilih
halaman yang dapat dirayapi dan tidak dapat dirayapi oleh perayap. Di WordPress, halaman seperti next, activation
tidak boleh dirayapi karena itu mereka memasukkannya ke dalam file robots. Jadi selanjutnya crawler tidak meng-crawl
halaman aktivasi yang ada di dalamnya. Oleh karena itu file robot digunakan untuk tujuan di atas. Untuk menghasilkan file robot.txt, buka mesin pencari
dan ketik generator file robot.txt. Jadi, klik tautan pertama.

Di sini, ada opsi yang disebut Default-All
Robots are. Jangan mengubah apa pun di dalamnya. Selanjutnya, mesin pencari apa saja yang akan
dirayapi ditemukan. Selanjutnya, tempelkan semua tautan dari semua
file pribadi dan rahasia Anda di Direktori Terbatas. Sehingga file ini diletakkan di bawah 'Larang'. Sehingga web crawler tidak meng-crawl halaman tertentu. Selanjutnya, klik 'Buat file robot.txt'. Sekarang file robot.txt kita telah dibuat.

Kita dapat menempelkannya di file root kita. Berikutnya adalah peta situs. Ini adalah konsep kedua kami. Peta Situs, untuk Google, yaitu mesin pencari,
menyediakan cara untuk mengakses situs web atau halaman kami. Untuk melihat isi file peta situs. Saya pergi ke aplikasi yang sama WordPress. akan
melihat apa yang telah mereka lakukan dengan peta situs.sitemap.xml, Peta situs kami akan selalu dalam format xml.
kita harus membuatnya dengan xml, sehingga di halaman sitemap ini semua link halaman kita akan
diberikan di halaman sitemap ini. Apa yang akan terjadi dalam artian adalah Googlebot
akan mencari halaman peta situs kita dan merayapi yaitu, akan membaca dan juga akan membaca semua link
di halaman tersebut dan memahaminya lalu menyimpannya di database-nya. jika kalian bertanya apa yang akan terjadi dengan
menyimpannya, Jika ada yang mencari yaitu, (cari berdasarkan kata kunci kami) Apa yang akan dilakukan Google adalah, Tautan yang sudah
tersimpan di database-nya akan ditampilkan sebagai hasilnya.sehingga tingkat penayangan kami akan meningkat .

Website kita akan dipublikasikan untuk mereka,
sehingga ranking website kita juga akan meningkat. File peta situs ini
akan dihasilkan dengan Pergi mencari dan memberikan generator peta situs, Jadi ketika mengklik
tautan pertama, pindah ke dalamnya (XML-SITEMAPS.COM). Di sini dengan menempelkan tautan situs kami dan
memulai secara otomatis file peta situs kami akan dibuat. Ini hanya cocok untuk situs web yang memiliki
kurang dari 500 halaman, Jika lebih dari 500 halaman, dengan membayarnya, kami dapat membuatkan akun
untuk kami. sehingga kami juga dapat menghasilkan lebih dari 500 halaman website juga.

Sekarang saya akan membuat peta situs untuk
blog saya. Hanya dengan memberi permulaan maka secara otomatis akan
menghasilkan. jadi dihasilkan, Ketika saya memberikan tampilan detail peta situs
Semua tautan situs web saya akan diberikan di sini. Kita harus mengunduhnya dan menempelkan file yang diunduh
di file root kami, yaitu (di file root situs web kami ). Kami berhasil membuat
peta situs untuk situs web kami. Ketika WebCrawler mencari situs web kita, semua
tautan situs web kita akan disimpan dalam basis datanya dan disarankan kepada pengguna yang semuanya mencari
.

Jadi hari ini kita telah melihat dua strategi yaitu
file Robot.txt dan
file Peta Situs. Sekarang kita membuat aplikasi baru yaitu, situs baru
tidak hanya membuat file peta situs juga menempelkannya di alat webmaster yaitu (alat webmaster Google
). Sehingga yang terjadi adalah google akan secara otomatis
menyimpan pencarian kita di database mereka sehingga pengunjung akan sampai ke website kita. Jika kita belum membuat peta situs untuk
situs web kita, apa yang akan terjadi adalah, apakah kita juga akan mendapatkan jangkauan? Situs web kami akan dijangkau dengan lambat. Jika peta situs selesai, situs web akan mendapatkan jangkauan
lebih cepat daripada mendapatkan jangkauan tanpa melakukannya. Jadi inilah kegunaan peta situs. Dan ini menjadi akhir dari videonya,
simak di video berikutnya, Terima kasih..

Belajar SEO Lebih Dalam Menjadi SEO Specialist

Add a Comment

Your email address will not be published.

Name - City
Membeli Product Time