Sejarah Lahirnya Search Engine (Mesin Pencari) Perkembangan search engine berawal dari diciptakannya perangkat lunak yang bernama Archie oleh Alan Emtage, seorang mahasiswa dari Universitas McGill, Montreal, Kanada, pada tahun 1990. Perangkat lunak Archie mampu mengindex file-file terdapat pada FTP server publik. Ini merupakan aplikasi pertama yang digunakan untuk mencari informasi di internet, sehingga Archie dinobatkan sebagai nenek moyang dari search engine. Search engine berikutnya adalah Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) dan Jughead (Jonzy's Universal Gopher Hierarchy Excavation And Display), yang mampu mengindex halaman-halaman plain text yang terdapat pada server gopher. World Wide Web Wanderer merupakan aplikasi search engine pertama yang menggunakan teknologi robot dalam melakukan proses indeks halaman-halaman web yang terdapat pada web server. Aplikasi ini dirintis oleh Matthew Gray, seorang mahasiswa dari MIT, namun sayang, aplikasi ini menimbulkan kontroversi, karena akibat dari kinerja robot ini menghabiskan bandwith yang sangat besar. Berikutnya, pada tahun 1993, Martijn Koster membuat ALIWEB (Archie-Like Indexing of the Web). ALIWEB mengizinkan pengguna internet untuk men-submit halaman webnya untuk di indeks dengan teknologi kumpulan meta-data Aplikasi-aplikasi diataslah yang menginspirasi lahirnya teknologi-teknologi search engine yang baru, mulai dari munculnya website search engine webcrawler, yahoo, lycos, altavista, excite, hotbot, alltheweb, google, baidu dan banyak lagi yang lainnya.
Dalam dunia website/weblog sekarang ini, khususnya bagi para publisher dan blogger diperlukan pengetahuan tentang Search Engine Optimization, website/weblog yang telah sobat buat tugas selanjutnya adalah mendaftarkan website/weblog sobat ke mesin pencari Google atau yang lainnya. Sebelum mendaftarkan website/weblog yang telah dibuat; sekarang yang menjadi pertanyaan apa itu search engine optimization, cara kerja dan fungsi suatu search engine.
Search engine adalah sistem database yang dirancang untuk mengindex alamat-alamat website di internet . Untuk melaksanakan tugasnya ini, search engine atau mesin pencari memiliki program khusus yang biasanya disebut spider crawler. Pada saat Anda mendaftarkan sebuah alamat website (URL), spider dari search engine tersebut akan menerima dan menganalisa URL tersebut lalu mengcrawlnya.
Dengan proses dan prosedur yang serba otomatis, spider ini akan memutuskan apakah web yang anda daftarkan layak diterima atau tidak pada search engine tersebut. Jika layak, spider akan langsung menambahkan alamat URL tersebut ke sistem database mereka. Rangking-pun segera ditetapkan dengan algoritma dan caranya masing-masing. Jika tidak layak, terpaksa Anda harus bersabar dan mengulangi pendaftaran diwaktu yang lain. Jadi semua yang namanya search engine, pasti memiliki program yang disebut Spider crawler. Dan program inilah yang sebenarnya menentukan posisi web site Anda di search engine tersebut.
Contoh beberapa search engine terkenal adalah : Altavista, Google, Excite, Northern Light, Hotbot, dan masih bayak lagi. Berbeda dengan web directory yang meng-index halaman website di internet secara manual. Manual yang dimaksud adalah mereka menggunakan orang biasa untuk menganalisa setiap halaman web yang masuk. Tidak menggunakan spider atau crawler seperti halnya search engine. Keunggulan directory dibanding search engine adalah memberikan hasil pencarian yang lebih relevan dengan kualitas yang relatif lebih baik. Tapi karena semua proses dilakukan secara manual (menggunakan editor manusia), jumlah database yang dimiliki bisasanya jauh lebih kecil dibandingkan dengan search engine.
Itulah sebabnya sekarang ini banyak perusahaan yang mengelola directory menerapkan sistem ganda, yaitu menggunakan directory + search engine. Contoh nyata adalah Yahoo yang menggandeng Google sebagai search engine default-nya. Contoh beberapa directory terkenal selain Yahoo adalah Open Directory Project, Looksmart, dan NBCi.
Cara Kerja Search Engine
Mesin pencari web bekerja dengan cara menyimpan hampir semua informasi halaman web, yang diambil langsung dari www. Halaman-halaman ini diambil secara otomatis. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data
tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.
tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.
Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.
Mesin pencari lain yang menggunakan proses real-time, seperti Orase, tidak menggunakan indeks dalam cara kerjanya. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal seperti informasi selalu mutakhir, (hampir) tak ada broken link, dan lebih sedikit sumberdaya sistem yang diperlukan (Google menggunakan hampir 100.000 komputer, Orase hanya satu.). Tetapi, ada juga kelemahannya yaitu pencarian lebih lama rampungnya.
Komponen utama dalam Search Engine
Sebuah search engine memiliki beberapa komponen agar dapat menyediakan layanan utamanya sebagai sebuah mesin pencari informasi. Komponen tersebut antara lain :
a. Web Crawler
Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka dia akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu.
Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.
Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya.
Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :
Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka dia akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu.
Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.
Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya.
Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :
§ Halaman mana yang harus dikunjungi terlebih dahulu.
§ Aturan dalam proses mengunjungi kembali sebuah halaman.
§ Performansi, mencakup banyaknya halaman yang harus dikunjungi.
§ Aturan dalam setiap kunjungan agar server yang dikunjungi tidak kelebihan beban.
§ Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster.
§ Seberapa jauh kedalaman sebuah website yang akan dikunjungi.
§ Hal yang tak kalah pentingnya adalah kemampuan web crawler untuk mengikuti
perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut.
Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (<a>). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru.
perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut.
Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (<a>). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru.
b. Indexing system
Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.
Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer.
Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan.
Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.
Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer.
Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan.
c. Search system
Search system inilah yang berhubungan langsung dengan pengguna, meyediakan hasil pencarian informasi yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.
Search system inilah yang berhubungan langsung dengan pengguna, meyediakan hasil pencarian informasi yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.
Search Engine / Mesin pencari Internet merupakan gudang segala jenis informasi yang tidak terbatas. Beragam informasi disimpan di internet. Informasi yang begitu lengkap dan sangat banyak memberi keuntungan, sehingga kita bisa mendapatkan informasi apapun yang kita butuhkan. Namun di satu sisi, beragamnya informasi dalam jumlah yang sangat banyak memberi kesulitan dalam mencari halaman tertentu.mUntuk memecahkan masalah tersebut, dibuatlah program untuk memudahkan kita mencari halaman di internet. Program tesebut dikenal dengan nama mesin pencari atau search engine. Mesin pencari adalah sebuah program yang digunakan sebagai alat bantu untuk mencari informasi di internet. Mesin pencari mempunyai sebuah database yang memuat semua item yang terdapat di internet dan halaman-halaman web yang menyimpan informasi yang berhubungan dengan item-item tersebut. Mesin pencari mempunyai metode pencarian tertentu yang sering disebut alogaritma pencarian. Kecepatan dan ketepatan pencarian sebuah mesin pencari sangat tergantung kepada cara pengindex-an dan alogaritma pencarian yang digunakan. Umumnya, struktur dasar sebuah mesin pencari adalh sebagai berikut.
1. kotak teks pencarian digunakan sebagai tempat untuk memasukan kata kunci yang akan dijadikan sebagai acuan pencarian
2. tombol pencarian utuk menjalankan perintah pencarian. Informasi di internet setiap saat akan terus berubah dan bertambah. Oleh karena itu sebuah mesin pencari harus terus memperbaharui database yang dimilikinya. Untuk melakukan hal ini mesin pencari dilengkapi sebuah program yang berjalan seperti robot. Disebut robot karena dia dapat bekerja sendiri tanpa harus dijalankan atau diperintahkan terlebih dahulu.program tersebut disebut dengan spider, bot, atau crawler. Setiap selang waktu tertentu, program “robot”tersebut akan menjelajahi intrnet, membaca dokumen-dokumen yang ada di internet, meringkasnya, dan kemiudia menyimpan di database dengan menggunakan system pengindex-an.
Ada beberapa kriteria yang bisa dgunakan untuk menentukan sebuah mesin pencari yang bagus dan handal, yaitu :
1. mempunyai database yang besar dan sering diperbaharui.
2. tidak memiliki spam dan memberikan hasil pencarian yang relevan.
3. mempunyai kecerdasan buatan yang baik, sehigga mengerti dan dapat memperkirakan apa yang dicari oleh penggunanya. Selain itu kita perlu mengetahui cara kerja mesin pencari yang digunakan, sehingga kita bisa mengeksploitasi kelebihan mesin pencari tersebut. Saat ini ada banyak website yang menyediakan mesin pencari. Berikut adalah beberapa search engine / mesin pencari yang terkenal dan banyak digunakan oleh orang diseluruh dunia.
· Altavista Altavista di keluarkan Desember 1995 oleh Digital Equipment Corporation’s (DEC). Altavista merupakan mesin pencari yang didirikan oleh digital corp. altavista mempunyai kelebihan dalam pencarian canggih (anvanced search) dengan menggunakan operator Boolean AND, OR,(), NOT, NEAR, “, dan *. Kelebihan ini akan mempermudah kita untuk mencari informasi yang lebih spesifik. Altavista merupakan versi pertama ‘Google’ sekitar pada tahun 2000 an, mesikipun kepopuleran sekarang dikuasai Google dan Yahoo. Situs ini masih tetap mempunyai tingkat kunjungan yang tinggi. Submit URL : http://www.altavista.com/ |
· Alltheweb Alltheweb adalah salah satu search engine yang tergabung dalam jaringan Yahoo. Alltheweb bergabung dengan yahoo pada 25 maret 2004. Alltheweb bisa menjadi salah satu search engine pilihan, pencarian alltheweb meliputi : news, picture, video/audio. Submit URL : http://www.alltheweb.com/ |
· AOL AOL didirikan pada tahun 1983 dengan nama Control Video Corporation (CVC). AOL mempunyai dua URL untuk melayani pencarian pada situs mereka, yaitu aolsearch.aol.com khusus untuk internal dan search.aol.com untuk eksternal. Metode pencariannya berbasis Google, jadi antara Google dan AOL akan menghasilkan data yang mirip dalam proses pencarian. Submit URL : http://www.aol.com/ |
· Ask Ask didirikan tahun 2000 oleh tim Profesor Apostolos Gerasoulis dari Universitas Rutgers, New Jersey. Ask waktu itu terkenal degan ketepatan link algoritma-nya, yang digunakan pada subyek tertentu di halaman web, sehingga dapat digunakan untuk menganalisis peringkat web. Semakin tinggi peringkat web, maka semakin banyak pula link dari halaman lain di halaman web tersebut. Submit URL : http://www.ask.com/ |
· Bing Bing merupakan mesin pencari (search engine) website yang bernaung di bawah bendera Microsoft. Bing ini merupakan bentuk reinkarnasi yang dilakukan Microsoft terhadap ketiga mesin pencari produksinya terdahulu, yakni Live Search, Windows Live Search, dan MSN Search. Produk mesin pencari yang baru ini secara resmi dilucurkan pada tanggal 3 Juni 2009 menggantikan mesin pencari sebelumnya, yaitu Live Search. Bing diciptakan dengan menggunakan suatu teknologi, yakni teknologi PowerSet. Teknologi ini memungkinkan pengguna untuk memperoleh hasil pencarian yang lebih akurat. Di samping itu, Bing dilengkapi dengan kemampuan untuk menyimpan dan membagi historis pencarian melalui Windows Skydrive, Facebook, dan e-mail. Bing mengelompokkan pencarian berdasarkan empat kategori, yaitu : 1. Web untuk pencarian halaman situs atau website. 2. Images untuk pencarian gambar. 3. News untuk pencarian berita. 4. xRank untuk pencarian siapa dan apa yang paling banyak dicari oleh pengguna Bing. Submit URL : http://www.bing.com/ |
· Bing Bing merupakan mesin pencari (search engine) website yang bernaung di bawah bendera Microsoft. Bing ini merupakan bentuk reinkarnasi yang dilakukan Microsoft terhadap ketiga mesin pencari produksinya terdahulu, yakni Live Search, Windows Live Search, dan MSN Search. Produk mesin pencari yang baru ini secara resmi dilucurkan pada tanggal 3 Juni 2009 menggantikan mesin pencari sebelumnya, yaitu Live Search. Bing diciptakan dengan menggunakan suatu teknologi, yakni teknologi PowerSet. Teknologi ini memungkinkan pengguna untuk memperoleh hasil pencarian yang lebih akurat. Di samping itu, Bing dilengkapi dengan kemampuan untuk menyimpan dan membagi historis pencarian melalui Windows Skydrive, Facebook, dan e-mail. Bing mengelompokkan pencarian berdasarkan empat kategori, yaitu : 1. Web untuk pencarian halaman situs atau website. 2. Images untuk pencarian gambar. 3. News untuk pencarian berita. 4. xRank untuk pencarian siapa dan apa yang paling banyak dicari oleh pengguna Bing. Submit URL : http://www.bing.com/ |
· Baidu Perusahaan Perseroan Terbatas Teknologi Internet Baidu didirikan pada tahun 1999, bisnis utama pada masa permulaan adalah menyediakan teknologi pelacakan kepada situs web ukuran besar. Satu tahun kemudian, pendiri Baidu Robin Yanhong Li dan Eric Yong Xu memutuskan pembukaan situs web pelacakan profesional independen dengan nama "Baidu". Baidu merupakan Search Engine berbasis bahasa Cina,namun mampu menjadi pioner yang dapat mengalahkan Google dari sisi penggunaannya yang berbahasa cina. Tingkat kunjungannya sangatlah tinggi, hingga melebihi 1 Millyar per harinya. Submit URL : http://www.baidu.com/ |
· Cuil Cuil didirikan dan dikembangkan oleh Anna Patterson bersama suaminya Tom Costello. Anna Patterson merupakan mantan insinyur Google yang keluar dari Google tahun 2006. Anna dan Tom juga dibantu oleh 2 orang mantan insinyur Google, Russell Power dan Louis Monier. Cuil juga didukung oleh dana sebesar $ 33 Juta. Dari segi tampilan, Cuil lebih menarik dari Google. Cuil menampilkan format seperti majalah online dan dalam sebuah pencarian akan ditampilkan juga link dan foto yang berkaitan dengan yang dicari tidak seperti Google yang hanya tulisan saja. Menurut Anna Patterson, Russell Power, dan Louis Monier, para mantan pegawai Google ini, Cuil tiga kali lebih cepat dibandingkan Google, dan memiliki 120 miliar index halaman, lebih banyak daripada milik Google dan akan terus bertambah dalam beberapa waktu kedepan.. Mereka juga mengklaim, bahwa pengunjung Cuil lebih banyak daripada Google, walaupun tanpa angka yang pasti. Jika Google menggunakan PageRank dalam menilai popularitas suatu web, maka Cuil melakukan analisis dari content per halaman web. Submit URL : http://www.cuil.com/ |
· Deja News Deja News memiliki kekhususan sebagai search engine untuk mencari berita-berita diskusi dengan fasilitas “deja discussion”, rating product dengan fasilitas “deja rating” dan fasilitas “deja communities” dengan data dari usenet, newsgroup maupun posting yang dikirim melalui web. Search engine ini sangat membantu bagi yang membutuhkan mencari informasi yang sangat spesifik . Keunggulan lain adalah kemampuannya memberikan informasi yang cukup detil tentang “news reading” dan posting-posting yang dikirim lewat WEB. Submit URL : http://www.dejanews.com/ |
· Direct Hit Situs pencari ini mengintegrasikan URL yang dikirim oleh Anda berikut data popularitas situs Anda. Situs yang sering dikunjungi oleh pengunjung untuk mendapatkan informasi tertentu berada para urutan lebih tinggi dibandingkan situs yang secara terus menerus tidak pernah atau sedikit dikunjungi. DirectHit memberikan pelayanan listing-nya pada AT&T WorldNet (http://www.att.net; http://www.lycos.com , http://www.msn.com , http://hotbot.lycos.com, http://www.go2net.com , dan http://www.looksmart.com . Submit URL: http://www.directhit.com/ |
| · DMOZ (Open Directory) DMOZ didirikan pada bulan Juni tahun 1998 oleh Rich Skrenta dibawah nama GnuHoo. Netscape mendapatkan “NewHoo” pada bulan November 1998. Diubah namanya menjadi ODP (Open Directory Project). Rich Skrenta mendirikan Directory Mozilla project (DMOZ) untuk membuat suatu lingkungan yang mendukung yang akan memperbolehkan editor sukarelawan untuk tetap berjalan bersama dengan meledaknya internet. Kerena lebih mengutamakan pada project, tidak ada staff direktori yang boleh mereview, menambah dan mengontrol yang dibuat oleh direktori yang diedit oleh manusia (masalahnya sudah diidentifikasi oleh Yahoo! direktori). Sejak saat itu, ODP mulai merebak. Ribuan editor sukarelawan memelihara daftar-daftar website dengan memelihara categori mereka yang sudah terspesialisasi. Sistem ini memperbolehkan orang dengan hobi yang spesifik untuk mengontrol kategori yang memiliki hubungan dimana hal ini merupakan ideologi yang sudah didefinisikan sejak DMOZ sebagai penguasa tunggal direktori pada internet. Sejak lahirnya DMOZ, sudah lebih dari 50.000 editor sukarelawan mulai memberi kontribusi untuk membangun sebuah direktori yang mengandung setidaknya 4 juta websites. Dmoz termasuk yang penomenal dalam Directory search engine karena hampir semua search engine terkenal mengacu pada directory Dmoz. Beberapa Search Engine yang mengacu pada Dmoz diantaranya: Google, Alexa, Yahoo, AOL, Lycos, Teoma, AskJeevess Netscape, Hotbot dan beberapa Search engine yang lain. Yang jelas bayangkan saja jika situs atau blog anda ter-index pada directory tersebut, berbanggalah jika web atau blog anda salah satu yang dipilih dan pantas masuk kategori mereka, karena web atau blog yang pantas masuk merupakan dari suatu proses penyaringan yang sangat ketat. Tidak jarang web atau blog yang mendaftar di tolak bahkan tanpa konfirmasi sama sekali. DMOZ dikenal sebagai salah satu The Best Directory (Top 10 Directory) di dunia Internet Bisnis, para webmaster dan master SEO akan selalu melakukan submit ke directory ini. Open Directory ini sebenarnya bukan Search Engine, melainkan tempat untuk mendaftarkan URL kita ke database. Submit URL : http://www.dmoz.org/ |
| · Excite Excite didirikan sebagai Architext pada tahun 1994 oleh Graham Spencer, Joe Kraus, Mark Van Haren, Ryan McIntyre, Ben Lutch dan Martin Reinfried, yang semuanya mahasiswa di Universitas Stanford. Excite merupakan peranti pencari yang sangat digemari. Keunggulannya, Excite dapat menerima operasi logika Boolean dalam pencarian data. Operasi Boolean yang disediakan adalah OR, AND dan AND NOT. Jadi Anda dapat mencari dokumen yang mengandung kedua kata "printer dan inkjet" dengan mengetikkan printer AND inkjet pada kolom pencarian Excite. Tanda kurung untuk menyusun tahapan logika Boolean juga dapat dipakai, contohnya: printer and (inkjet or deskjet). Excite juga dapat mencari kata-kata yang dianggap sebagai satu kesatuan dengan mengapit kata-kata tersebut dengan tanda kurung, contohnya "printer inkjet". Merupakah salah satu dari 10 situs pencari utama menurut Mediametrix.com dan nielsen-netratings.com. Jadi kalau situs Anda ingin dikenal maka daftarkan ke situs pencari ini, dan daftarkan ke jaringan excite. Jaringannya juga terdiri dari Magellan Software (http://www.magellan.com) dan webcrawler.com. Submit URL: http://www.excite.com/ |
| · Go (Infoseek) Go (yang dulunya Infoseek) dikategorikan sebagai salah satu search engine yang dikategorikan baik untuk mengetahui berita – berita terbaru dari “Businesswire”, Reuters, CNN, USA Today dan The New York Times. Selain itu, Go juga memiliki kelebihan direktori yang disusun dengan sistem index yang baik dengan topik-topik yang cukup besar, dibandingkan dengan Yahoo dan HotBot. Go juga memberikan ranking data hasil pencarian sesuai dengan tingkat kebenarannya. Submit URL : http://go.com/ |
| · Google Google didirikan oleh dua orang mahasiswa dari universitas Stanford yaitu Larry Page dan Sergey Brind. Mereka mendirikan Google ketika mereka masih kuliah. Perusahaan Google Inc bermarkas di Mountain View, California Amerika Serikat. Kata Google berasal dari kata googol. Kata ini berhasil ditemukan oleh Milton Sirotta, keponakan Edward Kasner, seorang ahli matematika dari AS. Sorotta membuat istilah googol untuk menyebut angka satu (1) yang diikuti 100 angka nol (0). Googol merupakan kata yang menunjukkan sebuah bilangan yang sangat besar jumlahnya. Bilangan yang melebihi bilangan miliar atau triliun. Dan di alam semesta ini tidak ada benda yang berjumlah hingga googol-an. Tidak itu bintang, tidak itu partikel debu, dan tidak pula atom. Karena itu, penggunaan kata Google merupakan refleksi dari kata googol. Dengan kata tersebut, Google berusaha merefleksikan dirinya sebagai perusahaan yang memiliki misi mengelola sesuatu yang sangat luas dan tak terbatas. Dan itu hanya terdapat pada sunia syber tempat informasi melimpah tanpa batas. Domain google.com pertama diregistrasikan pada 15 September 1997 dan kemudian pada tangga 7 September 1998 berdirilah google Inc yang dimulai pada sebuah garasi rumah di daerah Menlo Park, California. Saat ini google adalah mesin pencari terbesar dan yang paling banyak digunakan orang di seluruh dunia. Pertumbuhan Google Inc semakin pesat ketika perusahaan ini berhasil membeli beberapa perusahaan antara lain : Pyralab yang merupakan pembuat blogger. Google juga berhasil mengambil alih upstartle perusahaan yang bertanggung jawab untuk prosesor kata online. Teknologi ini yang kemudian digunakan google untuk pembuatan Google Docs & Spreadsheets. Google juga membeli You Tube yaitu situs video online pada tahun 2006, setelah itu google juga mengakusisi jotspot yaitu sebuah teknologi pembuatan wiki. Berbagai macam produk & fitur ditawarkan oleh google, antara lain : yang utama search engine ( mesin pencari ), Adword, Adsense, Google News, Google Group, Google Maps, Gmail, Google Video, Google Earth, Google Android, Google Scholar, Google Translate, Google Research, Google code, Blogger, You Tube, dll. Google dikenal luas karena layanan pencarian webnya, yang mana merupakan sebuah faktor besar dari kesuksesan perusahaan ini. Google memiliki milyaran halaman web, sehingga pengguna dapat mencari informasi yang mereka inginkan, melalui penggunaan kata kunci dan operator. Google juga telah menggunakan teknologi Pencarian Web pada layanan pencarian lainnya, termasuk, pencarian gambar, situs perbandingan harga, arsip, interaktif, dan lainnya. Anda patut bangga jika dalam pencarian website anda berada pada posisi teratas Google. Untuk saat ini kepopuleran Google tidak perlu diragukan lagi. Mesin pencari Google menarik perhatian jumlah pengguna Internet yang terus meningkat, yang menyukai desain sederhana dan penggunaannya. Submit URL : http://www.google.com/ |
| · Hotbot Hotbot dibangun 20 Mei 1996 dan merupakan produk keluaran Inkomotomi Corporation yang didirikan oleh Eric Brewer dan Paul Gauthier dari Universitas California Berkeley. HotBot dapat mencari dokumen-dokumen dengan format tertentu, misalnya file ActiveX, file audio dan file VRML. Alasan utama pemakai Internet menggunakan HotBot adalah informasinya yang cukup lengkap tentang data perbandingan motherboard maupun prosesor. Uniknya pencarian dapat melibatkan kriteria MUST, SHOULD dan MUST NOT untuk menyaring data yang dikumpulkan. Submit URL : http://www.hotbot.com/ |
| · Looksmart Looksmart bukanlah search engine, tapi mempunyai pengaruh besar juga dalam pencarian data di internet. Directori ini berbagi database yang sudah dibuatkan kategorinya berupa link dengan MSN, Home.net, CNN, dan Time Warner. Situs ini merupakan yang termasuk berbayar, untuk itu jika anda mempunyai uang,daftarkan juga ke sini. Submit URL : http://www.looksmart.com/ |
| · Lycos Lycos yang merupakan sebuah proyek dari sebuah lab di Universitas Carnigie Mellon, Juli 1994, didirikan oleh Michael Maudlin. Lycos ternyata adalah potongan nama hewan, tepatnya nama laba-laba. Lycos adalah potongan dari nama “Lycosidae”, yaitu nama keluarga laba-laba yang dapat bergerak sangat cepat. Mengapa laba-laba? Karena Lycos menggunakan teknologi “spider” untuk menjelajahi website (jaring-jaring situs). Spider di sini adalah terminologi internet untuk suatu robot program, yang dapat melakukan penyusunan index banyak tempat dengan menjelajahi dan merekamnya satu persatu. Lycos adalah mesin pencari dan portal web yang banyak menekankan pada informasi berorientasi hiburan dalam arti yang luas. Submit URL : http://www.lycos.com/ |
· Magellan Selain menyediakan sarana pencarian melalui WEB, Magellan juga mempunyai aturan untuk tidak memuat semua data yang bersifat “Adult content”. Semua hasil pencarian dapat di browse menurut topik dan sub-topik dan bila menghendaki review untuk site-site yang dicari dapat dipilih menu “green light site” yang juga dengan memberikan ranking data. Submit URL : http://magellan.excite.com/ |
| · MSN Mesin pencari ini merupakan mesin pencari pertama yang diciptakan oleh Microsoft dan diluncurkan pertama kali tahun 1998. MSN Search terdiri dari mesin, indeks, dan web crawler. Sejak diluncurkan, mesin pencari ini terus berkembang dan mengalami penyempurnaan. Pada November 2004, Microsoft melakukan upgrade terhadap mesin pencari ini dengan bekerja sama dengan Picsearch khusus untuk menampilkan hasil pencarian gambar. MSN merupakan layanan yang hasilnya dikelola oleh Looksmart. Submit URL : http://www.msn.com/ |
| · Northern Light Northern Light merupakan salah satu search engines yang mampu menjelajah dunia WEB dengan detil dengan jumlah 150 juta websites. Keistimewaan lain adalah adanya alternatif informasi melalui “special collection” yang menyediakan 8 juta artikel dari 5.400 journal, buku, majalah dan database yang dapat diperoleh dengan harga rata $1 – $4 / artikel. Karena itu site ini sangat membantu untuk pencarian informasi khususnya bagi kalangan akademis dengan harga yang relatif murah. Submit URL : http://www.northernlight.com/ |
| · RealNames RealNames didirikan tahun 1997 oleh Keith Teare Kalau Anda mau, Anda bisa anggarkan sekitar $100 per tahun, Anda bisa buatkan URL Anda dengan keyword sehingga orang langsung masuk ke situs Anda walaupun hanya mengetikkan keyword-nya saja pada browser internet explorer. RealNames juga akan menampilkan situs web Anda apabila seseorang mengetikkan keyword yang telah Anda beli begitu juga pada situs pencari berikut, About.com, AltaVista, Dogpile, MSN, Google, Go, dan LookSmart. Submit URL: http://www.realnames.com/ |
· Submitxtras Bagi Anda yang baru mempunyai blog atau website, dan ingin menjadikannya terkenal diberbagai search engine dunia, Anda bisa mendaftarkannya di sini, karena search engine ini bisa mendaftarkan sampai 1500 Search Engines terkenal yang ada di seluruh dunia. Submit URL : http://www.submitxtras.com/ |
| · WebCrawler Akses ke WebCrawler secara relatif lebih cepat karena tampilannya yang sederhana, tidak seperti peranti pencari lainnya yang penuh dengan gambar animasi dan iklan-iklan perusahaan atau sejenis itu. Kehebatan WebCrawler terletak pada pencariannya yang detail, WebCrawler tidak hanya mencari pada judul dan nama URL tetapi juga isi suatu dokumen! Jadi, WebCrawler dapat menampilkan data yang terpendam di dalam suatu dokumen. Operasi logika NEAR dan ADJ dapat dipakai untuk mengurangi jumlah laporan hasil pencarian. Kelebihan lainnya, bila peranti pencari lainnya umumnya mencari pada URL web (http.://) saja, WebCrawler mencari juga pada lokasi Gopher (gopher://), server FTP (ftp://) dan server lainnya selain web. Banyaknya hasil pencarian yang dilaporkan dapat diatur, misalnya 25, 50 atau 100 hasil laporan. Kelemahannya, karena pencariannya detail, waktu pencarian lebih lama dan WebCrawler tidak terlalu sering melakukan update basis datanya. Submit URL : http://www.webcrawler.com/ |
| · Yahoo Yahoo didirikan / dirintis oleh David Filo dan Jerry Yang, alumni mahasiswa teknik dari universitas stanford. Ide awal pendirian Yahoo di mulai pada bulan April 1994. Pada awalnya yahoo hanya sebuah bookmark, lalu kemudian berkembang menjadi portal web yang terbesar hingga kini. Yahoo semakin berkembang dan dilengkapi dengan berbagai fitur - fitur menarik, antara lain : yahoo mail, yahoo messenger, yahoo group, yahoo 360, dll. Kebesaran perusahaan Yahoo inc pun semakin ditunjukkan dengan mengakusisi / mengambil alih berbagai perusahaan besar lainnya, seperti : Yahoo adalah site pertama yang berusaha mengatalogkan web, menawarkan daftar direktori dari setiap site penting, kemudian terlahir kembali sebagai web portal yang menggabungkan direktori dengan pencarian, berita, IM, e-mail dan jasa-jasa lainnya. Awalnya Yahoo bernama “Jerry and David’s Guide to the World Wide Web” dan pada April 1994 diganti menjadi : “Yet Another Hierarchical Officious Oracle” atau disingkat Yahoo!, yang berarti “Satu tempat bertanya segala tahu yang disusun bertingkat dan hirarkis”. Submit URL : http://m.www.yahoo.com/ |
Tidak ada komentar:
Posting Komentar