ANALISIS WEB
Pada pembahasan kali ini, saya
akan membahas tentang Analisis Web. Seperti judulnya Analisi Web berarti
menganalisa sebuah Web, maksudnya menganalisa dengan mengetahui, ataupun
mengukur suatu Web berdasarkan traffic atau algoritma. Disini terdapat contoh beberapa
tools untuk mengukur sebuah Web, yang sudah saya lakukan dengan menggunakan
Alexa Rank.
Analisis/analisa adalah kajian
yang dilaksanakan terhadap sebuah topik guna meneliti struktur bahasa tersebut
secara mendalam.
Sumber : http://id.wikipedia.org/wiki/Analisis
Analisis Web atau Web Analytics
adalah proses pengumpulan data dan menganalisis konten web untuk mendapatkan
informasi tentang bagaimana website digunakan atau dikehendaki pengunjung.
A. Pengukuran Web ( Ukuran, Unjuk Kerja )
Salah satu teknik mengukur dan
menguji suatu kinerja web adalah dengan mengukur pengalaman seseorang atau user
experience pengunjung situs yang berinteraksi dengan halaman-halaman web yang
berada di internet. Salah satu teknik mengukur dan menguji suatu kinerja web
adalah dengan mengukur pengalaman seseorang atau user experience pengunjung
situs yang berinteraksi dengan halaman-halaman web yang berada di internet
(Keynote System, Inc 2010).
Kinerja suatu web atau web performance sangat dipengaruhi oleh beberapa
komponen-komponen dasar yang dibagi menjadi dua bagian penting, yaitu (1)
dilihat dari gambaran transaksi web atau perspective transaction dan (2)
gambaran komponen aplikasi atau application component perspective (Keynote
System, Inc 2010). Transaksi web atau web transaction lebih menitikberatkan
pada sisi pengalaman pengguna atau user experience sedangkan komponen aplikasi
lebih menitikberatkan pada komponen jaringan komputer atau computer network.
Pengalaman Pengguna (User
experience), diantaranya adalah (Keynote System, Inc 2010) :
• Time to opening page
(time_to_opening_page), maksudnya adalah mengukur, dari sisi pengguna, waktu
yang dibutuhkan pada saat pertama kali membuka halaman web. Waktu dimulai dari
aksi pertama setelah internet agent memutuskan untuk berpindah ke halaman
berikutnya. Waktu berakhir ketika pesan opening page ditampilkan di Web browser
status bar.
• Page download
(page_download_time), maksudnya adalah waktu yang dibutuhkan antara ketika Web
browser membuat sinyal opening page dan ketika Web browser akan menampilkan
pesan done di status bar.
Kinerja suatu web atau web
performance sangat dipengaruhi oleh beberapa komponen-komponen dasar yang
dibagi menjadi dua bagian penting, yaitu (1) dilihat dari gambaran transaksi
web atau perspective transaction dan (2) gambaran komponen aplikasi atau
application component perspective. Transaksi web atau web transaction lebih
menitikberatkan pada sisi pengalaman pengguna atau user experience sedangkan
komponen aplikasi lebih menitikberatkan pada komponen jaringan komputer atau
computer network.
Pengalaman Pengguna (User
experience), diantaranya adalah:
Time to opening page
(time_to_opening_page), maksudnya adalah mengukur, dari sisi pengguna, waktu
yang dibutuhkan pada saat pertama kali membuka halaman web. Waktu dimulai dari
aksi pertama setelah internet agent memutuskan untuk berpindah ke halaman
berikutnya. Waktu berakhir ketika pesan opening page ditampilkan di Web browser
status bar.
Page download
(page_download_time), maksudnya adalah waktu yang dibutuhkan antara ketika Web
browser membuat sinyal opening page dan ketika Web browser akan menampilkan
pesan done di status bar.
Tools-tools pengukur analisis web
:
SEO (Search Engine Optimization)
adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan
mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan
menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
GTmetrix merupakan sebuah situs
dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan
performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo
Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil
juga rekomendasi yang harus dilakukan.
a. Kelebihan dari Gtmetrix :
Dapat membandingkan beberapa URL
secara bersamaan
Dapat menjadwalkan pengecekan
web/blog secara otomatis dan dapat menyimpan laporan
b. Kekurangan dari Gtmetrix :
Dalam penggunaan GTmetrix harus
menggunakan koneksi internet yang cepat.
Alexa Internet, Inc. adalah
perusahaan yang berbasis di California yang mengoperasikan situs yang
menyediakan informasi mengenai banyaknya pengunjung suatu situs dan urutannya.
Alexa Internet didirikan pada tahun 1996 oleh Brewster Kahle dan Bruce Gilliat.
Cara kerja Alexa rank Alexa memberikan peringkat ke sebuah situs berdasarkan
jumlah pengunjung unik. Semakin rendah alexarank dari situs berarti situs
memiliki sedikit pengunjung unik. Jadi
jika Anda bisa mendapatkan lebih banyak traffic ke situs Anda, Anda akan
mendapatkan lebih rendah alexa rank.
a. Kelebihan dari Alexa :
Alexa rank akan menampilkan
tingkat popularitas dari sebuah situs web yang dibandingkan dengan web milik
kita,termasuk jangkauan,tampilan halaman,dan masih banyak lagi.
Pencarian analisa akan
menampilkan kepada kita yang merupakan syarat untuk kita untuk berkompetisi
untuk mendapatkan sebuah traffic.
Data pengunjung akan menampilkan
kepada kita apa yang menarik dari website kita yang dilihat oleh pengunjun –
pengunjung website kita.
Data clickstream akan menampilkan
kepada kita sebagai pemilik website dimana dalam mendapatkan traffic dari
program keanggotaan dan kemitraan.
b. Kekurangan dari Alexa :
Jika pengguna internet (pengakses
situs anda tidak menginstal Alexa Toolbar di browsernya) maka sekalipun ada
1000 pengunjung situs anda dalam sehari, Alexa akan tetap menilai situs anda
tidak ada pengunjungnya.
Jika dalam sehari ada yang
mengakses situs anda 20 kali dengan alamat IP(Internet protocol) yang sama,
maka akan dianggap situs anda hanya dikunjungi oleh 1 satu orang hanya dapat
poin 1, akan berbeda jika situs anda dikunjungi oleh 20 orang dengan alamat IP
berbeda (unik) maka situs anda akan memperoleh nilai 20 (nilai ini hanya pengandaian, Alexa mempunyai formula
sendiri dalam menentukan nilai sebuah web) .
B.
Crawler
Pengertian Crawler
Crawler adalah sebuah program/script otomatis yang memproses halaman web.
Sering juga disebut dengan web spider atau web robot. Ide dasarnya sederhana
dan mirip dengan saat anda menjelajahi halaman website secara manual dengan
menggunakan browser. Bermula pada point awal berupa sebuah link alamat website
dan dibuka pada browser, lalu browser melakukan request dan men-download data
dari web server melalui protokol HTTP.
Setiap Hyperlink yang ditemui pada konten yang tampil akan dibuka lagi pada
windows/tab browser yang baru, demikian proses terus berulang. Nah sebuah web
crawler mengotomatisasikan pekerjaan itu.
Kesimpulannya, dua fungsi utama web crawler adalah:
1. Mengidentifikasikan Hyperlink.
Hyperlink yang ditemui pada konten
akan ditambahkan pada daftar visit, disebut juga dengan istilah frontier.
2. Melakukan proses kunjungan/visit secara rekursif.
Dari setiap hyperlink, Web crawler
akan menjelajahinya dan melakukan proses berulang, dengan ketentuan yang disesuaikan dengan keperluan aplikasi.
Cara kerja Crawler
Cara kerja Crawler , pertama robot mengumpulkan informasi pada halaman
blog/web dan semua media internet yg bisa diindeks oleh search engine. Robot
tersebut kemudian membawa informasi yg didapatnya ke data center. Di data
center, data tersebut kemudian di oleh sedemikian rupa, apabila memenuhi
persyaratan, maka dia akan dimasukkan ke dalam indeks. Nah, proses yg dilakukan
oleh user search engine adalah memanggil indeks-indeks tersebut, apabila
indeks2 memiliki kesesuaian dengan yg dicari user (dan bila memiliki peringkat
yg baik), di akan ditampilkan di halaman utama search engine (berperingkat).
Cara agar website/blog masuk
dalam Crawler itu ada dua,
Pertama : Membuat sitemap dan atau
daftar isi
Sitemap (peta situs) blog berfungsi membantu search engine bot menjelajahi,
menemukan dan mengindeks konten blog kita. Jika blog anda berplatform
wordpress.org, cara paling mudah membuat sitemap adalah dengan memasang plugin
bernama Google XML sitemaps. Sitemap sebenarnya hampir sama dengan halaman daftar
isi yang sering kita buat di blog, hanya sitemap berisi kode-kode HTML yang
dibaca oleh bot sedangkan daftar isi untuk dibaca oleh manusia. Jika anda ingin
sitemap yang juga berfungsi sebagai daftar isi, gunakan plugin bernama Dagon
Sitemap Generator. Beberapa themes seperti GoBlog Themes sudah menyediakan
sitemap secara default seperti ini: Sitemap.
Kedua : Mendaftarkan sitemap di Google Webmaster Tools
Sitemap blog anda perlu didaftarkan di Google Webmaster Tools. Google
webmaster sendiri penting diikuti oleh semua pemilik blog agar anda dapat
menganalisa semua data yang berkenaan dengan blog anda. Melalui uji sitemap,
kita bisa mengetahui konten mana di blog yang belum terindeks Google. Daftarkan
dulu blog anda di Google Webmaster Tools.
Berikut ini adalah contoh-contoh dari Crawler:
1.Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing. Software
ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah
dan secepat sekarang. Software ini berbayar dan beralamatkan di
http://www.tenmax.com.
2.HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan
software yang dapat mendownload konten website menjadi sebuah mirror pada
harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini
free dan dapat di download pada website resminya di http://www.httrack.com
3.Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh
search engine Google. Kalau website anda ditemukan orang melalui Google, bisa
jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian
bandwidth anda akan tersita karena proses crawling ini.
4.Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo
mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation
yang diakuisisi oleh Yahoo!.
5.YaCy
Sedikit berbeda dengan web crawler
lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer),
di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus
mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P
untuk berbagi index, sehingga tidak memerlukan server central.
Contoh search engine yang menggunakan YaCy adalah Sciencenet
(http://sciencenet.fzk.de) untuk pencarian dokumen di bidang sains.
C.
Search
Engine
Search engine adalah istilah atau penyebutan bagi website yang berfungsi
sebagai mesin pencari, mesin pencari ini akan menampilkan informasi berdasarkan
permintaan dari user pencari konten, konten yang ditampilkan adalah konten yang
memang sudah terindex dan tersimpan di database server search engine-nya itu
sendiri.
Saat ini sudah mulai banyak website search engine, namun dari sekian banyak
search engine yang ada saat ini berikut ini beberapa search engine yang
terbilang popular, seperti Yahoo!, Alltheweb, MSN, AskJeeves, Google,
AltaVista, dan Lycos.
Yahoo!
(http://www.yahoo.com)
Salah satu portal terbesar di Internet, selain MSN., dan juga salah satu
mesin pencaru tertua. Halaman utamanya sendiri tidak terlalu ramah untuk
pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo!
menggunakan jasa Google untuk mencari informasi di web, ditambah dengan
informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya.
Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas
pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.
Alltheweb
(http://www.alltheweb.com)
Keunggulan Alltheweb adalah pencarian file pada FTP Server. Tidak seperti
web, FTP adalah teknologi internet yang ditujukan untuk menyimpan dan
mendistribusikan file, biasanya program, audio atau video. Web sebenarnya lebih
ditujukan untuk teks. Sejauh ini, hanya AllTheWeb yang menyediakan jasa
pencarian file.
MSN
(http://search.msn.com)
Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan
kata kunci maupun dari direktori. Pemakai Internet Explorer kemungkinan besar
sudah pernah menggunakan mesin pencari ini. Situs Searchenginewatch mencatat
MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada
pencarian image, atau news. Menyediakan pencarian peta, yellow pages, white pages,
pencarian pekerjaan, rumah.
AskJeeves
(http://www.ask.com)
Situs mesin pencari yang satu ini mengunggulkan kemampuannya untuk memahami
bahasa manusia. Pengguna bisa menggunakan kalimat lengkap, bukan kata kunci.
Situs ini berguna untuk mengetahui jawaban dari pertanyaan(misal: when did
world war II end?).
Google:
(http://www.google.com)
Selain pencarian web, Google juga menyediakan jasa pencarian gambar,
pencarian ?berita serta pencarian pada arsip USENET (newsgroup), serta
direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya
pencarian file, video, dan audio. Keunggulan Google terutama adalah pada
pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta
banyaknya jenis file yang diindeksnya.
AltaVista
(http://www.altavista.com)
Satu saat, AltaVista pernah menjadi mesin pencari terbesar. Saat ini,
selain Alltheweb, Altavista juga menawarkan pencarian audio dan video.
Keunggulan AltaVista adalah pilihan pencarian yang paling lengkap di antara
semua mesin pencari.
Lycos
(http://www.lycos.com)
Salah satu mesin pencari tertua. Saat ini Lycos lebih dikenal sebagai
portal, sehingga fungsi pencarinya tidak terlalu menonjol. Lycos, selain
mendukung pencarian web, juga menyediakan pencarian file MP3, dan video pada
http://multimedia.lycos.com.
Perbedaan Serach Engine Yang
Ada
Ada banyak sekali contoh perbedaan search engine, disini hanya akan ada
beberapa yang saya jelaskan. Sebagai contoh, untuk Yahoo! dan Bing, On Page
Keyword merupakan faktor yang paling penting, sedangkan untuk Google, Link-lah
yang merupakan faktor yang sangat penting.
Selain itu, halaman website untuk Google adalah seperti wine – semakin tua
umurnya, semakin bagus peringkatnya. Sedangkan untuk Yahoo! biasanya tidak
mementingkan hal tersebut. Maka dari itulah, anda memerlukan waktu yang lebih
banyak untuk membuat website anda matang untuk berada di peringkat atas di
Google, daripada di Yahoo!.
Kerja Sebuah Search Engine
Jika anda ingin mencari sesuatu,tentunya telah memiliki sebuah kata kunci (
keyword ) untuk sesuatu yang anda cari.Sebuah search engine bekerja dengan
menerima kata kunci dari pengguna,memproses dan menampilkan hasilnya.Akan lebih
mudah dibayangkan jika anda terbiasa melakukan pemrograman data base dengan
menggunakan Query atau SQL,karena tentunya anda telah terbiasa menampilkan data
pada table-table dengan kriteria tertentu.Tapi,Web Search Engine yang tersedia
saat ini telah memiliki kemampuan yang lebih baik dalam menerima dan mengolah
keyword dari pengguna.
Bagaimana search engine menampilkan informasi dari gudang data yang
sedemikian besar dalam waktu yang singkat..? Sebagaiman juga dengan pemrograman
database,menggunakan indeks adalah salah satu cara ampuh untuk
meningkatkanperforma kecepatan.Pencarian juga sudah tidak terbatas pada
pencarian dokumen,tetapi sangat variatif tergantung pada kebutuhan anda.Anda
dapat mencari gambar,musik,software, atau dokumen dengan fornat tertentu.
Hal lain yang tidak kalah penting bagaiman search engine ( terutama web
search engine ) mengumpilkan semua data tersebut .Jangan kaget jika anda cukup
aktif menulis pada forum.blog,mailing list atau mungkin sebagai spammer maka
search engine dapat menampilkan ke seluruh dunia.Search engine mampu menemukan
tulisan anda karena adanya metode pengambilan informasi ( Informatio
Retrival/IR ) yang mencari metadata dan database yang tersebar di
internet.Sebagai contoh,pada saat anda mengetikkan sebuah komentar pahit pada
seseorang dan melakukan submit pada sebuah halaman website,halaman web yang
berisi komentar anda telah tersedia bagi aplikasi-aplikasi IR untuk dibaca
siapa saja yang melakukan pencarian dengan keyword yang tepat.
D. Web Archive
Web Archive adalah Sebuah file format terkompresi, didefinisikan oleh Java
EE standar, untuk menyimpan semua sumber daya yang diperlukan untuk menginstal
dan menjalankan aplikasi Web dalam satu file.
Cara Kerja Web Archiving
Yang paling umum web pengarsipan teknik menggunakan web crawler untuk
mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses
halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan
web browser untuk menemukan website yang ingin dicari.
Contoh Web Archive
Local Website Archive
Aplikasi inilah yang memampukan kamu dapat dengan cepat untuk menyimpan dan
mengarsipkan secara lengkap halaman web, disertai dengan keseluruhan gambar
untuk tujuan digunakan sebagai referensi. Kamu dapat mengorganisasir arsip
halaman web ke dalam kategori-kategori yang relevan atau sejenis, dan dapat
menggunakan built-in browser display untuk menampilkannya secara offline.
Sebagai tambahan, kamu juga dapat melakukan pencarian keseluruhan halaman
web yang tersimpan melalui penggunaan keyword, serta dapat melakukan ekspor
secara keseluruhan ataupun beberapa item saja yang terseleksi ke dalam sebuah
file executable selfextracting. File tersebutlah yang dapat digunakan untuk
mengirimkan koleksi-koleksi kamu tersebut kepada teman, ataupun melakukan
transfer ke sebuah komputer berbeda.
Ekonomi Web
Seiring dengan perkembangan zaman,
tidak dapat dipungkiri lagi bahwa kini teknologi merupakan kebutuhan kita dalam
kehidupan sehari. Semua aspek kehidupan pada dewasa ini hampir semuanya
menggunakan teknologi, termasuk pada aspek ekonomi. Segala aktifitas
perekonomian kini telah banyak yang menggunakan fasilitas tekonolgi seperti
halnya internet. Dengan bantuan internet, perekenomian terasa lebih mudah,
jarak dan waktu bukanlah hal yang dapat membatasi lagi antara penjual dan
pembeli. Dengan internet juga seseorang dapat juga membuat sebuah ekonomi web.
Apa saja yang terkait dengan ekonomi web itu? Mari kita bahas dalam bab ini
satu per satu.
A. Iklan
Iklan merupakan salah satu cara
untuk memperkenalkan barangan, perkhidmatan, peluang pekerjaan, inspirasi dan
maklumat kepada yang ingin disampaikan.
IKLAN TERHADAP PENGARUH EKONOMI
1.Iklan sebagai transaksi atau peristiwa yang ekonomi yang mampu
mempengaruhi kehidupan ekonomi masyarakat.
• Iklan sebagai kegiatan jual beli (untuk menyampaikan pesan, pengiklan
harus membayar media yang dipilih).
• Memberi keuntungan kepada agen iklan.
• Membuka lapangan kerja.
• Iklan menjaadi salah satu bidang bisnis yang menjanjikan.
• Industri periklanan menjadi salah satu pilihan kerja yang menjanjikan.
• Seiring dicanangkannya industri kreatif, iklan menjadi salah satu profesi
bergengsi.
• Saat krisis ekonomi 1998, industri periklanan merupakan satu-satunya
industri yang cepat keluar dari keterpurukan.
• Meningkatkan pemasaran produk.
B. Pencarian
Pencarian pada ekonomi web pada umunya adalah melalui penjualan online.
Penjualan online adalah melakukan aktifitas penjualan dari mencari calon
pembeli sampai menawarkan produk atau barang dengan memanfaatkan jaringan internet
yang didukung dengan seperangkat alat elektronik sebagai penghubung dengan
jaringan internet.
Pengaruhnya:
• Kehadiran e-commerce yang terus berkembang lambat laun akan merubah kebiasaan bertransaksi sebagian masyarakat
kita. Para produsen maupun konsumen akan terbiasa menjual maupun membeli produk
dan jasa secara online ketimbang melangkahkan kaki ke outlet penjualan. Ruang
dan waktu bukan lagi menjadi kendala. Sebuah perusahaan di Indonesia memiliki
kesempatan yang sama dengan kalangan bisnis asing untuk menjalin kerjasama atau
ingin mengakses pasar mancanegara.
• seseorang lebih mudah untuk mengembangkan usahanya seperti dengan menjual
barang dan jasa via online. Banyak sekali situs yang menyediakan jual beli
online. Salah satu yang terbesar adalah TokoBagus(dot)com. Dengan adanya
Internet pula kita tidak perlu repot pergi untuk membeli barang yang kita butuhkan.
Tinggal pesan saja melalui transaksi ataupun dengan cash.
• Kemajuan teknologi akan meningkatkan kemampuan produktivitas dunia
industri baik dari aspek teknologi industri maupun pada aspek jenis produksi.
Investasi dan reinvestasi yang berlangsung secara besar-besaran yang akan
semakin meningkatkan produktivitas dunia ekonomi. Di masa depan, dampak
perkembangan teknologi di dunia industri akan semakin penting. Tanda-tanda
telah menunjukkan bahwa akan segera muncul teknologi bisnis yang memungkinkan konsumen
secara individual melakukan kontak langsung dengan pabrik sehingga pelayanan
dapat dilaksanakan secara langsung dan selera individu dapat dipenuhi.
C. Online Auctions
Online auction adalah mekanisme pasar dimana penjual menawarkan produk dan pembeli
melakukan penawaran secara berurutan secara kompetitif hingga harga terakhir
dicapai. Online auction menerapkan konsep dynamic pricing, yaitu harga yang
berubah berdasarkan pada hubungan penawaran dan permintaan pada waktu tertentu.
Ada empat kategori utama dynamic pricing yaitu:
- Satu pembeli, satu penjual
- Satu penjual, banyak pembeli potensial
- Satu pembeli, banyak penjual potensial
- Banyak penjual, banyak pembeli
Manfaat dari Online Auction dibagi jadi 3 bagian, yaitu :
1. Manfaat bagi penjual :
- Meningkatkan pendapatan dengan memperluas pasar dan mempersingkat waktu
- Menetapkan harga optimal yang ditentukan oleh pasar
- Meningkatkan hubungan dan loyalitas pelanggan
2. Manfaat bagi pembeli :
- Kesempatan untuk menemukan barang unik
- Hiburan bagi pembeli
- Pembeli bisar menawar dari manapun, bahkan dengan telepon selular
3. Manfaat bagi Auctioner :
- Pembelian yang lebih tinggi.
- Pembeli cenderung untuk berkunjung lebih lama dan kembali lebih sering.
- Ekspansi bisnis lelang.
Referensi
http://ms.wikipedia.org/wiki/Iklan
http://blogsida2008.blogspot.com/2013/06/dampak-ekonomi-dan-pengaruh-web_16.html
http://lpse.jatimprov.go.id/eproc/lelang/view/6474015
http://candracindy.wordpress.com/2011/06/11/auction-online/
http://lintartamara.blogspot.com/2013/04/analisis-web-pengukuran-web-crawler.html
http://www.titoyulianto.com/pengertian-search-engine-manfaat-cara-kerja/
http://djuyadi.wordpress.com/2010/03/06/web-crawl-web-spider-web-robot-bot-crawl-automatic-indexer/
Tidak ada komentar:
Posting Komentar