WEB CONTENT
Content dalam website adalah segala
sesuatu yang dapat dilihat oleh pengunjung baik berupa gambar, tulisan,
animasi, video, suara, tombol navigasi dan sebagainya. Jadi jika kita
mengunjungi suatu website sebenarnya yang kita kunjungi adalah content.
Pengaturan content ini dilakukan pada saat pemograman website (coding), entah
itu jenis contentnya, warna, posisi dan sebagainya. Hal inilah yang mendasari
perencanaan pembuatan website harus dilakukan sebaik mungkin, karena
content-content yang akan ditampilkan pada website baik posisi maupun jenisnya
akan ditentukan dari sini.
Media Standar Penggunaan Web Kontrol
Walaupun Internet dimulai dengan
sebuah proyek penelitian pemerintah AS pada akhir 1950-an, web dalam bentuk
yang sekarang tidak muncul di Internet sampai setelah Tim Berners-Lee dan
rekan-rekannya di laboratorium Eropa (CERN) mengusulkan konsep menghubungkan
dokumen dengan hypertext. Tapi itu tidak sampai Mosaic, pendahulu dari Netscape
Navigator yang terkenal, tampak bahwa internet menjadi lebih dari sebuah sistem
yang melayani berkas. Penggunaan hypertext, hyperlink dan model berbasis
halaman berbagi informasi, diperkenalkan dengan Musa dan kemudian Netscape,
membantu untuk menentukan konten web, dan pembentukan website. Sebagian besar,
hari ini kita kategorikan website sebagai jenis tertentu dari website sesuai
dengan isi website berisi.
Model Generatif
Probabilitas dan statistik, model
generatif adalah model untuk menghasilkan data yang dapat diobservasi, biasanya
diberikan beberapa parameter tersembunyi secara acak. Ini menentukan distribusi
probabilitas bersama atas observasi dan urutan label. Model generatif yang
digunakan dalam pembelajaran mesin baik untuk pemodelan data secara langsung
(yaitu, pengamatan pemodelan menarik dari fungsi kepadatan probabilitas), atau
sebagai langkah menengah untuk membentuk fungsi kepadatan probabilitas
bersyarat. Sebuah distribusi bersyarat dapat dibentuk dari model generatif
melalui aturan Bayes '.
Model Retorika
Retorika berarti kesenian untuk
berbicara baik (Kunst, gut zu reden atau Ars bene dicendi), yang dicapai
berdasarkan bakat alam (talenta) dan keterampilan teknis (ars, techne), Dewasa
ini retorika diartikan sebagai kesenian untuk berbicara baik, yang dipergunakan
dalam proses komunikasi antarmanusia. Pada bahasa informatika model ini berarti
berbicara antarmuka melalui jaringan internet melalui website seperti: YM,
Facebook, Skype, dll.
WEB ANNOTATION
Tags
Tags atau Keywords adalah penting
dalam pemasaran di Internet , dengan ini kemungkinan peselancar mangunjungi
website bisa diarahkan, dan sesuai dengan keyword “Informatika” maka anda dapat
membandingkan dari bermacam-macam search engine atau social bookmark. Berikut
ini adalah tinjauan bermacam-macam search engine yang merujuk pada keyword atau
tag yang sama yaitu “Informatika dan yang berkaitan”. Search engine itu antara
lain : Google Blog Search, Yahoo Search , Technorati Tags, Del.icio.us Tags,
LiveJournal Tags, 43 Things Tags, Buzzwords (Buzznet) Tags.
Metadata
Metadata biasa didefinisikan sebagai
“data tentang data” atau dapat juga disebut dengan “informasi mengenai suatu
data”. Metadata mendeskripsikan isi, kualitas, kondisi, dan karakteristik
lainnya mengenai suatu data yang ditulis dengan format standard.
Metadata memiliki fungsi yang sama
seperti katalog yaitu untuk:
- mengidentifikasi suatu data
- mengelompokkan data yang serupa
- membedakan data menurut kriteria tertentu
- memberikan informasi penting berkaitan dengan data
Rich Snippets
Rich Snippets adalah data tambahan
dari blog/postingan kamu yang akan ikut ditampilkan pada halaman mesin
pencarian (SERP). Berbagai data yang bisa dimasukkan seperti rating, vote,
author, tanggal, file audio, resep masakan, produk (harga, stok, dsb), event,
dan banyak yang lainnya.
WEB DAN PERILAKU PENGGUNA /INTERAKSI
MANUSIA KOMPUTER
Perilaku Navigasi
pada suatu situs (jual beli
khususnya) penggunaan navigasi yang baik sangat penting untuk dilakukan bagi
para pembuat online. Para pembuat situs website tersebut harus bisa membuat
suatu navigasi agar pengunjung situs tersebut tidak bosan dengan melihatnya.
Ada dua tipe navigasi. Yang pertama adalah yang standar, yang memberikan
overview dan peta penjelajahan situs. Biasanya bisa ditemukan secara konsisten
baik di bagian atas, samping atau footer. Yang kedua adalah navigasi versi
advance. Jenis ini masih bertujuan memberikan alat untuk menelusuri situs,
namun dengan cara lebih spesifik. Misal lewat kategori, pengarang, produsen,
range harga, dan lain lain. Navigasi semacam ini sebenarnya mirip dengan fitur
search namun sudah diberi antar muka yang lebih intuitif. Alih-alih model kotak
isian teks kosong, calon pembeli diberi beberapa nilai default yang bisa
dipakai lewat link yang disediakan. Lebih keren lagi, calon pembeli bisa
melakukan penelusuran bertingkat, misalnya: kategori buku, di-drilldown dengan
topik “IT dan Marketing”, di-tune lagi pada level berikutnya dengan range harga
100 ribu sampai 400 ribu, lalu difinalisasi dengan “reviewed by NavinoT”. Calon
pembeli pun akan sampai pada apa yang benar-benar dia cari.
Permasalah dalam kaitan dengan:
- Para pemakai interface website tidak mengetahui daerah atau dalam hal ini lembaran-lembaran pada situs.
- Struktur lokasi tidak dapat ditemukan.
Pemakai interface situs seharusnya
diberikan suatu pemahaman dari struktur yang menyangkut dari suatu ruang dari informasi
tersebut. Maka sebaiknya disiapkan:
- Tabel Index (Peta Lokasi)
- Index
- Navigasi
- Fasilitas Pencarian (Search)
Perilaku Pencarian
Fitur pencarian internal tentunya
telah di desain dengan batasan tertentu. Ketika situs Anda tumbuh tentunya Anda
akan semakin tahu pola pemakaian oleh pengguna. Termasuk di dalamnya adalah
pola pencarian dalam rangka mendapatkan pengalaman terbaik dalam pemanfaatan
situs.
REKOMENDASI WEB DAN PRILAKU SOSIAL
Web merefleksikan perilaku
sosial
web pun dapat merefleksikan perilaki
sosial masyarakatnya, dengan adanya alat pengukur banyaknya orang/ IP address
yang mengakses web tersebut dapat menunjukkan bahwa web tersebut menarik
perhatian masyarakat dan pastinya akan mempengaruhi sikap sosial seaeoramg
contohnya seseorang yang sering mengakaksea situs belanja online akan mempunyai
gaya hidup yang boros karena tergiur oleh harga yang lebih murah daripada
conter ataupun diskon-diskon yang ada.
Web mempengaruhi perilaku sosial
web sebagai salah satu bentuk
teknologi dan informasi yang sangat populer di masyarakat menjadi salah satu
pemicu yang mempengaruhi perilaku sosial masyarakat. ada dua dampak yang
dimbulkan yaitu dampak positif dan dampak negatif, dampak postifnya adalah :
- lebih cepat dan mudah dalam meyelesaikan pekerjaan dalam hal ini berarti membantu pekerjaan manusia
- dapat berkomunikasi dengan baik tidak peduli jarak dan waktu sehingga membuat manusia saling berinteraksi dengan mudah
- mudah mencari informasi serta berbelanja online pun dapat dilakukan
dampak negatif :
- munculnya banyak penipu yang memanfaatkan internet
- adanya plagiatisme
- munculnya pencurian/hack
- munculnya banyak konyen-konten dewasa yang seharusnya tidak dilihat anak kecil dapat merusak mental
- bahaya kesehatan akibat radiasi yang ditimbulkan oleh komputer itu sendiri
STRUKTUR WEB
Link Structure, small world
Sebuah jaringan kecil
dunia adalah jenis grafik matematika di mana sebagian besar node
tidak tetangga satu sama lain, tetapi kebanyakan node dapat dicapai dari setiap
lain oleh sejumlah kecil hop atau langkah-langkah. Secara khusus,
jaringan-dunia kecil didefinisikan sebagai jaringan di mana L jarak
khas antara dua node yang dipilih secara acak (jumlah langkah yang diperlukan)
tumbuh secara proporsional dengan logaritma dari jumlah node N dalam
jaringan, yaitu:
Dalam konteks jaringan sosial, hasil
ini dalam fenomena dunia kecil dari orang asing yang dihubungkan oleh
saling kenalan. Banyak grafik empiris dengan baik dimodelkan oleh jaringan
kecil dunia. Jaringan sosial , konektivitas dari internet ,
wiki seperti Wikipedia, dan jaringan gen semua karakteristik
jaringan-dunia kecil pameran.
Social Networking
Social Networking adalah sebutan
lain terhadap website community. Social Networking adalah tempat untuk para
netter berkolaborasi dengan netter lainnya. Bentuk kolaborasi antara lain
adalah saling bertukar pendapat/komentar, mencari teman, saling mengirim email,
saling memberi penilaian, saling bertukar file dan yang lainnya. Intinya dari
situs social networking adalah interaktifitas. Contoh dari social networking
yang sering digunakan: Facebook, Friendster, MySpace, Twitter, dll.
Blogosphere
Blogosphere adalah suatu
interkoneksi / interaksi antar blog yangg tergabung dalam sebuah domain
dan domain tersebut tergabung dalam lingkup jaringan / internet,
Contohnya, Technorati, Top of Blogs, Blog Top site, blogspot termasuk
juga dengan blog directory, sebuah blogosphere biasanya diklasifikasikan menurut
jenis postingan, ada berupa blog berita, blog hoby , blog forum, blog
komunitas, blog iformasi dll.Istilah Blogosphere muncul pada tahun 1999 dan
mulai populer tahun 2002, walaupun lahir dari sebuah lelucon keberadaan
Blogosphere kini menjadi sebuah ikon bagi blogger, banyak blogger yang
menganggap belum lengkap bila seorang blogger belum tergabung ke dalam
komunitas Blogosphere hingga jadi ikon eksistensinya dalam dunia
blogging.( apa benar begitu..??? )
Manfaat Blogosphere ini tak lepas
kaitannya dari SEO ( Search Engine Optimization ), layaknya sebuah
komunitas keberadaan Blogosphere memberikan jalinan komunikasi antar
blogger, membuat akses posting yg popular dan menjadi sebuah trend, atau
mengupdate suatu bahasa dan kosakata untuk sebuah komunitas blog sehingga
menjadi kepopuleran tersendiri.
Analisis Web
Tools-tools pengukur analisis web :
- SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
- GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.
Kelebihan
dari GTmetrix :
1. dapat membandingkan beberapa URL secara bersamaan
2. dapat menjadwalkan pengecekan web/blog secara otomatis dan
dapat menyimpan laporan
Kekurangan
dari GTmetrix:
1. dalam penggunaan GTmetrix harus menggunakan koneksi internet
yang cepat.
Crawler
Adalah proses pengambilan sejumlah besar
halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya
berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah
Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern.
Cara kerja: suatu data dikumpulkan
oleh web crawler kemudian digunakan oleh mesin pencari untuk memberikan link
situs yang relavan bagi pengguna ketika mereka melakukan pencarian. web crawler
menangkap banyak hal yang berbeda ketika mereka memindai situs. Informasi diperoleh
dari metatag, konten itu sendiri dan link. untuk mendapatkan ide yang baik dari
apa situs adalah tentang. Crawler digunakan sebagai scan situs anda. jika ada
bagian-bagian tertentu dari situs yang seharusnya tidak diindeks, mereka harus
mencatat dalam file ini. setelah mendapat instruksi crawler dari file ini, akan
mulai dengan merangkak halaman situs anda.
Ini kemudian akan melanjutkan ke
indeks konten, dan kemudian akhirnya akan mengunjungi link di situs Anda. Jika
crawler mengikuti link dan tidak menemukan halaman, maka akan dihapus dari
indeks. Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam
database, yang kemudian digunakan oleh mesin pencari.
Beberapa Contoh Web Crawler :
1. Teleport Pro
Salah satu software web crawler
untuk keperluan offline browsing. Software ini sudah cukup lama popular,
terutama pada saat koneksi internet tidak semudah dan secepat sekarang.
Software ini berbayar dan beralamatkan di http://www.tenmax.com.
2. HTTrack
Ditulis dengan menggunakan C,
seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload
konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat
secara offline. Yang menarik software ini free dan dapat di download pada
website resminya di http://www.httrack.com
3. Googlebot
Merupakan web crawler untuk
membangun index pencarian yang digunakan oleh search engine Google. Kalau
website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari
Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena
proses crawling ini.
4. Yahoo!Slurp
Kalau Googlebot adalah web crawler
andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya
dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.
5. YaCy
Sedikit berbeda dengan web
crawler lainnya di atas, YaCy dibangun atas prinsip jaringan P2P
(peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada
beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share
dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server
central. Contoh search engine yang menggunakan YaCy ialah Sciencenet, untuk
pencarian dokumen di bidang sains.
Search Engine
Adalah program komputer yang
dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam
layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun
sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan
perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian
umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut
tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai
hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai
macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis
berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan
informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari
dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan
basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search
dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber
terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS.
contoh-contoh search engine :
1. Google
google muncul pada akhir tahun 1997,
dimana google memasuki pasar yang telah diisi oleh para pesaing lain dalam
penyediaan layanan mesin pencari, seperti Yahoo, Altavista , HotBot, Excite,
InfoSeek dan Lycos. dimana perusahaan-perusahaan tersebut mengklaim sebagain
perusahaan tabg bergerak dalam bidang layanan pencarian internert. Hingga
akhirnya Google mampu menjadi sebagai penyedia mesin pencari yang cukup
diperhitungkan didunia.
2. Yahoo
Yahoo raja directori di internet
disamping para pengguna internet melihat DMOZ serta LookSma berusaha menurunkan
nya diposisi puncak tersebut. akhir-akhir ini telah tumbuh secara cepat dalam
ukurannya mereka pun sudah memliki harga sehingga mudah untuk memasukinya,
dengan demikian mendapatkan sebuah daftar pada direktori yahoo memang memiliki
nilai yang tinggi.
Web Archiving
adalah proses mengumpulkan bagian
dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya
situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa
datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan web
crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar
yang menggunakan ancangan perangkak web ini adalah Internet Archive yang
berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip
nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya
pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak
dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan
konten web mereka sendiri untuk berbagai keperluan.
Cara kerja web archiving
A. Remote Harvesting
Merupakan cara yang plaing umum
dalam web archiving dengan menggunkana teknik web crawlers yang secara otomatis
melakukan proses pengumpulan halaman web. Metode yang digunakan web crawler
untuk mengakses halaman web sama semeprti user mengakses halaman web
menggunakan wob browser. Contoh web crawler yang digunakan dalam web
archiving seperti :
- Heritrix
- HTTrack
- Wget
B. On-Demand
Ada banyak layanan yang dapat
digunakan sebagai sumber archive web "on-demand", menggunakan teknik
web crawling. Contohnya seperti:
- Aleph Archives
- archive.is
- Archive-It
- Archivethe.net
- Compliance WatchDog by SiteQuest Technologies
- freezePAGE snapshots
- Hanzo Archives
- Iterasi
- Nextpoint
- Patrina
- PageFreezer
- Reed Archives
- Smarsh Web Archiving
- The Web Archiving Service
- webEchoFS
- WebCite
- Website-Archive.com
C. Database archiving
Databasa Archiving mengacu pada
metode untuk menarsipkan konten database-driven websites. Hal ini
biasanya memerlukan ekstraksi konten database ke standard schema, sering
menggunakan XML. Setelah disimpan dalam format standar, konten yang diarsipkan
dari beberapa databse dapat tersedia untuk diakses dengan menggunakan single
access system. Motode ini digunkanan seprti pada DeepArc dan Xinq masiing
masing dikembangkan oleh Bibliothèque nationale de France dan National
Library of Australia.
D. Transactional archiving
Transactional archiving merupakan
event-driven yang mengumpulkan transaksi yang berlangsung antara
web server dan web browser. Hal ini terutama digunakan untuk menjamin
keaslian dari isi suatu website, pada tanggal tertentu. Hal ini sangatlah
penting untuk organisasi atau perusahaan yang perlu mematuhi persyaratan hukum
atau peraturan untuk mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada
transactional archiving biasanya beroperasi dengan memeriksa setiap
permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk
menghilangkan konten yang duklikat dan secara permanen disimpan sebagai
bitstreams. Sebuah sistem transactional archiving membutuhkan instalasi
perangkat lunak pada web server, dan karena hal itu maka metode ini tidka dapat
mengumpulkan konten dari remote website.