Jumat, 05 Juli 2013

Web Science



WEB CONTENT

Content dalam website adalah segala sesuatu yang dapat dilihat oleh pengunjung baik berupa gambar, tulisan, animasi, video, suara, tombol navigasi dan sebagainya. Jadi jika kita mengunjungi suatu website sebenarnya yang kita kunjungi adalah content. Pengaturan content ini dilakukan pada saat pemograman website (coding), entah itu jenis contentnya, warna, posisi dan sebagainya. Hal inilah yang mendasari perencanaan pembuatan website harus dilakukan sebaik mungkin, karena content-content yang akan ditampilkan pada website baik posisi maupun jenisnya akan ditentukan dari sini.

Media Standar Penggunaan Web Kontrol

Walaupun Internet dimulai dengan sebuah proyek penelitian pemerintah AS pada akhir 1950-an, web dalam bentuk yang sekarang tidak muncul di Internet sampai setelah Tim Berners-Lee dan rekan-rekannya di laboratorium Eropa (CERN) mengusulkan konsep menghubungkan dokumen dengan hypertext. Tapi itu tidak sampai Mosaic, pendahulu dari Netscape Navigator yang terkenal, tampak bahwa internet menjadi lebih dari sebuah sistem yang melayani berkas. Penggunaan hypertext, hyperlink dan model berbasis halaman berbagi informasi, diperkenalkan dengan Musa dan kemudian Netscape, membantu untuk menentukan konten web, dan pembentukan website. Sebagian besar, hari ini kita kategorikan website sebagai jenis tertentu dari website sesuai dengan isi website berisi.

Model Generatif

Probabilitas dan statistik, model generatif adalah model untuk menghasilkan data yang dapat diobservasi, biasanya diberikan beberapa parameter tersembunyi secara acak. Ini menentukan distribusi probabilitas bersama atas observasi dan urutan label. Model generatif yang digunakan dalam pembelajaran mesin baik untuk pemodelan data secara langsung (yaitu, pengamatan pemodelan menarik dari fungsi kepadatan probabilitas), atau sebagai langkah menengah untuk membentuk fungsi kepadatan probabilitas bersyarat. Sebuah distribusi bersyarat dapat dibentuk dari model generatif melalui aturan Bayes '.

Model Retorika

Retorika berarti kesenian untuk berbicara baik (Kunst, gut zu reden atau Ars bene dicendi), yang dicapai berdasarkan bakat alam (talenta) dan keterampilan teknis (ars, techne), Dewasa ini retorika diartikan sebagai kesenian untuk berbicara baik, yang dipergunakan dalam proses komunikasi antarmanusia. Pada bahasa informatika model ini berarti berbicara antarmuka melalui jaringan internet melalui website seperti: YM, Facebook, Skype, dll.


WEB ANNOTATION


Tags

Tags atau Keywords adalah penting dalam pemasaran di Internet , dengan ini kemungkinan peselancar mangunjungi website bisa diarahkan, dan sesuai dengan keyword “Informatika” maka anda dapat membandingkan dari bermacam-macam search engine atau social bookmark. Berikut ini adalah tinjauan bermacam-macam search engine yang merujuk pada keyword atau tag yang sama yaitu “Informatika dan yang berkaitan”. Search engine itu antara lain : Google Blog Search, Yahoo Search , Technorati Tags, Del.icio.us Tags, LiveJournal Tags, 43 Things Tags, Buzzwords (Buzznet) Tags.

Metadata

Metadata biasa didefinisikan sebagai “data tentang data” atau dapat juga disebut dengan “informasi mengenai suatu data”. Metadata mendeskripsikan isi, kualitas, kondisi, dan karakteristik lainnya mengenai suatu data yang ditulis dengan format standard.

Metadata memiliki fungsi yang sama seperti katalog yaitu untuk:
  1.   mengidentifikasi suatu data
  2. mengelompokkan data yang serupa
  3.  membedakan data menurut kriteria tertentu
  4.   memberikan informasi penting berkaitan dengan data

Rich Snippets

Rich Snippets adalah data tambahan dari blog/postingan kamu yang akan ikut ditampilkan pada halaman mesin pencarian (SERP). Berbagai data yang bisa dimasukkan seperti rating, vote, author, tanggal, file audio, resep masakan, produk (harga, stok, dsb), event, dan banyak yang lainnya.


WEB DAN PERILAKU PENGGUNA /INTERAKSI MANUSIA KOMPUTER

Perilaku Navigasi

pada suatu situs (jual beli khususnya) penggunaan navigasi yang baik sangat penting untuk dilakukan bagi para pembuat online. Para pembuat situs website tersebut harus bisa membuat suatu navigasi agar pengunjung situs tersebut tidak bosan dengan melihatnya. Ada dua tipe navigasi. Yang pertama adalah yang standar, yang memberikan overview dan peta penjelajahan situs. Biasanya bisa ditemukan secara konsisten baik di bagian atas, samping atau footer. Yang kedua adalah navigasi versi advance. Jenis ini masih bertujuan memberikan alat untuk menelusuri situs, namun dengan cara lebih spesifik. Misal lewat kategori, pengarang, produsen, range harga, dan lain lain. Navigasi semacam ini sebenarnya mirip dengan fitur search namun sudah diberi antar muka yang lebih intuitif. Alih-alih model kotak isian teks kosong, calon pembeli diberi beberapa nilai default yang bisa dipakai lewat link yang disediakan. Lebih keren lagi, calon pembeli bisa melakukan penelusuran bertingkat, misalnya: kategori buku, di-drilldown dengan topik “IT dan Marketing”, di-tune lagi pada level berikutnya dengan range harga 100 ribu sampai 400 ribu, lalu difinalisasi dengan “reviewed by NavinoT”. Calon pembeli pun akan sampai pada apa yang benar-benar dia cari.

Permasalah dalam kaitan dengan:

  1. Para pemakai interface website tidak mengetahui daerah atau dalam hal ini lembaran-lembaran pada situs.
  2. Struktur lokasi tidak dapat ditemukan.

Pemakai interface situs seharusnya diberikan suatu pemahaman dari struktur yang menyangkut dari suatu ruang dari informasi tersebut. Maka sebaiknya disiapkan:
  • Tabel Index (Peta Lokasi)
  • Index
  •  Navigasi
  •  Fasilitas Pencarian (Search)

Perilaku Pencarian

Fitur pencarian internal tentunya telah di desain dengan batasan tertentu. Ketika situs Anda tumbuh tentunya Anda akan semakin tahu pola pemakaian oleh pengguna. Termasuk di dalamnya adalah pola pencarian dalam rangka mendapatkan pengalaman terbaik dalam pemanfaatan situs.


REKOMENDASI WEB DAN PRILAKU SOSIAL

Web merefleksikan perilaku sosial   

web pun dapat merefleksikan perilaki sosial masyarakatnya, dengan adanya alat pengukur banyaknya orang/ IP address yang mengakses web tersebut dapat menunjukkan bahwa web tersebut menarik perhatian masyarakat dan pastinya akan mempengaruhi sikap sosial seaeoramg contohnya seseorang yang sering mengakaksea situs belanja online akan mempunyai gaya hidup yang boros karena tergiur oleh harga yang lebih murah daripada conter ataupun diskon-diskon yang ada.


Web mempengaruhi perilaku sosial

web sebagai salah satu bentuk teknologi dan informasi yang sangat populer di masyarakat menjadi salah satu pemicu yang mempengaruhi perilaku sosial masyarakat. ada dua dampak yang dimbulkan yaitu dampak positif dan dampak negatif, dampak postifnya adalah :
  •  lebih cepat dan mudah dalam meyelesaikan pekerjaan dalam hal ini berarti membantu pekerjaan manusia
  • dapat berkomunikasi dengan baik tidak peduli jarak dan waktu sehingga membuat manusia saling berinteraksi dengan mudah
  •  mudah mencari informasi serta berbelanja online pun dapat dilakukan


dampak negatif :
  • munculnya banyak penipu yang memanfaatkan internet
  • adanya plagiatisme
  •  munculnya pencurian/hack
  • munculnya banyak konyen-konten dewasa yang seharusnya tidak dilihat anak kecil dapat merusak mental
  • bahaya kesehatan akibat radiasi yang ditimbulkan oleh komputer itu sendiri



STRUKTUR WEB

Link Structure, small world

Sebuah jaringan kecil dunia adalah jenis grafik matematika di mana sebagian besar node tidak tetangga satu sama lain, tetapi kebanyakan node dapat dicapai dari setiap lain oleh sejumlah kecil hop atau langkah-langkah. Secara khusus, jaringan-dunia kecil didefinisikan sebagai jaringan di mana L jarak khas antara dua node yang dipilih secara acak (jumlah langkah yang diperlukan) tumbuh secara proporsional dengan logaritma dari jumlah node N dalam jaringan, yaitu: 

Description: https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEja1T_nFTq2jaqaOmP2qLmSIjqudbMaVpNyKcWHxEIVVpXIPnSKJlL1oQ3BRgtCrI9eFk6DYUIWMo2d9uHWYn1lRpdwGVAr1MQ48bHFwmq5FNSdSeT26c4RYBE6p9Nqe7oIeb0mdzoHkso/s118/log.jpg


Dalam konteks jaringan sosial, hasil ini dalam fenomena dunia kecil dari orang asing yang dihubungkan oleh saling kenalan. Banyak grafik empiris dengan baik dimodelkan oleh jaringan kecil dunia. Jaringan sosial , konektivitas dari internet , wiki seperti Wikipedia, dan jaringan gen semua karakteristik jaringan-dunia kecil pameran.

Social Networking

Social Networking adalah sebutan lain terhadap website community. Social Networking adalah tempat untuk para netter berkolaborasi dengan netter lainnya. Bentuk kolaborasi antara lain adalah saling bertukar pendapat/komentar, mencari teman, saling mengirim email, saling memberi penilaian, saling bertukar file dan yang lainnya. Intinya dari situs social networking adalah interaktifitas. Contoh dari social networking yang sering digunakan: Facebook, Friendster, MySpace, Twitter, dll.

Blogosphere

Blogosphere adalah suatu interkoneksi / interaksi antar blog yangg tergabung dalam sebuah  domain dan domain tersebut tergabung dalam lingkup jaringan / internet,  Contohnya, Technorati, Top of Blogs, Blog Top site, blogspot  termasuk juga dengan blog directory, sebuah blogosphere biasanya diklasifikasikan menurut jenis postingan, ada berupa blog berita, blog hoby , blog forum, blog komunitas, blog iformasi dll.Istilah Blogosphere muncul pada tahun 1999 dan mulai populer tahun 2002, walaupun lahir dari sebuah lelucon keberadaan Blogosphere kini menjadi sebuah ikon bagi blogger, banyak blogger yang menganggap belum lengkap bila seorang blogger belum tergabung ke dalam komunitas Blogosphere hingga jadi ikon  eksistensinya dalam dunia blogging.( apa benar begitu..??? )

Manfaat Blogosphere ini tak lepas kaitannya dari SEO ( Search Engine Optimization ), layaknya sebuah komunitas  keberadaan Blogosphere memberikan jalinan komunikasi antar blogger, membuat akses posting  yg popular dan menjadi sebuah trend, atau mengupdate suatu bahasa dan kosakata untuk sebuah komunitas blog sehingga menjadi kepopuleran tersendiri.

Analisis Web

Tools-tools pengukur analisis web :
  1. SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
  2. GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.

     Kelebihan dari GTmetrix :

1.      dapat membandingkan beberapa URL secara bersamaan
2.      dapat menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan  

     Kekurangan dari GTmetrix:

1.      dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.

Crawler

Adalah proses pengambilan sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern.

Cara kerja: suatu data dikumpulkan oleh web crawler kemudian digunakan oleh mesin pencari untuk memberikan link situs yang relavan bagi pengguna ketika mereka melakukan pencarian. web crawler menangkap banyak hal yang berbeda ketika mereka memindai situs. Informasi diperoleh dari metatag, konten itu sendiri dan link. untuk mendapatkan ide yang baik dari apa situs adalah tentang. Crawler digunakan sebagai scan situs anda. jika ada bagian-bagian tertentu dari situs yang seharusnya tidak diindeks, mereka harus mencatat dalam file ini. setelah mendapat instruksi crawler dari file ini, akan mulai dengan merangkak halaman situs anda.

Ini kemudian akan melanjutkan ke indeks konten, dan kemudian akhirnya akan mengunjungi link di situs Anda. Jika crawler mengikuti link dan tidak menemukan halaman, maka akan dihapus dari indeks. Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam database, yang kemudian digunakan oleh mesin pencari.

Beberapa Contoh Web Crawler :

1.      Teleport Pro

Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.

2.      HTTrack

Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com

3.      Googlebot

Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.

4.      Yahoo!Slurp

Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.

5.      YaCy

Sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy ialah Sciencenet, untuk pencarian dokumen di bidang sains.

Search Engine

Adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS.
contoh-contoh search engine :

1.      Google

google muncul pada akhir tahun 1997, dimana google memasuki pasar yang telah diisi oleh para pesaing lain dalam penyediaan layanan mesin pencari, seperti Yahoo, Altavista , HotBot, Excite, InfoSeek dan Lycos. dimana perusahaan-perusahaan tersebut mengklaim sebagain perusahaan tabg bergerak dalam bidang layanan pencarian internert. Hingga akhirnya Google mampu menjadi sebagai penyedia mesin pencari yang cukup diperhitungkan didunia.

2.      Yahoo

Yahoo raja directori di internet disamping para pengguna internet melihat DMOZ serta LookSma berusaha menurunkan nya diposisi puncak tersebut. akhir-akhir ini telah tumbuh secara cepat dalam ukurannya mereka pun sudah memliki harga sehingga mudah untuk memasukinya, dengan demikian mendapatkan sebuah daftar pada direktori yahoo memang memiliki nilai yang tinggi.

Web Archiving

adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan web crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk berbagai keperluan.
Cara kerja web archiving

A.     Remote Harvesting

Merupakan cara yang plaing umum dalam web archiving dengan menggunkana teknik web crawlers yang secara otomatis melakukan proses pengumpulan halaman web. Metode yang digunakan web crawler untuk mengakses halaman web  sama semeprti user mengakses halaman web menggunakan wob browser.  Contoh web crawler yang digunakan dalam web archiving seperti :
  •  Heritrix
  •  HTTrack
  • Wget


B.     On-Demand

Ada banyak layanan yang dapat digunakan sebagai sumber archive web "on-demand", menggunakan teknik web crawling. Contohnya seperti:
  • Aleph Archives
  •  archive.is
  • Archive-It
  •  Archivethe.net
  • Compliance WatchDog by SiteQuest Technologies
  • freezePAGE snapshots
  • Hanzo Archives
  • Iterasi
  •  Nextpoint
  • Patrina
  •  PageFreezer
  •  Reed Archives
  • Smarsh Web Archiving
  • The Web Archiving Service
  • webEchoFS
  •  WebCite
  • Website-Archive.com

C.     Database archiving

Databasa Archiving mengacu pada metode untuk menarsipkan konten database-driven websites.  Hal ini biasanya memerlukan ekstraksi konten database ke standard schema, sering menggunakan XML. Setelah disimpan dalam format standar, konten yang diarsipkan dari beberapa databse dapat tersedia untuk diakses dengan menggunakan single access system. Motode ini digunkanan seprti pada DeepArc dan  Xinq masiing masing dikembangkan oleh Bibliothèque nationale de France dan  National Library of Australia.

D.     Transactional archiving

Transactional archiving merupakan event-driven yang mengumpulkan  transaksi  yang berlangsung antara web server dan web browser.  Hal ini terutama digunakan untuk menjamin keaslian dari isi suatu website, pada tanggal tertentu. Hal ini sangatlah penting untuk organisasi atau perusahaan yang perlu mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada transactional archiving biasanya beroperasi dengan memeriksa  setiap permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal itu maka metode ini tidka dapat mengumpulkan konten dari remote website.