BIG
DATA DALAM MASYARAKAT
Disusun oleh:
Andi Faqtur Rahman,
1151720002
INSTITUT
TEKNOLOGI INDONESIA
TEKNIK
INFORMATIKA
ABSTRAK
Penulisan
ini bertujuan untuk memaparkan secara garis besar sejarah, kegunaan,dan juga
penerapan Big Data dalam kehidupan sehari-hari.
Tulisan ini merupakan
hasil dari merangkum serta menggabungkan beberapa informasi mengenai Big Data
yang diperoleh melalui jurnal, artikel, dan juga catatan ilmiah secara online.
Dengan adanya penulisan
ini, diharapkan pembaca bisa mengetahui kegunaan Big Data bagi perkembangan
teknologi dalam masyarakat.
BAB
1
PENDAHULUAN
1.1
Latar Belakang
Seiring dengan berkembangnya teknologi yang digunakan
dalam industri IT memunculkan masalah baru dalam hal pengelolaan data. Banyak
pihak yang merasa bahwa teknik dan sistem pengelolaan data yang ada sekarang
tidak bisa lagi memenuhi kebutuhan masyarakat luas. Oleh sebab itu, akhir-akhir
ini muncul istilah Big Data yang membuat kita bertanya-tanya. Sebenarnya apasih
Big Data itu? Lalu bagaimana kegunaan dan penerapannya dalam industri IT?
Sampai sekarang pun definisi dari istilah Big Data belum
ada kepastian. Namun demikian, fakta yang terjadi dalam industri IT menunjukkan
perkembangan data yang signifikan. Oleh sebab itu banyak pihak menghendaki
adanya sistem pengelolaan data yang dapat mengimbangi perkembangan teknologi
yang semakin modern. Serta menciptakan pengelolaan data untuk mengatasi
pertumbuhan data yang semakin besar.
1.2
Ruang lingkup
Pembahasan ini dibatasi oleh beberapa ruang lingkup,
diantaranya :
Sejarah Big Data
Pengertian Big Data
Karakteristik Big Data
1.3
Tujuan
Ada beberapa tujuan dari penulisan ini, yaitu :
Memahami pengertian Big
Data
Mengetahui sejarah Big
Data
Karakteristik Big Data
1.4
Metode Penelitian
Penulisan ini menggunakan metode studi pustaka. Metode
ini dilakukan dengan mengumpulkan sertai mempelajari informasi-informasi
mengenai Big Data dari beberapa sumber di internet. Baik itu dalam bentuk
artikel, catatan ilmiah, maupun jurnal penelitian.
BAB
2
LANDASAN
TEORI
Big Data sendiri merupakan sebuah teknik atau sitem
pengelolaan data yang bertujuan menanggulangi masalah pertumbuhan data yang
semakin hari semakin besar. Perkembangan perangkat mobile dan data internet
membuat volume dan jenis data meningkat secara signifikan.
Berbagai jenis data, mulai data yang berupa teks, gambar atau foto, video
hingga bentuk data-data lainnya membanjiri sistem komputasi. Tentunya hal ini
perlu jalan keluar. Dan Big Data adalah solusi yang kerap dipakai beberapa
waktu belakangan ini.
Sejatinya hingga saat ini belum ada definisi resmi dari istilah Big Data.
Akan tetapi kemunculnya memang dianggap solusi dari fakta yang menunjukkan
bahwa pertumbuhan data dari waktu ke waktu telah melampaui batas kemampuan
media penyimpanan maupun sistem database yang ada saat ini.
Sementara itu IBM di situs resminya mendefinisikan Big Data ke dalam tiga
istilah yaitu volume , variety ,
dan velocity. Volume di sini berkaitan dengan ukuran media
penyimpanan data yang sangat besar atau mungkin tak terbatas.
Sementara variety berarti tipe atau jenis data yang dapat
diakomodasi. Sedangkan velocitydapat diartikan sebagai kecepatan proses.
Dengan begitu, Big Data dapat diasumsikan sebagai sebuah media penyimpanan
data yang menawarkan ruang tak terbatas, serta kemampuan untuk mengakodasi dan
memproses berbagai jenis data dengan sangat cepat.
BAB 3
PEMBAHASAN
Sejarah Big Data
Untuk bisa memahami definisi dari
Big Data, tentu saja kita harus mengetahui sejarah Big Data terlebih dahulu.
Penulis akan memaparkan sejarah Big Data secara garis besar. Berikut adalah
asal muasal dari istilah Big Data.
Istilah Big Data mulai muncul setelah Tahun 2005 diperkenalkan oleh O’Relly
Media. Namun sebenarnya penggunaan data dan kebutuhan untuk memahami data
tersebut sebenarnya sudah ada sejak jaman dulu. Faktanya data sudah
dimanfaatkan sejak 7000 tahun yang lalu ketika akuntansi diperkenalkan di
Mesopotamia untuk mencatat pertumbuhan hasil panen dan ternak. Prinsip
akuntansi terus berkembang dan Tahun 1663 John Graunt mencatat dan meneliti
semua informasi tentang angka kematian di London. Dia ingin memperoleh pemahaman
dan membangun sistem peringatan tentang wabah penyakit. Pada catatan analisis
data statistik pertama tercatat bahwa Graunt mengumpulkan temuannya dalam buku
Natural and Politics Observations Made dan Bills of Mortality, yang
menyampaikan tentang penyebab kematian pada abad ke-17. Karena karyanya, Graunt
dapat dianggap sebagai bapak dari ilmu statistik. Semenjak itu, prinsip-prinsip
akuntansi berkembang tetapi tidak terjadi sesuatu yang luar biasa sampai abad
ke-20 era informasi dimulai. Modern data dimulai tahun 1887 ketika Herman
Hollerith menemukan mesin komputasi yang dapat membaca holes punched paper
dengan tujuan untuk mengorganisir data sensus.
Pada abad ke-20, projek pertama berkenaan data dibuat pada tahun 1937
dibawah kepemimpinan Franklin D Roosevelt. Setelah Social Security dibuat
menjadi UU pada tahun 1937, pemerintah
Amerika melakukan tracking terhadap 26 juta orang Amerika dan lebih dari
3 juta pekerja. Pada saat itu, IBM mendapatkan kontrak untuk membangun punch
card reading machine.
Mesin data processing pertama kali muncul pada tahun 1943 dan dikembangkan
oleh Inggris untuk menafsirkan kode yang digunakan oleh Nazi selama Perang
Dunia II. Alat ini dinamakan Colossus. Alat tersebut digunakan untuk menyadap
pesan dengan kecepatan 5.000 karakter per detik. Sehingga mereduksi pekerjaan
yang sebelumnya diselesaikan selama berminggu-minggu menjadi hanya dalam
hitungan jam.
Pada tahun 1952 dibentuklah NSA (National Security Agency) dan dalam waktu
sepuluh tahun telah merekrut lebih dari 12.000 cryptologist. Mereka bekerja
dengan informasi yang sangat banyak selama perang dingin dan mulai mengumpulkan
dan memproses data-data intelijen.
Pada tahun 1965 pemerintah Amerika Serikat memutuskan untuk membangun pusat
data untuk menyimpan lebih dari 742 juta data pajak penghasilan dan 175 juta
sekumpulan sidik jari dengan mentransfer semua catatan tersebut dan disimpan ke
dalam satu lokasi. Ini merupakan awal dari era data storage electronic.
Pada tahun 1989 ahli komputer dari Inggris, Tim Berners-Lee menemukan World
Wide Web. Ia berkeinginan untuk memfasilitasi pertukaran informasi melalui
sistem hypertext. Ia mengetahui dampak dari penemuannya.
Seperti pada tahun 90-an pembuatan data memicu lebih banyak lagi device
terhubung ke internet. Pada tahun 1995 super-computer pertama dibuat. Alat
tersebut mampu mengerjakan tugas dalam jumlah banyak dalam waktu singkat.
Pada abad ke-21, tahun 2005 Roger Mougalas dari O’Reilly Media menciptakan
istilah Big Data untuk pertama kalinya, hanya setahun setelah mereka membuat
istilah Web 2.0. Itu mengacu pada serangkaian data besar yang hampir tidak
mungkin untuk mengelola dan memproses dengan menggunakan tools business
intelligence tradisional.
2005 merupakan tahun ketika Hadoop dibuat oleh Yahoo! dibangun di atas MapReduce
milik Google. Hal tersebut merupakan tujuan untuk melakukan index terhadap
seluruh data World Wide Web dan saat ini Hadoop sebagai open-source digunakan
oleh banyak organisasi untuk menyimpan data dalam jumlah besar.
Seiring banyak jejaring sosial yang mulai bermunculan, Web 2.0 mulai
semakin populer dan lebih banyak data dihasilkan setiap harinya. Banyak Startup
mulai menggunakan data yang sangat besar dan juga bidang pemerintahan mulai
bekerja menggunakan proyek Big Data. Pada tahun 2009 pemerintah India
memutuskan untuk mengambil iris scan, sidik jari, dan juga foto dari 1.2 juta
penduduk. Semua data tersebut disimpan dalam database biometrik terbesar di
dunia.
Pada tahun 2010 Eric Schmidt berbicara pada konfrensi Techonomy di Lake
Tahoe, California dan dia menyatakan bahwa “terdapat 5 exabytes informasi yang
dibuat oleh seluruh dunia diantara awal peradaban dan tahun 2003. Sekarang
jumlah yang sama tersebut dibuat setiap dua hari.”
Pada tahun 2011 McKinsey pada seminar Big Data: The next frontier for
innovation,competition, and productivity, mengatakan bahwa pada tahun 2018
Amerika Serikat sendiri akan menghadapi kekurangan 140.000-190.000 data
scientist dan juga 1.5 juta data managers.
Dalam beberapa tahun terakhir, jumlah Startups Big Data terus berkembang
dalam jumlah besar, semua mencoba untuk menghadapi Big Data dan membantu
organisasi-organisasi untuk memahami Big Data dan semakin banyak perusahaan
yang secara perlahan mengadopsi dan bergerak ke arah Big Data. Walaupun Big
Data telah ada sejak lama, faktanya Big Data ada ketika internet ada pada tahun
1993. Revolusi Big Data ada dihadapan kita dan masih banyak perubahan yang akan
terjadi pada tahun-tahun mendatang. (Disadur dari tulisan Mark Van Rijmenam,
CEO Datafloq)
Pengertian
Big Data
Big Data adalah data dengan ciri berukuran sangat besar,
sangat variatif, sangat cepat pertumbuhannya dan mungkin tidak terstruktur yang
perlu diolah khusus dengan teknologi inovatif sehingga mendapatkan informasi
yang mendalam dan dapat membantu pengambilan keputusan yang lebih baik.
Keempat
karakterik tersebut: berukuran sangat besar (high-volume), atau sangat
bervariasi (high-variety), atau kecepatan pertumbuhan tinggi (high-velocity),
dan sangat tidak jelas (high veracity) sering disebut dengan 4V's of Big Data.
Teknologi
Big Data diciptakan untuk menangani keempat ciri di atas. Jadi jika data Anda
memiliki satu ciri saja atau beberapa kombinasi ciri di atas, tentunya dapat
memanfaatkan teknologi Big Data yang tersedia di pasaran.
Definisi
di atas merupakan kompilasi definisi dari Gartner - sebuah perusahaan riset dan
konsultan IT yang sangat terkenal di dunia dan berbasis di US - dan beberapa
organisasi lain yang menambahkan elemen high-veracity ke dalam definisi
Gartner.
Karakteristik
Big Data
Sebuah informasi atau
data dapat didefinisikan sebagai Big Data jika memiliki satu atau lebih dari
tiga karakteristik berikut :
High-Volume
Seberapa besar data
yang bisa anda olah saat ini? Apakah dengan jumlah data yang anda miliki anda
sudah lebih baik dibanding kompetitor? Data yang ada saat ini berukuran sangat
besar. Di tahun 2000 saja tercatat 800,000 petabyte data tersimpan di seluruh
dunia dan angka ini diperkirakan akan mencapai 35 zettabyte di tahun 2020 atau
bahkan lebih. Bayangkan jika anda membutuhkan analisis terhadap 1 persen saja
dari seluruh data untuk mendapatkan keuntungan dibandingkan kompetitor anda,
apakah teknologi yang anda miliki sekarang mampu melakukannya?
High-Variety
Selain data
relasional, data apa saja yang umum dianalisis? Dengan meledaknya jumlah
sensor, dan perangkat pintar , dan juga teknologi social networking yang
menghasilkan data-data yang akan sulit jika harus disimpan di dalam relasional
database. Kita tidak akan pernah tahu jika kita tidak menyimpan semua data yang
tidak terstruktur ini seperti halaman web, web log, search index, forum social
media, email, dokumen, data sensor, dll. Data-data seperti inilah yang mungkin
akan memberikan keuntungan jika kita mampu mengolahnya.
High-Velocity
Seberapa cepat kita
dapat memproses data yang ada? Mungkin hal itu yang pertama ada dalam benak
anda ketika anda membaca ini. Namun sebenarnya velocity di sini kita lihat dari
persepsi seberapa cepat kita mampu mendapatkan hasil analisis terhadap aliran
data yang terus mengalir di saat yang hampir bersamaan dengan datangnya data
tersebut. Bayangkan jika kita memiliki sistem yang mampu mendeteksi buronan
yang tertangkap kamera cctv, ataumendeteksi dini titik kritis seorang bayi dari
suhu tubuh, tekanan darah, denyut jantung, kecepatan bernafas bayi tersebut,
melakukan sensor terhadap kata kasar atau kata yang tidak seharusnya diucapkan
yang diucapkan pada siaran langsung di tv atau pada percakapan telepon customer
service sebuah perusahaan.
High-Veracity
Mengacu
pada kekacauan atau kepercayaan dari data. Dengan berbagai bentuk data yang
besar, kualitas dan akurasi kurang terkontrol, untuk posting contoh Twitter
dengan hashtag, singkatan, kesalahan ketik dan pidato sehari-hari. Big Data dan
analisis teknologi sekarang memungkinkan kita untuk bekerja dengan jenis data.
Volume sering menebus kurangnya kualitas atau akurasi.
Tapi
semua volume data yang bergerak cepat dari berbagai sumber berbeda dan
kebenaran harus diubah menjadi nilai. Inilah sebabnya mengapa volume adalah
salah satu V data besar yang penting.
Kesimpulan
Dari pembahasan mengenai
big data, dapat disimpulkan bahwa Big Data dapat diasumsikan sebagai sebuah
media penyimpanan data yang menawarkan ruang tak terbatas, serta kemampuan
untuk mengalokasi dan memproses berbagai jenis data dengan sangat cepat. Di
samping itu big data juga memiliki jenis-jenisnya seperi ada traditional data
dan big data. Big data juga memiliki karakerisik untuk bisa disebut big data
karakerisik tersebut adalah volume, variety, dan velocity.
Saran
Big Data ditujukan untuk
mengatasi pengolahan data yang besar,beragam, dan acak. Oleh karena itu, bagi
perusahaan yang menggunakan data dengan karakteristik seperti di atas
dianjurkan menggunaka Big Data sebagai sistem pengolahannya. Big Data dapat
menjadi solusi pengolahan data yang mempunyai pertumbuhan signifikan. Hal ini
bisa menjadi jalan keluar yang efisien di masa depan.
Daftar referensi :
http://komangaryasa.com/2014/12/sejarah-singkat-big-data/
http://apla2102.blogspot.co.id/2016/11/big-data_7.html?m=1
http://www.apaitubigdata.com/p/apa-itu-big-data.html#!/p/apa-itu-big-data.html
http://vischaarrofiv.blogspot.co.id/2015/10/apa-itu-5v-dari-big-data.html
http://it.ac.id