Senin, 09 Oktober 2017

  BIG DATA DALAM MASYARAKAT
Disusun oleh:
Andi Faqtur Rahman, 1151720002
INSTITUT TEKNOLOGI INDONESIA
TEKNIK INFORMATIKA

ABSTRAK
Penulisan ini bertujuan untuk memaparkan secara garis besar sejarah, kegunaan,dan juga penerapan Big Data dalam kehidupan sehari-hari.
Tulisan ini merupakan hasil dari merangkum serta menggabungkan beberapa informasi mengenai Big Data yang diperoleh melalui jurnal, artikel, dan juga catatan ilmiah secara online.
Dengan adanya penulisan ini, diharapkan pembaca bisa mengetahui kegunaan Big Data bagi perkembangan teknologi dalam masyarakat.

BAB 1
PENDAHULUAN
1.1 Latar Belakang
            Seiring dengan berkembangnya teknologi yang digunakan dalam industri IT memunculkan masalah baru dalam hal pengelolaan data. Banyak pihak yang merasa bahwa teknik dan sistem pengelolaan data yang ada sekarang tidak bisa lagi memenuhi kebutuhan masyarakat luas. Oleh sebab itu, akhir-akhir ini muncul istilah Big Data yang membuat kita bertanya-tanya. Sebenarnya apasih Big Data itu? Lalu bagaimana kegunaan dan penerapannya dalam industri IT?
            Sampai sekarang pun definisi dari istilah Big Data belum ada kepastian. Namun demikian, fakta yang terjadi dalam industri IT menunjukkan perkembangan data yang signifikan. Oleh sebab itu banyak pihak menghendaki adanya sistem pengelolaan data yang dapat mengimbangi perkembangan teknologi yang semakin modern. Serta menciptakan pengelolaan data untuk mengatasi pertumbuhan data yang semakin besar.
1.2 Ruang lingkup
            Pembahasan ini dibatasi oleh beberapa ruang lingkup, diantaranya :
Sejarah Big Data
Pengertian Big Data
Karakteristik Big Data
1.3 Tujuan
            Ada beberapa tujuan dari penulisan ini, yaitu :
Memahami pengertian Big Data
Mengetahui sejarah Big Data
Karakteristik Big Data
1.4 Metode Penelitian
            Penulisan ini menggunakan metode studi pustaka. Metode ini dilakukan dengan mengumpulkan sertai mempelajari informasi-informasi mengenai Big Data dari beberapa sumber di internet. Baik itu dalam bentuk artikel, catatan ilmiah, maupun jurnal penelitian.

BAB 2
LANDASAN TEORI
            Big Data sendiri merupakan sebuah teknik atau sitem pengelolaan data yang bertujuan menanggulangi masalah pertumbuhan data yang semakin hari semakin besar. Perkembangan perangkat mobile dan data internet membuat volume dan jenis data meningkat secara signifikan.
Berbagai jenis data, mulai data yang berupa teks, gambar atau foto, video hingga bentuk data-data lainnya membanjiri sistem komputasi. Tentunya hal ini perlu jalan keluar. Dan Big Data adalah solusi yang kerap dipakai beberapa waktu belakangan ini.
Sejatinya hingga saat ini belum ada definisi resmi dari istilah Big Data. Akan tetapi kemunculnya memang dianggap solusi dari fakta yang menunjukkan bahwa pertumbuhan data dari waktu ke waktu telah melampaui batas kemampuan media penyimpanan maupun sistem database yang ada saat ini.
Sementara itu IBM di situs resminya mendefinisikan Big Data ke dalam tiga istilah yaitu volume , variety , dan velocity. Volume di sini berkaitan dengan ukuran media penyimpanan data yang sangat besar atau mungkin tak terbatas. Sementara variety berarti tipe atau jenis data yang dapat diakomodasi. Sedangkan velocitydapat diartikan sebagai kecepatan proses.
Dengan begitu, Big Data dapat diasumsikan sebagai sebuah media penyimpanan data yang menawarkan ruang tak terbatas, serta kemampuan untuk mengakodasi dan memproses berbagai jenis data dengan sangat cepat.

BAB 3
PEMBAHASAN
Sejarah Big Data
            Untuk bisa memahami definisi dari Big Data, tentu saja kita harus mengetahui sejarah Big Data terlebih dahulu. Penulis akan memaparkan sejarah Big Data secara garis besar. Berikut adalah asal muasal dari istilah Big Data.
Istilah Big Data mulai muncul setelah Tahun 2005 diperkenalkan oleh O’Relly Media. Namun sebenarnya penggunaan data dan kebutuhan untuk memahami data tersebut sebenarnya sudah ada sejak jaman dulu. Faktanya data sudah dimanfaatkan sejak 7000 tahun yang lalu ketika akuntansi diperkenalkan di Mesopotamia untuk mencatat pertumbuhan hasil panen dan ternak. Prinsip akuntansi terus berkembang dan Tahun 1663 John Graunt mencatat dan meneliti semua informasi tentang angka kematian di London. Dia ingin memperoleh pemahaman dan membangun sistem peringatan tentang wabah penyakit. Pada catatan analisis data statistik pertama tercatat bahwa Graunt mengumpulkan temuannya dalam buku Natural and Politics Observations Made dan Bills of Mortality, yang menyampaikan tentang penyebab kematian pada abad ke-17. Karena karyanya, Graunt dapat dianggap sebagai bapak dari ilmu statistik. Semenjak itu, prinsip-prinsip akuntansi berkembang tetapi tidak terjadi sesuatu yang luar biasa sampai abad ke-20 era informasi dimulai. Modern data dimulai tahun 1887 ketika Herman Hollerith menemukan mesin komputasi yang dapat membaca holes punched paper dengan tujuan untuk mengorganisir data sensus.
Pada abad ke-20, projek pertama berkenaan data dibuat pada tahun 1937 dibawah kepemimpinan Franklin D Roosevelt. Setelah Social Security dibuat menjadi UU pada tahun 1937, pemerintah  Amerika melakukan tracking terhadap 26 juta orang Amerika dan lebih dari 3 juta pekerja. Pada saat itu, IBM mendapatkan kontrak untuk membangun punch card reading machine.
Mesin data processing pertama kali muncul pada tahun 1943 dan dikembangkan oleh Inggris untuk menafsirkan kode yang digunakan oleh Nazi selama Perang Dunia II. Alat ini dinamakan Colossus. Alat tersebut digunakan untuk menyadap pesan dengan kecepatan 5.000 karakter per detik. Sehingga mereduksi pekerjaan yang sebelumnya diselesaikan selama berminggu-minggu menjadi hanya dalam hitungan jam.
Pada tahun 1952 dibentuklah NSA (National Security Agency) dan dalam waktu sepuluh tahun telah merekrut lebih dari 12.000 cryptologist. Mereka bekerja dengan informasi yang sangat banyak selama perang dingin dan mulai mengumpulkan dan memproses data-data intelijen.
Pada tahun 1965 pemerintah Amerika Serikat memutuskan untuk membangun pusat data untuk menyimpan lebih dari 742 juta data pajak penghasilan dan 175 juta sekumpulan sidik jari dengan mentransfer semua catatan tersebut dan disimpan ke dalam satu lokasi. Ini merupakan awal dari era data storage electronic.
Pada tahun 1989 ahli komputer dari Inggris, Tim Berners-Lee menemukan World Wide Web. Ia berkeinginan untuk memfasilitasi pertukaran informasi melalui sistem hypertext. Ia mengetahui dampak dari penemuannya.
Seperti pada tahun 90-an pembuatan data memicu lebih banyak lagi device terhubung ke internet. Pada tahun 1995 super-computer pertama dibuat. Alat tersebut mampu mengerjakan tugas dalam jumlah banyak dalam waktu singkat.
Pada abad ke-21, tahun 2005 Roger Mougalas dari O’Reilly Media menciptakan istilah Big Data untuk pertama kalinya, hanya setahun setelah mereka membuat istilah Web 2.0. Itu mengacu pada serangkaian data besar yang hampir tidak mungkin untuk mengelola dan memproses dengan menggunakan tools business intelligence tradisional.
2005 merupakan tahun ketika Hadoop dibuat oleh Yahoo! dibangun di atas MapReduce milik Google. Hal tersebut merupakan tujuan untuk melakukan index terhadap seluruh data World Wide Web dan saat ini Hadoop sebagai open-source digunakan oleh banyak organisasi untuk menyimpan data dalam jumlah besar.
Seiring banyak jejaring sosial yang mulai bermunculan, Web 2.0 mulai semakin populer dan lebih banyak data dihasilkan setiap harinya. Banyak Startup mulai menggunakan data yang sangat besar dan juga bidang pemerintahan mulai bekerja menggunakan proyek Big Data. Pada tahun 2009 pemerintah India memutuskan untuk mengambil iris scan, sidik jari, dan juga foto dari 1.2 juta penduduk. Semua data tersebut disimpan dalam database biometrik terbesar di dunia.
Pada tahun 2010 Eric Schmidt berbicara pada konfrensi Techonomy di Lake Tahoe, California dan dia menyatakan bahwa “terdapat 5 exabytes informasi yang dibuat oleh seluruh dunia diantara awal peradaban dan tahun 2003. Sekarang jumlah yang sama tersebut dibuat setiap dua hari.”
Pada tahun 2011 McKinsey pada seminar Big Data: The next frontier for innovation,competition, and productivity, mengatakan bahwa pada tahun 2018 Amerika Serikat sendiri akan menghadapi kekurangan 140.000-190.000 data scientist dan juga 1.5 juta data managers.
Dalam beberapa tahun terakhir, jumlah Startups Big Data terus berkembang dalam jumlah besar, semua mencoba untuk menghadapi Big Data dan membantu organisasi-organisasi untuk memahami Big Data dan semakin banyak perusahaan yang secara perlahan mengadopsi dan bergerak ke arah Big Data. Walaupun Big Data telah ada sejak lama, faktanya Big Data ada ketika internet ada pada tahun 1993. Revolusi Big Data ada dihadapan kita dan masih banyak perubahan yang akan terjadi pada tahun-tahun mendatang. (Disadur dari tulisan Mark Van Rijmenam, CEO Datafloq)
Pengertian Big Data
            Big Data adalah data dengan ciri berukuran sangat besar, sangat variatif, sangat cepat pertumbuhannya dan mungkin tidak terstruktur yang perlu diolah khusus dengan teknologi inovatif sehingga mendapatkan informasi yang mendalam dan dapat membantu pengambilan keputusan yang lebih baik.
            Keempat karakterik tersebut: berukuran sangat besar (high-volume), atau sangat bervariasi (high-variety), atau kecepatan pertumbuhan tinggi (high-velocity), dan sangat tidak jelas (high veracity) sering disebut dengan 4V's of Big Data.
            Teknologi Big Data diciptakan untuk menangani keempat ciri di atas. Jadi jika data Anda memiliki satu ciri saja atau beberapa kombinasi ciri di atas, tentunya dapat memanfaatkan teknologi Big Data yang tersedia di pasaran.
            Definisi di atas merupakan kompilasi definisi dari Gartner - sebuah perusahaan riset dan konsultan IT yang sangat terkenal di dunia dan berbasis di US - dan beberapa organisasi lain yang menambahkan elemen high-veracity ke dalam definisi Gartner.
Karakteristik Big Data
            Sebuah informasi atau data dapat didefinisikan sebagai Big Data jika memiliki satu atau lebih dari tiga karakteristik berikut :
 High-Volume
Seberapa besar data yang bisa anda olah saat ini? Apakah dengan jumlah data yang anda miliki anda sudah lebih baik dibanding kompetitor? Data yang ada saat ini berukuran sangat besar. Di tahun 2000 saja tercatat 800,000 petabyte data tersimpan di seluruh dunia dan angka ini diperkirakan akan mencapai 35 zettabyte di tahun 2020 atau bahkan lebih. Bayangkan jika anda membutuhkan analisis terhadap 1 persen saja dari seluruh data untuk mendapatkan keuntungan dibandingkan kompetitor anda, apakah teknologi yang anda miliki sekarang mampu melakukannya?
High-Variety
Selain data relasional, data apa saja yang umum dianalisis? Dengan meledaknya jumlah sensor, dan perangkat pintar , dan juga teknologi social networking yang menghasilkan data-data yang akan sulit jika harus disimpan di dalam relasional database. Kita tidak akan pernah tahu jika kita tidak menyimpan semua data yang tidak terstruktur ini seperti halaman web, web log, search index, forum social media, email, dokumen, data sensor, dll. Data-data seperti inilah yang mungkin akan memberikan keuntungan jika kita mampu mengolahnya.
High-Velocity
Seberapa cepat kita dapat memproses data yang ada? Mungkin hal itu yang pertama ada dalam benak anda ketika anda membaca ini. Namun sebenarnya velocity di sini kita lihat dari persepsi seberapa cepat kita mampu mendapatkan hasil analisis terhadap aliran data yang terus mengalir di saat yang hampir bersamaan dengan datangnya data tersebut. Bayangkan jika kita memiliki sistem yang mampu mendeteksi buronan yang tertangkap kamera cctv, ataumendeteksi dini titik kritis seorang bayi dari suhu tubuh, tekanan darah, denyut jantung, kecepatan bernafas bayi tersebut, melakukan sensor terhadap kata kasar atau kata yang tidak seharusnya diucapkan yang diucapkan pada siaran langsung di tv atau pada percakapan telepon customer service sebuah perusahaan.
High-Veracity
            Mengacu pada kekacauan atau kepercayaan dari data. Dengan berbagai bentuk data yang besar, kualitas dan akurasi kurang terkontrol, untuk posting contoh Twitter dengan hashtag, singkatan, kesalahan ketik dan pidato sehari-hari. Big Data dan analisis teknologi sekarang memungkinkan kita untuk bekerja dengan jenis data. Volume sering menebus kurangnya kualitas atau akurasi.
            Tapi semua volume data yang bergerak cepat dari berbagai sumber berbeda dan kebenaran harus diubah menjadi nilai. Inilah sebabnya mengapa volume adalah salah satu V data besar yang penting.
Kesimpulan
            Dari pembahasan mengenai big data, dapat disimpulkan bahwa Big Data dapat diasumsikan sebagai sebuah media penyimpanan data yang menawarkan ruang tak terbatas, serta kemampuan untuk mengalokasi dan memproses berbagai jenis data dengan sangat cepat. Di samping itu big data juga memiliki jenis-jenisnya seperi ada traditional data dan big data. Big data juga memiliki karakerisik untuk bisa disebut big data karakerisik tersebut adalah volume, variety, dan velocity.
Saran
            Big Data ditujukan untuk mengatasi pengolahan data yang besar,beragam, dan acak. Oleh karena itu, bagi perusahaan yang menggunakan data dengan karakteristik seperti di atas dianjurkan menggunaka Big Data sebagai sistem pengolahannya. Big Data dapat menjadi solusi pengolahan data yang mempunyai pertumbuhan signifikan. Hal ini bisa menjadi jalan keluar yang efisien di masa depan.
Daftar referensi :
http://komangaryasa.com/2014/12/sejarah-singkat-big-data/
http://apla2102.blogspot.co.id/2016/11/big-data_7.html?m=1
http://www.apaitubigdata.com/p/apa-itu-big-data.html#!/p/apa-itu-big-data.html
http://vischaarrofiv.blogspot.co.id/2015/10/apa-itu-5v-dari-big-data.html
http://it.ac.id
Read More