Big Data Concepts and Tools [PDF]

  • 0 0 0
  • Suka dengan makalah ini dan mengunduhnya? Anda bisa menerbitkan file PDF Anda sendiri secara online secara gratis dalam beberapa menit saja! Sign Up
File loading please wait...
Citation preview

TEKNOLOGI INFORMASI UNTUK BISNIS RANGKUMAN MATERI KULIAH Big Data Concepts and Tools



Disusun oleh Kelompok 9 : 1. (172114034) Maria Ermelinda Ririn Riastuti / Penyusun 2. (172114088) Isodorus Cahyo Nugroho / Pengumpul 3. (172114023) Maura Septy Christiandani / Presenter 4. (172114048) Melania Rosi Maryono / Anggota 5.



(172114005) Anggita Pusparani / Anggota



PROGRAM STUDI AKUNTANSI FAKULTAS EKONOMI UNIVERSITAS SANATA DHARMA YOGYAKARTA SEPTEMBER 2019



A. Definisi Big Data Big Data adalah istilah yang menggambarkan volume data yang besar, baik data yang terstruktur maupun data yang tidak terstruktur. Big Data telah digunakan dalam banyak bisnis. Tidak hanya besar data yang menjadi poin utama tetapi apa yang harus dilakukan organisasi dengan data tersebut. Big Data dapat dianalisis untuk wawasan yang mengarah pada pengambilan keputusan dan strategi bisnis yang lebih baik. Banyak yang berpikir bahwa “big data” adalah istilah yang salah. Karena makna dari big data sendiri tidak persis sama. Yaitu big data bukan hanya “besar”, tetapi big data hanyalah salah satu dari karakteristik yang sering dikaitkan dengan big data termasuk variency (variansi), velocity (kecepatan), veracity (kebenaran) variability (variabilitas) dan value proposition (proporsi nilai). "V" Yang Mendefinisikan Big Data Big data biasanya di devinisikan oleh 3 V yaitu : Volume, Variety (variensi) dan Velocity (kecepatan). Selain ketiga itu, dapat dilihiat beberapa penyedia solusi big data menambahkan “V” lainnya, seperti Veracity (IBM), Variability (SAS), dan Value Proposition (proporsi nilai) Volume. Merupakan sifat big data yang paling umum. Banyak faktor yang mempengaruhi atau berkontribusi terhadap peningkatan volume data secara eksponensial, seperti data berbasis transaksi yang disimpan selama bertahun-tahun, data teks yang terus mengalir dari media sosial, peningkatan data sensor yang dikumpulkan dan sebagainya. Di masa lalu, aktivitas semacam ini menjadi masalah, namun dengan adanya teknologi baru (seperti Hadoop) bisa meredakan masalah ini. Variancy. Data yang dikumpulkan mempunyai format yang berbeda-beda. Mulai dari yang terstruktur, data numerik dalam database tradisional, data dokumen terstruktur teks, email, video, audio, transaksi keuangan dan lain-lain. Selain tiga bagian penting tersebut, para peneliti Big Data juga menambah bagian yang termasuk penting lainnya seperti variabilitas dan kompleksitas. Velocity. Menurut Garter , kecepatan berarti kecepatan data yang dihasilkan dan severapa cepat datadi proses untuk memenuhi kebutuhan atau permintaan. Aliran data harus ditangani



dengan secara cepat dan tepat bisa melalui hardware maupun software. Teknologi hardware seperti tag RFID, sensor pintar lainnya juga dibutuhkan untuk menangani data yang real-time. Veracity. Veracity adalah istilah yang diciptakan oleh IBM. Ini mengacu pada kesesuaian dengan fakta : accurasy (akurasi), quality (kualitas), truthfulness (Kebenaran) atau atrest analitytcs (kelayakan kepaercayaan data). Alat dan tenik ini sering digunakan untuk menangani kebenaran big data dengan mengubah data menjadi wawasan yang berkualitas dan dapat dipercaya. Variability. Selain kecepatan pengumpulan data yang meningkat dan variasi data yang semakin beraneka ragam, arus data kadang tidak konsisten dalam periode tertentu. Salah satu contohnya adalah hal yang sedang tren di media sosial. Periodenya bisa harian, musiman, dipicu peristiwa dadakan dan lain-lain. Beban puncak data dapat menantang untuk analis Big Data, bahkan dengan data yang tidak terstruktur. Value Proposition. Value Proposition adalah hal yang menggembirakan di dalam Big data. Dengan menganalisi data yang besar dan kaya fitur, organisasi dapat memperoleh nilai bisnis yang lebih besar yang mungkin tidak mereka miliki. Big data berarti analitik “besar” yang berarti awasan yang kebih luas dan keputusan yang lebih baik yang dibutuhkan setiap organisasi



B. Fundamentals Of Big Data Analytics (Dasar-Dasar Analitis Big Data) Big data dengan sendirinya terlepas dari ukuran, jenis, atau kegiatan yang memberikan nilai bagi organisasi mereka, di situlah analitik “besar” muncul. Gambar 7.4 menunjukan gambaran grafis dari faktor-faktor keberhasilan yang paling penting untuk analisis big data (Watson, 2012) :



1. A clear businnes need-alignment with the vision and the strategy (kebutuhan bisnis yang jelas-selaras dengan visi dan strategi). Pendorong utama untuk analisis big data harus menjadi kebutuhan bisnis di setiap level strategi, taktis dan operasi. 2. Strong, committed sponsorship-executuve champion (kekuatan dan sponsor yang berkomitmen (juara eksekutif)hal ini adalah fakta, jika suatu organisasi tidak memiliki sponsor yang kuat dan berkomitmen akan sulit untuk berhasil. 3. Alignment between the business and IT strategy (keselarasan antara strategi bisnis dan TI) sangat penting untuk memastikan bahwa pekerjaan analitis selalu mendukung strategi bisnis. 4. A fact based decision making culture ( Budaya pengambilan keputusan berdasarkan fakta). Dalam budaya pengambilan keputusan berbasis fakta, angka di anggap lebih penting dari pada intuisi, firasat atau anggapan yang mendorong pengambilan keputusan. 5. A stonge data infrastructure (Infrastruktur data yang kuat). Infrastruktur berubah dan di tingkatkan di era big data dengan teknologi baru. Keberhasilan tersebut membutuhkan perpaduan antara infrastruktul lama dan baru untuk dapat bekerja secara sinergis.



Masalah Bisnis Yang Diatasi Oleh Analisis Big Data Masalah bisnis utama yang ditangani oleh big data secara keseluruhan adalah efisiensi proses dan pengurangan biaya, serta meningkatkan pengalaman pelanggan. Berikut ini adalah sebagian masalah yang dapat diatasi dengan menggunakan analitis big data: 



Efisiensi proses dan pengurangan biaya







Manajemen merek







Maksimalisasi pendapatan, cross-selling dn up-selling







Manajemen risiko







Kepatuhan terhadap peraturan







Meningkatkan kemampuan keamanan



C. Teknologi Big Data 1. MapReduce MapRaduce adalah teknik yang dpopulerkan oleh google yang mendistribusikan Pemrosesan file data multistruktur besar di sekelompok besar di sekelompok mesin. Kinerja tinggi di capai dengan memecah pemrosesan menjadi unit kerja kecil yang dapat di jalankan secara paralel. MapReduce digunakan untuk membantu organisasi dalam memproses dan menganalisis data bertingkat dengan volume besar. Maprduce mudah dipahami oleh programer yang trampil. 2. Hadoop Hadoop adalah kerangka kerja sumber terbuka untuk memproses, menyimpan, dan menganalisis sejumlah besar data terdistribusi dan tidak terstruktur.cluster hadoop dijalankan pada perangkat keras komoditas yang murah sehingga proyek dapat ditingkatkan. Cara kerja Hadoop adalah sebagai berikut Klien mengakses data tidak terstruktur dan terstruktur dari sumber termasuk file log, umpan media sosial, dan penyimpanan data internal. Itu memecah data menjadi "bagian," yang kemudian dimuat ke dalam sistem file yang terdiri dari beberapa node yang berjalan pada perangkat keras komoditas. Penyimpanan file default di Hadoop adalah Sistem File Terdistribusi Hadoop, atau HDFS. Sistem file seperti HDFS mahir menyimpan volume besar data yang tidak terstruktur dan terstruktur karena mereka tidak memerlukan data untuk disusun dalam



baris dan kolom relasional. Setiap "bagian" direplikasi beberapa kali dan dimuat ke dalam sistem file sehingga jika suatu simpul gagal, simpul lain memiliki salinan data yang terdapat pada simpul yang gagal.



Name Node bertindak sebagai fasilitator, yang



berkomunikasi kembali ke informasi klien seperti node mana yang tersedia, di mana dalam cluster data tertentu berada, dan node mana yang gagal. 3. NoSQL Gaya baru terkait database yang disebut NoSQL (Not Only SQL) memiliki Hadoop, memproses volume besar data multistruktur. Namun, sedangkan Hadoop mahir dalam mendukung analisis historis bets-style skala besar, NoSQl. Database ditujukan, sebagian besar (meskipun ada beberapa pengecualian penting), untuk melayani data diskrit yang disimpan di antara volume besar data multistruktur untuk pengguna akhir dan aplikasi Big Data otomatis. Kemampuan ini sangat kurang dari teknologi basis data relasional, yang tidak dapat mempertahankan kinerja aplikasi yang diperlukan Skala Data Besar Dalam beberapa kasus, NOSQL dan Hadoop bekerja bersama.



D. Big Data dan Data Warehousing Menggunakan Cases Untuk Data Hadoop Seperti yang telah kita bahas sebelumnya dalam bab ini, Hadoop adalah hasil dari perkembangan baru dalam teknologi jaringan komputer dan penyimpanan. Menggunakan perangkat keras komoditas sebagai dasar, Hadoop menyediakan lapisan perangkat lunak yang menjangkau seluruh kotak, mengubahnya menjadi satu sistem tunggal. Akibatnya, beberapa pembeda utama jelas dalam arsitektur ini: 1. Hadoop as the repository and refinery. Karena volume Big Data datang dari sumber seperti sensor, mesin, media sosial, dan interaksi clickstream, langkah pertama adalah menangkap semua data secara andal dan biaya secara efektif. 2. Hadoop as the active arcive. beberapa bagian dari beban kerja pita sudah dialihkan ke Hadoop dusters.



Pergeseran ini terjadi karena dua alasan mendasar.



Pertama,



meskipun mungkin tampak murah untuk menyimpan data pada kaset, biaya sebenarnya datang dengan kesulitan pengambilan. Tidak hanya data yang disimpan secara offline yang memerlukan waktu berjam-jam jika bukan hari untuk dipulihkan,



tetapi pita kaset itu sendiri juga cenderung mengalami degradasi dari waktu ke waktu, membuat kehilangan data menjadi kenyataan dan memaksa perusahaan untuk memperhitungkan biaya-biaya tersebut. Lebih buruk lagi, format kaset berubah setiap beberapa tahun, mengharuskan organisasi untuk melakukan migrasi data besar-besaran ke format kaset terbaru atau risiko ketidakmampuan untuk memulihkan data dari kaset usang. Kedua, telah ditunjukkan bahwa ada nilai dalam menjaga data historis online dan dapat diakses. Menggunakan Untuk Data Warehousing Setelah tiga puluh tahun investasi, penyempurnaan, dan pertumbuhan, daftar fitur yang tersedia di gudang data cukup mengejutkan. Dibangun pada teknologi basis data relasional menggunakan skema dan mengintegrasikan alat BI, perbedaan utama dalam arsitektur ini adalah kinerja data warehouse Data terintegrasi yang menyediakan nilai bisnis Alat BI Interaktif untuk pengguna akhir sebagai berikut : 1. Data warehouse perfomence (Kinerja gudang data). Pengindeksan dasar, ditemukan dalam basis data sumber terbuka seperti MySQL atau Postgres, adalah fitur standar yang digunakan untuk meningkatkan respons permintaan kueri atau memberlakukan batasan pada data.



Bentuk yang lebih maju seperti tampilan terwujud, indeks



gabungan agregat, indeks kubus, dan indeks gabungan jarang memungkinkan peningkatan kinerja dalam warchouse data. Namun, peningkatan kinerja yang paling penting hingga saat ini adalah pengoptimal berbasis biaya. Pengoptimal memeriksa SQL yang masuk dan mempertimbangkan beberapa rencana untuk mengeksekusi setiap query secepat mungkin. 2. Integrating data that provides business value (Mengintegrasikan data yang memberikan nilai bisnis). Inti dari setiap gudang data adalah janji untuk menjawab pertanyaan bisnis yang penting. Data terintegrasi adalah fondasi unik yang diperlukan untuk mencapai tujuan ini. Menarik data dari berbagai area subjek dan berbagai aplikasi ke dalam satu repositori adalah raison d'etre untuk gudang data. 3. Interactive BI Tools (Alat Bl Interaktif). Alat BI seperti MicroStrategy, Tableau, IBM Cognos, dan lainnya memberikan pengguna bisnis akses langsung ke wawasan data warehouse. Pengguna bisnis dapat membuat laporan dan analisis kompleks dengan cepat dan dengan mudah menggunakan alat-alat ini. Akibatnya, ada tren di banyak



situs data warehouse menuju swalayan pengguna akhir. Pengguna bisnis dapat dengan mudah meminta lebih banyak laporan daripada yang disediakan staf TI. The Gray Areas—Any One Of The Twu Would Do Te Job (Daerah Abu-abu--Salah Satu dari Dua Akan Melakukan Pekerjaan). Meskipun ada beberapa daerah yang membedakan satu dari yang lain, ada juga arkas abu-abu di mana warchouse data dan Hadoop tidak dapat dengan jelas dibedakan. Dalam bidang ini, salah satu alat bisa menjadi solusi yang tepat - baik mengerjakan pekerjaan yang sama baiknya atau tidak begitu baik pada tugas yang dihadapi. Memilih satu dari yang lain tergantung pada persyaratan dan preferensi organisasi. Dalam banyak kasus, Hadoop dan warchouse data bekerja bersama dalam rantai pasokan informasi, dan sama seringnya, satu alat lebih baik untuk beban kerja tertentu (Awadallah & Graham, 2012). Koksistensi Hadoop dan Data Warehouse Ada beberapa skenario di mana penggunaan kombinasi Hadoop dan teknologi data warehousing berbasis DBMS relasional lebih masuk akal. Berikut adalah beberapa skenario tersebut (White, 2012):. 1. Gunakan Hadoop untuk menyimpan dan mengarsipkan data multistruktur. Sebuah konektor ke DEMS relasional kemudian dapat digunakan untuk mengekstrak data yang diperlukan dari Hadoop untuk dianalisis oleh DBMS relasional.



Jika



DBMS relasional mendukung fungsi MapReduce, fungsi-fungsi ini dapat digunakan untuk melakukan ekstraksi. Adaptor Aster-Hadoop, misalnya, menggunakan fungsi SQL-MapReduce untuk menyediakan pemuatan data dua arah yang cepat antara HDFS dan Aster Database. Data yang dimuat ke dalam Database Aster kemudian dapat dianalisis menggunakan SQL dan MapReduce. 2. Gunakan Hadoop untuk memfilter, mengubah, dan atau mengkonsolidasikan data multistruktur. Konektor seperti adaptor Aster-Hadoop dapat digunakan untuk mengekstraksi hasil dari pemrosesan Hadoop ke DBMS relasional untuk analisis. 3. Gunakan Hadoop untuk menganalisis volume besar data multistruktur dan mempublikasikan hasil analitik.



Dalam aplikasi ini, Hadoop berfungsi sebagai



platform analitik tetapi hasilnya dapat diposting kembali ke lingkungan penyimpanan



data tradisional, penyimpanan data kelompok kerja bersama, atau antarmuka pengguna umum. 4. Gunakan DBMS relasional yang menyediakan copability MopReduce sebagai platform komputasi investigasi.



Ilmuwan data dapat menggunakan DBMS



relasional (sistem Aster Database, misalnya) untuk menganalisis kombinasi data terstruktur dan data multistruktur (diambil dari Hadoop) menggunakan campuran pemrosesan SQL dan fungsi analitik MapReduce. 5. Gunakan alat permintaan front-end untuk mengakses dan menganalisis data. Di sini, data disimpan di Hadoop dan DBMS relasional



E. Big data vendors dan platforms Sebagai area teknologi yang relatif baru, lanskap vendor Big Data berkembang sangat pesat. Sejumlah vendor telah mengembangkan distribusi Hadoop mereka sendiri, sebagian besar didasarkan pada distribusi open source Apache tetapi dengan berbagai tingkat kustomisasi kepemilikan.



Dua pemimpin pasar dalam hal distribusi tampaknya adalah



Cloudera (cloudera.com) dan Hortonworks (hortonworks.com). dalam sub bab ini secara singkat memperkenalkan lingkungan InfoSphere dan Teradata Aster IBM dan menyajikan casing aplikasi singkat untuk masing-masingnya. Sub bab ini akan menjelaskankan dua platform ini di sini karena keduanya adalah platform yang sukses secara komersial. IBM InfoSphare BigInsight IBM InfoSphare BigInsight adalah platform yang dibuat pada proyek open source Apache Hadoop untuk menganalisis data terstruktur tradisional yang ditemukan dalam database lama bersama dengan data semi dan tidak terstruktur seperti teks, video, audio, gambar, media sosial, log Web,



dan klik aliran.



Platform ini menggabungkan banyak



implementasi MapReduce dari algoritma analitik untuk menjalankan aplikasi paralel berskala besar dan dirancang untuk memberikan analitik lanjutan pada teknologi Hadoop yang secara khusus dioptimalkan untuk persyaratan analisis Big Data. Teradata Aster Teradata Aster adalah platform Big Data untuk penyimpanan terdistribusi dan pemrosesan set data multistruktur besar. Ini telah digunakan untuk optimisasi pemasaran,



deteksi penipuan, analitik olahraga, analisis jejaring sosial, analitik data mesin, analisis energi, analitik kesehatan, dan banyak aplikasi lainnya. Teradata Aster telah memparalelkan banyak fungsi analisis tradisional dan lanjutan. Ini memiliki kemampuan dalam melakukan analisis deret waktu, analisis statistik, analisis klaster, penambangan aturan asosiasi penambangan teks, analisis jejaring sosial, analitik visual, analitik lokasi, dan analitik prediktif; semua dengan cara terdistribusi. Selain paket analisis tradisional, ia juga memiliki beberapa paket analisis baru dan unik untuk analisis jalur. Ini juga kompatibel dengan bahasa pemrograman lain seperti R, Python, dan Java. Arsitektur Teradata Aster telah mengadaptasi arsitektur master-slave dari Apache Hadoop.



F. Big data dan Stream Analytics Stream analytics (juga disebut analytics data-in-motion dan data real-time anaht cs, antara lain) adalah istilah yang umum digunakan untuk proses analitik untuk mengekstraksi informasi yang dapat ditindaklanjuti dari informasi yang terus mengalir / streaming data. Aliran didefinisikan sebagai urutan berkelanjutan elemen data (Zikopoulos et al, 2013). Elemen data dalam aliran sering disebut tupel. Dalam pengertian basis data relasional, tuple mirip dengan deretan data (catatan, objek, contoh). Sream Analytics Vs. Perpetual Analytics Stream Analytics versus perpetual Analytics Istilah streaming dan perpetual mungkin terdengar seperti hal yang sama bagi kebanyakan orang, dan dalam banyak kasus mereka digunakan secara sinonim. Namun, dalam konteks sistem cerdas, ada perbedaan (Jonas, 2007). Stream Analytics melibatkan penerapan logika tingkat transaksi untuk pengamatan waktu nyata. Aturan diterapkan pengamatan akun sebelumnya selama mereka terjadi di jendela yang ditentukan; jendela ini memiliki ukuran acak (mis. 5 detik terakhir, 10.000 pengamatan terakhir). perpetual Analytics, di sisi lain, mengevaluasi setiap pengamatan yang masuk terhadap pengamatan sebelumnya, di mana tidak ada ukuran jendela.



Mengakui



bagaimana pengamatan baru ini berhubungan dengan semua pengamatan sebelumnya memungkinkan penemuan wawasan waktu nyata Baik stream analytics dan perpetual analytics memiliki pro dan kontra mereka dan tempat masing-masing di dunia analitik bisnis. Critical Event Processing



Pemrosesan peristiwa kritis (Critical Event Processing) adalah metode menangkap, melacak, dan menganalisis data stream untuk mendeteksi peristiwa (di luar kejadian normal) dari jenis tertentu yang layak dilakukan. Pemrosesan peristiwa kompleks adalah aplikasi analitik arus yang menggabungkan data dari berbagai sumber untuk menyimpulkan peristiwa atau pola yang menarik baik sebelum benar-benar terjadi atau segera setelah terjadi. Tujuannya adalah untuk mengambil tindakan cepat untuk mencegah (atau mengurangi efek negatif dari) peristiwa-peristiwa ini (misalnya, penipuan atau intrusi jaringan) dari terjadi, atau dalam kasus jendela peluang pendek, mengambil keuntungan penuh dari situasi di dalam yang diizinkan waktu (berdasarkan perilaku pengguna di situs e-commerce, buat penawaran promosi yang lebih mungkin ditanggapi), Peristiwa penting ini mungkin terjadi di berbagai lapisan organisasi seperti lead penjualan, pesanan, atau panggilan layanan pelanggan. Data Steam Mining (Penambangan Aliran Data) Sebagai teknologi yang memungkinkan untuk analitik arus, adalah proses mengekstraksi pola baru dan struktur pengetahuan dari perekaman data yang berkelanjutan dan cepat, metode penambangan data tradisional membutuhkan data yang harus dikumpulkan dan diorganisir dalam format file yang tepat, dan kemudian diproses secara rekursif untuk mempelajari pola yang mendasari Anda. Sebaliknya, aliran data adalah aliran kontinu dari urutan urutan kejadian yang dalam banyak aplikasi penambangan aliran data dapat dibaca / diproses hanya sekali atau beberapa kali menggunakan kemampuan penyimpanan dan penyimpanan yang terbatas.



G. Aplikasi Stream Analytics Berikut adalah beberapa area aplikasi yang telah mendapatkan manfaat dari stream analytics. e-Commerce Perusahaan e-Commerce seperti Amazon dan eBay (di antara banyak lainnya) berusaha memanfaatkan data yang mereka kumpulkan ketika seorang pelanggan ada di situs Web mereka. Setiap kunjungan halaman, setiap produk yang dilihat, setiap pencarian dilakukan, dan setiap klik yang dilakukan dicatat dan dianalisis untuk memaksimalkan nilai yang diperoleh dari kunjungan pengguna. aliran data dapat mengubah browser menjadi pembeli



dan pembeli menjadi shopaholics. Ketika situs web e-commerce, bahkan yang bukan anggota kami, setelah beberapa klik di sana-sini kita mulai mendapatkan produk yang sangat menarik dan penawaran harga bundel. Di belakang layar, analytics canggih mengolah data real-time yang berasal dari klik kami, dan klik ribuan lainnya, untuk "memahami" apa yang kami minati dalam beberapa kasus, bahkan kami tidak tahu itu) dan manfaatkan informasi itu dengan membuat penawaran kreatif. Telecommunications Volume data yang berasal dari catatan perincian panggilan (CDR) untuk perusahaan telekomunikasi sangat mencengangkan. Meskipun informasi ini telah digunakan untuk tujuan penagihan untuk beberapa waktu sekarang, ada banyak pengetahuan yang terkubur jauh di dalam Big Data ini yang baru-baru ini disadari oleh perusahaan telekomunikasi. Penegakan Hukum dan Keamanan Aliran big data memberikan peluang bagus untuk meningkatkan pencegahan kejahatan, penegakan hukum, dan peningkatan keamanan.



Mereka menawarkan potensi yang tak



tertandingi dalam hal aplikasi keamanan yang dapat dibangun di ruang angkasa, seperti kewaspadaan situasional real-time, pengawasan multimodal, deteksi keamanan cyber, penyadapan hukum, penyadapan hukum, pengawasan video, dan pengenalan wajah (Zikopoulos et



al., 2013).



Sebagai aplikasi jaminan informasi, perusahaan dapat



menggunakan analitik streaming untuk mendeteksi dan mencegah integrasi jaringan, serangan siber, dan aktivitas jahat dengan mengalirkan dan menganalisis log jaringan dan sumber daya pemantauan aktivitas Internet lainnya. Industri Tenaga Karena meningkatnya penggunaan smart meters, jumlah data real-time yang dikumpulkan oleh utilitas listrik meningkat secara eksponensial. Bergerak dari sebulan sekali ke setiap 15 menit (atau lebih sering), pembacaan meter mengakumulasikan sejumlah besar data berharga untuk utilitas listrik.



Selain itu, perusahaan utilitas dapat mengintegrasikan



data cuaca dan kondisi alam lainnya ke dalam analitik mereka untuk mengoptimalkan pembangkit listrik dari sumber alternatif (mis., Angin, matahari) dan untuk memperkirakan permintaan energi dengan lebih baik pada granulasi geografis yang berbeda. Manfaat serupa juga berlaku untuk utilitas lain seperti air dan gas alam.



Layanan Keuangan Perusahaan jasa keuangan adalah salah satu contoh utama di mana analisis aliran Big Data dapat memberikan keputusan yang lebih cepat dan lebih baik, keunggulan kompetitif, dan pengawasan peraturan. Kemampuan untuk menganalisis data perdagangan volume tinggi dengan kecepatan tinggi pada latensi sangat rendah di seluruh pasar dan negara menawarkan keuntungan luar biasa untuk membuat keputusan jual / beli sepersekian detik yang berpotensi menghasilkan keuntungan finansial yang besar. Selain keputusan jual / beli yang optimal, stream analytics juga dapat membantu perusahaan jasa keuangan dalam pemantauan perdagangan waktu nyata untuk mendeteksi penipuan dan kegiatan ilegal lainnya. Ilmu Kesehatan Perangkat medis modern (mis. Elektrokardiogram dan peralatan yang mengukur tekanan darah, kadar oksigen darah, kadar gula darah, dan suhu tubuh) mampu menghasilkan data diagnostik / sensor pancaran yang tak ternilai dengan kecepatan yang sangat cepat. Memanfaatkan data ini dan menganalisisnya tidak seperti bidang lainnya. Selain membantu perusahaan perawatan kesehatan menjadi lebih efektif dan efisien (dan karenanya lebih kompetitif dan menguntungkan), analitik aliran juga meningkatkan kondisi pasien dan menyelamatkan nyawa. Pemerintah Pemerintah di seluruh dunia berusaha menemukan cara untuk menjadi lebih efisien (melalui penggunaan sumber daya terbatas secara optimal) dan efektif (menyediakan layanan yang dibutuhkan dan diinginkan masyarakat). Ketika praktik-praktik untuk e-government menjadi arus utama, ditambah dengan meluasnya penggunaan dan akses ke media sosial, jumlah data yang sangat besar (baik terstruktur maupun tidak terstruktur) siap digunakan oleh lembaga-lembaga pemerintah. Penggunaan aliran Data Besar ini secara tepat dan tepat waktu membedakan lembaga-lembaga proaktif dan sangat efisien dari lembaga-lembaga yang masih menggunakan metode tradisional untuk bereaksi terhadap situasi ketika mereka berkembang. Cara lain di mana lembaga pemerintah dapat memanfaatkan kemampuan analitik waktu-nyata adalah mengelola bencana alam seperti badai salju, badai, tornado, dan kebakaran hutan melalui pengawasan data streaming yang berasal dari radar, sensor, dan perangkat deteksi pintar lainnya.



H. Kesimpulan Big Data sangat prnting digunakan dalam organisasi, tidak hanya berputar pada jumlah data yang organisasi miliki, tetapi hal yang penting adalah bagaimana mengolah data internal dan eksternal. Kita dapat mengambil data dari sumber manapun dan menganalisanya untuk menemukan jawaban yang diinginkan dalam bisnis seperti pengurangan biaya, pengurangan waktu, pengembangan produk baru dan optimalisasi penawaran produk, dan pengambilan keputusan yang cerdas. Ketika organisasi mampu menggabungkan jumlah data besar yang dimilikinya dengan analisis bertenaga tinggi, organisasi dapat menyelesaikan tugas-tugas yang berhubungan dengan bisnis seperti menentukan akar penyebab kegagalan untuk setiap masalah bisnis, menghasilkan informasi mengenai titik penting penjualan berdasarkan kebiasaan pelanggan dalam membeli, menghitung kembali seluruh risiko yang ada dalam waktu yang singkat, dan mendeteksi perilaku penipuan yang dapat mempengaruhi organisasi.