Tahukah Anda, Ini Big Data Tik Tok Yang Ingin Direbut Dari Cina
Meskipun konsep data besar (Big Data) itu sendiri relatif baru, asal-usul kumpulan data besar kembali ke tahun 1960-an dan 70-an ketika dunia data baru saja dimulai dengan pusat data pertama dan pengembangan database relasional.
Sekitar tahun 2005, orang mulai menyadari betapa banyak data yang dihasilkan pengguna melalui Facebook, YouTube, dan layanan online lainnya.
Hadoop (kerangka kerja sumber terbuka yang dibuat khusus untuk menyimpan dan menganalisis kumpulan data besar) dikembangkan pada tahun yang sama. NoSQL juga mulai mendapatkan popularitas selama ini.
Pengembangan kerangka kerja open-source, seperti Hadoop (dan baru-baru ini, Spark) sangat penting untuk pertumbuhan big data karena membuat big data lebih mudah untuk dikerjakan dan lebih murah untuk disimpan.
Pada tahun-tahun sejak itu, volume data besar telah meroket. Pengguna masih menghasilkan data dalam jumlah besar—tetapi bukan hanya manusia yang melakukannya.
Dengan munculnya Internet of Things (IoT), semakin banyak objek dan perangkat yang terhubung ke internet, mengumpulkan data tentang pola penggunaan pelanggan dan performa produk. Munculnya pembelajaran mesin telah menghasilkan lebih banyak data.
Sementara data besar telah berkembang jauh, kegunaannya baru saja dimulai. Komputasi awan telah memperluas kemungkinan data besar lebih jauh.
Cloud menawarkan skalabilitas yang benar-benar elastis, di mana pengembang dapat dengan mudah menjalankan cluster ad hoc untuk menguji subset data.
Dan database grafik juga menjadi semakin penting, dengan kemampuannya untuk menampilkan data dalam jumlah besar dengan cara yang membuat analitik menjadi cepat dan komprehensif.