Database
analysis
Selain melihat sumber-sumber eksternal informasi,
Market Intelligence juga dapat dikumpulkan dengan menghubungkan dan lintas -
menganalisis informasi database yang ada . Banyak perusahaan kini memiliki toko
besar informasi dalam database mereka yang mencakup perilaku pelanggan dari
waktu ke waktu, tetapi sering hal ini dikunci dan sulit untuk digunakan
Analisis database adalah proses penggalian data ini,
membersihkannya, berpotensi penggabungan dengan data lain dan melakukan
analisis statistik untuk lebih memahami pelanggan dan perilaku pelanggan .
Dalam bisnis yang sangat besar seperti pengecer, sering ada tim analis
pengeboran ke dalam database dan menghasilkan data hidup untuk segmentasi
pasar, penargetan menawarkan dan berbagai intelijen bisnis lain menggunakan
Analisis database meluas di berbagai keterampilan
dari analisis dasar untuk memahami siapa pelanggan Anda dan apa yang mereka
beli, untuk analisis statistik yang lebih kompleks, data-mining atau
menggunakan alat seperti Sistem Informasi Geografis ( GIS ) . Umumnya kita
mencoba untuk memahami informasi pelanggan dalam hal kebaruan, frekuensi dan
nilai, mencari untuk mengidentifikasi kelompok-kelompok kunci dari pelanggan
dan mekanisme untuk meningkatkan penjualan, mencari untuk mengidentifika ...
Banyak perusahaan memiliki pelanggan dan kontak
database, tetapi tidak jarang untuk itu menjadi banyak database yang terpisah
dalam organisasi masing-masing memegang informasi yang berbeda. Dalam beberapa
kasus sistem database terpadu digunakan yang membuat analisis lebih mudah, tapi
ini diimbangi oleh kebutuhan sesekali untuk menarik dan menggunakan subset data
yang mungkin lebih cepat dan lebih cepat dilakukan secara terpisah dari file
pelanggan utama, terutama untuk departemen pemasaran atau mana tanggapan sedang
diukur.
Overhead TI memelihara database kadang-kadang
memperlambat penggunaan aktual dari database untuk tugas-tugas praktis
Karena pada analisis database akan, mengotomatisasi
sebanyak tugas-tugas ini mungkin adalah penting, baik untuk memastikan bahwa
data adalah kualitas yang sama untuk setiap menjalankan analisis dan untuk
menghemat waktu dan usaha mengulangi pekerjaan yang sama dengan masing-masing
data snapshot
Setelah Anda telah menganalisis data, maka pertanyaan
tentang apa respons Anda harus membuat, tetapi ini masalah lebih lanjut tentang
strategi pasar berkembang
Extracting information
Banyak database tumbuh dan berkembang melalui
penggunaan dan kontinjensi dan akibatnya tahap pertama untuk penggalian data
dapat menjadi rumit, bukan hanya dari skala tugas, tetapi karena database itu
sendiri adalah kurang didokumentasikan, data hilang atau telah dipindahkan
Cukup mengejutkan, memperoleh informasi database
dapat menjadi salah satu memakan waktu tugas yang paling terlibat dalam
analisis database . Hal ini tidak diperlukan karena sulit, tetapi informasi
yang paling berada pada database transaksi yang terus-menerus digunakan,
diperbarui dan diubah sebagai pesanan masuk dan keluar
Sering memperoleh data perlu waktu untuk
dijadwalkan dan spec yang akan ditulis untuk menarik informasi yang diperlukan
tanpa mengganggu hari -hari menjalankan database
Setelah data telah diekstraksi itu biasanya
diselenggarakan di database lain untuk analisis . Dalam sistem canggih ini
database kedua juga dikenal sebagai data warehouse, atau untuk jumlah data yang
lebih kecil datamart suatu . Namun, tidak perlu memiliki data warehouse dalam
rangka untuk melakukan analisis database dan banyak yang dapat dilakukan pada
PC menggunakan alat sederhana
Banyak analisis database secara ad hoc, sehingga
ekstrak tunggal dari satu titik waktu dianalisis dan digunakan untuk pemodelan
. Namun, adalah penting bahwa model dan analisis ditinjau secara teratur.
Menggunakan out-of -date model mungkin lebih buruk daripada tidak menggunakan
model sama sekali.
Cleaning
Setelah data telah diperoleh, biasanya harus dibersihkan
untuk analisis statistik . Banyak database cenderung untuk membangun
ketidakakuratan dan duplikasi dari waktu ke waktu . Misalnya seperti perubahan
alamat, kode pos yang dimasukkan salah, atau mungkin ada duplikasi catatan
kadang-kadang disebabkan oleh entri data salah, tetapi lebih sering daripada
tidak, karena pelanggan telah berubah dan duplikat catatan telah diciptakan (
dalam database bisnis-ke- bisnis yang khas 20-25 % dari data akan keluar dari
tanggal setelah satu tahun hanya karena orang berganti pekerjaan )
Pembodohan merupakan tugas penting, tapi
kadang-kadang menantang . Biasanya data diperiksa dengan nama, alamat (
misalnya kode pos ) dan nomor telepon untuk melihat apakah ada duplikasi atau
pertandingan antara catatan . Tugas ini dapat diotomatisasi, tapi bahkan sistem
otomatis tidak 100 % sempurna dan beberapa tingkat pengambilan diperlukan untuk
memutuskan yang merekam harus disimpan dan yang dibuang . . Dalam database yang
lebih kecil hingga 20.000 catatan beberapa tingkat ' bola mata ' dapat
dilakukan untuk memeriksa kualitas dedupe tersebut . Dalam dataset besar ini
jauh lebih sulit .
Ketika melihat aspek-aspek seperti sejarah
pembelian, itu sering terjadi bahwa data telah dikelompokkan dan
direklasifikasi . Misalnya setiap produk pada database akan memiliki kode
produk yang terpisah, tetapi untuk analisis produk beberapa individu mungkin
perlu dikelompokkan bersama-sama
Proses pembersihan dapat otomatis untuk tingkat
tertentu termasuk de - duplikasi dan membersihkan data yang hilang atau buruk,
tetapi sering ada unsur yang harus dilakukan dengan tangan . Biasanya perubahan
yang dilakukan untuk analisis tidak harus diulang pada database transaksional
utama untuk menghindari kehilangan integritas data
Dimana data ekstraksi dan analisis tugas rutin
seperti yang sering terjadi untuk proyek-proyek datawarehousing besar,
pembersihan akan perlu sepenuhnya otomatis untuk memastikan pengulangan akurat
dari proses pembersihan dan untuk tujuan kecepatan
Merging
Setelah data dibersihkan itu dapat digabungkan
dengan sumber data lain . Sebagai contoh, banyak organisasi sebenarnya memiliki
sejumlah database yang berbeda yang perlu dikombinasikan sebelum analisis dapat
berlangsung . Atau, sumber eksternal dapat digunakan untuk memungkinkan untuk
analisis menurut klasifikasi industri misalnya.
Penggabungan lagi adalah tidak sepenuhnya langsung seperti tunjangan beberapa mungkin diperlukan untuk pelanggan yang sama memiliki nama yang berbeda pada database yang berbeda . Sebagai Kontraktor Bangunan Misalnya Acme mungkin juga dikenal sebagai ABC . Akibatnya, ada juga mungkin periode kedua pembersihan diperlukan sekali data telah digabungkan .
Hal ini umum pada set konsumen untuk menambahkan
data klasifikasi dari lembaga eksternal seperti ACORN atau sistem MOSAIC
klasifikasi geografis atau link dalam data eksternal dari perusahaan data
konsumen seperti Experian . Ini memberikan lapisan tambahan data klasifikasi
atau segmentasi di atas data yang ada
Analysis
Ada banyak berbagai jenis analisis yang Anda dapat
melaksanakan pada data dari database . Analisis yang paling umum adalah
biasanya untuk pelanggan peringkat berdasarkan nilai untuk melihat siapa
pelanggan yang paling berharga dan apa karakteristik pembelian mereka ( juga
dikenal sebagai analisis pareto atau decile )
Tujuan dari analisis ini adalah untuk mencoba dan
mengidentifikasi orang-orang yang membutuhkan menghubungi, atau orang-orang
yang akan paling mungkin untuk menanggapi komunikasi tertentu. Misalnya,
mengejar sampai pelanggan murtad atau membuat penawaran lebih untuk pembeli
sering. Secara khusus Anda ingin mengidentifikasi kelompok inti yang membeli
dan yang adalah mereka yang paling mungkin untuk merespon iklan atau komunikasi
Analisis yang lebih canggih mulai melihat lintas
-penjualan suku ( yang % dari pembeli sekrup yang juga membeli kuku ), ukuran
keranjang dan bundel produk umum . Tujuannya adalah untuk meningkatkan jumlah
setiap pelanggan membeli . Di mana ada banyak produk ( misalnya supermarket ),
jangkauan dan jumlah kombinasi dapat membuat analisis seperti sangat rumit
Pada tingkat yang lebih canggih, data dapat
digunakan untuk upaya pemodelan prediktif . Misalnya mencari untuk melihat mana
pelanggan akan paling mungkin untuk menanggapi sepotong surat langsung atau
peluncuran produk baru . Tujuannya biasanya untuk mengurangi ukuran milis Anda
sementara memaksimalkan jumlah orang yang akan merespon dan sehingga mengurangi
biaya per respon dan meningkatkan nilai per respon .
Selain itu, data database dapat digunakan untuk
segmentasi . Perbedaan utama antara segmentasi melalui database sebagai lawan
penelitian segmentasi pasar adalah bahwa hasil dapat ditandai kembali ke
database, sehingga setiap pelanggan diberi label dengan segmen mereka. Ini
berarti bahwa jika Anda perlu untuk mail segmen tertentu dari database ini
adalah sepenuhnya mungkin, sedangkan untuk riset pasar Anda biasanya mengambil
menebak tingkat kedua . Kesulitannya adalah Anda biasanya terbatas dalam jumlah
variabel yang telah tersedia untuk segmentas
Joko Ristono
Tidak ada komentar:
Posting Komentar