Estimasi partisipan 212

Pada saat mengikuti research dive yll. salah satu masalah image mining yg berusaha dipecahkan adalah membuat estimasi level visibility saat asap memenuhi udara karena kebakaran hutan, atau membuat estimasi area yg terkena dampak saat merapi meletus. Estimasi dilakukan dari citra satelit, maupun citra yg dari social media.

Dua hari yll. dalam aksi damai 212 banyak angka estimasi banyaknya partisipan. Ada yang menyebutkan ratusan ribu, ada yang menyodorkan data dari panitia yang lebih dari 7 juta. Saya coba ringkas diskusi dari postingan menarik rekan saya Dr. Surya Sumpeno. Diketahui : estimasi area demo seluas 346.900 m2, dan ada juga yang menghitung  461.800 m2. Estimasi dilakukan dari prakiraan panjang, lebar jalan yg dipakai, ada juga yang memakai google map. Estimasi ini bisa benar, bisa juga salah. Tapi untuk mudahnya, saat ini kita asumsikan benar. Saya coba hitung banyaknya pengunjung dengan beberapa asumsi juga. Banyak pengunjung = luas area / luas area per orang.
Asumsi luas yang diperlukan untuk tiap orang yang beredar bermacam-macam. Setidaknya ada empat :
a) Kalau per kepala ukurannya, diameternya 20cm, maka luas per kepala adalah 0.0314 m2. Dengan demikian perkiraannya 11-14.7 juta. Tapi ini dg asumsi antara satu kepala dg kepala yg lain berhimpitan, seperti kelereng bersentuhan satu dg yang lain. Ini mengacu ke teknik yg dipakai di Fisika, dari postingan Dr. Risa Suryana, analisa distribusi partikel dgn scanning electron microscopy (SEM) dg ukuran kepala sbg ukuran partikel. CMIIW.
b) Kalau saya memakai asumsi, satuan perhitungan adalah area yg diperlukan satu org dg org yang lain berhimpitan kiri-kanan, depan belakang, maka luas per orang adalah 40×20 cm = 0.08 m2. Jumlah org menjadi 4.8-5.7 juta orang.
c) Kalau memakai ukuran saat sujud sekitar 0.25 m2 (ukuran satu sajadah dipakai sujud berdua), maka perkiraan jumlah orang 1.4-1.8 juta.
d) Kalau memakai ukuran saat sujud dg versi lebih longgar sekitar 0.5 m2 (ukuran satu sajadah), maka perkiraan jumlah orang 0.7-0.9 juta. Ada perbedaan yang cukup signifikan dari asumsi a) sampai ke d), hampir 20 kali, tergantung asumsi area yg diperlukan untuk tiap org.
Wajar saja, kalau kemudian terjadi debat, mana yang lebih benar. Tinggal asumsi mana yg sekiranya paling reasonable untuk dipakai sbg estimasi. Untuk validasi, mana yang lebih mendekati kebenaran, bisa dicross-check dengan foto yang beredar.
Kalau saya pribadi, yg lebih masuk akal adalah (c) dan (d), antara 700 ribu-2 juta. Tentunya angka ini akan berubah kalau asumsi seperti luas area yang dipakai dikoreksi.
Beberapa link menarik :
  1. http://www.popularmechanics.com/science/a7121/the-curious-science-of-counting-a-crowd/
  2. http://www.livescience.com/8578-crowd-size-estimated.html
  3. http://www.gkstill.com/Support/crowd-density/CrowdDensity-1.html
Dipublikasi di research | Meninggalkan komentar

Pemahaman konsep kadangkala perlu proses panjang

Belakangan ini, beberapa kali berdiskusi dg pemakai teknik Machine Learning. Banyak dari mereka yang memakai teknik A, B dan C, tanpa memahami karakteristik masalahnya sebenarnya bagaimana. Gagal memakai A, kemudian memakai teknik B, dsb. Seperti coba-coba, iseng-iseng berhadiah. Hal ini yang saya berusaha hindarkan. Sejauh mungkin, saya berupaya untuk memahami konsepnya. Hal ini saya coba terapkan di kelas datamining. Siang ini membahas praktek feature subset selection (FSS) memakai Weka. Sebelum praktek, saya bahas dulu dua pendekatan FSS : filter vs wrapper. Sebagai contoh pendekatan filter, saya pilih Information Gain sebagai feature evaluator untuk menentukan peringkat/rank-nya. Untuk membahas information gain, mau tidak mau membahas konsep entropy. Setelah itu, karena inputnya continous, perlu dilakukan diskretisasi. Dari berbagai teknik yang ada, saya pilih pemakaian information gain sebagai contoh untuk menentukan cutting point. Tentunya akan timbul pertanyaan, berapa banyaknya cutting point yang diperlukan ? Di situ, perlu untuk membaca paper-nya Fayyad & Irani tahun 93, tentang pemakaian Minimum Description Length (MDL). Rantai yang panjang perlu dilalui untuk bisa memahami, konsep feature subset selection. Kalau mau shortcut ya tinggal belajar cara pakai Weka saja. Tapi kalau berhenti di sini, akhirnya tidak bisa memahami keindahan sisi matematis-nya. Kalau gagal, tidak akan faham cara memperbaikinya, karena tidak tahu apa penyebab kegagalannya. Tidak tahu penyebab kegagalannya karena tidak faham konsep dari metode yang dipakai.

Dipublikasi di research | Meninggalkan komentar

Evaluasi 2016

Tahun 2016 hampir berakhir. Alhamdulillah, akhirnya sempat mengupdate catatan kegiatan selama 2016 sebagai bahan evaluasi diri.

Ya Allah, terima kasih atas segala kesempatan dan pelajaran yang telah Kau berikan. Berikanlah kami kekuatan untuk dapat berbuat lebih baik lagi pada tahun yad.  (Catatan tahun yll. dapat dibaca di evaluasi 2015,  evaluasi 2014evaluasi 2012,  evaluasi 2011 , evaluasi 2010 , evaluasi 2009, dan evaluasi 2008. )

Baca lebih lanjut

Dipublikasi di research | Meninggalkan komentar