Corat-coret Anto S. Nugroho

Catatan kehidupan

Archive for Januari 18th, 2007

Diproteksi: Progress Pengurusan Kontainer

Posted by Anto Satriyo Nugroho pada Januari 18, 2007

Konten ini diproteksi dengan kata sandi. Untuk melihatnya cukup masukkan kata sandi Anda di bawah ini:

Ditulis dalam persiapan pulang | Masukkan kata sandi Anda untuk melihat komentar.

Mencari lokasi sebuah alamat di Jepang

Posted by Anto Satriyo Nugroho pada Januari 18, 2007

Cara paling mudah mencari lokasi sebuah alamat di Jepang, adalah memakai peta digital yang disediakan oleh mapion. Alamat di Jepang paling cepat diidentifikasikan dengan kode pos yang terdiri dari 7 digit. Misalnya saja 466-0005. Caranya sbb.

  1. Akses ke situs mapion ( http://www.mapion.co.jp/ )
  2. Pada kotak yang terletak di atas, bagian “chizu kensaku” (地図検索) pilihlah “yubinbangou” (郵便番号).
  3. Masukkan kode pos: 466-0005 atau bisa juga dengan menghilangkan hyphen 4660005
  4. Akan diperoleh alamat (tertulis dalam Kanji), hingga pada level “chou” (町). Di Indonesia mungkin setara dengan kelurahan.
  5. Klik pada alamat di atas, dan akan diperoleh peta pada skala 1:3000. Di beberapa tempat, skala bisa sampai 1:1500 sehingga sangat detail. Peta tersebut cukup lengkap, memuat informasi detail seperti gang, nama convenient store, nama department store, traffic light, halte bis dsb. Banyaknya traffic light bisa dipakai untuk memberikan ancar-ancar cara menuju ke tempat tadi (Misalnya jalan lurus dari posisi X, pada traffic light ke-3 belok kanan.”

Ditulis dalam living in Japan | 8 Comments »

Minna & Mina

Posted by Anto Satriyo Nugroho pada Januari 18, 2007

Mana yang benar : “minna san” ataukah “mina san” ? Demikian pertanyaan mbak Dian di milis J-I_link.

Hal ini berkaitan dengan fenomena hatsuonka  (撥音化) , yang mengubah “no“, “na“, dsb. menjadi “n” . Hatsuonka biasa dipakai dalam percakapan (bukan bahasa formal), dengan tujuan memudahkan pelafalan.  Pemakaian yang benar adalah :  mina san (皆さん) atau minna (みんな). Tetapi “minna-san” bukanlah bentuk yang tepat .  “minna” adalah bentuk hatsuonka dari “mina“.

Contoh lain dari hatsuonka ini misalnya
- yaranai menjadi yannai
- koko no toko menjadi kokontoko
- nagai no de menjadi nagainde
- iku no nara menjadi yukunnara

Ditulis dalam nihongo | 2 Comments »

Self Organizing Feature Map (SOM)

Posted by Anto Satriyo Nugroho pada Januari 18, 2007

1. Apakah SOM itu ?

Salah satu teknik lain untuk menganalisa data pada dimensi tinggi adalah dengan SOM (Self Organizing Feature Map). SOM dikembangkan Prof. Teuvo Kohonen (Finland) untuk memproyeksikan data ke 1 atau 2 dimensi, dengan mempertahankan topologi data tsb. (topological mapping). Data yang di ruang vektor berdimensi tinggi berdekatan, saat dipetakan ke ruang vektor 2D, akan terletak pada lokasi yang berdekatan pula, vice versa.

2. Algoritma SOM

Algoritma SOM adalah sbb.

  1. Inisialisasi random reference vector untuk tiap neuron. Misalnya struktur yang dipakai adalah two-dimensional array SOM, diatur pada array n x n. Tiap vektor berdimensi d, sama dengan dimensi data.
  2. Untuk tiap input vector training data x, tentukan best-matching neuron. Yaitu neuron yang memiliki jarak terdekat dengan input vector x, diukur memakai Euclidean distance. Neuron ini disebut winner.
  3. Update-lah reference vector dari winner neuron ini dan neighboring neuron. Neighboring neuron ini didefinisikan sebagai neuron yang topographically berada pada posisi yang dekat dengan winner neuron di array n x n. Misalnya pada gambar di bawah (klik-lah untuk memperbesar), jika neuron yang berwarna merah adalah winner neuron untuk suatu input vector, maka neighboring neuron untuk winner neuron ini adalah mereka yang terletak di dalam lingkaran area, yang didefinisikan dengan Nc(t1), Nc(t2), …dst. Nc(t1) adalah batas area pada iterasi ke-1, Nc(t2) adalah batas area pada iterasi ke-2, dst. Radius area semakin lama semakin menyempit, misalnya sebagaimana didefinisikan oleh persamaan (3). Reference vector diupdate berdasarkan persamaan (1), sedangkan neuron yang secara topografi terletak jauh dari winner neuron tidak diupdate (persamaan (2) ). Persamaan (3) mendefinisikan learning rate yang dipakai studi saya [4].

Step ke-3 ini yang membedakan SOM dengan algoritma vector quantization yang lain, karena proses mapping dilakukan secara terurut (ordered mapping) dan merefleksikan distribusi vektor x.  Konsekuensinya data yang dipetakan pada suatu neuron S, akan memiliki kemiripan karakteristik dengan data yang dipetakan ke neuron yang secara topografi terletak didekat neuron S. Dengan kata lain, data yang pada ruang vektor dimensi tinggi terletak berdekatan, akan dipetakan ke neuron pada two-dimensional-array yang berdekatan juga.

3. Aplikasi SOM

Salah satu contoh SOM yang populer adalah World Poverty Map. Gambar yang terdapat pada situs tersebut memetakan tingkat kemakmuran negara-negara di dunia yang diukur berdasarkan berbagai parameter/indikator. Di web tsb. disebutkan banyaknya indikator/parameter nya 39 jenis. Tentunya hasil evaluasi ini berupa data berdimensi tinggi (39 dimensi). SOM dipakai untuk memetakan data kemakmuran itu ke dalam data dua dimensi. Negara yang tingkat kemakmurannya sama, akan terletak pada lokasi yang berdekatan dan berwarna sama. Indonesia (IDN) terletak di warna ungu. Negara yang tingkat kemakmurannya dekat dengan Indonesia adalah Burma. Baru setelah itu diikuti dengan Cina (CHN), Turki (TUR), dan Madagaskar (MDG). Tetapi data ini dibuat berdasarkan data worldbank statistics pada tahun 1992. Tentunya kondisi saat ini sudah jauh berubah. Cina mungkin sudah terletak pada posisi yang dekat dengan Jepang.

Selain world poverty map, aplikasi SOM yang lain a.l. WebSOM. WebSOM memetakan relasi antar dokumen di internet ke peta dua dimensi. Dua buah kata kunci yang memiliki pengertian berdekatan, akan terletak pada jarak yang berdekatan.

Saya coba aplikasikan SOM pada data huruf Kanji. SOM pada eksperimen ini memiliki 144 neuron, yang disusun dalam two-dimensional grids, berukuran 12×12. Kanji yang dipakai sebanyak 2965 (JIS-1). Gambar di bawah adalah plot reference vector dari ke-144 neuron pada tiga kondisi : awal, tengah dan akhir proses learning. Masing-masing gambar tersebut adalah plot pada iterasi ke 0 (awal), 10 dan 100. Pada iterasi ke-0, weight di inisialisasi dengan random value. Setelah 10 kali iterasi, dapat dilihat pola yang mulai terbentuk. Di akhir proses, yaitu iterasi ke 100, bagian root dari Kanji tampak menonjol. Hal ini menunjukkan root dari huruf-huruf Kanji yang best-fit dengan neuron itu. Terlihat dengan jelas bahwa root yang memiliki bentuk mirip akan terletak berdekatan. Kimbeng, Ninben, dan berbagai root yang mirip terletak pada deret atas. Setelah itu baru diikuti dengan Kanji yang memiliki root sansuihen, dan seterusnya.

Referensi

  1. T. Kohonen, Self-Organizing Maps, Springer Series in Information Sciences, Vol. 30, Springer, Berlin, Heidelberg, New York, 1995, 1997, 2001.
  2. Kumpulan link-nya dapat dilihat di http://www.cis.hut.fi/research/som-research/
  3. Demo dapat dilihat di http://www.cis.hut.fi/research/demos.shtml
  4. A.S. Nugroho, S. Kuroyanagi, A. Iwata : Mathematical perspective of CombNET and its application to meteorological prediction, Special Issue of Meteorological Society of Japan on Mathematical Perspective of Neural Network and its Application to Meteorological Problem, Meteorological Research Note, No.203, pp.77-107, October 2002 (Japanese Edition)

Ditulis dalam neuro | 13 Comments »

 
Ikuti

Get every new post delivered to your Inbox.

Bergabunglah dengan 99 pengikut lainnya.