PROPOSAL TESIS SKEMA BEHAVIOR BASED CONTROL DENGAN PEMBELAJARAN FUZZY Q-LEARNING UNTUK SISTEM NAVIGASI AUTONOMOUS MOBILE ROBOT

BAB 1
PENDAHULUAN

1.1  Latar Belakang
Pada banyak aplikasi robotika, seperti  sistem navigasi autonomous robot
(robot mandiri) pada lingkungan tidak terstruktur, sangat sulit atau tidak mungkin
memperoleh model matematik yang tepat dari interaksi robot dengan
lingkungannya. Bahkan jika dinamika robot  dapat dijelaskan secara analitik,
lingkungan dan interaksi robot melalui sensor dan aktuator sulit diperoleh model
matematiknya. Ketiadaan pengetahuan yang tepat dan lengkap mengenai
lingkungannya membatasi penerapan desain sistem kontrol konvensional pada
domain robot mandiri. Yang diperlukan adalah kontrol cerdas dan sistem pembuat
keputusan dengan kemampuan reasoning pada kondisi tidak tentu dan
kemampuan belajar dari pengalaman [8].
Untuk mewujudkan tujuan tersebut, pertama-tama diperlukan sistem kontrol
robot yang tidak berbasiskan model yang dikenal dengan sistem kontrol behavior
based. Pada pendekatan ini, sistem diuraikan menjadi beberapa modul yang
masing-masingnya bertanggung jawab untuk melakukan satu perilaku (behavior).
Tiap behavior mengandung jalur lengkap mulai dari sensing sampai aksi. Semua
modul yang mewakili satu behavior bekerja bersama-sama[14]. Terdapat banyak
penelitian yang mengembankan metode ini. Salah satunya adalah Rodney Brook
yang dikenal dengan Subsumption Architecturenya[3]. Disamping itu masih
banyak para penelti lain yang mengembangkan pendekatan ini [1,14] 
Dalam BBR, sistem kontrol robot di pisahkan berdasarkan tugas yang ingin
dicapai yang disebut dengan behavior. Semakin banyak tugas, sistemnya semakin
kompleks sehingga dapat menimbulkan konflik antar behavior. Oleh karena itulah
dikembangkan metode koordinasi antara behavior. Terdapat dua pendekatan
mekanisme koordinasi, yaitu competiive/arbiter dan cooperative/command
fusion[paolo]. Pada metode competitive, hanya satu behavior yang diijinkan
memberikan sinyal kontrol. Sedangkan kooperatif menggabungkan semua output
behavior yang ada. Contoh metode kompetitif adalah sumbsumtion architecture[3]
dari Roodney Brook sedangkan contoh metode kooperatif adalah motor schema
dari Ronald arkin[1]. Kedua metode ini memiliki kelebihan dan kelemahan
masing-masing. Untuk mendapatkan performansi koordinasi yang lebih baik,
kedua metode tersebut dikombinasikan. Diantara peneliti yang mengusulkan
metode ini adalah Carreras[5] dengan hybrid coordinator dan Rajibul Haq dengan
Fuzzy Discrete Event System[12].
Pada lingkungan tak terstruktur, perubahan-peruabahan besar mungkin
terjadi. Untuk mengatasi perubahan  yang besar pada lingkungan saat run-time
sebagaimana juga perubahan pada misi/tugas yang terus menerus, sistem kontrol
robot juga harus mampu mengubah kebijakan kontrolnya untuk menyesuaikan
dengan semua kondisi baru. Secara umum, hal ini membutuhkan arsitekrut sistem
kontrol adapatif. Oleh karena itulah diperlukan sistem kontrol robot yang dapat
mempelajari lingkungannya dalam rangka melakukan adaptasi terhadap
perubahan yang terjadi pada lingkungannya. 
Penggunaan learning dalam sistem navigasi disamping untuk mengatasi
kondisi lingkungan yang tidak terstruktur, juga digunakan sebagai sarana untuk
kemudahan dalam merancang behavior yang baik. Dengan adanya learning,
perancangan behavior tidak harus dibuat secara lengkap dan mendetil saat
merancang kode program. Dengan merancang bagaimana robot harus belajar,
sebuah behavior yang detil akan terbentuk dengan sendirinya dan akan semakin
baik seiring dengan pembelajaran yang terus dilakukan.
Karena model lingkungannya yang tidak terstruktur dan tidak diketahui,
model belajar  unsupervised learning lebih tepat digunakan. Salah satu metode
yang banyak digunakan adalah reinforcement learning(RL). Pada RL, robot
belajar melalui interaksi dengan  lingkungannya. Robot menerima state
lingkungannya dan memilih aksi yang tepat untuk diberikan ke lingkungannya.
Kemudian state lingkungan berubah dan robot menerima “reward” dari
lingkungannya. Tujuan belajar adalah memilih aksi yang dapat memaksimalkan
reward yang diterima[4].
Salah satu algoritma yang digunakan untuk menyelesaikan permasalahan
reinforcement learning adalah Q-learning[18].  Biasanya Q-learning diterapkan
pada himpunan state dan aksi yang diskrit melalui formasi tabulasi standar.
Namun, pada aplikasi robotik yang nyata yang ukuran state dan data sensornya
bersifat kontinyu, Q-learning diskrit tidak dapat langsung digunakan karena data
yang diolah bersifat tak terbatas. Oleh karena itulah diperlukan modifikasi pada
algoritma Q-learning. Carreras menggunakan neural network untuk memodifikasi
Q-learning[5] disamping peneliti yang lain[7,11]. Sedangkan  Glonrennerc [6] dan
yang lainnya[16,17] menggunakan logika  fuzzy untuk melakukan aproksimasi
terhadap fungsi Q.
Meskipun banyak algortima Q-learning kontinyu diusulkan, namun hanya
beberapa yang diterapkan pada aplikasi robot real untuk sistem navigasi
autonomous mobile robot[20]. Oleh karena itulah, penelitian ini difokuskan pada
penerapan Q-learning kontinyu pada robot sebenarnya untuk sistem kontrol
navigasi  autonomous mobile robot. Algoritma Q learning kontinyu yang
digunakan pada penelitian ini adalah Fuzzy Q-learning. Pendekatan fuzzy lebih
diutamakan karena pendekatan neural network memerlukan waktu komputasi
yang lama. Di samping itu, Fuzzy Inference System merupakan aproksimator
yang universal [19] dan  kandidat yang bagus untuk menyimpan nilai Q serta
pengetahuan awal dapat dimasukkan dalam aturan fuzzy, yang dapat mengurangi
waktu pelatihan [6].

DOWNLOAD

0 komentar " PROPOSAL TESIS SKEMA BEHAVIOR BASED CONTROL DENGAN PEMBELAJARAN FUZZY Q-LEARNING UNTUK SISTEM NAVIGASI AUTONOMOUS MOBILE ROBOT ", Baca atau Masukkan Komentar

Posting Komentar

Followers