Selasa, 22 Januari 2013


Softcomputing adalah salah satu teknologi komputasi, yang dewasa ini telah berhasil diaplikasikan dalam  berbagai bidang, misalnya dalam menganalisa data meteorologi, pengenalan pola, dan sistem kontrol. Ada berbagai macam definisi softcomputing diberikan oleh para ahli. Salah satunya adalah sebagaimana disampaikan oleh  pencetus softcomputing, yaitu Prof. Lotfi A. Zadeh, di homepage BISC, sebagai berikut:
“Berbeda dengan pendekatan konvensional hardcomputing, softcomputing dapat bekerja dengan baik walaupun terdapat ketidakpastian, ketidakakuratan maupun kebenaran parsial pada data yang diolah. Hal inilah yang melatarbelakangi fenomena dimana kebanyakan metode softcomputing mengambil human-mind sebagai model”.
Mengacu pada definisi yang diberikan oleh Zadeh, metode-metode dalam softcomputing dapat dikategorikan ke dalam tiga kategori besar:  Fuzzy Logic (FL), Neural Network Theory (NN) dan Probabilistic Reasoning (PR). Metode-metode ini sebenarnya bukanlah sesuatu yang baru diadakan setelah konsep softcomputing  dirumuskan. Yang terjadi justru sebaliknya. Metode-metode Fuzzy Logic, Neural Network maupun Probabilistic Reasoning telah ada lebih dahulu. Fuzzy Logic telah berkembang sejak tahun 1965. Konsep-konsep dasar  neural network telah digali sejak tahun 1940-an. Probabilistic Reasoning juga bukanlah hal yang sama sekali baru. Karena itu, Zadeh menyebut softcomputing sebagai reinkarnasi dari metode-metode di atas. Dewasa ini  softcomputing berkembang dengan pesat, dimana diperkenalkan berbagai model dan metode pembelajaran baru, maupun aplikasinya pada berbagai bidang.
          Salah satunya yaitu Support Vector Machine sebagai paradigma baru dalam softcomputing, yang akhir-akhir ini menjadi salah satu topik penelitian yang hangat dan seolah merupakan rival utama neural network. Support Vector Machine (SVM) dikembangkan oleh Boser, Guyon, Vapnik, dan pertama kali  dipresentasikan  pada tahun  1992  di Annual  Workshop on  Computational  Learning  Theory. Konsep  dasar  SVM  sebenarnya merupakankombinasi harmonis dari teori-teori komputasi yang telah ada puluhan tahun sebelumnya, seperti margin hyperplane yang dibahas oleh Duda & Hart tahun 1973, Cover tahun 1965 dan Vapnik 1964. Konsep kernel diperkenalkan oleh Aronszajn tahun 1950, dan demikian juga dengan konsep-konsep pendukung yang lain. Akan tetapi hingga  tahun 1992, belum pernah    ada upaya merangkaikan komponen-komponen tersebut. Dalam proses pembelajarannya,    SVM memperkenalkan strategi baru dengan menemukan hyperplane yang  terbaik pada input space, lewat strategi yang disebut Structural Risk Minimization. Prinsip dasar SVM adalah linear classifier, dan selanjutnya dikembangkan agar dapat bekerja pada problem non-linear dengan memasukkan konsep kernel trick pada ruang kerja berdimensi tinggi. Pertama- tama akan dibahas mengenai konsep hyperplane optimal  lewat pemaksimalan nilai margin, dilanjutkan dengan soft margin  sebagai  bentuk  yang  lebih  fleksibel  terhadap  error,  dan  terakhir  dibahas  mengenai  konsep  kernel  yang memungkinkan SVM diaplikasikan untuk kasus non linear. Konsep SVM dapat dijelaskan secara sederhana sebagai usaha mencari hyperplane terbaik yang berfungsi  sebagai pemisah dua buah class pada input space dengan cara mengukur margin hyperplane tersebut dan mencari titik maksimalnya. Margin adalah jarak antara hyperplane tersebut dengan data terdekat dari masing-masing class. Subset data training set yang paling dekat ini disebut sebagai support vector. Upaya mencari lokasi hyperplane optimal ini merupakan inti dari proses pembelajaran pada SVM. Pada umumnya masalah  dalam domain  dunia nyata  (real  world  problem) jarang  yang  bersifat  linearly  separable.Kebanyakan  masalah-masalah  tsb  bersifat  non  linear sehingga untuk  menyelesaikan  kasus  non  linear. Dalam non linear SVM, pertama-tama data   dipetakan oleh fungsi Φ() ke ruang vektor yang berdimensi  lebih tinggi.  Pada  ruang  vektor  yang  baru  ini,  hyperplane  yang  memisahkan  kedua  class  tersebut  secara  linear  dapat dikonstruksikan. Hal ini sejalan dengan teori Cover yang menyatakan “Jika suatu transformasi bersifat non linear dan dimensi dari feature space cukup tinggi, maka data pada input space dapat dipetakan ke feature space yang  baru, dimana pattern-pattern tersebut pada probabilitas tinggi dapat dipisahkan secara linear” karena itu perhitungan  SVM dimodifikasi menjadi dua tahap, dimana dalamnya dimanfaatkan konsep yang disebut Kernel trick. Kernel trick memberikan berbagai kemudahan, karena dalam proses pembelajaran SVM untuk menentukan  support vector, kita hanya cukup mengetahui fungsi kernel yang dipakai, dan tidak perlu mengetahui wujud  dari fungsi non linear Φ .
            Dewasa ini, penelitian mengenai metode pembelajaran berbasis kernel telah berkembang dengan sangat luas, dan tidak terbatas pada SVM, melainkan juga diterapkan pada metode lain seperti misalnya Kernel Principal Component Analysis, dan Kernel Fisher Discriminant. Salah satu topik menarik dalam bidang ini adalah  mendesain fungsi kernel untuk merepresentasikan   pengetahuan   spesifik   mengenai   domain   masalah   yang   dipecahkan.   Misalnya   kernel   yang memanfaatkan efektif informasi korelasi lokal antar pixel pada analisa  citra, atau informasi lokal pada sekuens DNA untuk diaplikasikan pada pengenalan translation initiation sites (TIS) dalam bidang bioinformatika. Salah satu aplikasi SVM adalah pengembangan metode cerdas untuk memprediksi efektifitas terapi interferon bagi pasien Hepatitis C kronis. Kasus Hepatitis C diawali dari laporan yang dimuat di Journal terkemuka “Science”, pada 1989, tentang ditemukannya virus oleh Chiron Co. yang deret genomenya berlainan dengan virus hepatitis A dan hepatitis B.  Virus itu kemudian disebut Hepatitis C. Hepatitis C dewasa ini merupakan satu penyakit penting di dunia, yang menyerang sekitar 170 juta orang (tahun 2005). Hepatitis C kronis disebabkan oleh terkontaminasinya peredaran darah dengan virus, sehingga terjadi inflamasi pada lever selama lebih dari 6 bulan.Akibatnya terjadi kerusakan sel, yang menyebabkan fungsi lever menjadi tidak normal. Diperkirakan penderita penyakit ini di Indonesia berkisar 7 juta orang. Hal ini merupakan masalah yang serius, sedangkan sebaran penularan dan jumlahnya  belum diketahui. Karena itulah, Depkes dan PT.Roche Indonesia mengembangkan sistem surveilans untuk mengamati perkembangan penyebaran penyakit ini. Salah satu metode pengobatan Hepatitis C adalah memakai terapi Interferon (IFN). Interferon dikenal cukup  efektif dalam menghambat         pertumbuhan virus hepatitis C. Tetapi, di sisi lain, pemakaian interferon ini diikuti  oleh efek samping yang memberatkan pasien. Efek samping itu antara lain: Flu-like syndrome, menurunnya  sel darah putih (leucocyte), rambut rontok, dan albuminuria. Terlebih lagi, berhasil tidaknya terapi interferon ini baru diketahui 6 bulan kemudian, dengan cara melakukan pemeriksaan HCV-RNA pasien. Bila hasilnya menunjukkan terjadi penurunan kadar HCV-RNA, berarti terapi itu efektif. Sebaliknya, jika kadar HCV-RNA  pasien tidak turun, berarti interferon itu tidak efektif. Terapi Interferon cukup mahal, dan mengingat beratnya resiko efek samping yang ditimbulkan, terapi ini umumnya tidak dilakukan kepada pasien yang hasil terapinya diprediksi tidak berhasil. Kepada mereka lebih baik diberikan terapi selain interferon,  yang  memiliki  potensi  keberhasilan  lebih  tinggi.  Prediksi  keberhasilan  terapi  interferon  ini  umumnya dilakukan secara manual oleh dokter yang menangani sang pasien berdasarkan data klinis seperti hepatobiopsy, gene-type virus, dan sebagainya. Salah satu kelemahan cara ini adalah akurasinya tergantung dari pengalaman dan jam terbang sang dokter. Sistem cerdas yang dikembangkan mampu memperkirakan efektif tidaknya terapi interferon, sebelum  diterapkan pada pasien. Tujuan dari sistem ini adalah membantu tugas dokter untuk memilih terapi yang tepat bagi pasien. Jika ternyata hasil prediksi menunjukkan interferon tidak efektif, dokter dapat memberikan terapi lain yang mungkin lebih sesuai bagi pasien. Sistem yang dibangun memakai Support Vector Machine (SVM) sebagai classifier. Informasi yang diolah oleh SVM berasal dari hasil diagnosa darah pasien meliputi Hepatobiopsy, HCV-RNA, HCV  gene-type, dan berbagai faktor lain sebanyak 30 jenis. Data yang diolah berasal dari pasien yang berobat ke Nagoya University Hospital Jepang, dari tahun 1997-2004. Dari data awal sekitar 300 sampel, setelah diteliti, akhirnya diperoleh 112 sampel data yang  dianggap cukup layak untuk dianalisa.  Mengingat  keterbatasan  data  yang  ada,  estimasi  akurasi  SVM   dilakukan  dengan  leave-one-out  cross validation. Hasil terbaik oleh SVM adalah 84% pada saat memakai 5 feature yang paling  informatif. Kecuali pada saat jumlah feature=10, SVM mencapai akurasi yang lebih baik dibandingkan dengan k-nearest neighbor classifier. Hasil ini juga menunjukkan bahwa tidak ada perbedaan akurasi SVM yang signifikan untuk berbagai jumlah feature. Dengan kata lain, SVM relatif lebih robust terhadap keberadaan informasi yang tak-relevan, dibandingkan k-nearest neighbor classifier. Hal ini disebabkan SVM memetakan data ke ruang berdimensi tinggi, sehingga hyperplane dapat diperoleh lebih mudah.  Evaluasi terhadap lima  feature  yang memiliki peringkat teratas pada bagian FSS menunjukkan bahwa HCV-RNA, hepatobiopsy,  HCV gene-type, ALP dan CHE memiliki peran penting secara statistik, dalam memprediksi efektifitas terapi,  yang sesuai dengan pendapat dari sisi klinis. Studi yang dilakukan di atas masih pada taraf eksperimen, dan belum sampai tahap implementasi di praktek  medis. Untuk mencapai tahap implementasi, diperlukan kajian yang lebih intensif, terutama pemakaian sampel  pasien yang jumlahnya lebih banyak, agar sistem di atas mencapai akurasi yang layak pakai. Keunikan masalah medical engineering adalah ketatnya batas toleransi error: sedikit saja kesalahan yang terjadi akan beresiko  cukup fatal bagi pasien. Akan tetapi penyediaan sampel yang lebih banyak akan terbentur kendala, bahwa tidak mudah mencari pasien penyakit tertentu untuk memenuhi jumlah yang diperlukan, di samping mahalnya biaya  untuk menganalisa data pasien. Di sisi lain, seorang ahli komputasi hanya mampu mendesain suatu solusi berdasarkan data yang diolah, sehingga hasilnya sangat tergantung kualitas dan kuantitas data tersebut. Baik  dokter maupun ahli komputasi menawarkan syarat yang cukup berat, agar sistem yang dikembangkan bisa  dipakai. Ini yang menyebabkan hasil riset pada kategori ini memerlukan waktu yang cukup panjang untuk bisa sampai pada tahap implementasi. 

Tidak ada komentar:

Posting Komentar

komentar