Tugas Uas Kecerdasan Buatan [PDF]

  • 0 0 0
  • Suka dengan makalah ini dan mengunduhnya? Anda bisa menerbitkan file PDF Anda sendiri secara online secara gratis dalam beberapa menit saja! Sign Up
File loading please wait...
Citation preview

ARTIKEL KECERDASAN BUATAN JARINGAN SARAF BUATAN



 



 Dosen Pengampu: Alda Cendekia Siregar, S.Kom., M.Cs.  



DISUSUN  OLEH: Aldi Renadi 202220108 Bayu Putra Ngudi Persada 202220107 Hapidzul Nurinadi 192220086 Mirza Alfariz 202220096  



PROGRAM STUDI TEKNIK INFORMATIKA FAKULTAS TEKNIK DAN ILMU KOMPUTER UNIVERSITAS MUHAMMADIYAH PONTIANAK 2021



BAB I PENDAHULUAN A. Pengantar Jaringan Saraf Tiruan Jaringan saraf tiruan (JST) adalah bagian dari sistem komputasi yang dirancang untuk mensimulasikan cara otak manusia menganalisis dan memproses informasi. Ini adalah dasar dari kecerdasan buatan (AI) dan memecahkan masalah yang terbukti tidak mungkin atau sulit menurut standar manusia atau statistik. JST memiliki kemampuan belajar mandiri yang memungkinkannya menghasilkan hasil yang lebih baik saat lebih banyak data tersedia. Jaringan saraf tiruan dibangun seperti otak manusia, dengan simpul neuron yang saling berhubungan seperti jaring. Otak manusia memiliki ratusan miliar sel yang disebut neuron. Setiap neuron terdiri dari badan sel yang bertanggung jawab untuk memproses informasi dengan membawa informasi menuju (masukan) dan menjauh (keluaran) dari otak. Sebuah JST memiliki ratusan atau ribuan neuron buatan yang disebut unit pemrosesan, yang dihubungkan oleh node. Unit pemrosesan ini terdiri dari unit input dan output. Unit masukan menerima berbagai bentuk dan struktur informasi berdasarkan sistem pembobotan internal, dan jaringan saraf mencoba mempelajari informasi yang disajikan untuk menghasilkan satu laporan keluaran. Sama seperti manusia yang membutuhkan aturan dan pedoman untuk menghasilkan hasil atau keluaran, JST juga menggunakan seperangkat aturan pembelajaran yang disebut propagasi mundur, singkatan dari propagasi kesalahan ke belakang, untuk menyempurnakan hasil keluarannya. Sebuah JST pada awalnya melewati fase pelatihan di mana ia belajar mengenali pola dalam data, baik secara visual, aurally, atau tekstual. Selama fase pengawasan ini, jaringan membandingkan keluaran aktualnya yang dihasilkan dengan apa yang dimaksudkan untuk diproduksi — keluaran yang diinginkan. Perbedaan antara kedua hasil tersebut disesuaikan menggunakan propagasi mundur. Ini berarti bahwa jaringan bekerja mundur, mulai dari unit keluaran ke unit masukan untuk menyesuaikan bobot koneksinya antar unit 2



hingga perbedaan antara hasil aktual dan yang diinginkan menghasilkan kesalahan serendah mungkin. Selama tahap pelatihan dan pengawasan, JST diajarkan apa yang harus dicari dan keluarannya, menggunakan jenis pertanyaan ya / tidak dengan bilangan biner. Misalnya, bank yang ingin mendeteksi penipuan kartu kredit tepat waktu mungkin memiliki empat unit masukan yang diberi pertanyaan berikut: (1) Apakah transaksi di negara yang berbeda dari negara tempat tinggal pengguna? (2) Apakah situs web tempat kartu digunakan di afiliasi dengan perusahaan atau negara dalam daftar pantauan bank? (3) Apakah jumlah transaksi lebih besar dari $ 2.000? (4) Apakah nama pada tagihan transaksi sama dengan nama pemegang kartu? Bank menginginkan tanggapan "terdeteksi penipuan" menjadi Ya Ya Ya Tidak, yang dalam format biner adalah 1 1 1 0. Jika keluaran aktual jaringan adalah 1 0 1 0, ia menyesuaikan hasilnya hingga memberikan keluaran yang sesuai dengan 1 1 1 0. Setelah pelatihan, sistem komputer dapat memperingatkan bank tentang transaksi penipuan yang tertunda, sehingga bank menghemat banyak uang. Karakteristik Jaringan Syaraf Tiruan : 1. Sejumlah besar elemen pemrosesan mirip neuron pemrosesan yang sangat sederhana. 2. Sejumlah besar koneksi berbobot antar elemen. 3. Representasi pengetahuan yang terdistribusi melalui koneksi. 4. Pengetahuan diperoleh melalui jaringan melalui proses pembelajaran. Jaringan Syaraf Tiruan (JST) terdiri dari empat objek utama: 1)



Lapisan: semua pembelajaran terjadi di lapisan. Ada 3 lapisan 1) Input 2) Tersembunyi dan 3) Output



2)



fitur dan label: Input data ke jaringan (fitur) dan output dari jaringan (label)



3)



fungsi kerugian: Metrik yang digunakan untuk memperkirakan kinerja tahap pembelajaran 3



4)



pengoptimal: Tingkatkan pembelajaran dengan memperbarui pengetahuan di jaringan



Jaringan neural akan mengambil data masukan dan mendorongnya ke dalam kumpulan lapisan. Jaringan perlu mengevaluasi kinerjanya dengan fungsi kerugian. Fungsi kerugian memberi jaringan gambaran tentang jalur yang harus diambil



sebelum



menguasai



pengetahuan. Jaringan



perlu



meningkatkan



pengetahuannya dengan bantuan pengoptimal.



Gambar 1 Karakteristik Jaringan Syaraf Tiruan



B. Komponen Jaringan Syaraf Jaringan saraf dirancang khusus berdasarkan cara kerja bagian dalam otak biologis. Model-model ini meniru fungsi neuron yang saling berhubungan dengan melewatkan fitur masukan melalui beberapa lapisan dari apa yang disebut sebagai perceptron (pikirkan 'neuron'), masing-masing mengubah masukan menggunakan sekumpulan fungsi. Bagian ini akan menjelaskan komponen perceptron, komponen terkecil dari jaringan saraf.



4



Gambar 2 Struktur Perceptron Input Layers, Neurons, dan Weights Pada gambar yang diberikan di atas, lapisan kuning terluar adalah lapisan masukan. Neuron adalah unit dasar dari jaringan saraf. Mereka menerima masukan dari sumber eksternal atau node lain. Setiap node terhubung dengan node lain dari lapisan berikutnya, dan setiap koneksi tersebut memiliki bobot tertentu. Bobot diberikan ke neuron berdasarkan kepentingan relatifnya terhadap input lain. Ketika semua nilai simpul dari lapisan kuning dikalikan (bersama dengan bobotnya) dan diringkas, itu menghasilkan nilai untuk lapisan tersembunyi pertama. Berdasarkan nilai ringkasan, lapisan biru memiliki fungsi "aktivasi" yang ditentukan sebelumnya yang menentukan apakah node ini akan "diaktifkan" atau tidak dan seberapa "aktif" akan. Sebagai contoh menggunakan tugas sehari-hari sederhana membuat teh. Dalam proses pembuatan teh, bahan yang digunakan untuk membuat teh (air, daun teh, susu, gula, dan rempah-rempah) merupakan “neuron” karena merupakan titik awal proses pembuatan. Jumlah setiap bahan mewakili "berat". Setelah memasukkan daun teh ke dalam air dan menambahkan gula, bumbu, dan susu ke dalam wajan, semua bahan akan bercampur dan berubah menjadi keadaan lain. Proses transformasi ini mewakili "fungsi aktivasi". Hidden Layers dan Output Layer  5



Lapisan atau lapisan yang tersembunyi di antara lapisan masukan dan keluaran dikenal sebagai lapisan tersembunyi. Ini disebut lapisan tersembunyi karena selalu tersembunyi dari dunia luar. Perhitungan utama Jaringan Neural terjadi di lapisan tersembunyi. Jadi, lapisan tersembunyi mengambil semua masukan dari lapisan masukan dan melakukan kalkulasi yang diperlukan untuk mendapatkan hasil. Hasil ini kemudian diteruskan ke lapisan keluaran sehingga pengguna dapat melihat hasil penghitungan. Dalam contoh pembuatan teh, saat kami mencampur semua bahan, formulasi berubah keadaan dan warnanya saat dipanaskan. Bahan mewakili lapisan tersembunyi. Di sini pemanasan merupakan proses aktivasi yang akhirnya memberikan hasil - teh.



C. Arsitektur Jaringan Saraf JST adalah sistem komputasi yang terdiri dari banyak unit yang saling berhubungan yang disebut neuron buatan . Hubungan antara neuron buatan dapat mengirimkan sinyal dari satu neuron ke neuron lainnya. Jadi, ada banyak kemungkinan untuk menghubungkan neuron berdasarkan arsitektur yang akan kita adopsi untuk solusi tertentu. Beberapa permutasi dan kombinasi adalah sebagai berikut:  1)



Mungkin hanya ada dua lapisan neuron di jaringan - lapisan masukan dan keluaran.



2)



Mungkin ada satu atau lebih lapisan 'tersembunyi' perantara dari sebuah neuron.



3)



Neuron dapat terhubung dengan semua neuron di lapisan berikutnya dan seterusnya. Berbagai arsitektur Jaringan Saraf : A) .Jaringan Penerusan Umpan Satu Lapisan:



6



Ini adalah arsitektur JST yang paling sederhana dan paling dasar. Ini hanya terdiri dari dua lapisan - lapisan masukan dan lapisan keluaran. Lapisan masukan terdiri dari neuron masukan 'm' yang terhubung ke setiap neuron keluaran 'n'. Sambungan membawa bobot w 11 dan seterusnya. Lapisan input neuron tidak melakukan pemrosesan apa pun - mereka meneruskan sinyal i / p ke neuron output daya. Perhitungan dilakukan di lapisan keluaran. Jadi, meskipun memiliki 2 lapisan neuron, hanya satu lapisan yang melakukan komputasi. Inilah



alasan



mengapa jaringan



ini



dikenal



sebagai lapisan TUNGGAL . Selain itu, sinyal selalu mengalir dari lapisan masukan ke lapisan keluaran. Karenanya, jaringan ini dikenal sebagai FEED FORWARD.  Input sinyal bersih ke neuron keluaran diberikan oleh:



Keluaran sinyal dari setiap neuron keluaran akan bergantung pada fungsi aktivasi yang digunakan. B).Jaringan Penerusan Umpan Multi-layer:



7



Jaringan Penerusan Umpan Multi-Lapisan Jaringan multi-layer feed-forward sangat mirip dengan jaringan feed-forward satu-layer, kecuali fakta bahwa ada satu atau lebih lapisan neuron antara lapisan input dan output. Karenanya, jaringan disebut sebagai multi-layer. Setiap lapisan mungkin memiliki jumlah neuron yang berbeda-beda. Misalnya, yang ditunjukkan pada diagram di atas memiliki neuron 'm' di lapisan masukan dan 'r' neuron di lapisan keluaran dan hanya ada satu lapisan tersembunyi dengan neuron 'n'. 



untuk neuron lapisan tersembunyi ke-k. Input sinyal bersih ke neuron di lapisan keluaran diberikan oleh:



C).Jaringan Kompetitif: Ini sama dengan struktur jaringan umpan-maju lapisan tunggal. Satu-satunya perbedaan adalah bahwa neuron keluaran terhubung satu sama lain (baik sebagian atau seluruhnya) . Di bawah ini adalah diagram untuk jenis jaringan ini.



8



Jaringan Kompetitif Menurut diagram, jelas bahwa beberapa neuron keluaran saling berhubungan satu sama lain. Untuk masukan tertentu, neuron keluaran bersaing dengan dirinya sendiri untuk mewakili masukan. Ini mewakili bentuk algoritma pembelajaran tanpa pengawasan di JST yang cocok untuk menemukan cluster dalam kumpulan data. D).Jaringan Berulang:



Jaringan Berulang Dalam jaringan umpan-maju, sinyal selalu mengalir dari lapisan masukan menuju ke lapisan keluaran (dalam satu arah saja). Dalam kasus jaringan saraf berulang, ada loop umpan balik (dari neuron di lapisan keluaran ke neuron lapisan masukan). Bisa ada pengulangan sendiri juga.



9



D. Fungsi Aktivasi Fungsi aktivasi adalah fungsi yang gunakan untuk mendapatkan output dari node juga dikenal sebagai Fungsi Transfer. - Fungsi aktivasi memutuskan, apakah neuron harus diaktifkan atau tidak dengan menghitung jumlah tertimbang dan selanjutnya menambahkan bias dengannya. Tujuan dari fungsi aktivasi adalah untuk memasukkan non-linearitas ke dalam keluaran neuron. Jaringan syaraf tiruan memiliki neuron yang bekerja sesuai berat badan, bisa dan fungsi aktivasinya masing-masing. Dalam jaringan saraf, kami akan memperbarui bobot dan bias neuron berdasarkan kesalahan pada keluaran. Proses ini dikenal sebagai propagasi balik . Fungsi aktivasi memungkinkan propagasi balik karena gradien disediakan bersama dengan kesalahan untuk memperbarui bobot dan bisa. Jaringan saraf tanpa fungsi aktivasi pada dasarnya hanyalah model regresi linier. Fungsi aktivasi melakukan transformasi non-linier menjadi input sehingga dapat mempelajari dan melakukan tugas yang lebih kompleks.



Macam – Macam Fungsi Aktivasi : 1). Fungsi linear :1.



Persamaan: Fungsi linier memiliki persamaan yang mirip dengan persamaan garis lurus yaitu y = ax



2.



Tidak peduli berapa banyak lapisan yang kita miliki, jika semuanya bersifat linier, fungsi aktivasi akhir dari lapisan terakhir tidak lain adalah fungsi linier dari masukan lapisan pertama.



3.



Rentang: -inf hingga + inf



10



4.



Kegunaan: Fungsi aktivasi linier hanya digunakan di satu tempat yaitu lapisan keluaran.



5.



Masalah: Jika kita akan membedakan fungsi linier untuk menghasilkan non-linieritas, hasilnya tidak akan lagi bergantung pada input “x” dan fungsi akan menjadi konstan, tidak akan memperkenalkan perilaku terobosan apa pun ke algoritme kita.



Misalnya: Perhitungan harga rumah adalah masalah regresi. Harga rumah boleh saja memiliki nilai besar / kecil, sehingga kita dapat menerapkan aktivasi linier pada lapisan keluaran. Bahkan dalam kasus ini jaringan saraf harus memiliki fungsi non-linier di lapisan tersembunyi. 2). Fungsi Sigmoid: 1.



Ini adalah fungsi yang diplot sebagai grafik berbentuk 'S' .



2.



Persamaan: A = 1 / (1 + e -x )



3.



Sifat: Non-linier. Perhatikan bahwa nilai X berada di antara -2 hingga 2, nilai Y sangat curam. Artinya, perubahan kecil pada x juga akan membawa perubahan besar pada nilai Y.



4.



Rentang Nilai: 0 hingga 1



5.



Kegunaan: Biasanya digunakan pada lapisan keluaran dari klasifikasi biner, di mana hasilnya adalah 0 atau 1, karena nilai untuk fungsi sigmoid terletak antara 0 dan 1 saja, hasil dapat diprediksi dengan mudah menjadi 1 jika nilainya lebih besar dari 0,5 dan 0 sebaliknya .



3). Fungsi Tanh:



Aktivasi yang bekerja hampir selalu lebih baik daripada



fungsi sigmoid adalah fungsi Tanh yang juga dikenal sebagai fungsi Tangent Hyperbolic . Ini sebenarnya versi matematis dari fungsi sigmoid. Keduanya serupa dan bisa diturunkan satu sama lain.  Persamaan: f (x) = tanh (x) = 2 / (1 + e -2x ) - 1 ATAU tanh (x) = 2 * sigmoid (2x) - 1 1



Rentang Nilai: - -1 hingga +1



2



Sifat: - non-linier



11



3



Kegunaan: - Biasanya digunakan dalam lapisan tersembunyi dari jaringan saraf karena nilainya terletak antara -1 hingga 1 sehingga mean untuk lapisan tersembunyi keluar menjadi 0 atau sangat dekat dengannya,



sehingga



membantu



dalam memusatkan



data dengan



membawa mean mendekati 0 . Ini membuat pembelajaran untuk lapisan berikutnya jauh lebih mudah. 4). RELU: - Singkatan dari Rectified linear unit . Ini adalah fungsi aktivasi yang paling banyak digunakan. Terutama diterapkan di lapisan tersembunyi jaringan Neural. 1.



Persamaan: - A (x) = max (0, x) . Ini memberikan keluaran x jika x positif dan 0 sebaliknya.



2.



Rentang Nilai: - [0, inf)



3.



Sifat: - non-linier, yang berarti kita dapat dengan mudah mempropagasi kesalahan dan memiliki beberapa lapisan neuron yang diaktifkan oleh fungsi ULT.



4.



Kegunaan: - ReLu lebih murah secara komputasi daripada tanh dan sigmoid



karena



melibatkan



operasi



matematika



yang



lebih



sederhana. Pada saat hanya beberapa neuron yang diaktifkan membuat jaringan menjadi jarang sehingga efisien dan mudah untuk komputasi. Dengan kata sederhana, RELU belajar lebih cepat daripada fungsi sigmoid dan Tanh. 5). Fungsi Softmax: - Fungsi softmax juga merupakan jenis fungsi sigmoid tetapi berguna saat kita mencoba menangani masalah klasifikasi. 1.



Sifat: - non-linier



2.



Kegunaan: - Biasanya digunakan saat mencoba menangani banyak kelas. Fungsi softmax akan memeras keluaran untuk setiap kelas antara 0 dan 1 dan juga akan membagi dengan jumlah keluaran.



3.



Output: - Fungsi softmax idealnya digunakan pada lapisan keluaran dari pengklasifikasi di mana kita sebenarnya mencoba untuk mencapai kemungkinan untuk menentukan kelas dari setiap masukan. MEMILIH FUNGSI AKTIVASI YANG TEPAT



12



1.



Aturan dasarnya adalah jika benar-benar tidak mengetahui fungsi aktivasi yang akan digunakan, cukup gunakan RELU karena ini adalah fungsi aktivasi umum dan digunakan dalam banyak kasus saat ini.



2.



Jika keluaran untuk klasifikasi biner, fungsi sigmoid adalah pilihan yang sangat alami untuk lapisan keluaran.



E. Proses Pembelajaran Proses pembelajaran di JST terutama bergantung pada empat faktor, yaitu: 1.



Jumlah lapisan dalam jaringan (Lapisan tunggal atau berlapis-lapis)



2.



Arah aliran sinyal (Feedforward atau berulang)



3.



Jumlah node dalam lapisan: Jumlah node di lapisan masukan sama dengan jumlah fitur kumpulan data masukan. Jumlah node keluaran akan bergantung pada hasil yang mungkin, yaitu jumlah kelas dalam kasus pembelajaran yang diawasi. Tetapi jumlah lapisan di lapisan tersembunyi harus dipilih oleh pengguna. Jumlah node yang lebih besar di lapisan tersembunyi, performa lebih tinggi, tetapi terlalu banyak node dapat mengakibatkan overfitting serta peningkatan biaya komputasi.



4.



Berat Node yang Saling Terhubung: Menentukan nilai bobot yang melekat



pada



setiap



interkoneksi



antar



neuron



sehingga



masalah



pembelajaran tertentu dapat diselesaikan dengan benar merupakan masalah yang cukup sulit dengan sendirinya. Ambil contoh untuk memahami masalahnya. Ambil contoh Multi-layered Feed-Forward Network, kita harus melatih



model



JST



menggunakan



beberapa



data,



sehingga



dapat



mengklasifikasikan kumpulan data baru, misalnya p_5 (3, -2). Katakanlah kita telah menyimpulkan bahwa p_1 = (5,2) dan p_2 = (-1,12) milik kelas C1 sementara p_3 = (3, -5) dan p_4 = (-2, -1) milik kelas C2. Kami mengasumsikan nilai bobot sinaptik w_0, w_1, w_2 masing-masing sebagai -2, 1/2 dan 1/4. Tetapi kami TIDAK akan mendapatkan nilai bobot ini untuk setiap masalah pembelajaran. Untuk memecahkan masalah pembelajaran dengan ANN, kita dapat mulai dengan sekumpulan nilai untuk bobot sinaptik dan terus mengubahnya dalam beberapa iterasi. Kriteria penghentian mungkin tingkat kesalahan klasifikasi