Makine öğreniminde bir algılayıcı, ikili sınıflandırıcılar için denetimli bir öğrenme algoritmasıdır. Aynı zamanda genellikle bir algılayıcı olarak da adlandırılır. İkili sınıflandırıcı, bir sayı vektörü ile temsil edilen bir girdinin belirli bir sınıfa ait olup olmadığına karar verebilen bir fonksiyondur. Bu, bir tür doğrusal sınıflandırıcıdır, yani tahminlerini bir dizi ağırlık ile bir özellik vektörünü birleştiren bir doğrusal öngörücü işlevine dayalı olarak yapan bir sınıflandırma algoritmasıdır.
Son yıllarda, derin öğrenmedeki ilerlemeler nedeniyle yapay sinir ağları dikkat çekmeye başladı. Peki yapay sinir ağı nedir ve nelerden oluşur?
Perceptron ile Tanışın
Bu yazımızda, genel olarak yapay sinir ağlarına hızlıca göz atacağız, ardından tek bir nörona bakacağız ve son olarak (bu kodlama kısmıdır) bir yapay sinir ağının en temel versiyonunu ele alacağız. nöron, algılayıcı ve noktalarını sınıflandırmakuçak.
Herhangi bir insan için bu kadar kolay, ancak bilgisayarlar için inanılmaz derecede zor olan görevlerin neden olduğunu hiç merak ettiniz mi? Yapay Sinir Ağları (kısaca YSA), insan merkezi sinir sisteminden esinlenmiştir. Biyolojik karşılıkları gibi, YSA'lar da büyük bir ızgarada birleştirilen basit sinyal işleme öğeleri üzerine kuruludur.
Sinir ağları öğrenmeli
Geleneksel algoritmaların aksine, sinir ağları amaçlandığı gibi çalışmak için "programlanamaz" veya "ayarlanamaz". Tıpkı insan beyni gibi, görevi tamamlamayı öğrenmeleri gerekir. Kabaca söylemek gerekirse, üç öğrenme stratejisi vardır.
En kolay yol, sonuçları bilinen bir test senaryosu (yeterince büyük) varsa kullanılabilir. O zaman eğitim şöyle devam eder: bir dizi veriyi işleyin. Sonucu bilinen sonuçla karşılaştırın. Ağı kurun ve tekrar deneyin. Burada kullanacağımız öğrenme stratejisi budur.
Denetimsiz öğrenme
Mevcut test verisi yoksa ve istenen davranıştan bir maliyet fonksiyonu elde etmek mümkünse yararlıdır. Maliyet işlevi, sinir ağına hedeften ne kadar uzakta olduğunu söyler. Ağ daha sonra gerçek verilerle çalışarak parametrelerini anında ayarlayabilir.
Güçlendirilmiş Öğrenme
"Havuç ve sopa" yöntemi. Sinir ağı sürekli bir eylem oluşturuyorsa kullanılabilir. Zamanla ağ, doğru eylemleri tercih etmeyi ve yanlış olanlardan kaçınmayı öğrenir.
Tamam, şimdi hakkında biraz bilgi sahibiyizyapay sinir ağlarının doğası, ama tam olarak neyden yapılmışlar? Kapağı açıp içine bakarsak ne göreceğiz?
Nöronlar, sinir ağlarının yapı taşlarıdır. Herhangi bir yapay sinir ağının ana bileşeni yapay bir nörondur. Sadece biyolojik muadillerinden sonra isimlendirilmekle kalmazlar, aynı zamanda beynimizdeki nöronların davranışlarına göre modellenirler.
Biyoloji vs teknoloji
Biyolojik bir nöronun sinyalleri almak için dendritleri, bunları işlemek için bir hücre gövdesi ve diğer nöronlara sinyal göndermek için bir aksonu olması gibi, yapay bir nöronun da birden fazla giriş kanalı, bir işleme aşaması ve bunları alabilen bir çıktısı vardır. diğerlerine de dalın. yapay nöronlar.
Tek bir algılayıcıyla faydalı bir şeyler yapabilir miyiz? Tek bir algılayıcının çözebileceği bir problem sınıfı vardır. Giriş vektörünü nokta koordinatları olarak düşünün. n elemanlı bir vektör için bu nokta n boyutlu uzayda yaşayacaktır. Hayatı (ve aşağıdaki kodu) basitleştirmek için 2B olduğunu varsayalım. Bir kağıt parçası gibi.
Ardından, bu düzlemde rastgele noktalar çizdiğimizi ve kağıda düz bir çizgi çizerek bunları iki kümeye ayırdığımızı hayal edin. Bu çizgi, noktaları çizginin üstünde ve altında olmak üzere iki gruba ayırır. İki küme daha sonra doğrusal olarak ayrılabilir olarak adlandırılır.
Bir algılayıcı, ne kadar basit görünürse görünsün, bu çizginin nerede olduğunu bilir ve eğitimini bitirdiğinde, verilen bir noktanın bu çizginin üstünde mi altında mı olduğunu belirleyebilir.
Tarihicatlar
Bu yöntemin algoritması, 1957'de Cornell Havacılık Laboratuvarı'nda Frank Rosenblatt (genellikle onun adıyla anılır) tarafından ABD Deniz Araştırmaları Ofisi tarafından finanse edildi. Perceptron, bir program değil, bir makine olarak tasarlandı ve ilk uygulaması IBM 704 için yazılımda olmasına rağmen, daha sonra özel olarak oluşturulmuş donanımda "Mark 1 Perceptron" olarak uygulandı. Bu makine, görüntü tanıma için tasarlandı: nöronlara rastgele bağlanmış bir dizi 400 fotosele sahipti. Ağırlıklar potansiyometrelere kodlanmış ve antrenman sırasında ağırlık güncellemesi elektrik motorları ile yapılmıştır.
1958'de ABD Donanması'nın ev sahipliğinde düzenlenen bir basın toplantısında Rosenblatt, genç AI topluluğu arasında hararetli tartışmalara neden olan algı hakkında açıklamalar yaptı; Rosenblatt'ın iddialarına dayanarak, New York Times, algılayıcının "Donanmanın yürüyebilmesini, konuşabilmesini, görebilmesini, yazabilmesini, kendini yeniden üretebilmesini ve varlığının farkında olmasını beklediği embriyonik elektronik bilgisayar" olduğunu bildirdi.
Gelişmiş gelişmeler
Algılayıcı başlangıçta umut verici görünse de, algılayıcıların birçok örüntü sınıfını tanımak için eğitilemeyeceği kısa sürede kanıtlandı. Bu, iki veya daha fazla katmana sahip (aynı zamanda denir) bir ileri beslemeli sinir ağının tanınmasından önce, algılayıcı sinir ağları ile araştırma alanında uzun yıllar durgunluğa yol açtı.çok katmanlı algılayıcı), tek katmanlı algılayıcılardan (tek katmanlı algılayıcılar olarak da adlandırılır) çok daha fazla işlem gücüne sahipti. Tek katmanlı bir algılayıcı, yalnızca doğrusal olarak ayrılabilir yapıları inceleyebilir. 1969'da Marvin Minsky ve Seymour Papert'in ünlü kitabı "Perceptrons", bu ağ sınıflarının XOR işlevini öğrenemeyeceğini gösterdi. Ancak bu, tek katmanlı bir algılayıcıda kullanılabilen doğrusal olmayan sınıflandırma işlevleri için geçerli değildir.
Bu tür işlevlerin kullanımı, XOR işlevinin uygulanması da dahil olmak üzere algılayıcının yeteneklerini genişletir. Genellikle (yanlış bir şekilde) benzer bir sonucun çok katmanlı bir algılayıcı ağı için geçerli olacağını varsaydıkları varsayılır. Ancak durum böyle değil, çünkü hem Minsky hem de Papert çok katmanlı algılayıcıların bir XOR işlevi üretebileceğini zaten biliyorlardı. Üç yıl sonra, Steven Grossberg, diferansiyel işlevleri, kontrast geliştirme işlevlerini ve XOR işlevlerini modelleyebilen ağları sunan bir dizi makale yayınladı.
Eserler 1972 ve 1973'te yayınlandı. Ancak, genellikle gözden kaçan Minsky/Papert metni, sinir ağı algılayıcısıyla ilgi ve araştırma fonlarında önemli bir düşüşe neden oldu. 1980'lerde sinir ağı araştırmasının yeniden canlanmasından önce bir on yıl daha geçti.
Özellikler
Perceptron Çekirdek Algoritması 1964 yılında Yzerman ve diğerleri tarafından tanıtıldı. Önceki sonuçları genişleten ve L1'e yeni sınırlar veren Mori ve Rostamizadeh (2013).
Perceptron, biyolojik bir nöronun basitleştirilmiş bir modelidir. Biyolojik nöral modellerin karmaşıklığı genellikle nöral davranışı tam olarak anlamak için gerekli olsa da, araştırmalar algılayıcıya benzer lineer bir modelin gerçek nöronlarda görülen bazı davranışları indükleyebileceğini gösteriyor.
Perceptron lineer bir sınıflandırıcıdır, bu nedenle eğitim seti D lineer olarak ayrılabilir değilse, ör. pozitif örnekler bir hiperdüzlem ile negatif örneklerden ayrılamaz ise. Bu durumda, standart öğrenme algoritmasında adım adım hiçbir "yaklaşık" çözüm olmayacak, bunun yerine öğrenme tamamen başarısız olacaktır. Bu nedenle, eğitim kümesinin doğrusal ayrılabilirliği önceden bilinmiyorsa, aşağıdaki eğitim seçeneklerinden biri kullanılmalıdır.
Cep Algoritması
Cırcır cebi algoritması, şimdiye kadar bulunan en iyi çözümü "cebinde" tutarak algılayıcı öğrenme sağlamlığı sorununu çözer. Cep algoritması daha sonra çözümü son çözüm yerine cepte döndürür. Ayrıca, amacın birkaç yanlış sınıflandırma ile bir algılayıcı bulmak olduğu, ayrılamayan veri kümeleri için de kullanılabilir. Ancak, bu çözümler stokastik görünmektedir ve bu nedenle cep algoritması bunlara uymamaktadır.eğitim boyunca kademeli olarak ve belirli sayıda eğitim adımında tespit edilmeleri garanti edilmez.
Maxover Algoritması
Maxover'ın algoritması, veri kümesinin doğrusal ayrılabilirlik bilgisine bakılmaksızın yakınsaması anlamında "sağlamdır". Doğrusal bir bölünme durumunda, bu, isteğe bağlı olarak optimal kararlılıkla (sınıflar arasındaki maksimum marj) bile öğrenme problemini çözecektir. Ayrılamayan veri kümeleri için, az sayıda yanlış sınıflandırma içeren bir çözüm döndürülecektir. Her durumda, algoritma önceki durumları hatırlamadan ve rastgele sıçramalar olmadan öğrenme süreci boyunca çözüme kademeli olarak yaklaşır. Yakınsama, paylaşılan veri kümeleri için küresel optimallikte ve ayrılamayan veri kümeleri için yerel optimallikte yatar.
Oylanmış Perceptron
Oy Verilmiş Algılayıcı algoritması, birden çok ağırlıklı algılayıcı kullanan bir değişkendir. Algoritma, bir örnek yanlış sınıflandırıldığında yeni bir algılayıcı başlatır ve ağırlık vektörünü son algılayıcının son ağırlıklarıyla başlatır. Her algılayıcıya, birini yanlış sınıflandırmadan önce kaç örneği doğru sınıflandırdıklarına karşılık gelen farklı bir ağırlık verilecektir ve sonunda çıktı, tüm algılayıcıda ağırlıklı bir oy olacaktır.
Uygulama
Ayrılabilir problemlerde, algılayıcı eğitimi, sınıflar arasındaki en büyük ayrım sınırını bulmayı da amaçlayabilir. LaftaMin-Over veya AdaTron algoritması gibi yinelemeli eğitim ve optimizasyon şemaları kullanılarak optimal bir kararlılık algılayıcı belirlenebilir. AdaTron, karşılık gelen ikinci dereceden optimizasyon probleminin dışbükey olduğu gerçeğinden yararlanır. Çekirdek hilesiyle birlikte optimal kararlılık algılayıcısı, destek vektör makinesinin kavramsal temelidir.
Alternatif
Doğrusal olmayan sorunları birden çok katman kullanmadan çözmenin bir başka yolu da daha yüksek dereceli ağlar (sigma-pi bloğu) kullanmaktır. Bu ağ tipinde, giriş vektörünün her bir elemanı, her bir ikili çoklu giriş kombinasyonu (ikinci derece) ile genişletilir. Bu, bir n-sıralı ağına genişletilebilir. Perceptron çok esnek bir şeydir.
Ancak, en iyi sınıflandırıcının mutlaka tüm eğitim verilerini doğru bir şekilde sınıflandıran sınıf olmadığını unutmayın. Aslında, verilerin eşit değişkenli Gauss dağılımlarından geldiğine ilişkin ön kısıtlamamız olsaydı, girdi uzayında doğrusal bir bölünme en uygunudur ve doğrusal olmayan bir çözüm geçersiz kılınır.
Diğer doğrusal sınıflandırma algoritmaları arasında Winnow, destek vektörü ve lojistik regresyon bulunur. Perceptron, evrensel bir algoritmalar kümesidir.
Denetimli öğrenmenin ana kapsamı
Denetimli öğrenme, girdiyi çıktıya eşleyen bir işlevi öğrenen bir makine öğrenimi görevidir. G/Ç çiftlerinin örneklerine dayalıdır. Bir dizi örnekten oluşan etiketli eğitim verilerinden bir özellik çıkarırlar. Denetimli öğrenmede, her örnek bir girdi nesnesinden (genellikle bir vektör) ve istenen bir çıktı değerinden (kontrol sinyali olarak da adlandırılır) oluşan bir çifttir.
Denetlenen öğrenme algoritması, eğitim verilerini analiz eder ve yeni örnekleri görüntülemek için kullanılabilecek tahmini bir işlev üretir. Optimal senaryo, algoritmanın görünmez örnekler için sınıf etiketlerini doğru bir şekilde belirlemesini sağlar. Bu, öğrenme algoritmasının öğrenme verilerini "makul" bir şekilde görünmeyen durumlara genelleştirmesini gerektirir.
İnsan ve hayvan psikolojisindeki paralel göreve genellikle kavramsal öğrenme denir.