Makine Öğrenimi Sözlüğü

Bu sözlükte makine öğrenimi terimleri tanımlanmaktadır.

A

ablasyon

Bir özelliğin veya bileşenin önemini değerlendirmek için geçici olarak modelden kaldırma tekniği. Ardından, bu özellik veya bileşen olmadan modeli yeniden eğitirsiniz. Yeniden eğitilen modelin performansı önemli ölçüde düşerse kaldırılan özellik veya bileşen muhtemelen önemlidir.

Örneğin, 10 özellik üzerinde bir sınıflandırma modeli eğittiğinizi ve test kümesinde% 88 kesinlik elde ettiğinizi varsayalım. İlk özelliğin önemini kontrol etmek için modeli yalnızca diğer dokuz özelliği kullanarak yeniden eğitebilirsiniz. Yeniden eğitilen model önemli ölçüde daha kötü performans gösteriyorsa (örneğin, %55 doğruluk) kaldırılan özellik muhtemelen önemliydi. Aksine, yeniden eğitilen model aynı derecede iyi performans gösteriyorsa bu özellik muhtemelen o kadar da önemli değildir.

Ablasyon, aşağıdakilerin önemini belirlemeye de yardımcı olabilir:

  • Daha büyük bir makine öğrenimi sisteminin tamamı gibi daha büyük bileşenler
  • Veri ön işleme adımı gibi süreçler veya teknikler

Her iki durumda da bileşeni kaldırdıktan sonra sistemin performansının nasıl değiştiğini (veya değişmediğini) gözlemlersiniz.

A/B testi

İki (veya daha fazla) tekniği karşılaştırmanın istatistiksel bir yolu: A ve B. Genellikle A mevcut bir teknik, B ise yeni bir tekniktir. A/B testi yalnızca hangi tekniğin daha iyi performans gösterdiğini belirlemekle kalmaz, aynı zamanda farkın istatistiksel olarak anlamlı olup olmadığını da belirler.

A/B testi genellikle iki teknikte tek bir metriği karşılaştırır. Örneğin, iki teknikte model doğruluğu nasıl karşılaştırılır? Ancak A/B testi, sonlu sayıda metriği de karşılaştırabilir.

hızlandırıcı çip

#GoogleCloud

Derin öğrenme algoritmaları için gereken temel hesaplamaları yapmak üzere tasarlanmış özel donanım bileşenleri kategorisi.

Hızlandırıcı çipleri (kısaca hızlandırıcılar), genel amaçlı bir CPU'ya kıyasla eğitim ve çıkarım görevlerinin hızını ve verimliliğini önemli ölçüde artırabilir. Nöral ağları eğitmek ve benzeri yoğun işlem gerektiren görevler için idealdir.

Hızlandırıcı çiplere örnek olarak aşağıdakiler verilebilir:

  • Derin öğrenme için özel donanım içeren Google'ın Tensor İşleme Birimleri (TPU'lar).
  • Başlangıçta grafik işleme için tasarlanmış olsa da NVIDIA'nın GPU'ları, işlem hızını önemli ölçüde artırabilen paralel işlemeyi etkinleştirmek üzere tasarlanmıştır.

doğruluk

#fundamentals
#Metric

Doğru sınıflandırma tahminlerinin sayısının toplam tahmin sayısına bölünmesiyle elde edilir. Yani:

$$\text{Accuracy} = \frac{\text{correct predictions}} {\text{correct predictions + incorrect predictions }}$$

Örneğin, 40 doğru ve 10 yanlış tahminde bulunan bir modelin doğruluğu şu şekilde olur:

$$\text{Accuracy} = \frac{\text{40}} {\text{40 + 10}} = \text{80%}$$

İkili sınıflandırma, doğru tahminler ve yanlış tahminler kategorileri için belirli adlar sağlar. Bu nedenle, ikili sınıflandırma için doğruluk formülü aşağıdaki gibidir:

$$\text{Accuracy} = \frac{\text{TP} + \text{TN}} {\text{TP} + \text{TN} + \text{FP} + \text{FN}}$$

Bu örnekte:

Doğruluğu hassasiyet ve geri çağırma ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler bölümüne bakın.

işlem

#rl

Pekiştirmeli öğrenmede, aracının ortamın durumları arasında geçiş yaptığı mekanizma. Aracı, politikayı kullanarak işlemi seçer.

etkinleştirme işlevi

#fundamentals

Nöral ağların özellikler ile etiket arasındaki doğrusal olmayan (karmaşık) ilişkileri öğrenmesini sağlayan bir işlev.

Popüler etkinleştirme işlevleri şunlardır:

Etkinleştirme fonksiyonlarının grafikleri hiçbir zaman tek bir düz çizgi değildir. Örneğin, ReLU etkinleştirme işlevinin grafiği iki düz çizgiden oluşur:

İki çizgili bir kartezyen grafik. İlk satırın sabit bir y değeri vardır. Bu değer 0'dır ve x ekseni boyunca -sonsuz,0 ile 0,-0 arasında değişir.
          İkinci satır 0,0'dan başlar. Bu doğrunun eğimi +1 olduğundan 0,0 noktasından +sonsuz,+sonsuz noktasına kadar uzanır.

Sigmoid aktivasyon fonksiyonunun grafiği şu şekilde görünür:

X değerlerinin -sonsuz ile +pozitif arasında, y değerlerinin ise neredeyse 0 ile neredeyse 1 arasında değiştiği iki boyutlu eğri grafiği. x 0 olduğunda y 0, 5 olur. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0,05'te olup x'in mutlak değeri arttıkça eğimler kademeli olarak azalır.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Sinir ağları: Etkinleştirme işlevleri başlıklı makaleyi inceleyin.

etkin öğrenme

Algoritmanın, öğrendiği verilerin bir kısmını seçtiği bir eğitim yaklaşımı. Etkin öğrenme, etiketli örnekler az olduğunda veya elde edilmesi pahalı olduğunda özellikle değerlidir. Etkin öğrenme algoritması, çeşitli etiketli örnekler aramak yerine öğrenmek için ihtiyaç duyduğu belirli örnekleri seçerek arar.

AdaGrad

Her bir parametrenin gradyanlarını yeniden ölçeklendiren ve her parametreye bağımsız bir öğrenme oranı veren gelişmiş bir gradyan inişi algoritmasıdır. Tam açıklama için Adaptive Subgradient Methods for Online Learning and Stochastic Optimization (Çevrimiçi Öğrenme ve Stokastik Optimizasyon için Uyarlanabilir Alt Gradyan Yöntemleri) başlıklı makaleyi inceleyin.

uyarlama

#language
#image
#generativeAI

Tuning veya fine-tuning ile eş anlamlıdır.

temsilci

#rl

Kullanıcı adına işlemleri planlamak ve yürütmek için çok formatlı kullanıcı girişleri hakkında akıl yürütebilen yazılım.

Pekiştirmeli öğrenmede, bir aracı, ortamın durumları arasında geçiş yaparak elde edilen beklenen getiriyi en üst düzeye çıkarmak için politikayı kullanan bir varlıktır.

birleştirici kümeleme

#clustering

Hiyerarşik kümeleme konusuna bakın.

anormallik algılama

Aykırı değerleri belirleme süreci. Örneğin, belirli bir özelliğin ortalaması 100 ve standart sapması 10 ise anomali algılama, 200 değerini şüpheli olarak işaretlemelidir.

AR

Artırılmış gerçeklik ifadesinin kısaltmasıdır.

PR eğrisinin altındaki alan

#Metric

PR AUC (PR Eğrisinin Altındaki Alan) başlıklı makaleyi inceleyin.

ROC eğrisinin altındaki alan

#Metric

AUC (ROC eğrisinin altındaki alan) başlıklı makaleyi inceleyin.

genel yapay zeka

Çok çeşitli problem çözme, yaratıcılık ve uyarlanabilirlik becerileri gösteren insan dışı bir mekanizma. Örneğin, genel yapay zekayı gösteren bir program metin çevirebilir, senfoniler besteleyebilir ve henüz icat edilmemiş oyunlarda başarılı olabilir.

yapay zeka

#fundamentals

Karmaşık görevleri çözebilen insan olmayan bir program veya model. Örneğin, metni çeviren bir program veya model ya da radyolojik görüntülerden hastalıkları tanımlayan bir program veya model yapay zeka gösterir.

Resmi olarak makine öğrenimi, yapay zekanın bir alt alanıdır. Ancak son yıllarda bazı kuruluşlar yapay zeka ve makine öğrenimi terimlerini birbirinin yerine kullanmaya başladı.

dikkat

#language

Belirli bir kelimenin veya kelime bölümünün önemini belirten bir nöral ağda kullanılan mekanizma. Dikkat, bir modelin sonraki jetonu/kelimeyi tahmin etmek için ihtiyaç duyduğu bilgi miktarını sıkıştırır. Tipik bir dikkat mekanizması, bir dizi giriş üzerinde ağırlıklı bir toplamdan oluşabilir. Burada her girişin ağırlığı, nöral ağın başka bir bölümü tarafından hesaplanır.

Dönüştürücülerin yapı taşları olan öz dikkat ve çok başlı öz dikkat konularına da göz atın.

Kendi kendine dikkat hakkında daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki LLM'ler: Büyük dil modeli nedir? konusuna bakın.

özellik

#responsible

Özellik kelimesinin eş anlamlısı.

Makine öğreniminde adalet bağlamında özellikler genellikle bireylerle ilgili özellikleri ifade eder.

özellik örnekleme

#df

Her bir karar ağacının, koşulu öğrenirken olası özelliklerin yalnızca rastgele bir alt kümesini dikkate aldığı bir karar ormanı eğitme taktiği. Genellikle her düğüm için farklı bir özellik alt kümesi örneklenir. Buna karşılık, özellik örneklemesi olmadan karar ağacı eğitilirken her düğüm için olası tüm özellikler dikkate alınır.

AUC (ROC eğrisinin altındaki alan)

#fundamentals
#Metric

İkili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma becerisini gösteren 0,0 ile 1,0 arasında bir sayı. AUC değeri 1, 0'a ne kadar yakın olursa modelin sınıfları birbirinden ayırma yeteneği o kadar iyi olur.

Örneğin, aşağıdaki resimde pozitif sınıfları (yeşil oval) negatif sınıflardan (mor dikdörtgen) mükemmel şekilde ayıran bir sınıflandırma modeli gösterilmektedir. Bu gerçekçi olmayan mükemmel modelin AUC değeri 1,0'dır:

Bir tarafında 8 pozitif örnek, diğer tarafında 9 negatif örnek bulunan bir sayı doğrusu.

Buna karşılık, aşağıdaki resimde rastgele sonuçlar üreten bir sınıflandırma modelinin sonuçları gösterilmektedir. Bu modelin AUC değeri 0,5'tir:

6 pozitif örnek ve 6 negatif örnek içeren bir sayı doğrusu.
          Örneklerin sırası olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz, olumlu, olumsuz şeklindedir.

Evet, önceki modelin AUC değeri 0,0 değil 0,5.

Çoğu model, iki uç nokta arasında bir yerdedir. Örneğin, aşağıdaki model pozitifleri negatiflerden biraz ayırır ve bu nedenle 0,5 ile 1,0 arasında bir AUC'ye sahiptir:

6 pozitif örnek ve 6 negatif örnek içeren bir sayı doğrusu.
          Örneklerin sırası: olumsuz, olumsuz, olumsuz, olumsuz, olumlu, olumsuz, olumlu, olumlu, olumsuz, olumlu, olumlu, olumlu.

AUC, sınıflandırma eşiği için ayarladığınız tüm değerleri yoksayar. Bunun yerine AUC, olası tüm sınıflandırma eşiklerini dikkate alır.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sınıflandırma: ROC ve AUC başlıklı makaleyi inceleyin.

artırılmış gerçeklik

#image

Bilgisayarda üretilmiş bir görüntüyü kullanıcının gerçek dünya görünümünün üzerine yerleştirerek birleşik bir görünüm sağlayan teknoloji.

otomatik kodlayıcı

#language
#image

Girişten en önemli bilgileri çıkarmayı öğrenen bir sistemdir. Otomatik kodlayıcılar, kodlayıcı ve kod çözücünün birleşimidir. Otomatik kodlayıcılar aşağıdaki iki adımlı süreci kullanır:

  1. Kodlayıcı, girişi (genellikle) kayıplı, daha düşük boyutlu bir (ara) biçime eşler.
  2. Kod çözücü, düşük boyutlu biçimi orijinal yüksek boyutlu giriş biçimine eşleyerek orijinal girişin kayıplı bir sürümünü oluşturur.

Otomatik kodlayıcılar, kod çözücünün kodlayıcının ara biçiminden orijinal girişi mümkün olduğunca yakından yeniden oluşturmaya çalışmasıyla uçtan uca eğitilir. Ara biçim, orijinal biçimden daha küçük (daha düşük boyutlu) olduğundan otomatik kodlayıcı, girişteki hangi bilgilerin gerekli olduğunu öğrenmek zorunda kalır ve çıkış, girişle tamamen aynı olmaz.

Örneğin:

  • Giriş verileri grafikse tam olmayan kopya, orijinal grafiğe benzer ancak biraz değiştirilmiş olur. Belki de tam olmayan kopya, orijinal grafikteki gürültüyü kaldırıyor veya eksik pikselleri dolduruyordur.
  • Giriş verileri metin ise otomatik kodlayıcı, orijinal metni taklit eden (ancak orijinal metinle aynı olmayan) yeni bir metin oluşturur.

Ayrıca varyasyonel otomatik kodlayıcılar başlıklı makaleyi de inceleyin.

otomatik değerlendirme

#language
#generativeAI

Bir modelin çıktısının kalitesini değerlendirmek için yazılım kullanma

Model çıkışı nispeten basit olduğunda bir komut dosyası veya program, modelin çıkışını altın yanıtla karşılaştırabilir. Bu tür otomatik değerlendirmeye bazen programatik değerlendirme adı verilir. ROUGE veya BLEU gibi metrikler genellikle programatik değerlendirme için yararlıdır.

Model çıktısı karmaşık olduğunda veya tek bir doğru yanıt olmadığında, bazen otomatik değerlendirici adı verilen ayrı bir makine öğrenimi programı otomatik değerlendirme yapar.

İnsan değerlendirmesiyle karşılaştırın.

otomasyon önyargısı

#responsible

İnsan karar vericiler, otomatik karar verme sisteminin hatalar yaptığı durumlarda bile bu sistemin verdiği önerileri otomasyon olmadan elde edilen bilgilere tercih ettiğinde ortaya çıkar.

Daha fazla bilgi için Adalet: Makine öğrenimi yoğun kursunda önyargı türleri başlıklı makaleyi inceleyin.

AutoML

Makine öğrenimi modelleri oluşturmaya yönelik tüm otomatik süreçler. AutoML, aşağıdaki gibi görevleri otomatik olarak gerçekleştirebilir:

AutoML, makine öğrenimi işlem hatları geliştirme konusunda veri bilimcilerin zamandan ve emekten tasarruf etmesini sağlayıp tahmin doğruluğunu artırabildiği için veri bilimciler için faydalıdır. Ayrıca, karmaşık makine öğrenimi görevlerini daha erişilebilir hâle getirerek uzman olmayan kullanıcılar için de faydalıdır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Otomatik Makine Öğrenimi (AutoML) bölümüne bakın.

otomatik derecelendirme değerlendirmesi

#language
#generativeAI
İnsan değerlendirmesi ile otomatik değerlendirmeyi birleştiren, üretken yapay zeka modelinin çıktısının kalitesini değerlendirmek için kullanılan karma mekanizma. Otomatik puanlayıcı, insan değerlendirmesi ile oluşturulan veriler üzerinde eğitilmiş bir makine öğrenimi modelidir. İdeal olarak, otomatik derecelendirme sistemi, insan değerlendiricileri taklit etmeyi öğrenir.

Önceden oluşturulmuş otomatik derecelendiriciler mevcuttur ancak en iyi otomatik derecelendiriciler, özellikle değerlendirdiğiniz göreve göre ince ayar yapılmış olanlardır.

eğitilmesine yardımcı olan verileri sağlar.

otoregresif model

#language
#image
#generativeAI

Önceki tahminlerine dayanarak tahmin çıkaran bir model. Örneğin, otoregresif dil modelleri, daha önce tahmin edilen jetonlara göre bir sonraki jetonu tahmin eder. Transformer tabanlı tüm büyük dil modelleri, otomatik regresif modellerdir.

Buna karşılık, GAN tabanlı görüntü modelleri, bir görüntüyü tek bir ileri geçişte oluşturdukları ve adım adım yinelemeli olarak oluşturmadıkları için genellikle otoregresif değildir. Ancak belirli görüntü oluşturma modelleri, görüntüyü adım adım oluşturdukları için otoregresiftir.

yardımcı kayıp

Ağırlıkların rastgele başlatıldığı ilk yinelemeler sırasında eğitimi hızlandırmaya yardımcı olan bir kayıp işlevi. Bu işlev, nöral ağ modelinin ana kayıp işleviyle birlikte kullanılır.

Yardımcı kayıp işlevleri, etkili gradyanları önceki katmanlara iter. Bu, kaybolan gradyan sorununu önleyerek eğitim sırasında yakınsamayı kolaylaştırır.

k'da ortalama hassasiyet

#language
#Metric

Bir modelin, sıralanmış sonuçlar oluşturan tek bir istemdeki performansını özetleyen bir metriktir (ör. kitap önerilerinin numaralandırılmış listesi). k'daki ortalama hassasiyet, her bir alakalı sonuç için k'daki hassasiyet değerlerinin ortalamasıdır. Bu nedenle, k'daki ortalama hassasiyetin formülü şöyledir:

\[{\text{average precision at k}} = \frac{1}{n} \sum_{i=1}^n {\text{precision at k for each relevant item} } \]

Bu örnekte:

  • \(n\) listedeki alakalı öğelerin sayısıdır.

k tuşuna basarak hatırlatma ile karşılaştırın.

eksenle hizalı koşul

#df

Karar ağacında yalnızca tek bir özelliği içeren bir koşul. Örneğin, area bir özellikse aşağıdaki koşul eksenle hizalanmış bir koşuldur:

area > 200

Eğik koşul ile çakışıyor.

B

geri yayılım

#fundamentals

Nöral ağlarda gradyan inişini uygulayan algoritma.

Bir nöral ağı eğitmek için aşağıdaki iki geçişli döngünün birçok iterasyonu gerekir:

  1. İleri geçiş sırasında sistem, tahminler elde etmek için toplu örnek işler. Sistem, her tahmini her etiket değeriyle karşılaştırır. Tahmin ile etiket değeri arasındaki fark, söz konusu örnek için kayıptır. Sistem, mevcut toplu işin toplam kaybını hesaplamak için tüm örneklerin kayıplarını toplar.
  2. Geriye doğru geçiş (geri yayılım) sırasında sistem, tüm gizli katmanlardaki tüm nöronların ağırlıklarını ayarlayarak kaybı azaltır.

Nöral ağlar genellikle birçok gizli katmanda çok sayıda nöron içerir. Bu nöronların her biri, genel kayba farklı şekillerde katkıda bulunur. Geriye yayılım, belirli nöronlara uygulanan ağırlıkların artırılıp azaltılmayacağını belirler.

Öğrenme oranı, her bir geri geçişin her bir ağırlığı artırma veya azaltma derecesini kontrol eden bir çarpandır. Büyük bir öğrenme oranı, her ağırlığı küçük bir öğrenme oranından daha fazla artırır veya azaltır.

Kalkülüs açısından, geri yayılım, kalkülüsteki zincir kuralını uygular. Yani, geriye yayılım, hatanın her bir parametreye göre kısmi türevini hesaplar.

Yıllar önce makine öğrenimi uygulayıcıları, geri yayılımı uygulamak için kod yazmak zorundaydı. Keras gibi modern makine öğrenimi API'leri artık sizin için geri yayılımı uygular. Bora

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Nöral ağlar bölümünü inceleyin.

torbalama

#df

Her bileşen modelinin, yerine koyma ile örneklenmiş eğitim örneklerinin rastgele bir alt kümesi üzerinde eğitildiği bir topluluk eğitme yöntemi. Örneğin, rastgele orman, torbalama ile eğitilmiş bir karar ağaçları koleksiyonudur.

Bagging terimi, bootstrap aggregating'in kısaltmasıdır.

Daha fazla bilgi için Karar Ormanları kursundaki Rastgele ormanlar bölümüne bakın.

kelime torbası

#language

Bir kelime öbeği veya pasajdaki kelimelerin sıradan bağımsız olarak gösterimi. Örneğin, kelime torbası aşağıdaki üç ifadeyi aynı şekilde temsil eder:

  • köpek zıpladığında
  • köpeğin üzerinden atlar
  • köpek zıplıyor

Her kelime, seyrek vektör içindeki bir dizine eşlenir. Bu vektörde, kelime dağarcığındaki her kelime için bir dizin bulunur. Örneğin, köpek zıplıyor ifadesi, the, dog ve jumps kelimelerine karşılık gelen üç indekste sıfır olmayan değerlere sahip bir özellik vektörüne eşlenir. Sıfır olmayan değer aşağıdakilerden herhangi biri olabilir:

  • Bir kelimenin varlığını belirtmek için 1.
  • Bir kelimenin çantada kaç kez geçtiğinin sayısı. Örneğin, the maroon dog is a dog with maroon fur ifadesinde hem maroon hem de dog kelimesi 2, diğer kelimeler ise 1 olarak gösterilir.
  • Bir kelimenin torbada görünme sayısının logaritması gibi başka bir değer.

referans değer

#Metric

Başka bir modelin (genellikle daha karmaşık bir model) ne kadar iyi performans gösterdiğini karşılaştırmak için referans noktası olarak kullanılan model. Örneğin, bir lojistik regresyon modeli, derin model için iyi bir referans değer olabilir.

Temel, belirli bir sorun için model geliştiricilerin yeni modelin faydalı olması için ulaşması gereken minimum beklenen performansı ölçmesine yardımcı olur.

base model

#language
#generativeAI

Belirli görevleri veya uygulamaları ele almak için ince ayar yapmaya başlamak için başlangıç noktası olarak kullanılabilecek bir önceden eğitilmiş model.

Ayrıca önceden eğitilmiş model ve temel model konularına da bakın.

grup

#fundamentals

Bir eğitim iterasyonunda kullanılan örnekler kümesi. Toplu iş boyutu, bir toplu işteki örneklerin sayısını belirler.

Bir grubun dönemle nasıl ilişkili olduğuna dair açıklama için dönem başlıklı makaleyi inceleyin.

Daha fazla bilgi için Makine Öğrenimine Hızlı Bakış Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

toplu çıkarım

#GoogleCloud

Daha küçük alt kümeler ("gruplar") halinde bölünmüş birden fazla etiketlenmemiş örnek üzerinde tahmin çıkarma süreci.

Toplu çıkarım, hızlandırıcı çiplerin paralelleştirme özelliklerinden yararlanabilir. Yani birden fazla hızlandırıcı, aynı anda farklı gruplardaki etiketlenmemiş örnekler üzerinde çıkarım yapabilir ve saniyedeki çıkarım sayısını önemli ölçüde artırabilir.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Üretim ML sistemleri: Statik ve dinamik çıkarım bölümüne bakın.

toplu normalleştirme

Gizli katmandaki etkinleştirme işlevlerinin girişini veya çıkışını normalleştirme. Toplu normalleştirme aşağıdaki avantajları sağlayabilir:

grup boyutu

#fundamentals

Bir toplu işlemdeki örneklerin sayısı. Örneğin, toplu iş boyutu 100 ise model, iterasyon başına 100 örnek işler.

Popüler toplu iş boyutu stratejileri şunlardır:

  • Stokastik Gradyan İnişi (SGD): Bu yöntemde toplu iş boyutu 1'dir.
  • Tam toplu iş: Toplu iş boyutunun, eğitim kümesinin tamamındaki örnek sayısı olduğu toplu iş. Örneğin, eğitim kümesi bir milyon örnek içeriyorsa toplu iş boyutu bir milyon örnek olur. Tam toplu iş genellikle verimsiz bir stratejidir.
  • Toplu iş boyutunun genellikle 10 ile 1.000 arasında olduğu mini toplu iş. Mini toplu iş genellikle en verimli stratejidir.

Daha fazla bilgi için aşağıdaki konulara bakın:

Bayes nöral ağı

Ağırlıklardaki ve çıkışlardaki belirsizliği hesaba katan olasılıksal bir nöral ağ. Standart bir nöral ağ regresyon modeli genellikle bir skaler değer tahmin eder. Örneğin, standart bir model 853.000 TL'lik bir ev fiyatı tahmin eder. Buna karşılık, Bayesçi bir sinir ağı değerlerin dağılımını tahmin eder. Örneğin, Bayesçi bir model, standart sapması 67.200 olan bir ev fiyatını 853.000 olarak tahmin eder.

Bir Bayesçi nöral ağ, ağırlıklardaki ve tahminlerdeki belirsizlikleri hesaplamak için Bayes Teoremi'ni kullanır. Belirsizliğin ölçülmesinin önemli olduğu durumlarda (ör. ilaçlarla ilgili modeller) Bayesçi sinir ağı faydalı olabilir. Bayesçi nöral ağlar, aşırı uyumu önlemeye de yardımcı olabilir.

Bayes optimizasyonu

Olasılıksal regresyon modeli, hesaplama açısından maliyetli amaç fonksiyonlarını optimize etmek için kullanılan bir tekniktir. Bu teknikte, belirsizliği Bayes öğrenme tekniğiyle ölçen bir vekil optimize edilir. Bayes optimizasyonu kendi başına çok maliyetli olduğundan genellikle hiperparametre seçme gibi az sayıda parametreye sahip ve değerlendirmesi maliyetli olan görevleri optimize etmek için kullanılır.

Bellman denklemi

#rl

Pekiştirmeli öğrenmede, optimal Q işlevi tarafından karşılanan aşağıdaki kimlik:

\[Q(s, a) = r(s, a) + \gamma \mathbb{E}_{s'|s,a} \max_{a'} Q(s', a')\]

Pekiştirici öğrenme algoritmaları, aşağıdaki güncelleme kuralını kullanarak Q-learning oluşturmak için bu kimliği uygular:

\[Q(s,a) \gets Q(s,a) + \alpha \left[r(s,a) + \gamma \displaystyle\max_{\substack{a_1}} Q(s',a') - Q(s,a) \right] \]

Bellman denklemi, pekiştirmeli öğrenmenin yanı sıra dinamik programlamada da kullanılır. Bellman denklemiyle ilgili Wikipedia girişine bakın.

BERT (Bidirectional Encoder Representations from Transformers)

#language

Metin temsili için model mimari. Eğitilmiş bir BERT modeli, metin sınıflandırma veya diğer makine öğrenimi görevleri için daha büyük bir modelin parçası olarak kullanılabilir.

BERT'in özellikleri:

BERT'nin varyantları şunlardır:

BERT'e genel bakış için Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing (BERT'in Açık Kaynaklı Hale Getirilmesi: Doğal Dil İşleme İçin En Gelişmiş Ön Eğitim) başlıklı makaleyi inceleyin.

önyargı (etik/adalet)

#responsible
#fundamentals

1. Bazı şeylere, kişilere veya gruplara yönelik olarak diğerlerine kıyasla kalıplaşmış düşünceler, önyargılar veya kayırmacılık Bu önyargılar, verilerin toplanmasını ve yorumlanmasını, sistemin tasarımını ve kullanıcıların sistemle etkileşim kurma şeklini etkileyebilir. Bu tür yanlılığın biçimleri şunlardır:

2. Örnekleme veya raporlama prosedürüyle ortaya çıkan sistematik hata. Bu tür yanlılığın biçimleri şunlardır:

Makine öğrenimi modellerindeki bias terimi veya tahmin yanlılığı ile karıştırılmamalıdır.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Adalet: Önyargı türleri bölümüne bakın.

önyargı (matematik) veya önyargı terimi

#fundamentals

Bir başlangıç noktasından kesişme veya uzaklık. Yanılgı, makine öğrenimi modellerindeki bir parametredir ve aşağıdakilerden biriyle sembolize edilir:

  • b
  • w0

Örneğin, aşağıdaki formülde b, yanlılığı ifade eder:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Basit bir iki boyutlu çizgide, sapma yalnızca "y eksenini kesen nokta" anlamına gelir. Örneğin, aşağıdaki resimde çizginin eğimi 2'dir.

Eğimi 0,5 ve önyargısı (y eksenini kestiği nokta) 2 olan bir doğrunun grafiği.

Tüm modeller başlangıç noktasından (0,0) başlamadığı için önyargı vardır. Örneğin, bir eğlence parkına girişin 2 avro, müşterinin parkta kaldığı her saat için ise 0,5 avro ek ücret alındığını varsayalım. Bu nedenle, toplam maliyeti eşleyen bir modelde en düşük maliyet 2 Euro olduğundan 2 birimi kadar bir sapma vardır.

Önyargı, etik ve adalet alanındaki önyargı veya tahmin önyargısı ile karıştırılmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Doğrusal Regresyon bölümüne bakın.

iki yönlü

#language

Bir metin bölümünün öncesinde ve sonrasında gelen metni değerlendiren bir sistemi tanımlamak için kullanılan terim. Buna karşılık, tek yönlü bir sistem yalnızca metnin hedef bölümünden önceki metni değerlendirir.

Örneğin, aşağıdaki soruda altı çizili kelime veya kelimeleri temsil eden olasılıkları belirlemesi gereken bir maskelenmiş dil modelini ele alalım:

What is the _____ with you?

Tek yönlü bir dil modeli, olasılıklarını yalnızca "What", "is" ve "the" kelimelerinin sağladığı bağlama dayandırmak zorunda kalır. Buna karşılık, çift yönlü bir dil modeli "ile" ve "sen" kelimelerinden de bağlam bilgisi edinebilir. Bu da modelin daha iyi tahminler üretmesine yardımcı olabilir.

çift yönlü dil modeli

#language

Bir dil modeli, önceki ve sonraki metne göre, belirli bir jetonun metin alıntısında belirli bir konumda bulunma olasılığını belirler.

bigram

#seq
#language

N=2 olan bir N-gram.

ikili sınıflandırma

#fundamentals

Bir sınıflandırma görevi türü. Birbiriyle bağdaşmayan iki sınıftan birini tahmin eder:

Örneğin, aşağıdaki iki makine öğrenimi modelinin her biri ikili sınıflandırma gerçekleştirir:

  • E-posta iletilerinin spam (pozitif sınıf) veya spam değil (negatif sınıf) olup olmadığını belirleyen bir model.
  • Bir kişinin belirli bir hastalığa (pozitif sınıf) sahip olup olmadığını veya bu hastalığa sahip olmadığını (negatif sınıf) belirlemek için tıbbi semptomları değerlendiren bir model.

Çok sınıflı sınıflandırma ile karşılaştırın.

Ayrıca lojistik regresyon ve sınıflandırma eşiği bölümlerini de inceleyin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma bölümüne bakın.

ikili koşul

#df

Karar ağacında, genellikle evet veya hayır olmak üzere yalnızca iki olası sonucu olan bir koşul. Örneğin, aşağıdakiler ikili koşuldur:

temperature >= 100

Non-binary durumu ile karşılaştırın.

Daha fazla bilgi için Karar Ormanları kursundaki Koşul türleri bölümünü inceleyin.

binning

Gruplandırma ile eş anlamlıdır.

BLEU (Bilingual Evaluation Understudy)

#language

Makine çevirilerini değerlendirmek için kullanılan 0,0 ile 1,0 arasındaki bir metrik. Örneğin, İspanyolca'dan Japonca'ya çeviriler.

BLEU, puan hesaplamak için genellikle bir makine öğrenimi modelinin çevirisini (oluşturulan metin) bir uzman çevirisiyle (referans metin) karşılaştırır. Oluşturulan metin ve referans metindeki N-gramların eşleşme derecesi BLEU puanını belirler.

Bu metrikle ilgili orijinal makale BLEU: a Method for Automatic Evaluation of Machine Translation'dır.

BLEURT başlıklı makaleyi de inceleyin.

BLEURT (Bilingual Evaluation Understudy from Transformers)

#language

Bir dilden diğerine, özellikle İngilizceye ve İngilizceden yapılan makine çevirilerini değerlendirmek için kullanılan bir metrik.

İngilizceye ve İngilizceden yapılan çevirilerde BLEURT, BLEU'ya kıyasla insan değerlendirmeleriyle daha uyumludur. BLEU'dan farklı olarak BLEURT, anlamsal (anlam) benzerlikleri vurgular ve yeniden ifade etmeye olanak tanır.

BLEURT, önceden eğitilmiş bir büyük dil modeline (tam olarak BERT) dayanır. Bu model daha sonra insan çevirmenlerin metinleri üzerinde ince ayar yapılır.

Bu metrikle ilgili orijinal makale BLEURT: Learning Robust Metrics for Text Generation'dır.

artırma

Modelin şu anda yanlış sınıflandırdığı örneklerin ağırlığını artırarak bir dizi basit ve çok doğru olmayan sınıflandırıcıyı ("zayıf" sınıflandırıcılar olarak adlandırılır) yüksek doğrulukta bir sınıflandırıcıda ("güçlü" sınıflandırıcı) yinelemeli olarak birleştiren bir makine öğrenimi tekniği.

Daha fazla bilgi için Karar Ormanları kursundaki Gradyan Artırılmış Karar Ağaçları başlıklı makaleyi inceleyin.

sınırlayıcı kutu

#image

Bir resimde, ilgi alanı etrafındaki dikdörtgenin (x, y) koordinatları (ör. aşağıdaki resimdeki köpek).

Koltukta oturan bir köpeğin fotoğrafı. Köpeğin vücudunu, sol üst koordinatları (275, 1271) ve sağ alt koordinatları (2954, 2761) olan yeşil bir sınırlayıcı kutu çevreliyor.

yayınlama

Bir matris matematik işleminde işlenenin şeklini, bu işlem için uyumlu boyutlara genişletme. Örneğin, doğrusal cebirde bir matris toplama işlemindeki iki işlenenin aynı boyutlara sahip olması gerekir. Dolayısıyla, (m, n) şeklindeki bir matrisi n uzunluğundaki bir vektöre ekleyemezsiniz. Yayın, aynı değerleri her sütunda çoğaltarak n uzunluğundaki vektörü sanal olarak (m, n) şeklindeki bir matrise genişleterek bu işlemi mümkün kılar.

Daha fazla bilgi için NumPy'de yayın yapma ile ilgili aşağıdaki açıklamaya bakın.

gruplandırma

#fundamentals

Tek bir özelliği, genellikle bir değer aralığına dayalı olarak paketler veya gruplar adı verilen birden fazla ikili özelliğe dönüştürme. Kırpma özelliği genellikle sürekli bir özelliktir.

Örneğin, sıcaklığı tek bir sürekli kayan nokta özelliği olarak temsil etmek yerine sıcaklık aralıklarını aşağıdaki gibi ayrı gruplara ayırabilirsiniz:

  • ≤ 10 santigrat derece sıcaklık, "soğuk" grubu olarak değerlendirilir.
  • 11-24 santigrat derece "ılıman" grubu olarak değerlendirilir.
  • >= 25 santigrat derece "sıcak" grubu olur.

Model, aynı gruptaki her değere aynı şekilde davranır. Örneğin, 13 ve 22 değerleri ılıman aralığında olduğundan model, bu iki değeri aynı şekilde ele alır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sayısal veriler: Gruplandırma bölümüne bakın.

C

kalibrasyon katmanı

Genellikle tahmin yanlılığını hesaba katmak için yapılan tahmin sonrası düzenleme. Ayarlanmış tahminler ve olasılıklar, gözlemlenen bir etiket grubunun dağılımıyla eşleşmelidir.

aday oluşturma

#recsystems

Bir öneri sistemi tarafından seçilen ilk öneri grubu. Örneğin, 100.000 kitap sunan bir kitapçı düşünün. Aday oluşturma aşamasında, belirli bir kullanıcı için çok daha küçük bir uygun kitap listesi (ör. 500 kitap) oluşturulur. Ancak 500 kitap bile bir kullanıcıya önermek için çok fazla. Öneri sisteminin sonraki, daha maliyetli aşamaları (ör. puanlama ve yeniden sıralama), bu 500 öneriyi çok daha küçük ve daha faydalı bir öneri grubuna indirir.

Daha fazla bilgi için Öneri Sistemleri kursundaki Aday oluşturmaya genel bakış başlıklı makaleyi inceleyin.

aday örnekleme

Örneğin, softmax kullanılarak tüm pozitif etiketler için olasılık hesaplayan ancak yalnızca negatif etiketlerin rastgele bir örneği için kullanılan eğitim zamanı optimizasyonu. Örneğin, beagle ve köpek olarak etiketlenmiş bir örnek verildiğinde, aday örnekleme aşağıdaki öğeler için tahmin edilen olasılıkları ve ilgili kayıp terimlerini hesaplar:

  • beagle
  • dog
  • kalan negatif sınıfların rastgele bir alt kümesi (örneğin, kedi, lolipop, çit).

Buradaki fikir, pozitif sınıflar her zaman uygun pozitif pekiştirme aldığı sürece negatif sınıfların daha az sıklıkta negatif pekiştirmeden öğrenebileceğidir ve bu durum gerçekten de deneysel olarak gözlemlenmiştir.

Aday örnekleme, özellikle negatif sınıfların sayısı çok fazla olduğunda tüm negatif sınıflar için tahminler hesaplayan eğitim algoritmalarına kıyasla bilgi işlem açısından daha verimlidir.

kategorik veriler

#fundamentals

Belirli bir olası değerler kümesine sahip özellikler. Örneğin, yalnızca aşağıdaki üç olası değerden birine sahip olabilen traffic-light-state adlı kategorik bir özelliği ele alalım:

  • red
  • yellow
  • green

traffic-light-state kategorik bir özellik olarak temsil edildiğinde model, red, green ve yellow'nin sürücü davranışı üzerindeki farklı etkilerini öğrenebilir.

Kategorik özelliklere bazen ayrık özellikler de denir.

Sayısal verilerle karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Kategorik verilerle çalışma konusuna bakın.

nedensel dil modeli

#language

Tek yönlü dil modeli ile eş anlamlıdır.

Dil modellemede farklı yönsel yaklaşımları karşılaştırmak için çift yönlü dil modeline bakın.

centroid

#clustering

Bir k-ortalama veya k-medyan algoritması tarafından belirlenen bir kümenin merkezi. Örneğin, k 3 ise k-ortalama veya k-medyan algoritması 3 merkez bulur.

Daha fazla bilgi için Kümeleme kursundaki Kümeleme algoritmaları başlıklı makaleyi inceleyin.

merkez tabanlı kümeleme

#clustering

Verileri hiyerarşik olmayan kümeler halinde düzenleyen bir kümeleme algoritması kategorisi. k-ortalama, en yaygın kullanılan merkez tabanlı kümeleme algoritmasıdır.

Hiyerarşik kümeleme algoritmalarıyla karşılaştırın.

Daha fazla bilgi için Kümeleme kursundaki Kümeleme algoritmaları başlıklı makaleyi inceleyin.

düşünce zinciri istemi

#language
#generativeAI

Büyük dil modelini (LLM) adım adım muhakemesini açıklamaya teşvik eden bir istem mühendisliği tekniği. Örneğin, ikinci cümleye özellikle dikkat ederek aşağıdaki istemi inceleyin:

0'dan 96 km/sa hıza 7 saniyede ulaşan bir arabadaki sürücü kaç G kuvveti yaşar? Yanıtınızda ilgili tüm hesaplamaları gösterin.

LLM'nin yanıtı muhtemelen:

  • 0, 60 ve 7 değerlerini uygun yerlere yerleştirerek bir dizi fizik formülü göster.
  • Bu formülleri neden seçtiğini ve çeşitli değişkenlerin ne anlama geldiğini açıklayın.

Düşünce zinciri istemi, LLM'yi tüm hesaplamaları yapmaya zorlar. Bu da daha doğru bir yanıta yol açabilir. Ayrıca, düşünce zinciri istemi, kullanıcının yanıtın mantıklı olup olmadığını belirlemek için LLM'nin adımlarını incelemesine olanak tanır.

sohbet

#language
#generativeAI

Genellikle bir büyük dil modeli olan bir makine öğrenimi sistemiyle yapılan karşılıklı diyalogların içeriği. Sohbetteki önceki etkileşim (yazdıklarınız ve büyük dil modelinin nasıl yanıt verdiği), sohbetin sonraki bölümleri için bağlam haline gelir.

Chatbot, büyük dil modelinin bir uygulamasıdır.

kontrol noktası

Eğitim sırasında veya eğitim tamamlandıktan sonra modelin parametrelerinin durumunu yakalayan veriler. Örneğin, eğitim sırasında şunları yapabilirsiniz:

  1. Eğitimin durdurulması (belki kasıtlı olarak veya belirli hatalar sonucunda)
  2. Kontrol noktasını yakalayın.
  3. Daha sonra kontrol noktasını (muhtemelen farklı bir donanımda) yeniden yükleyin.
  4. Eğitimi yeniden başlatın.

sınıf

#fundamentals

Etiketin ait olabileceği bir kategori. Örneğin:

Sınıflandırma modeli bir sınıfı tahmin eder. Bunun aksine, regresyon modeli bir sınıf yerine bir sayı tahmin eder.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sınıflandırma bölümüne bakın.

sınıflandırma modeli

#fundamentals

Tahmini sınıf olan model. Örneğin, aşağıdakilerin tümü sınıflandırma modelidir:

  • Bir giriş cümlesinin dilini (Fransızca mı? İspanyolca mı? İtalyanca?).
  • Ağaç türlerini tahmin eden bir model (Akçaağaç mı? Meşe mi? Baobab?).
  • Belirli bir tıbbi durum için pozitif veya negatif sınıfı tahmin eden bir model.

Bunun aksine, regresyon modelleri sınıflar yerine sayıları tahmin eder.

Sık kullanılan iki sınıflandırma modeli türü şunlardır:

sınıflandırma eşiği

#fundamentals

İkili sınıflandırmada, lojistik regresyon modelinin ham çıkışını pozitif sınıf veya negatif sınıf tahminine dönüştüren 0 ile 1 arasında bir sayıdır. Sınıflandırma eşiğinin, model eğitimi tarafından seçilen bir değer değil, bir insan tarafından seçilen bir değer olduğunu unutmayın.

Lojistik regresyon modeli, 0 ile 1 arasında bir ham değer çıkarır. Ardından:

  • Bu ham değer, sınıflandırma eşiğinden büyükse pozitif sınıf tahmin edilir.
  • Bu ham değer, sınıflandırma eşiğinden küçükse negatif sınıf tahmin edilir.

Örneğin, sınıflandırma eşiğinin 0,8 olduğunu varsayalım. Ham değer 0, 9 ise model pozitif sınıfı tahmin eder. Ham değer 0, 7 ise model negatif sınıfı tahmin eder.

Sınıflandırma eşiğinin seçimi, yanlış pozitif ve yanlış negatif sayısını büyük ölçüde etkiler.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karmaşıklık matrisi bölümüne bakın.

sınıflandırıcı

#fundamentals

Sınıflandırma modeli için kullanılan gündelik bir terimdir.

sınıf dengesizliği olan veri kümesi

#fundamentals

Her sınıfın toplam etiket sayısının önemli ölçüde farklı olduğu bir sınıflandırma sorununa yönelik veri kümesi. Örneğin, iki etiketi aşağıdaki gibi ayrılmış olan ikili sınıflandırma veri kümesini ele alalım:

  • 1.000.000 olumsuz etiket
  • 10 pozitif etiket

Negatif ve pozitif etiketlerin oranı 100.000'e 1 olduğundan bu, sınıf dengesizliği olan bir veri kümesidir.

Buna karşılık, aşağıdaki veri kümesi sınıf dengesizliği içermez. Bunun nedeni, negatif etiketlerin pozitif etiketlere oranının 1'e nispeten yakın olmasıdır:

  • 517 negatif etiket
  • 483 pozitif etiket

Çok sınıflı veri kümelerinde sınıf dengesizliği de olabilir. Örneğin, aşağıdaki çok sınıflı sınıflandırma veri kümesi de sınıf dengesizdir. Bunun nedeni, bir etiketin diğer iki etikete kıyasla çok daha fazla örnek içermesidir:

  • "Yeşil" sınıfına sahip 1.000.000 etiket
  • "Mor" sınıfına ait 200 etiket
  • "turuncu" sınıfına ait 350 etiket

Entropi, çoğunluk sınıfı ve azınlık sınıfı bölümlerini de inceleyin.

kırpma

#fundamentals

Aşağıdakilerden birini veya her ikisini birden yaparak aykırı değerleri işleme tekniği:

  • Maksimum eşiği aşan özellik değerlerini bu maksimum eşiğe düşürme.
  • Minimum eşiğin altındaki özellik değerlerini bu minimum eşiğe kadar artırır.

Örneğin, belirli bir özelliğin değerlerinin% 0,5'inden azının 40-60 aralığının dışında olduğunu varsayalım. Bu durumda şunları yapabilirsiniz:

  • 60'ın üzerindeki tüm değerler (maksimum eşik) tam olarak 60 olarak kırpılır.
  • 40'ın (minimum eşik) altındaki tüm değerleri tam olarak 40 olacak şekilde kırpın.

Aykırı değerler modellere zarar verebilir ve bazen eğitim sırasında ağırlıkların taşmasına neden olabilir. Bazı aykırı değerler, doğruluk gibi metrikleri de önemli ölçüde etkileyebilir. Kırpma, hasarı sınırlamak için yaygın olarak kullanılan bir tekniktir.

Gradyan kırpma, eğitim sırasında gradyan değerlerini belirlenmiş bir aralıkta tutar.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Sayısal veriler: Normalleştirme bölümüne bakın.

Cloud TPU

#TensorFlow
#GoogleCloud

Google Cloud'daki makine öğrenimi iş yüklerini hızlandırmak için tasarlanmış özel bir donanım hızlandırıcıdır.

kümeleme

#clustering

Özellikle denetimsiz öğrenme sırasında, ilgili örnekleri gruplandırma. Tüm örnekler gruplandırıldıktan sonra, bir kişi isteğe bağlı olarak her kümeye anlam verebilir.

Birçok kümeleme algoritması vardır. Örneğin, k-means algoritması, örnekleri bir merkeze yakınlıklarına göre kümelendirir. Aşağıdaki diyagramda bu durum gösterilmektedir:

X ekseninde ağaç genişliği, y ekseninde ise ağaç yüksekliği etiketli iki boyutlu grafik. Grafikte iki merkez ve birkaç düzine veri noktası var. Veri noktaları, yakınlıklarına göre kategorize edilir. Yani, bir merkez noktasına en yakın olan veri noktaları 1. küme, diğer merkez noktasına en yakın olanlar ise 2. küme olarak kategorize edilir.

Daha sonra bir araştırmacı kümeleri inceleyebilir ve örneğin, 1. kümeyi "cüce ağaçlar", 2. kümeyi ise "tam boy ağaçlar" olarak etiketleyebilir.

Başka bir örnek olarak, bir örneğin merkez noktasına olan uzaklığına dayalı bir kümeleme algoritmasını ele alalım. Bu algoritma aşağıdaki şekilde gösterilmiştir:

Onlarca veri noktası, iç içe geçmiş daireler halinde düzenlenir. Bu daireler, neredeyse dart tahtasının merkezindeki delikler gibidir. Veri noktalarının en içteki halkası 1. küme, ortadaki halkası 2. küme ve en dıştaki halkası 3. küme olarak sınıflandırılır.

Daha fazla bilgi için Kümeleme kursuna bakın.

birlikte uyum sağlama

Nöronların, ağın genel davranışına güvenmek yerine neredeyse tamamen diğer belirli nöronların çıkışlarına güvenerek eğitim verilerindeki kalıpları tahmin ettiği istenmeyen bir davranış. Birlikte uyumlanmaya neden olan kalıplar doğrulama verilerinde bulunmadığında birlikte uyumlanma, aşırı uyuma neden olur. Dropout düzenlileştirme, dropout sayesinde nöronlar yalnızca belirli diğer nöronlara güvenemediğinden birlikte uyumlanmayı azaltır.

ortak filtreleme

#recsystems

Bir kullanıcının ilgi alanlarıyla ilgili tahminler yapmak için diğer birçok kullanıcının ilgi alanlarından yararlanma. Birlikte filtreleme, genellikle öneri sistemlerinde kullanılır.

Daha fazla bilgi için Öneri Sistemleri kursundaki Ortak filtreleme konusuna bakın.

kompakt model

Sınırlı hesaplama kaynaklarına sahip küçük cihazlarda çalışmak üzere tasarlanmış küçük modeller. Örneğin, kompakt modeller cep telefonlarında, tabletlerde veya yerleşik sistemlerde çalışabilir.

compute

(İsim) Bir model veya sistem tarafından kullanılan işlem kaynakları (ör. işlem gücü, bellek ve depolama).

Hızlandırıcı çiplere bakın.

kavram kayması

Özellikler ve etiket arasındaki ilişkide değişiklik olması. Zamanla kavram kayması, modelin kalitesini düşürür.

Eğitim sırasında model, eğitim kümesindeki özellikler ve etiketleri arasındaki ilişkiyi öğrenir. Eğitim kümesindeki etiketler gerçek dünya için iyi birer temsilciyse model, gerçek dünyayla ilgili iyi tahminler yapmalıdır. Ancak kavram kayması nedeniyle modelin tahminleri zaman içinde bozulma eğilimindedir.

Örneğin, belirli bir araba modelinin "yakıt açısından verimli" olup olmadığını tahmin eden bir ikili sınıflandırma modelini ele alalım. Yani özellikler şunlar olabilir:

  • aracın ağırlığı
  • motor sıkıştırması
  • transmission type

etiket aşağıdaki durumlarda:

  • yakıt verimli
  • yakıt verimliliği düşük

Ancak "yakıt tasarruflu araba" kavramı sürekli değişiyor. 1994'te yakıt tasarruflu olarak etiketlenen bir araba modeli, 2024'te neredeyse kesin olarak yakıt tasarruflu değil olarak etiketlenir. Kavram kaymasından etkilenen bir model, zaman içinde giderek daha az faydalı tahminler yapma eğilimindedir.

Durağan olmama ile karşılaştırın ve aralarındaki farkları bulun.

koşul

#df
Karar ağacında, karar ağacının içerdiği herhangi bir düğüm iki koşul içerir:

İki koşuldan oluşan bir karar ağacı: (x > 0) ve (y > 0).

Koşula bölünme veya test de denir.

Yaprak ile kontrast durumu.

Şuna da bakabilirsiniz:

Daha fazla bilgi için Karar Ormanları kursundaki Koşul türleri bölümünü inceleyin.

konfabulasyon

#language

Halüsinasyon kelimesinin eş anlamlısı.

Uydurma, halüsinasyona kıyasla daha teknik olarak doğru bir terimdir. Ancak halüsinasyon önce popüler hale geldi.

yapılandırma

Bir modeli eğitmek için kullanılan ilk özellik değerlerini atama süreci (aşağıdakiler dahil):

Makine öğrenimi projelerinde yapılandırma, özel bir yapılandırma dosyası aracılığıyla veya aşağıdaki gibi yapılandırma kitaplıkları kullanılarak yapılabilir:

doğrulama yanlılığı

#responsible

Bilgiyi önceden var olan inançları veya hipotezleri doğrulayacak şekilde arama, yorumlama, tercih etme ve hatırlama eğilimi. Makine öğrenimi geliştiricileri, verileri mevcut inançlarını destekleyen bir sonucu etkileyecek şekilde yanlışlıkla toplayabilir veya etiketleyebilir. Doğrulama önyargısı, bir örtülü önyargı türüdür.

Deney yapanın yanlılığı, önceden var olan bir hipotez doğrulanana kadar deney yapan kişinin modelleri eğitmeye devam ettiği bir doğrulama yanlılığı biçimidir.

karışıklık matrisi

#fundamentals

Sınıflandırma modelinin yaptığı doğru ve yanlış tahminlerin sayısını özetleyen NxN tablosu. Örneğin, bir ikili sınıflandırma modeli için aşağıdaki karmaşıklık matrisini inceleyin:

Tümör (tahmini) Non-Tumor (predicted)
Tümör (kesin referans) 18 (TP) 1 (FN)
Non-Tumor (ground truth) [Tümör Olmayan (kesin referans)] 6 (FP) 452 (TN)

Önceki karışıklık matrisinde şunlar gösterilmektedir:

  • Kesin referansın tümör olduğu 19 tahminden 18'i doğru, 1'i ise yanlış sınıflandırıldı.
  • Kesin referansın Non-Tumor olduğu 458 tahminden 452'si doğru, 6'sı ise yanlış sınıflandırıldı.

Çok sınıflı sınıflandırma sorununa ilişkin karışıklık matrisi, hata kalıplarını belirlemenize yardımcı olabilir. Örneğin, üç farklı iris türünü (Virginica, Versicolor ve Setosa) sınıflandıran 3 sınıflı çok sınıflı sınıflandırma modelinin aşağıdaki karmaşıklık matrisini ele alalım. Kesin referans Virginica olduğunda karışıklık matrisi, modelin Setosa'dan ziyade Versicolor'u yanlışlıkla tahmin etme olasılığının çok daha yüksek olduğunu gösteriyor:

  Setosa (tahmin edilen) Versicolor (tahmin edilen) Virginica (tahmini)
Setosa (kesin referans) 88 12 0
Versicolor (kesin referans) 6 141 7
Virginica (kesin referans) 2 27 109

Başka bir örnek olarak, bir karmaşıklık matrisi, el yazısıyla yazılmış rakamları tanımak için eğitilmiş bir modelin 4 yerine yanlışlıkla 9'u veya 7 yerine yanlışlıkla 1'i tahmin etme eğiliminde olduğunu ortaya çıkarabilir.

Karmaşıklık matrisleri, kesinlik ve hatırlama dahil olmak üzere çeşitli performans metriklerini hesaplamak için yeterli bilgiyi içerir.

seçim bölgesi ayrıştırma

#language

Bir cümleyi daha küçük dilbilgisel yapılara ("bileşenler") ayırma. Makine öğrenimi sisteminin sonraki bir bölümü (ör. doğal dil anlama modeli), bileşenleri orijinal cümleye kıyasla daha kolay ayrıştırabilir. Örneğin, aşağıdaki cümleyi ele alalım:

Arkadaşım iki kedi sahiplendi.

Bir bileşen ayrıştırıcı, bu cümleyi aşağıdaki iki bileşene ayırabilir:

  • My friend (Arkadaşım) bir isim öbeğidir.
  • iki kedi sahiplendi bir fiil öbeğidir.

Bu bileşenler daha küçük bileşenlere ayrılabilir. Örneğin, fiil öbeği

iki kedi sahiplendi

şeklinde daha da alt bölümlere ayrılabilir:

  • adopted bir fiildir.
  • two cats (iki kedi) başka bir isim öbeğidir.

bağlamsallaştırılmış dil yerleştirme

#language
#generativeAI

Yerleştirme, akıcı konuşan insanların kelimeleri ve ifadeleri "anlama" şekline yakın bir şekilde çalışır. Bağlamsallaştırılmış dil yerleştirmeleri, karmaşık söz dizimini, semantiği ve bağlamı anlayabilir.

Örneğin, cow (inek) İngilizce kelimesinin yerleştirmelerini ele alalım. word2vec gibi eski yerleştirmeler, İngilizce kelimeleri yerleştirme alanındaki uzaklık inek ile boğa arasındaki uzaklığın koyun ile koç veya kadın ile erkek arasındaki uzaklığa benzer şekilde temsil edebilir. Bağlamsallaştırılmış dil yerleştirmeleri, İngilizce konuşanların bazen cow kelimesini inek veya boğa anlamında kullandığını fark ederek bir adım daha ileri gidebilir.

bağlam penceresi

#language
#generativeAI

Bir modelin belirli bir istemde işleyebileceği jeton sayısı. Bağlam penceresi ne kadar büyük olursa model, isteme tutarlı ve tutarlı yanıtlar sağlamak için o kadar fazla bilgi kullanabilir.

sürekli özellik

#fundamentals

Sıcaklık veya ağırlık gibi sonsuz sayıda olası değere sahip kayan noktalı özellik.

Ayrık özellik ile karşılaştırma.

uygun örnekleme

Hızlı denemeler yapmak için bilimsel olarak toplanmamış bir veri kümesi kullanma. Daha sonra, bilimsel olarak toplanmış bir veri kümesine geçmek önemlidir.

yakınsama

#fundamentals

Kayıp değerlerinin her yinelemede çok az değiştiği veya hiç değişmediği durumda ulaşılan durum. Örneğin, aşağıdaki kayıp eğrisi, yaklaşık 700 yinelemede yakınsama olduğunu gösteriyor:

Kartezyen grafiği. X ekseni kayıptır. Y ekseni, eğitim iterasyonlarının sayısıdır. İlk birkaç yinelemede kayıp çok yüksek olsa da keskin bir şekilde düşer. Yaklaşık 100 iterasyondan sonra kayıp hâlâ azalıyor ancak çok daha yavaş bir şekilde azalıyor. Yaklaşık 700 yinelemeden sonra kayıp sabit kalır.

Ek eğitim modelin performansını artırmadığında model yakınlaşır.

Derin öğrenmede, kayıp değerleri sonunda düşmeden önce bazen birçok yineleme boyunca sabit kalır veya neredeyse sabit kalır. Uzun bir süre boyunca sürekli olarak kayıp değerleri yaşandığında geçici olarak yanlış bir yakınsama hissi elde edebilirsiniz.

Erken durdurma başlıklı makaleyi de inceleyin.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Model yakınsama ve kayıp eğrileri bölümüne bakın.

dışbükey fonksiyon

Fonksiyonun grafiğinin üstündeki bölgenin dışbükey küme olduğu bir fonksiyon. Tipik dışbükey fonksiyon, U harfine benzer bir şekle sahiptir. Örneğin, aşağıdakilerin tümü dışbükey işlevlerdir:

Her biri tek bir minimum noktaya sahip U şeklindeki eğriler.

Buna karşılık, aşağıdaki işlev dışbükey değildir. Grafiğin üzerindeki bölgenin nasıl dışbükey bir küme olmadığına dikkat edin:

İki farklı yerel minimum noktası olan W şeklinde bir eğri.

Kesinlikle dışbükey bir fonksiyon, aynı zamanda genel minimum nokta olan tam olarak bir yerel minimum noktaya sahiptir. Klasik U şeklindeki fonksiyonlar kesinlikle dışbükey fonksiyonlardır. Ancak bazı dışbükey fonksiyonlar (ör. düz çizgiler) U şeklinde değildir.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Yakınsama ve dışbükey fonksiyonlar başlıklı makaleyi inceleyin.

dışbükey optimizasyon

Dışbükey bir fonksiyonun minimum değerini bulmak için gradyan azalması gibi matematiksel tekniklerin kullanılması süreci. Makine öğrenimi alanındaki araştırmaların büyük bir kısmı, çeşitli sorunları dışbükey optimizasyon sorunları olarak formüle etmeye ve bu sorunları daha verimli bir şekilde çözmeye odaklanmıştır.

Daha ayrıntılı bilgi için Boyd ve Vandenberghe, Convex Optimization başlıklı makaleyi inceleyin.

dışbükey küme

Öklid uzayının bir alt kümesi. Alt kümedeki herhangi iki nokta arasında çizilen bir çizgi tamamen alt küme içinde kalır. Örneğin, aşağıdaki iki şekil dışbükey kümelerdir:

Bir dikdörtgen resmi. Başka bir oval şekil.

Buna karşılık, aşağıdaki iki şekil dışbükey kümeler değildir:

Bir dilimi eksik olan pasta grafiği resmi.
          Çok düzensiz bir çokgenin başka bir resmi.

konvolüsyon

#image

Matematikte, kabaca iki fonksiyonun karışımı. Makine öğreniminde, ağırlıkları eğitmek için evrişimli filtre ile giriş matrisi karıştırılır.

Makine öğrenimindeki "evrişim" terimi, genellikle evrişimli işlem veya evrişimli katman için kullanılan kısa bir ifadedir.

Evrişimler olmadan, makine öğrenimi algoritmasının büyük bir tensördeki her hücre için ayrı bir ağırlık öğrenmesi gerekir. Örneğin, 2.000 x 2.000 boyutundaki resimlerle eğitilen bir makine öğrenimi algoritması, 4 milyon ayrı ağırlık bulmaya zorlanır. Evrişimler sayesinde, bir makine öğrenimi algoritmasının yalnızca evrişimli filtredeki her hücre için ağırlık bulması gerekir. Bu da modeli eğitmek için gereken belleği önemli ölçüde azaltır. Evrişim filtresi uygulandığında, her hücre filtreyle çarpılacak şekilde hücreler arasında basitçe çoğaltılır.

Daha fazla bilgi için Resim Sınıflandırma kursundaki Introducing Convolutional Neural Networks (Evrişimli Sinir Ağlarına Giriş) başlıklı makaleyi inceleyin.

evrişim filtresi

#image

Evrişim işlemindeki iki aktörden biri. (Diğer aktör, bir giriş matrisinin dilimidir.) Evrişimli filtre, giriş matrisiyle aynı ranka sahip ancak daha küçük bir şekle sahip bir matristir. Örneğin, 28x28 giriş matrisi verildiğinde filtre, 28x28'den küçük herhangi bir 2 boyutlu matris olabilir.

Fotoğraf manipülasyonunda, bir evrişimli filtrenin tüm hücreleri genellikle sabit bir birler ve sıfırlar düzenine ayarlanır. Makine öğreniminde, evrişimli filtreler genellikle rastgele sayılarla başlatılır ve ardından ağ, ideal değerleri eğitir.

Daha fazla bilgi için Resim Sınıflandırma kursundaki Convolution (Evrişim) başlıklı makaleyi inceleyin.

evrişimli katman

#image

Evrişimli filtrenin bir giriş matrisini ilettiği derin nöral ağ katmanı. Örneğin, aşağıdaki 3x3 evrişim filtresini ele alalım:

Aşağıdaki değerlere sahip 3x3 matris: [[0,1,0], [1,0,1], [0,1,0]]

Aşağıdaki animasyonda, 5x5 giriş matrisini içeren 9 evrişimli işlemden oluşan bir evrişimli katman gösterilmektedir. Her evrişimli işlemin, giriş matrisinin farklı bir 3x3 diliminde çalıştığını unutmayın. Elde edilen 3x3 matris (sağda), 9 evrişimli işlemin sonuçlarından oluşur:

İki matrisi gösteren animasyon. İlk matris, 5x5
          matrisidir: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].
          İkinci matris, 3x3 matrisidir:
          [[181,303,618], [115,338,605], [169,351,560]].
          İkinci matris, 5x5 matrisin farklı 3x3 alt kümelerine [[0, 1, 0], [1, 0, 1], [0, 1, 0]] evrişim filtresi uygulanarak hesaplanır.

Daha fazla bilgi için Resim Sınıflandırma kursundaki Tam Bağlantılı Katmanlar bölümüne bakın.

evrişimli nöral ağ

#image

En az bir katmanı evrişimli katman olan bir nöral ağ. Tipik bir evrişimli sinir ağı, aşağıdaki katmanların bir kombinasyonundan oluşur:

Evrişimli sinir ağları, görüntü tanıma gibi belirli türdeki sorunlarda büyük başarı elde etti.

konvolüsyon işlemi

#image

Aşağıdaki iki adımlı matematiksel işlem:

  1. Evrişim filtresi ile bir giriş matrisinin diliminin öğe bazında çarpımı. (Giriş matrisinin dilimi, evrişimli filtreyle aynı sıralamaya ve boyuta sahiptir.)
  2. Elde edilen ürün matrisindeki tüm değerlerin toplamı.

Örneğin, aşağıdaki 5x5 giriş matrisini ele alalım:

5x5 matris: [[128,97,53,201,198], [35,22,25,200,195],
          [37,24,28,197,182], [33,28,92,195,179], [31,40,100,192,177]].

Şimdi de aşağıdaki 2x2 evrişimli filtreyi düşünün:

2x2 matris: [[1, 0], [0, 1]]

Her evrişim işlemi, giriş matrisinin tek bir 2x2 dilimini içerir. Örneğin, giriş matrisinin sol üst kısmındaki 2x2 dilimi kullandığımızı varsayalım. Bu nedenle, bu dilimdeki konvolüsyon işlemi şu şekilde görünür:

[[1, 0], [0, 1]] evrişimli filtresini, giriş matrisinin sol üstteki 2x2 bölümüne uygulama. Bu bölüm [[128,97], [35,22]] şeklindedir.
          Evrişim filtresi 128 ve 22'yi olduğu gibi bırakır ancak 97 ve 35'i sıfırlar. Sonuç olarak, evrişim işlemi 150 (128+22) değerini verir.

Evrişim katmanı, her biri giriş matrisinin farklı bir diliminde çalışan bir dizi evrişim işleminden oluşur.

maliyet

#Metric

Kaybın eş anlamlısı.

ortak eğitim

Aşağıdaki koşulların tümü geçerliyse yarı denetimli öğrenme yaklaşımı özellikle yararlıdır:

Birlikte eğitim, bağımsız sinyalleri daha güçlü bir sinyale dönüştürür. Örneğin, kullanılmış araçları İyi veya Kötü olarak sınıflandıran bir sınıflandırma modelini ele alalım. Bir grup tahmine dayalı özellik, aracın yılı, markası ve modeli gibi toplu özelliklere odaklanabilir. Başka bir grup tahmine dayalı özellik ise önceki sahibinin sürüş geçmişine ve aracın bakım geçmişine odaklanabilir.

Ortak eğitimle ilgili temel makale, Blum ve Mitchell'in Combining Labeled and Unlabeled Data with Co-Training adlı çalışmasıdır.

karşıolgusal adalet

#responsible
#Metric

Bir adalet metriği, bir sınıflandırma modelinin, bir veya daha fazla hassas özellik dışında ilk kişiyle aynı olan ikinci bir kişi için de aynı sonucu üretip üretmediğini kontrol eder. Karşı olgusal adalet için bir sınıflandırma modelini değerlendirmek, modeldeki olası önyargı kaynaklarını ortaya çıkarmanın bir yöntemidir.

Daha fazla bilgi için aşağıdaki kaynaklardan birine bakın:

kapsam yanlılığı

#responsible

Seçim yanlılığı konusunu inceleyin.

crash blossom

#language

Anlamı belirsiz olan bir cümle veya ifade. Crash blossom'lar, doğal dil anlama konusunda önemli bir sorun teşkil eder. Örneğin, Red Tape Holds Up Skyscraper (Bürokrasi Gökdeleni Engelliyor) başlığı, bir NLU modeli başlığı kelimenin tam anlamıyla veya mecazi olarak yorumlayabileceğinden bir crash blossom'dur.

eleştirmen

#rl

Deep Q-Network'ün eş anlamlısı.

çapraz entropi

#Metric

Log Loss'un çok sınıflı sınıflandırma sorunlarına genelleştirilmiş halidir. Çapraz entropi, iki olasılık dağılımı arasındaki farkı ölçer. Ayrıca şaşırtıcılık bölümüne de bakın.

çapraz doğrulama

Modelin, eğitim kümesinden çıkarılan bir veya daha fazla çakışmayan veri alt kümesiyle test edilerek yeni verilere ne kadar iyi genelleneceğini tahmin etme mekanizması.

kümülatif dağılım fonksiyonu (KDF)

#Metric

Hedef değerden küçük veya bu değere eşit örneklerin sıklığını tanımlayan bir işlev. Örneğin, sürekli değerlerin normal dağılımını ele alalım. Bir kümülatif dağılım fonksiyonu, örneklerin yaklaşık% 50'sinin ortalamadan küçük veya ortalamaya eşit olması gerektiğini ve örneklerin yaklaşık% 84'ünün ortalamanın bir standart sapma üzerinde olması gerektiğini gösterir.

D

veri analizi

Örnekleri, ölçümleri ve görselleştirmeyi dikkate alarak verileri anlama Veri analizi, ilk model oluşturulmadan önce, bir veri kümesi ilk kez alındığında özellikle yararlı olabilir. Ayrıca, denemeleri anlamak ve sistemle ilgili sorunları ayıklamak için de çok önemlidir.

veri artırma

#image

Mevcut örnekleri dönüştürerek ek örnekler oluşturup eğitim örneklerinin aralığını ve sayısını yapay olarak artırma. Örneğin, resimlerin özelliklerinizden biri olduğunu ancak veri kümenizde modelin faydalı ilişkilendirmeler öğrenmesi için yeterli resim örneği olmadığını varsayalım. İdeal olarak, modelinizin düzgün şekilde eğitilmesini sağlamak için veri kümenize yeterli sayıda etiketli görüntü eklemeniz gerekir. Bu mümkün değilse veri artırma, orijinal resmin birçok varyantını oluşturmak için her resmi döndürebilir, uzatabilir ve yansıtabilir. Bu da mükemmel eğitim için yeterli etiketli veri sağlayabilir.

DataFrame

#fundamentals

Bellekteki veri kümelerini temsil etmek için kullanılan popüler bir pandas veri türü.

DataFrame, tabloya veya e-tabloya benzer. DataFrame'in her sütununun bir adı (başlık) vardır ve her satır benzersiz bir sayıyla tanımlanır.

DataFrame'deki her sütun, her sütuna kendi veri türü atanabilmesi dışında 2 boyutlu bir dizi gibi yapılandırılır.

Ayrıca resmi pandas.DataFrame referans sayfasına da bakın.

veri paralelliği

Eğitimi veya çıkarımı ölçeklendirmenin bir yolu. Bu yöntemde, tüm model birden fazla cihaza kopyalanır ve giriş verilerinin bir alt kümesi her cihaza iletilir. Veri paralelliği, çok büyük toplu iş boyutlarında eğitim ve çıkarım yapılmasını sağlayabilir. Ancak veri paralelliği için modelin tüm cihazlara sığacak kadar küçük olması gerekir.

Veri paralelliği genellikle eğitimi ve çıkarımı hızlandırır.

Ayrıca model paralelliği konusuna da bakın.

Dataset API (tf.data)

#TensorFlow

Verileri okumak ve makine öğrenimi algoritmasının gerektirdiği bir forma dönüştürmek için üst düzey TensorFlow API'si. tf.data.Dataset nesnesi, her öğenin bir veya daha fazla Tensor içerdiği bir öğe dizisini temsil eder. tf.data.Iterator nesnesi, Dataset öğelerine erişim sağlar.

veri kümesi veya veri seti

#fundamentals

Genellikle (ancak yalnızca değil) aşağıdaki biçimlerden birinde düzenlenen bir ham veri koleksiyonu:

  • bir e-tablo
  • CSV (virgülle ayrılmış değerler) biçiminde bir dosya

karar sınırı

İkili sınıf veya çok sınıflı sınıflandırma problemlerinde bir model tarafından öğrenilen sınıflar arasındaki ayırıcı. Örneğin, ikili sınıflandırma sorununu temsil eden aşağıdaki resimde karar sınırı, turuncu sınıf ile mavi sınıf arasındaki sınırdır:

Bir sınıf ile diğeri arasında iyi tanımlanmış bir sınır.

karar ormanı

#df

Birden fazla karar ağacından oluşturulan bir model. Karar ormanı, karar ağaçlarının tahminlerini toplayarak tahmin yapar. Popüler karar ormanı türleri arasında rastgele ormanlar ve gradyan artırılmış ağaçlar yer alır.

Daha fazla bilgi için Karar Ormanları kursundaki Karar Ormanları bölümüne bakın.

karar eşiği

Sınıflandırma eşiği ile eş anlamlıdır.

karar ağacı

#df

Hiyerarşik olarak düzenlenmiş bir dizi koşul ve yapraklardan oluşan bir denetimli öğrenme modeli. Örneğin, aşağıda bir karar ağacı verilmiştir:

Hiyerarşik olarak düzenlenmiş dört koşuldan oluşan ve beş yaprağa yol açan bir karar ağacı.

kod çözücü

#language

Genel olarak, işlenmiş, yoğun veya dahili bir temsilden daha ham, seyrek veya harici bir temsile dönüştüren tüm makine öğrenimi sistemleri.

Kod çözücüler genellikle daha büyük bir modelin bileşenidir ve sıklıkla kodlayıcı ile birlikte kullanılır.

Diziden diziye görevlerde, kod çözücü bir sonraki diziyi tahmin etmek için kodlayıcı tarafından oluşturulan dahili durumla başlar.

Dönüştürücü mimarisindeki kod çözücünün tanımı için Dönüştürücü'ye bakın.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Büyük dil modelleri bölümüne bakın.

deep model

#fundamentals

Birden fazla gizli katman içeren bir nöral ağ.

Derin model, derin nöral ağ olarak da adlandırılır.

Geniş model ile karşılaştırın.

derin sinir ağı : derin nöral ağ

Derin model ile eş anlamlıdır.

Deep Q-Network (DQN)

#rl

Q-learning'de, Q işlevlerini tahmin eden derin bir sinir ağı.

Critic, Deep Q-Network ile eş anlamlıdır.

demografik eşitlik

#responsible
#Metric

Bir modelin sınıflandırma sonuçları belirli bir hassas özelliğe bağlı değilse karşılanan adalet metriği.

Örneğin, hem Lilliputlular hem de Brobdingnaglılar Glubbdubdrib Üniversitesi'ne başvuruyorsa bir grubun ortalama olarak diğerinden daha nitelikli olup olmadığına bakılmaksızın, kabul edilen Lilliputluların yüzdesi ile kabul edilen Brobdingnaglıların yüzdesi aynı olduğunda demografik eşitlik sağlanır.

Eşitlenmiş olasılıklar ve fırsat eşitliği ile karşılaştırıldığında, gerçek etiketler için sınıflandırma sonuçlarının hassas özelliklere bağlı olmasına izin vermezken toplu olarak sınıflandırma sonuçlarının hassas özelliklere bağlı olmasına izin verir. Demografik eşitlik için optimizasyon yaparken yapılan fedakarlıkları inceleyen bir görselleştirme için "Daha akıllı makine öğrenimiyle ayrımcılığa karşı mücadele etme" başlıklı makaleye bakın.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Adalet: demografik eşitlik bölümüne bakın.

gürültü azaltma

#language

Kendi kendine denetimli öğrenme için yaygın bir yaklaşım. Bu yaklaşımda:

  1. Veri kümesine yapay olarak gürültü eklenir.
  2. Model, gürültüyü kaldırmaya çalışır.

Gürültü giderme, etiketlenmemiş örneklerden öğrenmeyi sağlar. Orijinal veri kümesi hedef veya etiket, gürültülü veriler ise giriş olarak kullanılır.

Bazı maskelenmiş dil modelleri, gürültü giderme işlemini aşağıdaki gibi kullanır:

  1. Belirli belirteçler maskelenerek etiketlenmemiş bir cümleye yapay olarak gürültü eklenir.
  2. Model, orijinal jetonları tahmin etmeye çalışır.

yoğun özellik

#fundamentals

Çoğu veya tüm değerlerin sıfır olmadığı bir özellik. Genellikle kayan nokta değerlerinden oluşan bir tensördür. Örneğin, aşağıdaki 10 öğeli tensör, değerlerinin 9'u sıfır olmayan değerler olduğundan yoğundur:

8 3 7 5 2 4 0 4 9 6

Seyrek özellik ile karşılaştırma.

yoğun katman

Tamamen bağlı katman ile eş anlamlıdır.

derinlik

#fundamentals

Nöral ağda aşağıdakilerin toplamı:

Örneğin, beş gizli katmanı ve bir çıkış katmanı olan bir nöral ağın derinliği 6'dır.

Giriş katmanının derinliği etkilemediğini unutmayın.

Derinlemesine ayrılabilir evrişimli nöral ağ (sepCNN)

#image

Evrişimli sinir ağı Inception'a dayalı bir mimari ancak Inception modüllerinin derinlemesine ayrılabilir evrişimlerle değiştirildiği bir mimari. Xception olarak da bilinir.

Derinliğe göre ayrılabilir evrişim (ayrılabilir evrişim olarak da kısaltılır), standart bir 3D evrişimi, hesaplama açısından daha verimli olan iki ayrı evrişim işlemine ayırır: İlk olarak, derinliği 1 olan (n ✕ n ✕ 1) derinliğe göre evrişim ve ardından uzunluğu ve genişliği 1 olan (1 ✕ 1 ✕ n) noktasal evrişim.

Daha fazla bilgi için Xception: Deep Learning with Depthwise Separable Convolutions başlıklı makaleyi inceleyin.

türetilmiş etiket

Proxy etiketi ile eş anlamlıdır.

cihaz

#TensorFlow
#GoogleCloud

Aşağıdaki iki olası tanıma sahip, aşırı yüklenmiş bir terim:

  1. CPU'lar, GPU'lar ve TPU'lar dahil olmak üzere TensorFlow oturumu çalıştırabilen bir donanım kategorisi.
  2. Hızlandırıcı çipleri (GPU'lar veya TPU'lar) üzerinde bir makine öğrenimi modeli eğitilirken sistemin tensörleri ve gömümleri gerçekten işleyen kısmı. Cihaz, hızlandırıcı çipleriyle çalışır. Buna karşılık, ana makine genellikle CPU üzerinde çalışır.

diferansiyel gizlilik

Makine öğreniminde, bir modelin eğitim kümesinde yer alan hassas verilerin (ör. bir bireyin kişisel bilgileri) açığa çıkmasını önlemek için kullanılan anonimleştirme yaklaşımı. Bu yaklaşım, modelin belirli bir kişi hakkında fazla bilgi öğrenmemesini veya hatırlamamasını sağlar. Bu, model eğitimi sırasında örnekleme ve gürültü ekleme yoluyla gerçekleştirilir. Böylece, hassas eğitim verilerinin açığa çıkma riski azaltılırken bireysel veri noktaları gizlenir.

Diferansiyel gizlilik, makine öğrenimi dışında da kullanılır. Örneğin, veri bilimciler bazen farklı demografik gruplar için ürün kullanım istatistiklerini hesaplarken bireysel gizliliği korumak için diferansiyel gizlilikten yararlanır.

boyut indirgeme

Bir özellik vektöründe belirli bir özelliği temsil etmek için kullanılan boyut sayısını azaltma (genellikle yerleştirme vektörüne dönüştürerek).

boyutlar

Aşağıdaki tanımlardan herhangi birine sahip olan aşırı yüklenmiş terim:

  • Tensor içindeki koordinat seviyesi sayısı. Örneğin:

    • Skalerin boyutu sıfırdır. Örneğin, ["Hello"].
    • Vektörler tek boyutludur. Örneğin, [3, 5, 7, 11].
    • Matrisin iki boyutu vardır. Örneğin, [[2, 4, 18], [5, 7, 14]]. Tek boyutlu bir vektördeki belirli bir hücreyi tek bir koordinatla benzersiz şekilde belirtebilirsiniz. İki boyutlu bir matristeki belirli bir hücreyi benzersiz şekilde belirtmek için iki koordinata ihtiyacınız vardır.
  • Özellik vektöründeki girişlerin sayısı.

  • Yerleştirme katmanındaki öğelerin sayısı.

doğrudan istem

#language
#generativeAI

Sıfır görevli istem ile eş anlamlıdır.

ayrı özellik

#fundamentals

Sınırlı sayıda olası değere sahip bir özellik. Örneğin, değerleri yalnızca hayvan, sebze veya mineral olabilen bir özellik, ayrı (veya kategorik) bir özelliktir.

Sürekli özellik ile karşılaştırma

ayırt edici model

Bir veya daha fazla özellik kümesinden etiketleri tahmin eden bir model. Daha resmi bir şekilde, ayırt edici modeller, özellikler ve ağırlıklar verildiğinde bir çıktının koşullu olasılığını tanımlar. Yani:

p(output | features, weights)

Örneğin, bir e-postanın spam olup olmadığını özelliklere ve ağırlıklara göre tahmin eden bir model, ayırt edici bir modeldir.

Sınıflandırma ve regresyon modelleri de dahil olmak üzere gözetimli öğrenme modellerinin büyük çoğunluğu ayırt edici modellerdir.

Üretken model ile karşılaştırma

ayrıştırıcı

Örneklerin gerçek mi yoksa sahte mi olduğunu belirleyen bir sistem.

Alternatif olarak, üretken karşıt ağ içindeki, üretici tarafından oluşturulan örneklerin gerçek mi yoksa sahte mi olduğunu belirleyen alt sistem.

Daha fazla bilgi için GAN kursundaki Ayırt edici bölümüne bakın.

farklı etki

#responsible

Farklı nüfus alt gruplarını orantısız bir şekilde etkileyen kararlar verme Bu durum genellikle algoritmik karar verme sürecinin bazı alt gruplara diğerlerinden daha fazla zarar verdiği veya fayda sağladığı durumları ifade eder.

Örneğin, bir Lilliputlu'nun minyatür ev kredisine uygunluğunu belirleyen bir algoritmanın, posta adresi belirli bir posta kodunu içeriyorsa bu kişiyi "uygun değil" olarak sınıflandırma olasılığı daha yüksektir. Big-Endian Lilliputians'ın, Little-Endian Lilliputians'a kıyasla bu posta koduna sahip posta adreslerinin olma olasılığı daha yüksekse bu algoritma, farklı bir etkiye neden olabilir.

Alt grup özelliklerinin algoritmik karar verme sürecinde açıkça girdi olarak kullanılması sonucunda ortaya çıkan farklılıkları ele alan farklı muamele ile karşılaştırın.

farklı muamele

#responsible

Deneklerin hassas özelliklerini, farklı insan alt gruplarının farklı şekilde ele alınacağı şekilde algoritmik bir karar alma sürecine dahil etmek.

Örneğin, Lilliputluların kredi başvurularında sağladıkları verilere göre minyatür ev kredisine uygunluğunu belirleyen bir algoritmayı ele alalım. Algoritma, bir Lilliputian'ın bağlılığını Big-Endian veya Little-Endian olarak girdi olarak kullanıyorsa bu boyut boyunca farklı muamele uygulanıyor demektir.

Farklı etki ile karşılaştırıldığında, bu kavram, alt grupların modele giriş olup olmadığına bakılmaksızın, algoritmik kararların toplumsal etkilerindeki farklılıklara odaklanır.

damıtma

#generativeAI

Bir modelin (öğretmen olarak bilinir) boyutunu, orijinal modelin tahminlerini mümkün olduğunca aslına uygun şekilde taklit eden daha küçük bir modele (öğrenci olarak bilinir) düşürme süreci. Küçük modelin büyük modele (öğretmen) kıyasla iki temel avantajı olduğundan Distilasyon faydalıdır:

  • Daha hızlı çıkarım süresi
  • Daha az bellek ve enerji kullanımı

Ancak öğrencinin tahminleri genellikle öğretmenin tahminleri kadar iyi değildir.

Distilasyon, öğrenci modelini eğiterek öğrenci ve öğretmen modellerinin tahminlerinin çıkışları arasındaki farka dayalı bir kayıp fonksiyonunu en aza indirir.

Damıtma işlemini aşağıdaki terimlerle karşılaştırın ve aralarındaki farkları belirtin:

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki LLM'ler: İnce ayar, damıtma ve istem mühendisliği başlıklı makaleyi inceleyin.

distribution

Belirli bir özellik veya etiket için farklı değerlerin sıklığı ve aralığı. Dağılım, belirli bir değerin olasılığını gösterir.

Aşağıdaki resimde iki farklı dağılımın histogramları gösterilmektedir:

  • Solda, zenginliğin güç yasası dağılımı ile bu zenginliğe sahip olan kişi sayısı gösterilmektedir.
  • Sağda, yüksekliğin bu yüksekliğe sahip kişi sayısına göre normal dağılımı.

İki histogram. Bir histogramda, x ekseninde servet ve y ekseninde bu servete sahip kişilerin sayısı gösterilerek güç yasası dağılımı gösteriliyor. Çoğu insanın çok az serveti, birkaç insanın ise çok fazla serveti vardır. Diğer histogramda ise x ekseninde yükseklik, y ekseninde ise bu yüksekliğe sahip kişilerin sayısı gösterilerek normal dağılım gösterilir. Çoğu kişi ortalamanın yakınında yer alır.

Her özelliğin ve etiketin dağıtımını anlamak, değerleri nasıl normalleştireceğinizi ve aykırı değerleri nasıl tespit edeceğinizi belirlemenize yardımcı olabilir.

Dağıtım dışı ifadesi, veri kümesinde görünmeyen veya çok nadir olan bir değeri ifade eder. Örneğin, Satürn gezegeninin resmi, kedi resimlerinden oluşan bir veri kümesi için dağıtım dışı olarak kabul edilir.

bölücü kümeleme

#clustering

Hiyerarşik kümeleme konusuna bakın.

örnekleme azaltma

#image

Aşağıdaki anlamlardan birini ifade edebilen, aşırı yüklenmiş terim:

  • Bir modeli daha verimli bir şekilde eğitmek için özellikteki bilgi miktarını azaltma. Örneğin, bir görüntü tanıma modelini eğitmeden önce yüksek çözünürlüklü görüntüleri daha düşük çözünürlüklü bir biçime küçültmek.
  • Model eğitimini az temsil edilen sınıflarda iyileştirmek için, aşırı temsil edilen sınıf örneklerinin orantısız şekilde düşük bir yüzdesiyle eğitim. Örneğin, sınıf dengesizliği olan bir veri kümesinde modeller, çoğunluk sınıfı hakkında çok şey öğrenirken azınlık sınıfı hakkında yeterince bilgi edinmez. Alt örnekleme, çoğunluk ve azınlık sınıflarındaki eğitim miktarını dengelemeye yardımcı olur.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Veri Kümeleri: Dengesiz veri kümeleri bölümüne bakın.

DQN

#rl

Deep Q-Network'ün kısaltmasıdır.

dropout normalleştirme

Nöral ağların eğitiminde faydalı olan bir düzenlileştirme biçimi. Durdurma düzenlileştirme, tek bir gradyan adımı için bir ağ katmanındaki birimlerin sabit sayıda rastgele seçimini kaldırır. Bırakılan birim sayısı ne kadar fazlaysa düzenlileştirme o kadar güçlü olur. Bu, ağı, küçük ağlardan oluşan üstel olarak büyük bir topluluğu taklit edecek şekilde eğitmeye benzer. Ayrıntılı bilgi için Dropout: A Simple Way to Prevent Neural Networks from Overfitting (Dropout: Sinir Ağlarının Aşırı Uyumunu Önlemenin Basit Bir Yolu) başlıklı makaleyi inceleyin.

dinamik

#fundamentals

Sık sık veya sürekli olarak yapılan bir şey. Dinamik ve online terimleri, makine öğreniminde eş anlamlıdır. Aşağıda, makine öğreniminde dinamik ve çevrimiçi terimlerinin yaygın kullanım alanları verilmiştir:

  • Dinamik model (veya online model), sık sık ya da sürekli olarak yeniden eğitilen bir modeldir.
  • Dinamik eğitim (veya online eğitim), sık sık ya da sürekli olarak eğitim verme sürecidir.
  • Dinamik çıkarım (veya online çıkarım), isteğe bağlı olarak tahmin oluşturma işlemidir.

dinamik model

#fundamentals

Sık sık (hatta sürekli) yeniden eğitilen bir model. Dinamik model, sürekli olarak gelişen verilere uyum sağlayan bir "hayat boyu öğrenen"dir. Dinamik model, online model olarak da bilinir.

Statik model ile karşılaştırma

E

anında yürütme

#TensorFlow

İşlemlerin hemen yürütüldüğü bir TensorFlow programlama ortamı. Buna karşılık, grafik yürütme sırasında çağrılan işlemler, açıkça değerlendirilene kadar çalıştırılmaz. İsteksiz yürütme, çoğu programlama dilindeki kod gibi bir zorunlu arayüzdür. Eager execution programlarının hata ayıklaması, genellikle grafik yürütme programlarına göre çok daha kolaydır.

erken durdurma

#fundamentals

Eğitim kaybı azalmayı bitirmeden eğitimi sonlandırmayı içeren bir düzenlileştirme yöntemidir. Erken durdurmada, doğrulama veri kümesindeki kayıp artmaya başladığında (yani genelleme performansı kötüleştiğinde) modeli eğitme işlemini kasıtlı olarak durdurursunuz.

Erken çıkış ile karşılaştırın.

toprak taşıma makinesinin mesafesi (EMD)

#Metric

İki dağıtımın göreli benzerliğinin ölçüsü. Toprak taşıma aracının mesafesi ne kadar düşükse dağıtımlar o kadar benzerdir.

düzenleme mesafesi

#language
#Metric

İki metin dizesinin birbirine ne kadar benzediğinin ölçüsü. Makine öğreniminde düzenleme mesafesi şu nedenlerle faydalıdır:

  • Düzenleme mesafesini hesaplamak kolaydır.
  • Düzenleme mesafesi, birbirine benzer olduğu bilinen iki dizeyi karşılaştırabilir.
  • Düzenleme mesafesi, farklı dizelerin belirli bir dizeye ne kadar benzediğini belirleyebilir.

Düzenleme mesafesinin, her biri farklı dize işlemleri kullanan çeşitli tanımları vardır. Örnek için Levenshtein mesafesi başlıklı makaleyi inceleyin.

Einsum notasyonu

İki tensörün nasıl birleştirileceğini açıklayan etkili bir gösterim. Tensörler, bir tensörün öğeleri diğer tensörün öğeleriyle çarpılıp çarpımlar toplanarak birleştirilir. Einsum gösterimi, her tensörün eksenlerini tanımlamak için semboller kullanır. Bu semboller, yeni sonuç tensörünün şeklini belirtmek için yeniden düzenlenir.

NumPy, ortak bir Einsum uygulaması sağlar.

yerleştirme katmanı

#language
#fundamentals

Yüksek boyutlu kategorik bir özellik üzerinde eğitim alarak düşük boyutlu bir yerleştirme vektörünü kademeli olarak öğrenen özel bir gizli katman. Yerleştirme katmanı, bir nöral ağın yalnızca yüksek boyutlu kategorik özellik üzerinde eğitim yapmaya kıyasla çok daha verimli bir şekilde eğitilmesini sağlar.

Örneğin, Earth şu anda yaklaşık 73.000 ağaç türünü desteklemektedir. Ağaç türünün modelinizde bir özellik olduğunu varsayalım. Bu durumda modelinizin giriş katmanı, 73.000 öğe uzunluğunda bir tek sıcaklık vektörü içerir. Örneğin, baobab sembolü şu şekilde gösterilebilir:

73.000 öğeden oluşan bir dizi. İlk 6.232 öğe 0 değerini içerir. Sonraki öğe 1 değerini içerir. Son 66.767 öğe sıfır değerini içerir.

73.000 öğelik bir dizi çok uzundur. Modele yerleştirme katmanı eklemezseniz 72.999 sıfırın çarpılması nedeniyle eğitim çok zaman alır. Örneğin, yerleştirme katmanının 12 boyuttan oluşmasını seçebilirsiniz. Sonuç olarak, yerleştirme katmanı her ağaç türü için kademeli olarak yeni bir yerleştirme vektörü öğrenir.

Belirli durumlarda karma oluşturma, yerleştirme katmanına makul bir alternatiftir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Yerleştirme bölümüne bakın.

yerleştirme alanı

#language

D boyutlu vektör uzayı, daha yüksek boyutlu bir vektör uzayındaki özelliklerin eşlendiği yerdir. Yerleştirme alanı, amaçlanan uygulama için anlamlı olan yapıyı yakalamak üzere eğitilir.

İki yerleştirmenin iç çarpımı, benzerliklerinin bir ölçüsüdür.

yerleştirme vektörü

#language

Genel olarak, herhangi bir gizli katmandan alınan ve bu gizli katmana yapılan girişleri açıklayan kayan noktalı sayılar dizisidir. Genellikle, yerleştirme vektörü, bir yerleştirme katmanında eğitilmiş kayan noktalı sayıların dizisidir. Örneğin, bir yerleştirme katmanının dünyadaki 73.000 ağaç türünün her biri için bir yerleştirme vektörü öğrenmesi gerektiğini varsayalım. Aşağıdaki dizi, baobap ağacı için yerleştirme vektörü olabilir:

Her biri 0,0 ile 1,0 arasında bir kayan nokta sayısı içeren 12 öğelik bir dizi.

Yerleştirme vektörü, bir grup rastgele sayı değildir. Bir yerleştirme katmanı, bu değerleri eğitim yoluyla belirler. Bu süreç, bir sinir ağının eğitim sırasında diğer ağırlıkları öğrenmesine benzer. Dizinin her öğesi, bir ağaç türünün belirli bir özelliğiyle ilgili derecelendirmedir. Hangi öğe hangi ağaç türünün özelliğini temsil ediyor? Bunu belirlemek insanlar için çok zordur.

Yerleştirme vektörünün matematiksel olarak dikkat çekici kısmı, benzer öğelerin benzer kayan noktalı sayı kümelerine sahip olmasıdır. Örneğin, benzer ağaç türleri, benzemeyen ağaç türlerine kıyasla daha benzer bir kayan nokta sayısı kümesine sahiptir. Sekoyalar ve mamut ağaçları birbirine yakın ağaç türleridir. Bu nedenle, sekoyalar ve hindistan cevizi ağaçlarına kıyasla daha benzer bir dizi kayan nokta sayısına sahiptirler. Modeli aynı girişle yeniden eğitmiş olsanız bile, yerleştirme vektöründeki sayılar modeli her yeniden eğittiğinizde değişir.

ampirik kümülatif dağılım işlevi (eCDF veya EDF)

#Metric

Gerçek bir veri kümesinden alınan kümülatif dağılım fonksiyonu deneysel ölçümlere dayanır. Fonksiyonun x ekseni üzerindeki herhangi bir noktadaki değeri, veri kümesindeki gözlemlerin belirtilen değerden küçük veya bu değere eşit olan kısmıdır.

deneysel risk minimizasyonu (ERM)

Eğitim kümesinde kaybı en aza indiren işlevi seçme Yapısal risk minimizasyonu ile karşılaştırın.

kodlayıcı

#language

Genel olarak, ham, seyrek veya harici bir gösterimden daha işlenmiş, daha yoğun veya daha dahili bir gösterime dönüştüren tüm makine öğrenimi sistemleri.

Kodlayıcılar genellikle daha büyük bir modelin bileşenidir ve sıklıkla kod çözücü ile birlikte kullanılır. Bazı Transformer modellerinde kodlayıcılar ve kod çözücüler birlikte kullanılır. Diğer Transformer modellerinde ise yalnızca kodlayıcı veya yalnızca kod çözücü kullanılır.

Bazı sistemler, kodlayıcının çıkışını sınıflandırma veya regresyon ağının girişi olarak kullanır.

Diziden diziye görevlerde, kodlayıcı bir giriş dizisi alır ve dahili bir durum (vektör) döndürür. Ardından, kod çözücü, sonraki diziyi tahmin etmek için bu dahili durumu kullanır.

Dönüştürücü mimarisinde kodlayıcının tanımı için Dönüştürücü konusuna bakın.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki LLM'ler: Büyük dil modeli nedir? başlıklı makaleyi inceleyin.

endpoints

Bir hizmete erişilebilen, ağ üzerinde adreslenebilir bir konum (genellikle bir URL).

ensemble

Tahminleri ortalanan veya toplanan, bağımsız olarak eğitilmiş modeller koleksiyonu. Çoğu durumda, bir topluluk tek bir modele kıyasla daha iyi tahminler üretir. Örneğin, rastgele orman, birden fazla karar ağacından oluşturulan bir topluluktur. Tüm karar ormanlarının topluluk olmadığını unutmayın.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Rastgele Orman bölümüne bakın.

entropi

#df
#Metric

Bilgi teorisinde, bir olasılık dağılımının ne kadar tahmin edilemez olduğunun açıklamasıdır. Alternatif olarak entropi, her bir örneğin ne kadar bilgi içerdiği şeklinde de tanımlanır. Bir dağılım, rastgele değişkenin tüm değerleri eşit olasılıklı olduğunda mümkün olan en yüksek entropiye sahiptir.

"0" ve "1" olmak üzere iki olası değere sahip bir kümenin entropisi (örneğin, ikili sınıflandırma problemindeki etiketler) aşağıdaki formüle sahiptir:

  H = -p log p - q log q = -p log p - (1-p) * log (1-p)

Bu örnekte:

  • H, entropidir.
  • p, "1" örneklerinin kesridir.
  • q, "0" örneklerinin kesridir. q = (1 - p) olduğunu unutmayın.
  • log genellikle log2'dir. Bu durumda, entropi birimi bit'tir.

Örneğin, aşağıdakileri varsayalım:

  • 100 örnekte "1" değeri var.
  • 300 örnekte "0" değeri var

Bu nedenle, entropi değeri şöyledir:

  • p = 0,25
  • q = 0,75
  • H = (-0,25)log2(0,25) - (0,75)log2(0,75) = örnek başına 0,81 bit

Mükemmel dengelenmiş bir küme (örneğin, 200 "0" ve 200 "1") örneği başına 1,0 bit entropiye sahip olur. Bir küme dengesizleştiğinde entropisi 0, 0'a doğru hareket eder.

Karar ağaçlarında entropi, bölücünün sınıflandırma karar ağacının büyümesi sırasında koşulları seçmesine yardımcı olmak için bilgi kazancını formüle etmeye yardımcı olur.

Entropiyi şunlarla karşılaştırın:

Entropiye genellikle Shannon entropisi denir.

Daha fazla bilgi için Karar Ormanları kursundaki Sayısal özelliklerle ikili sınıflandırma için tam ayırıcı başlıklı makaleyi inceleyin.

ortam

#rl

Pekiştirmeli öğrenmede, aracıyı içeren ve aracının bu dünyanın durumunu gözlemlemesine olanak tanıyan dünya. Örneğin, temsil edilen dünya satranç gibi bir oyun veya labirent gibi fiziksel bir dünya olabilir. Aracı, ortama bir işlem uyguladığında ortam durumlar arasında geçiş yapar.

bölüm

#rl

Pekiştirici öğrenmede, aracının bir ortamı öğrenmek için yaptığı her tekrarlı deneme.

sıfır zaman

#fundamentals

Her bir örneğin bir kez işlendiği, eğitim kümesinin tamamı üzerinde yapılan tam bir eğitim geçişi.

Bir dönem, N/toplu iş boyutu eğitim iterasyonunu ifade eder. Burada N, toplam örnek sayısıdır.

Örneğin, aşağıdakileri varsayalım:

  • Veri kümesi 1.000 örnekten oluşur.
  • Toplu iş boyutu 50 örnektir.

Bu nedenle, tek bir dönem için 20 yineleme gerekir:

1 epoch = (N/batch size) = (1,000 / 50) = 20 iterations

Daha fazla bilgi için Makine Öğrenimine Hızlı Bakış Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

epsilon greedy politikası

#rl

Pekiştirici öğrenmede, epsilon olasılığıyla rastgele bir politikayı veya aksi takdirde açgözlü bir politikayı izleyen bir politika. Örneğin, epsilon 0,9 ise politika% 90 oranında rastgele bir politikayı, %10 oranında ise açgözlü bir politikayı izler.

Algoritma, rastgele bir politikayı izlemekten açgözlü bir politikayı izlemeye geçmek için epsilon'un değerini sonraki bölümlerde azaltır. Politikayı değiştirerek temsilci önce ortamı rastgele keşfeder, ardından rastgele keşfin sonuçlarından yararlanır.

fırsat eşitliği

#responsible
#Metric

Bir modelin, hassas özelliğin tüm değerleri için istenen sonucu eşit derecede iyi tahmin edip etmediğini değerlendirmek için kullanılan bir adalet metriği. Diğer bir deyişle, bir model için istenen sonuç pozitif sınıf ise amaç, gerçek pozitif oranının tüm gruplar için aynı olmasını sağlamaktır.

Fırsat eşitliği, eşitlenmiş olasılıklar ile ilgilidir. Bu da tüm gruplar için hem doğru pozitif oranlarının hem de yanlış pozitif oranlarının aynı olmasını gerektirir.

Glubbdubdrib Üniversitesi'nin hem Lilliputluları hem de Brobdingnaglıları zorlu bir matematik programına kabul ettiğini varsayalım. Lilliputluların ortaokullarında matematik derslerinden oluşan kapsamlı bir müfredat uygulanır ve öğrencilerin büyük çoğunluğu üniversite programına katılmaya hak kazanır. Brobdingnaglıların ortaokullarında matematik dersleri verilmez ve sonuç olarak, öğrencilerin çok daha azı yeterli bilgiye sahiptir. Nitelikli öğrenciler, Lilliputlu veya Brobdingnaglı olmalarına bakılmaksızın eşit olasılıkla kabul ediliyorsa milliyet (Lilliputlu veya Brobdingnaglı) açısından "kabul edildi" tercih edilen etiketi için fırsat eşitliği sağlanmış olur.

Örneğin, Glubbdubdrib Üniversitesi'ne 100 Lilliputlu ve 100 Brobdingnaglı başvurduğunu ve kabul kararlarının aşağıdaki gibi verildiğini varsayalım:

Tablo 1. Lilliputian başvuru sahipleri (%90'ı nitelikli)

  Uygun Uygun Değil
Kabul edildi 45 3
Reddedildi 45 7
Toplam 90 10
Kabul edilen nitelikli öğrenci yüzdesi: 45/90 =%50
Reddedilen niteliksiz öğrenci yüzdesi: 7/10 =%70
Kabul edilen toplam Lilliputlu öğrenci yüzdesi: (45+3)/100 = %48

 

Tablo 2. Brobdingnagian başvuru sahipleri (%10'u uygun):

  Uygun Uygun Değil
Kabul edildi 5 9
Reddedildi 5 81
Toplam 10 90
Kabul edilen uygun öğrenci yüzdesi: 5/10 =%50
Reddedilen uygun olmayan öğrenci yüzdesi: 81/90 =%90
Kabul edilen toplam Brobdingnagian öğrenci yüzdesi: (5+9)/100 = %14

Yukarıdaki örneklerde, hem Lilliput hem de Brobdingnag'dan nitelikli öğrencilerin kabul edilme şansı% 50 olduğundan nitelikli öğrencilerin kabulü için fırsat eşitliği sağlanmaktadır.

Fırsat eşitliği karşılanırken aşağıdaki iki adalet metriği karşılanmaz:

  • Demografik eşitlik: Lilliputlular ve Brobdingnaglılar üniversiteye farklı oranlarda kabul ediliyor. Lilliputlu öğrencilerin% 48'i kabul edilirken Brobdingnaglı öğrencilerin yalnızca% 14'ü kabul ediliyor.
  • Eşit şans: Hem nitelikli Lilliput hem de Brobdingnag öğrencileri kabul edilme konusunda eşit şansa sahip olsa da niteliksiz Lilliput ve Brobdingnag öğrencilerinin reddedilme konusunda eşit şansa sahip olması ek kısıtlaması karşılanmaz. Uygun olmayan Lilliputluların reddedilme oranı% 70, uygun olmayan Brobdingnaglıların reddedilme oranı ise% 90'dır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Adalet: Fırsat eşitliği bölümüne bakın.

eşitlenmiş oranlar

#responsible
#Metric

Bir modelin, hassas özelliğin tüm değerleri için sonuçları eşit derecede iyi tahmin edip etmediğini değerlendirmek amacıyla kullanılan bir adalet metriği. Bu metrik, yalnızca bir sınıfı veya diğerini değil, hem pozitif sınıfı hem de negatif sınıfı dikkate alır. Başka bir deyişle, tüm gruplar için hem gerçek pozitif oranı hem de yanlış negatif oranı aynı olmalıdır.

Eşitlenmiş olasılık, yalnızca tek bir sınıfın (pozitif veya negatif) hata oranlarına odaklanan fırsat eşitliği ile ilgilidir.

Örneğin, Glubbdubdrib Üniversitesi'nin hem Lilliputluları hem de Brobdingnaglıları zorlu bir matematik programına kabul ettiğini varsayalım. Lilliputluların ortaokullarında matematik derslerinden oluşan kapsamlı bir müfredat uygulanır ve öğrencilerin büyük çoğunluğu üniversite programına katılmaya hak kazanır. Brobdingnaglıların ortaokullarında matematik dersleri verilmez ve sonuç olarak, öğrencilerinin çok daha azı yeterli niteliklere sahiptir. Başvuru sahibinin Lilliputian veya Brobdingnagian olması fark etmeksizin, nitelikli olması durumunda programa kabul edilme olasılığı eşit, nitelikli olmaması durumunda ise reddedilme olasılığı eşit olduğu sürece eşitlenmiş olasılık koşulu karşılanmış olur.

Glubbdubdrib Üniversitesi'ne 100 Lilliputlu ve 100 Brobdingnaglı başvurduğunu ve kabul kararlarının aşağıdaki şekilde verildiğini varsayalım:

Tablo 3. Lilliputian başvuru sahipleri (%90'ı nitelikli)

  Uygun Uygun Değil
Kabul edildi 45 2
Reddedildi 45 8
Toplam 90 10
Kabul edilen uygun öğrenci yüzdesi: 45/90 =%50
Reddedilen uygun olmayan öğrenci yüzdesi: 8/10 =%80
Toplamda kabul edilen Lilliputlu öğrenci yüzdesi: (45+2)/100 = %47

 

Tablo 4. Brobdingnagian başvuru sahipleri (%10'u uygun):

  Uygun Uygun Değil
Kabul edildi 5 18
Reddedildi 5 72
Toplam 10 90
Kabul edilen nitelikli öğrenci yüzdesi: 5/10 =%50
Reddedilen niteliksiz öğrenci yüzdesi: 72/90 =%80
Kabul edilen Brobdingnagian öğrencilerin toplam yüzdesi: (5+18)/100 = %23

Uygun olan Lilliput ve Brobdingnag öğrencilerin kabul edilme şansı% 50, uygun olmayanların ise reddedilme şansı% 80 olduğundan eşit fırsat koşulu karşılanmaktadır.

Eşitlenmiş olasılık, "Equality of Opportunity in Supervised Learning" (Denetimli Öğrenmede Fırsat Eşitliği) adlı makalede şu şekilde tanımlanır: "Ŷ ve A, Y'ye bağlı olarak bağımsızsa tahmin edici Ŷ, korumalı özellik A ve sonuç Y ile ilgili olarak eşitlenmiş olasılığı karşılar."

Estimator

#TensorFlow

Kullanımdan kaldırılmış bir TensorFlow API'si. Tahmin Ediciler yerine tf.keras'ı kullanın.

evals

#language
#generativeAI
#Metric

Öncelikli olarak LLM değerlendirmeleri için kısaltma olarak kullanılır. Daha geniş bir ifadeyle evals, herhangi bir değerlendirme biçiminin kısaltmasıdır.

değerlendirme

#language
#generativeAI
#Metric

Bir modelin kalitesini ölçme veya farklı modelleri birbiriyle karşılaştırma süreci.

Gözetimli makine öğrenimi modelini değerlendirmek için genellikle doğrulama kümesi ve test kümesi ile karşılaştırırsınız. LLM'leri değerlendirme genellikle daha kapsamlı kalite ve güvenlik değerlendirmelerini içerir.

örnek

#fundamentals

Özellikler satırının değerleri ve muhtemelen bir etiket. Gözetimli öğrenme kapsamındaki örnekler iki genel kategoriye ayrılır:

  • Etiketli örnek, bir veya daha fazla özellik ve bir etiketten oluşur. Eğitim sırasında etiketli örnekler kullanılır.
  • Etiketsiz örnek, bir veya daha fazla özellikten oluşur ancak etiketi yoktur. Çıkarım sırasında etiketlenmemiş örnekler kullanılır.

Örneğin, hava koşullarının öğrencilerin test puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıda etiketlenmiş üç örnek verilmiştir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 İyi
19 34 1020 Mükemmel
18 92 1012 Yetersiz

Etiketlenmemiş üç örneği aşağıda bulabilirsiniz:

Sıcaklık Nem Basınç  
12 62 1014  
21 47 1017  
19 41 1021  

Veri kümesinin satırı genellikle bir örneğin ham kaynağıdır. Yani bir örnek genellikle veri kümesindeki sütunların bir alt kümesinden oluşur. Ayrıca, bir örnekteki özellikler özellik çarpımları gibi sentezlenmiş özellikleri de içerebilir.

Daha fazla bilgi için Makine Öğrenimine Giriş kursundaki Denetimli Öğrenme bölümüne bakın.

deneyimi tekrar oynatma

#rl

Pekiştirmeli öğrenmede, eğitim verilerindeki zamansal korelasyonları azaltmak için kullanılan bir DQN tekniği. Aracı, durum geçişlerini tekrar oynatma arabelleğinde depolar ve ardından eğitim verileri oluşturmak için tekrar oynatma arabelleğindeki geçişleri örnekler.

deneycinin yanlılığı

#responsible

Doğrulama önyargısı başlıklı makaleyi inceleyin.

patlayan gradyan sorunu

#seq

Derin nöral ağlardaki (özellikle tekrarlayan nöral ağlar) gradyanların şaşırtıcı derecede dik (yüksek) olma eğilimi. Dik gradyanlar genellikle derin bir nöral ağdaki her bir düğümün ağırlıklarında çok büyük güncellemelere neden olur.

Patlayan gradyan sorunundan etkilenen modellerin eğitilmesi zorlaşır veya imkansız hale gelir. Gradyan kırpma bu sorunu azaltabilir.

Kaybolan gradyan sorunu ile karşılaştırın.

C

F1

#Metric

Hem hassasiyete hem de geri çağırmaya dayanan bir "toplama" ikili sınıflandırma metriği. Formül şu şekildedir:

$$F{_1} = \frac{\text{2 * precision * recall}} {\text{precision + recall}}$$

doğruluk

#generativeAI

Makine öğrenimi dünyasında, çıkışı gerçekliğe dayalı bir modeli tanımlayan özellik. Doğruluk, metrikten ziyade bir kavramdır. Örneğin, bir büyük dil modeline aşağıdaki istemi gönderdiğinizi varsayalım:

Sofra tuzunun kimyasal formülü nedir?

Doğruluğu optimize eden bir model şu yanıtı verir:

NaCl

Tüm modellerin doğruluğa dayanması gerektiği düşüncesi cazip gelebilir. Ancak aşağıdaki gibi bazı istemler, üretken yapay zeka modelinin doğruluğu yerine yaratıcılığı optimize etmesine neden olmalıdır.

Bir astronot ve tırtıl hakkında beşlik söyle.

Ortaya çıkan beşliklerin gerçeklere dayanması pek olası değildir.

Temellendirme ile karşılaştırma

adalet kısıtlaması

#responsible
Bir veya daha fazla adalet tanımının karşılanmasını sağlamak için bir algoritmaya kısıtlama uygulama. Adalet kısıtlamalarına örnek olarak aşağıdakiler verilebilir:

adalet metriği

#responsible
#Metric

Ölçülebilir bir "adalet" tanımı. Sık kullanılan bazı adalet metrikleri şunlardır:

Birçok adalet metriği birbirini dışlar. Adalet metriklerinin uyumsuzluğu başlıklı makaleyi inceleyin.

yanlış negatif (FN)

#fundamentals
#Metric

Modelin negatif sınıfı yanlışlıkla tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olmadığını (negatif sınıf) tahmin ediyor ancak bu e-posta iletisi aslında spam.

yanlış negatif oranı

#Metric

Modelin yanlışlıkla negatif sınıfı tahmin ettiği gerçek pozitif örneklerin oranı. Aşağıdaki formül, yanlış negatif oranını hesaplar:

$$\text{false negative rate} = \frac{\text{false negatives}}{\text{false negatives} + \text{true positives}}$$

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karmaşıklık matrisi bölümüne bakın.

yanlış pozitif (FP)

#fundamentals
#Metric

Modelin pozitif sınıfı yanlışlıkla tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam (pozitif sınıf) olduğunu tahmin ediyor ancak bu e-posta iletisi aslında spam değil.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Eşikler ve karmaşıklık matrisi bölümüne bakın.

Yanlış pozitif oranı (FPR)

#fundamentals
#Metric

Modelin pozitif sınıfı yanlışlıkla tahmin ettiği gerçek negatif örneklerin oranı. Aşağıdaki formül, yanlış pozitif oranını hesaplar:

$$\text{false positive rate} = \frac{\text{false positives}}{\text{false positives} + \text{true negatives}}$$

Yanlış pozitif oranı, ROC eğrisindeki x eksenidir.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sınıflandırma: ROC ve AUC başlıklı makaleyi inceleyin.

hızlı azalma

#language
#generativeAI

LLM'lerin performansını artırmaya yönelik bir eğitim tekniği. Hızlı azalma, eğitim sırasında öğrenme hızının hızla düşürülmesini ifade eder. Bu strateji, modelin eğitim verilerine aşırı uyum sağlamasını önlemeye yardımcı olur ve genelleştirmeyi iyileştirir.

özellik

#fundamentals

Bir makine öğrenimi modelinin giriş değişkeni. Bir örnek bir veya daha fazla özellikten oluşur. Örneğin, hava koşullarının öğrencilerin sınav puanları üzerindeki etkisini belirlemek için bir model eğittiğinizi varsayalım. Aşağıdaki tabloda, her biri üç özellik ve bir etiket içeren üç örnek gösterilmektedir:

Özellikler Şirket
Sıcaklık Nem Basınç Test puanı
15 47 998 92
19 34 1020 84
18 92 1012 87

Etiketle kontrast.

Daha fazla bilgi için Makine Öğrenimine Giriş kursundaki Denetimli Öğrenme bölümüne bakın.

özellikler arası

#fundamentals

Kategorik veya gruplandırılmış özelliklerin "çaprazlanmasıyla" oluşturulan bir sentez özellik.

Örneğin, sıcaklığı aşağıdaki dört gruptan birinde gösteren bir "hava durumu tahmini" modelini ele alalım:

  • freezing
  • chilly
  • temperate
  • warm

Ayrıca rüzgar hızını aşağıdaki üç gruptan birinde gösterir:

  • still
  • light
  • windy

Özellikler arası geçiş olmadan doğrusal model, önceki yedi farklı paketin her birinde bağımsız olarak eğitilir. Bu nedenle model, örneğin, freezing üzerinde eğitilirken örneğin, windy üzerinde eğitimden bağımsızdır.

Alternatif olarak, sıcaklık ve rüzgar hızının çapraz özelliğini oluşturabilirsiniz. Bu yapay özellik aşağıdaki 12 olası değere sahip olacaktır:

  • freezing-still
  • freezing-light
  • freezing-windy
  • chilly-still
  • chilly-light
  • chilly-windy
  • temperate-still
  • temperate-light
  • temperate-windy
  • warm-still
  • warm-light
  • warm-windy

Özellik kesişimleri sayesinde model, freezing-windy günü ile freezing-still günü arasındaki ruh hali farklılıklarını öğrenebilir.

Her biri çok sayıda farklı pakete sahip iki özellikten yapay bir özellik oluşturursanız ortaya çıkan özellik kesişimi çok sayıda olası kombinasyona sahip olur. Örneğin, bir özellikte 1.000 grup, diğer özellikte ise 2.000 grup varsa ortaya çıkan özellik kesişiminde 2.000.000 grup bulunur.

Resmi olarak, çarpım bir Kartezyen çarpımıdır.

Özellik çarpımları çoğunlukla doğrusal modellerle kullanılır ve nöral ağlarla nadiren kullanılır.

Daha fazla bilgi için Categorical data: Feature crosses in Machine Learning Crash Course (Kategorik veriler: Makine Öğrenimi Hızlandırılmış Kursu'nda özellik kesişimleri) başlıklı makaleyi inceleyin.

özellik mühendisliği

#fundamentals
#TensorFlow

Aşağıdaki adımları içeren bir süreç:

  1. Bir modeli eğitirken hangi özelliklerin faydalı olabileceğini belirleme.
  2. Veri kümesindeki ham verileri, bu özelliklerin etkili sürümlerine dönüştürme.

Örneğin, temperature özelliğinin faydalı olabileceğini belirleyebilirsiniz. Ardından, modelin farklı temperature aralıklarından neler öğrenebileceğini optimize etmek için gruplandırma ile denemeler yapabilirsiniz.

Özellik mühendisliğine bazen özellik çıkarma veya özellik oluşturma da denir.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sayısal veriler: Bir model, özellik vektörlerini kullanarak verileri nasıl alır? başlıklı makaleyi inceleyin.

özellik çıkarma

Aşağıdaki tanımlardan birine sahip olan aşırı yüklenmiş terim:

özellik önem düzeyleri

#df
#Metric

Değişken önemleri ile eş anlamlıdır.

özellik grubu

#fundamentals

Makine öğrenimi modelinizin üzerinde eğitildiği özellikler grubu. Örneğin, konut fiyatlarını tahmin eden bir model için basit bir özellik grubu; posta kodu, mülk boyutu ve mülk durumundan oluşabilir.

özellik spesifikasyonu

#TensorFlow

tf.Example protokol arabelleğinden özellik verilerini ayıklamak için gereken bilgileri açıklar. tf.Example protokol arabelleği yalnızca veriler için bir kapsayıcı olduğundan aşağıdakileri belirtmeniz gerekir:

  • Ayıklanacak veriler (yani özelliklerin anahtarları)
  • Veri türü (örneğin, float veya int)
  • Uzunluk (sabit veya değişken)

özellik vektörü

#fundamentals

Bir örneği oluşturan özellik değerleri dizisi. Özellik vektörü, eğitim ve çıkarım sırasında giriş olarak kullanılır. Örneğin, iki ayrı özelliği olan bir modelin özellik vektörü şu şekilde olabilir:

[0.92, 0.56]

Dört katman: giriş katmanı, iki gizli katman ve bir çıkış katmanı.
          Giriş katmanı iki düğüm içerir. Bunlardan biri 0,92 değerini, diğeri ise 0,56 değerini içerir.

Her örnek, özellik vektörü için farklı değerler sağlar. Bu nedenle, sonraki örneğin özellik vektörü şu şekilde olabilir:

[0.73, 0.49]

Özellik mühendisliği, özelliklerin özellik vektöründe nasıl temsil edileceğini belirler. Örneğin, beş olası değeri olan ikili bir kategorik özellik, one-hot kodlama ile temsil edilebilir. Bu durumda, belirli bir örnek için özellik vektörünün bölümü, aşağıdaki gibi dört sıfır ve üçüncü konumda tek bir 1,0'dan oluşur:

[0.0, 0.0, 1.0, 0.0, 0.0]

Başka bir örnek olarak, modelinizin üç özellikten oluştuğunu varsayalım:

  • Tek sıcaklık kodlamasıyla temsil edilen beş olası değere sahip ikili kategorik özellik; örneğin: [0.0, 1.0, 0.0, 0.0, 0.0]
  • One-hot kodlamayla gösterilen üç olası değere sahip başka bir ikili kategorik özellik; örneğin: [0.0, 0.0, 1.0]
  • Kayan nokta özelliği; örneğin: 8.3.

Bu durumda, her örnek için özellik vektörü dokuz değerle temsil edilir. Yukarıdaki listedeki örnek değerler göz önüne alındığında, özellik vektörü şu şekilde olur:

0.0
1.0
0.0
0.0
0.0
0.0
0.0
1.0
8.3

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sayısal veriler: Bir model, özellik vektörlerini kullanarak verileri nasıl alır? başlıklı makaleyi inceleyin.

özellik çıkarma

Bir giriş kaynağından (ör. doküman veya video) özellikleri çıkarma ve bu özellikleri özellik vektörüne eşleme işlemi.

Bazı makine öğrenimi uzmanları, özellik oluşturmayı özellik mühendisliği veya özellik çıkarma ile eş anlamlı olarak kullanır.

birleşik öğrenim

Akıllı telefon gibi cihazlarda bulunan merkeziyetsiz örnekleri kullanarak makine öğrenimi modellerini eğiten dağıtılmış bir makine öğrenimi yaklaşımıdır. Birleşik öğrenimde, cihazların bir alt kümesi mevcut modeli merkezi bir koordinasyon sunucusundan indirir. Cihazlar, modelde iyileştirmeler yapmak için cihazlarda depolanan örnekleri kullanır. Ardından cihazlar, model iyileştirmelerini (eğitim örneklerini değil) koordine eden sunucuya yükler. Burada, iyileştirilmiş bir genel model elde etmek için diğer güncellemelerle birlikte toplanırlar. Toplama işleminden sonra, cihazlar tarafından hesaplanan model güncellemelerine artık gerek kalmaz ve bu güncellemeler atılabilir.

Eğitim örnekleri hiçbir zaman yüklenmediğinden birleşik öğrenim, odaklanmış veri toplama ve veri minimizasyonu gizlilik ilkelerine uyar.

Daha fazla bilgi için Birleşik Öğrenim karikatürüne (evet, karikatür) bakın.

geri bildirim döngüsü

#fundamentals

Makine öğreniminde, bir modelin tahminlerinin aynı modelin veya başka bir modelin eğitim verilerini etkilediği durum. Örneğin, film öneren bir model, kullanıcıların gördüğü filmleri etkiler. Bu da sonraki film önerisi modellerini etkiler.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Üretim ML sistemleri: Sorulması gereken sorular bölümüne bakın.

ileri beslemeli nöral ağ (FFN)

Döngüsel veya yinelemeli bağlantıları olmayan bir sinir ağı. Örneğin, geleneksel derin nöral ağlar ileri beslemeli nöral ağlardır. Döngüsel olan yinelemeli nöral ağlarla karşılaştırın.

az örnekli öğrenme

Genellikle nesne sınıflandırması için kullanılan, yalnızca az sayıda eğitim örneğinden etkili sınıflandırma modelleri eğitmek üzere tasarlanmış bir makine öğrenimi yaklaşımı.

Tek görevli öğrenme ve sıfır görevli öğrenme bölümlerine de bakın.

az örnekli istem

#language
#generativeAI

Büyük dil modelinin nasıl yanıt vermesi gerektiğini gösteren birden fazla ("birkaç") örnek içeren bir istem. Örneğin, aşağıdaki uzun istemde, büyük bir dil modeline bir sorguyu nasıl yanıtlayacağını gösteren iki örnek yer alıyor.

Bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Fransa: EUR Bir örnek verelim.
Birleşik Krallık: GBP Başka bir örnek.
Hindistan: Gerçek sorgu.

Çok görevli istem genellikle sıfır görevli istem ve tek görevli istem yöntemlerine kıyasla daha iyi sonuçlar verir. Ancak çok görevli istem için daha uzun bir istem gerekir.

Çok görevli istem, istem tabanlı öğrenmeye uygulanan bir çok görevli öğrenme biçimidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki İstem mühendisliği bölümüne bakın.

Keman

#language

İşlevlerin ve sınıfların değerlerini, müdahaleci kod veya altyapı olmadan ayarlayan, Python öncelikli bir yapılandırma kitaplığı. Pax ve diğer makine öğrenimi kod tabanlarında bu işlevler ve sınıflar modelleri ve eğitim hiper parametrelerini temsil eder.

Fiddle, makine öğrenimi kod tabanlarının genellikle şu şekilde bölündüğünü varsayar:

  • Katmanları ve optimize edicileri tanımlayan kitaplık kodu.
  • Kitaplıkları çağıran ve her şeyi birbirine bağlayan veri kümesi "yapıştırıcı" kodu.

Fiddle, yapıştırıcı kodun çağrı yapısını değerlendirilmemiş ve değiştirilebilir bir biçimde yakalar.

ince ayar

#language
#image
#generativeAI

Parametrelerini belirli bir kullanım alanı için hassaslaştırmak amacıyla önceden eğitilmiş bir modelde gerçekleştirilen ikinci bir göreve özgü eğitim geçişi. Örneğin, bazı büyük dil modelleri için tam eğitim sırası şu şekildedir:

  1. Ön eğitim: Büyük bir dil modelini, tüm İngilizce Wikipedia sayfaları gibi kapsamlı bir genel veri kümesi üzerinde eğitme.
  2. İnce ayar: Önceden eğitilmiş modeli, tıbbi sorgulara yanıt verme gibi belirli bir görevi yerine getirecek şekilde eğitme. İnce ayar genellikle belirli bir göreve odaklanan yüzlerce veya binlerce örnek içerir.

Başka bir örnek olarak, büyük bir görüntü modelinin tam eğitim sırası şu şekildedir:

  1. Ön eğitim: Wikimedia Commons'taki tüm resimler gibi geniş bir genel resim veri kümesi üzerinde büyük bir resim modelini eğitme.
  2. İnce ayar: Önceden eğitilmiş modeli, belirli bir görevi (ör. orka görüntüleri oluşturma) yerine getirecek şekilde eğitme.

İnce ayar, aşağıdaki stratejilerin herhangi bir kombinasyonunu içerebilir:

  • Önceden eğitilmiş modelin mevcut tüm parametrelerini değiştirme. Bu işleme bazen tam ince ayar da denir.
  • Önceden eğitilmiş modelin mevcut parametrelerinin yalnızca bazılarını değiştirme (genellikle çıkış katmanına en yakın katmanlar) ve diğer mevcut parametreleri değiştirmeden bırakma (genellikle giriş katmanına en yakın katmanlar). Parametrelerin verimli kullanıldığı ayarlama başlıklı makaleyi inceleyin.
  • Genellikle çıkış katmanına en yakın mevcut katmanların üzerine daha fazla katman ekleme.

İnce ayar, bir transfer öğrenimi biçimidir. Bu nedenle, ince ayar işleminde önceden eğitilmiş modeli eğitmek için kullanılanlardan farklı bir kayıp işlevi veya farklı bir model türü kullanılabilir. Örneğin, önceden eğitilmiş büyük bir görüntü modeline ince ayar yaparak giriş görüntüsündeki kuş sayısını döndüren bir regresyon modeli oluşturabilirsiniz.

Aşağıdaki terimlerle karşılaştırarak ince ayar yapmanın benzerliklerini ve farklılıklarını açıklayın:

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki İnce ayar bölümüne bakın.

Flaş modeli

#generativeAI

Hız ve düşük gecikme için optimize edilmiş, nispeten küçük bir Gemini model ailesi. Flash modelleri, hızlı yanıtların ve yüksek işleme hızının önemli olduğu çok çeşitli uygulamalar için tasarlanmıştır.

Flax

#language

JAX üzerinde oluşturulmuş, derin öğrenme için yüksek performanslı bir açık kaynak kitaplık. Flax, sinir ağlarını eğitmeye yönelik işlevlerin yanı sıra performanslarını değerlendirmeye yönelik yöntemler de sunar.

Flaxformer

#language

Flax üzerine kurulu, öncelikli olarak doğal dil işleme ve çok formatlı araştırma için tasarlanmış açık kaynaklı bir Transformer kitaplığıdır.

kapıyı unut

#seq

Bir uzun süreli kısa bellek hücresinin, hücredeki bilgi akışını düzenleyen kısmı. Unutma kapıları, hücre durumundan hangi bilgilerin atılacağına karar vererek bağlamı korur.

temel model

#generativeAI
#Metric

Çok büyük ve çeşitli bir eğitim kümesi üzerinde eğitilmiş çok büyük bir önceden eğitilmiş model. Temel model, aşağıdakilerin ikisini de yapabilir:

  • Çok çeşitli isteklere iyi yanıt verme
  • Ek ince ayar veya diğer özelleştirmeler için temel model olarak kullanılabilir.

Başka bir deyişle, temel model genel anlamda zaten çok yeteneklidir ancak belirli bir görev için daha da faydalı olacak şekilde özelleştirilebilir.

başarı oranı

#generativeAI
#Metric

Bir makine öğrenimi modelinin oluşturduğu metni değerlendirmek için kullanılan bir metrik. Başarı oranı, oluşturulan "başarılı" metin çıkışlarının sayısının, oluşturulan toplam metin çıkışı sayısına bölünmesiyle elde edilir. Örneğin, bir büyük dil modeli 10 kod bloğu oluşturduysa ve bunların beşi başarılı olduysa başarı oranı %50 olur.

Başarı oranı, istatistiklerde genel olarak faydalı olsa da makine öğreniminde bu metrik, öncelikli olarak kod oluşturma veya matematik problemleri gibi doğrulanabilir görevleri ölçmek için kullanılır.

tam softmax

Softmax ile eş anlamlıdır.

Aday örnekleme ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sinir ağları: Çok sınıflı sınıflandırma başlıklı makaleyi inceleyin.

tamamen bağlı katman

Her düğümün, sonraki gizli katmandaki her düğüme bağlı olduğu bir gizli katman.

Tamamen bağlı katman, yoğun katman olarak da bilinir.

işlev dönüşümü

Giriş olarak bir işlev alan ve çıktı olarak dönüştürülmüş bir işlev döndüren işlev. JAX, işlev dönüşümlerini kullanır.

G

GAN

Çekişmeli üretken ağ kısaltması.

Gemini

#language
#image
#generativeAI

Google'ın en gelişmiş yapay zekasını içeren ekosistem. Bu ekosistemin öğeleri şunlardır:

  • Çeşitli Gemini modelleri.
  • Gemini modeliyle etkileşimli sohbet arayüzü. Kullanıcılar istem girer ve Gemini bu istemlere yanıt verir.
  • Çeşitli Gemini API'leri.
  • Gemini modellerine dayalı çeşitli işletme ürünleri (ör. Google Cloud için Gemini).

Gemini modelleri

#language
#image
#generativeAI

Google'ın son teknoloji Transformer tabanlı çok formatlı modelleri. Gemini modelleri, aracılarla entegre olacak şekilde özel olarak tasarlanmıştır.

Kullanıcılar, etkileşimli bir diyalog arayüzü ve SDK'lar aracılığıyla Gemini modelleriyle çeşitli şekillerde etkileşimde bulunabilir.

Gemma

#generativeAI

Gemini modellerini oluşturmak için kullanılan araştırma ve teknolojinin aynısıyla geliştirilmiş, hafif açık modeller ailesidir. Birkaç farklı Gemma modeli mevcuttur. Her biri; görme, kod ve talimatları takip etme gibi farklı özellikler sunar. Ayrıntılar için Gemma konusuna bakın.

Üretken yapay zeka

#language
#image
#generativeAI

Üretken yapay zeka kısaltması.

genelleştirme

#fundamentals

Modelin yeni ve daha önce görülmemiş verilerle ilgili doğru tahminler yapabilme özelliği. Genelleme yapabilen bir model, aşırı uyum gösteren bir modelin tam tersidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Genelleştirme bölümüne bakın.

genelleştirme eğrisi

#fundamentals

Eğitim kaybı ve doğrulama kaybının, iterasyon sayısının bir fonksiyonu olarak grafiği.

Genelleştirme eğrisi, olası aşırı uyumu tespit etmenize yardımcı olabilir. Örneğin, aşağıdaki genelleştirme eğrisi, doğrulama kaybı nihayetinde eğitim kaybından önemli ölçüde yüksek olduğu için aşırı uyumu gösterir.

Y ekseninde kayıp, x ekseninde ise yineleme etiketinin bulunduğu bir Kartezyen grafiği. İki grafik gösterilir. Grafiklerden biri eğitim kaybını, diğeri ise doğrulama kaybını gösterir.
          İki grafik benzer şekilde başlar ancak eğitim kaybı sonunda doğrulama kaybından çok daha düşük bir seviyeye iner.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Genelleştirme bölümüne bakın.

genelleştirilmiş doğrusal model

En küçük kareler regresyonu modellerinin genelleştirilmiş halidir. Bu modeller Gauss gürültüsüne dayanır. Diğer gürültü türlerine (ör. Poisson gürültüsü veya kategorik gürültü) dayalı diğer model türleri için de geçerlidir. Genelleştirilmiş doğrusal modellere örnek olarak aşağıdakiler verilebilir:

Genelleştirilmiş doğrusal modelin parametreleri dışbükey optimizasyon ile bulunabilir.

Genelleştirilmiş doğrusal modeller aşağıdaki özelliklere sahiptir:

  • En uygun en küçük kareler regresyon modelinin ortalama tahmini, eğitim verilerindeki ortalama etikete eşittir.
  • Optimum lojistik regresyon modeli tarafından tahmin edilen ortalama olasılık, eğitim verilerindeki ortalama etikete eşittir.

Genelleştirilmiş doğrusal modelin gücü, özellikleriyle sınırlıdır. Derin modelin aksine, genelleştirilmiş doğrusal model "yeni özellikler öğrenemez".

oluşturulan metin

#language
#generativeAI

Genel olarak, bir makine öğrenimi modelinin çıkardığı metin. Büyük dil modellerini değerlendirirken bazı metrikler, oluşturulan metni referans metinle karşılaştırır. Örneğin, bir makine öğrenimi modelinin Fransızcadan Hollandacaya ne kadar etkili bir şekilde çeviri yaptığını belirlemeye çalıştığınızı varsayalım. Bu durumda:

  • Üretilen metin, makine öğrenimi modelinin çıkardığı Hollandaca çeviridir.
  • Referans metin, bir çevirmen (veya yazılım) tarafından oluşturulan Hollandaca çeviridir.

Bazı değerlendirme stratejilerinde referans metin kullanılmadığını unutmayın.

üretken çekişmeli ağ (GAN)

Üreticinin veri oluşturduğu ve ayırt edicinin oluşturulan verilerin geçerli olup olmadığını belirlediği yeni veriler oluşturma sistemi.

Daha fazla bilgi için Çekişmeli Üretken Ağlar kursuna bakın.

üretken yapay zeka

#language
#image
#generativeAI

Resmi bir tanımı olmayan, dönüşüm yaratan yeni bir alan. Bununla birlikte, çoğu uzman üretken yapay zeka modellerinin aşağıdaki özelliklere sahip içerikler oluşturabileceği ("üretebileceği") konusunda hemfikirdir:

  • karmaşık
  • tutarlı
  • orijinal

Üretken yapay zekaya örnek olarak aşağıdakiler verilebilir:

  • Büyük dil modelleri: Orijinal metinler oluşturabilir ve soruları yanıtlayabilir.
  • Benzersiz görüntüler üretebilen görüntü oluşturma modeli
  • Orijinal müzik besteleyebilen veya gerçekçi konuşma üretebilen ses ve müzik üretme modelleri.
  • Orijinal videolar oluşturabilen video üretim modelleri

LSTM'ler ve RNN'ler gibi bazı eski teknolojiler de özgün ve tutarlı içerikler oluşturabilir. Bazı uzmanlar bu eski teknolojileri üretken yapay zeka olarak görürken bazıları, gerçek üretken yapay zekanın bu eski teknolojilerin üretebileceğinden daha karmaşık bir çıktı gerektirdiğini düşünüyor.

Tahmine dayalı makine öğrenimi ile karşılaştırın.

üretken model

Pratik olarak, aşağıdakilerden birini yapan bir model:

  • Eğitim veri kümesinden yeni örnekler oluşturur (üretir). Örneğin, üretken bir model, şiir veri kümesiyle eğitildikten sonra şiir oluşturabilir. Çekişmeli üretken ağın üretici kısmı bu kategoriye girer.
  • Yeni bir örneğin eğitim kümesinden gelme veya eğitim kümesini oluşturan mekanizmayla oluşturulma olasılığını belirler. Örneğin, İngilizce cümlelerden oluşan bir veri kümesi üzerinde eğitildikten sonra üretken bir model, yeni bir girişin geçerli bir İngilizce cümle olma olasılığını belirleyebilir.

Üretken bir model, teorik olarak bir veri kümesindeki örneklerin veya belirli özelliklerin dağılımını ayırt edebilir. Yani:

p(examples)

Denetimsiz öğrenme modelleri üretkendir.

Ayırt edici modellerle karşılaştırın.

oluşturma aracı

Yeni örnekler oluşturan bir üretken karşıt ağ içindeki alt sistem.

Ayırt edici model ile karşılaştırın.

Gini kirliliği

#df
#Metric

Entropiye benzer bir metrik. Ayırıcılar, sınıflandırma koşullarını oluşturmak için gini kirliliğinden veya entropiden elde edilen değerleri kullanır. Karar ağaçları. Bilgi kazancı, entropiden elde edilir. Gini kirliliğinden elde edilen metrik için evrensel olarak kabul edilen eşdeğer bir terim yoktur. Ancak bu adsız metrik, bilgi kazancı kadar önemlidir.

Gini kirliliğine Gini endeksi veya kısaca Gini de denir.

altın veri kümesi

Kesin referansı yakalayan, manuel olarak düzenlenmiş bir veri grubu. Ekipler, bir modelin kalitesini değerlendirmek için bir veya daha fazla altın veri kümesi kullanabilir.

Bazı kesin referans veri kümeleri, kesin referansın farklı alt alanlarını yakalar. Örneğin, görüntü sınıflandırması için altın veri kümesi, ışık koşullarını ve görüntü çözünürlüğünü yakalayabilir.

altın yanıt

#language
#generativeAI

İyi olduğu bilinen bir yanıt. Örneğin, aşağıdaki istem verildiğinde:

2 + 2

İdeal yanıt:

4

Google AI Studio

Google'ın büyük dil modellerini kullanarak uygulamalar oluşturmak ve bu uygulamalarla denemeler yapmak için kullanıcı dostu bir arayüz sağlayan Google aracıdır. Ayrıntılar için Google AI Studio ana sayfasına bakın.

GPT (Generative Pre-trained Transformer)

#language

OpenAI tarafından geliştirilen Transformer tabanlı bir büyük dil modeli ailesidir.

GPT varyantları aşağıdakiler dahil olmak üzere birden fazla modalite için geçerli olabilir:

  • görüntü üretme (ör. ImageGPT)
  • metinden görüntü oluşturma (örneğin, DALL-E).

gradyan

Tüm bağımsız değişkenlere göre kısmi türevlerin vektörü. Makine öğreniminde gradyan, model fonksiyonunun kısmi türevlerinin vektörüdür. Gradyan, en dik yükseliş yönünü gösterir.

gradyan birikimi

Geriye yayılım tekniği, parametreleri yineleme başına bir kez yerine dönem başına bir kez günceller. Her bir mini grubu işledikten sonra gradyan birikimi, gradyanların çalışan toplamını günceller. Ardından, dönemdeki son mini toplu işleme tamamlandıktan sonra sistem, parametreleri tüm gradyan değişikliklerinin toplamına göre günceller.

Gradyan biriktirme, toplu iş boyutu, eğitim için kullanılabilir bellek miktarına kıyasla çok büyük olduğunda kullanışlıdır. Bellek sorun olduğunda doğal olarak toplu iş boyutu küçültülür. Ancak normal geri yayılımda toplu iş boyutunun azaltılması, parametre güncellemelerinin sayısını artırır. Gradyan biriktirme, modelin bellek sorunlarından kaçınmasını sağlar ancak yine de verimli bir şekilde eğitilmesini mümkün kılar.

gradyan artırılmış (karar) ağaçları (GBT)

#df

Aşağıdaki özelliklere sahip bir karar ormanı türü:

Daha fazla bilgi için Karar Ormanları kursundaki Gradient Boosted Decision Trees (Gradyan Artırılmış Karar Ağaçları) bölümüne bakın.

gradyan artırma

#df

Zayıf modellerin, güçlü bir modelin kalitesini (kaybı azaltmak) yinelemeli olarak iyileştirmek için eğitildiği bir eğitim algoritması. Örneğin, zayıf bir model doğrusal veya küçük bir karar ağacı modeli olabilir. Güçlü model, daha önce eğitilmiş tüm zayıf modellerin toplamı haline gelir.

En basit biçimiyle gradyan artırmada, her yinelemede güçlü modelin kayıp gradyanını tahmin etmek için zayıf bir model eğitilir. Ardından, güçlü modelin çıkışı, gradyan inişine benzer şekilde, tahmin edilen gradyan çıkarılarak güncellenir.

$$F_{0} = 0$$ $$F_{i+1} = F_i - \xi f_i $$

Bu örnekte:

  • $F_{0}$ başlangıçtaki güçlü modeldir.
  • $F_{i+1}$ ise bir sonraki güçlü modeldir.
  • $F_{i}$ mevcut güçlü modeldir.
  • $\xi$, 0,0 ile 1,0 arasında bir değerdir ve küçültme olarak adlandırılır. Bu değer, gradyan inişindeki öğrenme hızına benzer.
  • $f_{i}$, $F_{i}$ değerinin kayıp gradyanını tahmin etmek için eğitilmiş zayıf modeldir.

Gradyan artırmanın modern varyasyonları, hesaplamalarına kaybın ikinci türevini (Hessian) de dahil eder.

Karar ağaçları, gradyan artırmada genellikle zayıf modeller olarak kullanılır. Gradyan artırılmış (karar) ağaçları başlıklı makaleyi inceleyin.

gradyan kırpma

#seq

Bir modeli eğitmek için gradyan azalma kullanılırken gradyanların maksimum değerini yapay olarak sınırlayarak (kırparak) patlayan gradyan sorununu azaltmak için yaygın olarak kullanılan bir mekanizma.

gradyan inişi

#fundamentals

Kayıpları en aza indirmek için kullanılan matematiksel bir teknik. Gradyan inişi, ağırlıkları ve önyargıları yinelemeli olarak ayarlar ve kaybı en aza indirecek en iyi kombinasyonu yavaş yavaş bulur.

Gradyan inişi, makine öğreniminden çok daha eski bir yöntemdir.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Doğrusal regresyon: Gradyan inişi bölümüne bakın.

grafik

#TensorFlow

TensorFlow'da hesaplama spesifikasyonu. Grafikteki düğümler işlemleri temsil eder. Kenarlar yönlüdür ve bir işlemin (Tensor) sonucunu başka bir işleme işlenen olarak geçirmeyi temsil eder. Grafiği görselleştirmek için TensorBoard'u kullanın.

grafik yürütme

#TensorFlow

Programın önce bir grafik oluşturduğu, ardından bu grafiğin tamamını veya bir kısmını yürüttüğü bir TensorFlow programlama ortamı. Grafik yürütme, TensorFlow 1.x'teki varsayılan yürütme modudur.

İstekli yürütme ile karşılaştırın.

açgözlü politika

#rl

Pekiştirici öğrenmede, her zaman en yüksek beklenen getiriye sahip işlemi seçen bir politika.

temellendirme

Çıkışı belirli kaynak materyallere dayanan (bu materyallerden "temellendirilen") bir modelin özelliği. Örneğin, bir fizik ders kitabının tamamını büyük dil modeline giriş ("bağlam") olarak sağladığınızı varsayalım. Ardından, bu büyük dil modeline fizik sorusu sorarsınız. Modelin yanıtı bu ders kitabındaki bilgileri yansıtıyorsa model, bu ders kitabına göre dayanaklıdır.

Temellendirilmiş bir modelin her zaman gerçeklere dayalı bir model olmadığını unutmayın. Örneğin, giriş olarak kullanılan fizik ders kitabında hatalar olabilir.

kesin referans

#fundamentals

Gerçeklik.

Gerçekte olan şey.

Örneğin, üniversitenin ilk yılında olan bir öğrencinin altı yıl içinde mezun olup olmayacağını tahmin eden bir ikili sınıflandırma modelini ele alalım. Bu model için kesin referans, öğrencinin altı yıl içinde gerçekten mezun olup olmadığıdır.

gruba atfetme önyargısı

#responsible

Bir birey için geçerli olanın o gruptaki herkes için de geçerli olduğunu varsayma. Veri toplama için kolaylık örneklemesi kullanılıyorsa grup ilişkilendirme önyargısının etkileri daha da kötüleşebilir. Temsil etmeyen bir örnekte, gerçekliği yansıtmayan ilişkilendirmeler yapılabilir.

Ayrıca grup dışı homojenlik önyargısı ve grup içi önyargısı hakkında bilgi edinin. Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Adalet: Yanlılık Türleri bölümüne de bakın.

H

halüsinasyon

#language

Gerçek dünya hakkında bir iddiada bulunduğunu iddia eden bir üretken yapay zeka modelinin, olası gibi görünen ancak gerçekte yanlış olan bir çıkış üretmesi. Örneğin, Barack Obama'nın 1865'te öldüğünü iddia eden bir üretken yapay zeka modeli halüsinasyon görüyor demektir.

karma oluşturma

Makine öğreniminde, özellikle kategori sayısı fazla ancak veri kümesinde gerçekten görünen kategori sayısı nispeten az olduğunda kategorik verileri gruplandırmaya yönelik bir mekanizma.

Örneğin, Dünya'da yaklaşık 73.000 ağaç türü vardır. 73.000 ağaç türünün her birini 73.000 ayrı kategorik pakette temsil edebilirsiniz. Alternatif olarak, bu ağaç türlerinden yalnızca 200'ü bir veri kümesinde görünüyorsa ağaç türlerini 500 pakete bölmek için karma oluşturma kullanabilirsiniz.

Tek bir kovada birden fazla ağaç türü olabilir. Örneğin, karma oluşturma, genetik olarak farklı iki tür olan baobab ve kızıl akçaağacı aynı pakete yerleştirebilir. Bununla birlikte, karma oluşturma işlemi, büyük kategorik kümeleri seçilen sayıda pakete eşlemek için hâlâ iyi bir yöntemdir. Karma oluşturma, olası değer sayısı fazla olan kategorik bir özelliği, değerleri deterministik bir şekilde gruplandırarak çok daha az sayıda değere dönüştürür.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Kategorik veriler: Sözcük dağarcığı ve tek sıcak kodlama bölümüne bakın.

buluşsal

Bir soruna yönelik basit ve hızlı bir şekilde uygulanabilen çözüm. Örneğin, "Sezgisel yöntemle% 86 doğruluk elde ettik. Derin sinir ağına geçtiğimizde doğruluk oranı %98'e yükseldi."

gizli katman

#fundamentals

Giriş katmanı (özellikler) ile çıkış katmanı (tahmin) arasındaki sinir ağındaki bir katman. Her gizli katman bir veya daha fazla nöron içerir. Örneğin, aşağıdaki sinir ağında iki gizli katman vardır. Birincisinde üç nöron, ikincisinde ise iki nöron bulunur:

Dört kat. İlk katman, iki özellik içeren bir giriş katmanıdır. İkinci katman, üç nöron içeren gizli bir katmandır. Üçüncü katman, iki nöron içeren gizli bir katmandır. Dördüncü katman, çıkış katmanıdır. Her özellik üç kenar içerir. Bu kenarların her biri ikinci katmandaki farklı bir nörona işaret eder. İkinci katmandaki nöronların her biri iki kenar içerir. Bu kenarların her biri üçüncü katmandaki farklı bir nörona işaret eder. Üçüncü katmandaki nöronların her biri, çıkış katmanını gösteren bir kenar içerir.

Derin nöral ağ, birden fazla gizli katman içerir. Örneğin, önceki resim bir derin sinir ağıdır çünkü model iki gizli katman içerir.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sinir ağları: Düğümler ve gizli katmanlar başlıklı makaleyi inceleyin.

hiyerarşik kümeleme

#clustering

Bir küme ağacı oluşturan kümeleme algoritmaları kategorisi. Hiyerarşik kümeleme, botanik sınıflandırmaları gibi hiyerarşik veriler için uygundur. İki tür hiyerarşik kümeleme algoritması vardır:

  • Birleştirici kümeleme, önce her örneği kendi kümesine atar ve hiyerarşik bir ağaç oluşturmak için en yakın kümeleri yinelemeli olarak birleştirir.
  • Bölücü kümeleme, önce tüm örnekleri tek bir kümede gruplandırır, ardından kümeyi yinelemeli olarak hiyerarşik bir ağaca böler.

Merkez tabanlı kümeleme ile karşılaştırın.

Daha fazla bilgi için Kümeleme kursundaki Kümeleme algoritmaları bölümüne bakın.

tepe tırmanma

Bir makine öğrenimi modelini, iyileşmesi durana ("tepenin zirvesine ulaşana") kadar yinelemeli olarak iyileştirmeye ("yokuş yukarı yürümeye") yönelik bir algoritmadır. Algoritmanın genel biçimi şöyledir:

  1. Başlangıç modeli oluşturun.
  2. Eğitim veya ince ayar yönteminizde küçük ayarlamalar yaparak yeni aday modeller oluşturun. Bu, biraz farklı bir eğitim kümesi veya farklı hiperparametrelerle çalışmayı gerektirebilir.
  3. Yeni aday modelleri değerlendirin ve aşağıdaki işlemlerden birini yapın:
    • Bir aday model, başlangıç modelinden daha iyi performans gösterirse bu aday model yeni başlangıç modeli olur. Bu durumda 1., 2. ve 3. adımları tekrarlayın.
    • Başlangıç modelinden daha iyi performans gösteren bir model yoksa zirveye ulaşmışsınızdır ve yinelemeyi durdurmanız gerekir.

Hiperparametre ayarı ile ilgili rehberlik için Deep Learning Tuning Playbook'a (Derin Öğrenme Ayarı Oyun Kitabı) bakın. Özellik mühendisliği ile ilgili rehberlik için Makine Öğrenimi Hızlandırılmış Kursu'nun veri modüllerine bakın.

menteşe kaybı

#Metric

Her bir eğitim örneğinden mümkün olduğunca uzak karar sınırını bulmak için tasarlanmış, sınıflandırma için bir kayıp işlevleri ailesi. Bu işlevler, örnekler ile sınır arasındaki marjı en üst düzeye çıkarır. KSVM'ler, menteşe kaybını (veya kare menteşe kaybı gibi ilgili bir işlevi) kullanır. İkili sınıflandırma için menteşe kaybı işlevi aşağıdaki şekilde tanımlanır:

$$\text{loss} = \text{max}(0, 1 - (y * y'))$$

Burada y, -1 veya +1 olan gerçek etikettir ve y', sınıflandırma modelinin ham çıkışıdır:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Sonuç olarak, menteşe kaybının (y * y') ile karşılaştırıldığı bir grafik aşağıdaki gibi görünür:

Birleştirilmiş iki çizgi segmentinden oluşan bir Kartezyen grafiği. İlk çizgi segmenti (-3, 4) noktasında başlar ve (1, 0) noktasında biter. İkinci satır
          segmenti (1, 0) noktasında başlar ve eğimi 0 olacak şekilde süresiz olarak devam eder.

geçmiş yanlılığı

#responsible

Dünyada zaten var olan ve bir veri kümesine girmiş olan bir önyargı türü. Bu önyargılar, mevcut kültürel klişeleri, demografik eşitsizlikleri ve belirli sosyal gruplara yönelik önyargıları yansıtma eğilimindedir.

Örneğin, bir kredi başvurusunda bulunan kişinin kredisini ödeyip ödemeyeceğini tahmin eden bir sınıflandırma modelini ele alalım. Bu model, 1980'lerde iki farklı topluluktaki yerel bankalardan alınan geçmiş kredi temerrüt verileriyle eğitilmiştir. A topluluğundan geçmişte kredi başvurusunda bulunanların kredilerini ödememe olasılığı, B topluluğundan başvuranlara kıyasla altı kat daha yüksekse model, geçmişteki bir önyargıyı öğrenebilir. Bu durumda, topluluğun daha yüksek temerrüt oranlarına yol açan geçmiş koşullar artık geçerli olmasa bile modelin A topluluğundaki kredileri onaylama olasılığı daha düşük olur.

Daha fazla bilgi için Adalet: Makine öğrenimi yoğun kursunda önyargı türleri başlıklı makaleyi inceleyin.

ayrılmış veriler

Eğitim sırasında kasıtlı olarak kullanılmayan ("ayrılan") örnekler. Doğrulama veri kümesi ve test veri kümesi, ayrılmış verilere örneklerdir. Ayrılmış veriler, modelinizin eğitildiği veriler dışındaki verileri genelleme yeteneğini değerlendirmenize yardımcı olur. Ayrılmış veri kümesindeki kayıp, eğitim kümesindeki kayıptan daha iyi bir görünmeyen veri kümesindeki kayıp tahminini sağlar.

düzenleyen

#TensorFlow
#GoogleCloud

Hızlandırıcı çipleri (GPU'lar veya TPU'lar) üzerinde bir makine öğrenimi modeli eğitilirken sistemin aşağıdaki iki öğeyi de kontrol eden kısmı:

  • Kodun genel akışı.
  • Giriş işlem hattının ayıklanması ve dönüştürülmesi.

Ana makine genellikle hızlandırıcı çipte değil, CPU'da çalışır. Cihaz, hızlandırıcı çiplerdeki tensörleri işler.

insan değerlendirmesi

#language
#generativeAI

Kullanıcıların bir makine öğrenimi modelinin çıktısının kalitesini değerlendirdiği süreç. Örneğin, iki dil bilen kişilerin bir makine öğrenimi çeviri modelinin kalitesini değerlendirmesi. İnsan değerlendirmesi, tek bir doğru yanıtı olmayan modelleri değerlendirmek için özellikle yararlıdır.

Otomatik değerlendirme ve değerlendirici değerlendirmesi ile karşılaştırın.

insan etkileşimli yöntem (HITL)

#generativeAI

Aşağıdakilerden birini ifade edebilen, net bir tanımı olmayan deyim:

  • Üretken yapay zeka çıkışını eleştirel veya şüpheci bir şekilde görüntüleme politikası Örneğin, bu makine öğrenimi sözlüğünü yazan kişiler, büyük dil modellerinin yapabileceklerine hayran kalırken büyük dil modellerinin yaptığı hataların da farkındadır.
  • Kullanıcıların bir modelin davranışını şekillendirmesine, değerlendirmesine ve iyileştirmesine yardımcı olmasını sağlayan bir strateji veya sistem. İnsan etkileşimini sürdürmek, yapay zekanın hem makine zekasından hem de insan zekasından yararlanmasını sağlar. Örneğin, yapay zekanın kod oluşturduğu ve yazılım mühendislerinin bu kodu incelediği bir sistem, insan etkileşimli bir sistemdir.

hiperparametre

#fundamentals

Sizin veya bir hiperparametre ayarı hizmetinin bir modeli eğitmenin ardışık çalıştırmaları sırasında ayarladığı değişkenler. Örneğin, öğrenme oranı bir hiperparametredir. Bir eğitim oturumundan önce öğrenme hızını 0,01 olarak ayarlayabilirsiniz. 0,01 değerinin çok yüksek olduğuna karar verirseniz bir sonraki eğitim oturumunda öğrenme hızını 0,003 olarak ayarlayabilirsiniz.

Buna karşılık parametreler, modelin eğitim sırasında öğrendiği çeşitli ağırlıklar ve eğilimlerdir.

Daha fazla bilgi için Makine Öğrenimine Hızlı Bakış Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

hiperdüzlem

Bir alanı iki alt alana ayıran sınır. Örneğin, iki boyutta bir çizgi, üç boyutta ise bir düzlem hiperdüzlemdir. Makine öğreniminde ise hiper düzlem, genellikle yüksek boyutlu bir alanı ayıran sınırdır. Çekirdek Destek Vektör Makineleri, pozitif sınıfları negatif sınıflardan ayırmak için hiperdüzlemler kullanır. Bu işlem genellikle çok yüksek boyutlu bir alanda yapılır.

I

i.i.d.

Bağımsız ve özdeş dağıtılmış ifadesinin kısaltmasıdır.

resim tanıma

#image

Bir resimdeki nesneleri, desenleri veya kavramları sınıflandıran bir süreç. Görüntü tanıma, görüntü sınıflandırma olarak da bilinir.

Daha fazla bilgi için ML Practicum: Image Classification (ML Uygulamalı Eğitim: Resim Sınıflandırma) başlıklı makaleyi inceleyin.

Daha fazla bilgi için ML Practicum: Image Classification kursuna bakın.

dengesiz veri kümesi

Sınıf dengesizliği olan veri kümesi için eş anlamlıdır.

örtülü önyargı

#responsible

Zihin modellerine ve anılara dayalı olarak otomatik olarak ilişkilendirme veya varsayımda bulunma. Örtülü önyargı aşağıdakileri etkileyebilir:

  • Verilerin nasıl toplandığı ve sınıflandırıldığı.
  • Makine öğrenimi sistemlerinin nasıl tasarlandığı ve geliştirildiği.

Örneğin, düğün fotoğraflarını belirlemek için sınıflandırma modeli oluştururken bir mühendis, fotoğrafta beyaz elbise olmasını özellik olarak kullanabilir. Ancak beyaz gelinlikler yalnızca belirli dönemlerde ve belirli kültürlerde geleneksel olmuştur.

Ayrıca doğrulama yanlılığı konusuna da bakın.

imputation

Değer atamanın kısa biçimi.

Adalet metriklerinin uyumsuzluğu

#responsible
#Metric

Bazı adalet kavramlarının birbiriyle uyumlu olmadığı ve aynı anda karşılanamayacağı fikri. Sonuç olarak, adalet kavramını ölçmek için tüm makine öğrenimi sorunlarına uygulanabilecek tek bir evrensel metrik yoktur.

Bu durum cesaret kırıcı olsa da adalet metriklerinin uyumsuzluğu, adaletle ilgili çalışmaların boşuna olduğu anlamına gelmez. Bunun yerine, adalet kavramının belirli bir makine öğrenimi sorunu için bağlamsal olarak tanımlanması ve kullanım alanlarına özgü zararların önlenmesi gerektiğini belirtir.

Adalet metriklerinin uyumsuzluğu hakkında daha ayrıntılı bir tartışma için "On the (im)possibility of fairness" başlıklı makaleyi inceleyin.

bağlam içinde öğrenme

#language
#generativeAI

Çok görevli istem ile eş anlamlıdır.

bağımsız ve özdeş dağıtılmış (i.i.d)

#fundamentals

Değişmeyen bir dağılımdan alınan ve alınan her değerin daha önce alınan değerlere bağlı olmadığı veriler. Bağımsız ve aynı dağılıma sahip (i.i.d.) veriler, makine öğreniminin ideal gazıdır. Bu, faydalı bir matematiksel yapı olsa da gerçek dünyada neredeyse hiçbir zaman tam olarak bulunmaz. Örneğin, bir web sayfasını ziyaret eden kullanıcıların dağılımı kısa bir süre boyunca i.i.d. olabilir. Yani dağılım bu kısa süre boyunca değişmez ve bir kullanıcının ziyareti genellikle diğer kullanıcının ziyaretinden bağımsızdır. Ancak bu zaman aralığını genişletirseniz web sayfasının ziyaretçilerinde mevsimsel farklılıklar görülebilir.

Ayrıca durağan olmama konusuna da bakın.

bireysel adalet

#responsible
#Metric

Benzer kişilerin benzer şekilde sınıflandırılıp sınıflandırılmadığını kontrol eden bir adalet metriği. Örneğin, Brobdingnagian Akademisi, aynı notlara ve standart test puanlarına sahip iki öğrencinin kabul edilme olasılığının eşit olmasını sağlayarak bireysel adaleti sağlamak isteyebilir.

Bireysel adalet kavramının tamamen "benzerliği" nasıl tanımladığınıza (bu durumda notlar ve test puanları) bağlı olduğunu ve benzerlik metriğiniz önemli bilgileri (ör. öğrencinin müfredatının zorluğu) kaçırırsa yeni adalet sorunları ortaya çıkarma riskiyle karşılaşabileceğinizi unutmayın.

Bireysel adalet hakkında daha ayrıntılı bilgi için "Farkındalıkla Adalet" başlıklı makaleyi inceleyin.

çıkarım

#fundamentals
#generativeAI

Geleneksel makine öğreniminde, eğitilmiş bir modeli etiketlenmemiş örneklere uygulayarak tahminlerde bulunma süreci. Daha fazla bilgi edinmek için Makine Öğrenimine Giriş kursundaki Denetimli Öğrenme bölümüne bakın.

Büyük dil modellerinde çıkarım, eğitilmiş bir modeli kullanarak çıkış oluşturma sürecidir. Örneğin, bir giriş istemine verilen metin yanıtı.

İstatistiklerde çıkarım biraz farklı bir anlama sahiptir. Ayrıntılar için istatistiksel çıkarım hakkındaki Wikipedia makalesine bakın.

çıkarım yolu

#df

Karar ağacında, çıkarım sırasında belirli bir örneğin kökten diğer koşullara doğru izlediği yol, yaprakla sonlanır. Örneğin, aşağıdaki karar ağacında daha kalın oklar, aşağıdaki özellik değerlerine sahip bir örnek için çıkarım yolunu gösterir:

  • x = 7
  • y = 12
  • z = -3

Aşağıdaki resimde çıkarım yolu, yaprağa (Zeta) ulaşmadan önce üç koşuldan geçer.

Dört koşul ve beş yapraktan oluşan bir karar ağacı.
          Kök koşul (x > 0) şeklindedir. Yanıt "Evet" olduğundan çıkarım yolu kökten bir sonraki koşula (y > 0) gider.
          Yanıt Evet olduğundan çıkarım yolu sonraki koşula (z > 0) gider. Yanıt Hayır olduğu için çıkarım yolu, yaprak (Zeta) olan terminal düğümüne gider.

Üç kalın ok, çıkarım yolunu gösterir.

Daha fazla bilgi için Karar Ormanları kursundaki Karar ağaçları bölümüne bakın.

bilgi kazancı

#df
#Metric

Karar ağaçlarında, bir düğümün entropisi ile alt düğümlerinin entropisinin örnek sayısına göre ağırlıklı toplamı arasındaki fark. Bir düğümün entropisi, o düğümdeki örneklerin entropisidir.

Örneğin, aşağıdaki entropi değerlerini ele alalım:

  • üst düğümün entropisi = 0,6
  • 16 alakalı örneğe sahip bir alt düğümün entropisi = 0,2
  • 24 alakalı örneği olan başka bir alt düğümün entropisi = 0,1

Bu nedenle, örneklerin% 40'ı bir alt düğümde, %60'ı ise diğer alt düğümdedir. Bu nedenle:

  • alt düğümlerin ağırlıklı entropi toplamı = (0,4 * 0,2) + (0,6 * 0,1) = 0,14

Bu nedenle, bilgi kazancı şöyledir:

  • bilgi kazancı = üst düğümün entropisi - alt düğümlerin ağırlıklı entropi toplamı
  • bilgi kazancı = 0,6 - 0,14 = 0,46

Çoğu bölücü, bilgi kazanımını en üst düzeye çıkaran koşullar oluşturmayı amaçlar.

grup içi önyargı

#responsible

Kendi grubuna veya kendi özelliklerine karşı taraflı davranma Test kullanıcıları veya değerlendiriciler, makine öğrenimi geliştiricisinin arkadaşları, ailesi ya da iş arkadaşlarından oluşuyorsa grup içi önyargı, ürün testini veya veri kümesini geçersiz kılabilir.

Grup içi önyargısı, bir tür gruba atfetme önyargısıdır. Ayrıca grup dışı homojenlik önyargısı başlıklı makaleyi de inceleyin.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Adalet: Önyargı türleri bölümüne bakın.

giriş oluşturucu

Verilerin nöral ağa yüklendiği mekanizma.

Giriş oluşturucu, ham verileri eğitim, değerlendirme ve çıkarım için gruplar oluşturmak üzere üzerinde yineleme yapılan tensörlere dönüştürmekten sorumlu bir bileşen olarak düşünülebilir.

giriş katmanı

#fundamentals

Özellik vektörünü barındıran nöral ağın katmanı. Yani giriş katmanı, eğitim veya çıkarım için örnekler sağlar. Örneğin, aşağıdaki sinir ağındaki giriş katmanı iki özellikten oluşur:

Dört katman: giriş katmanı, iki gizli katman ve çıkış katmanı.

küme içi koşul

#df

Karar ağacında, bir öğe grubunda bir öğenin varlığını test eden koşul. Örneğin, aşağıdakiler bir küme içi koşuldur:

  house-style in [tudor, colonial, cape]

Çıkarım sırasında, ev stili özelliğinin değeri tudor, colonial veya cape ise bu koşul Evet olarak değerlendirilir. Eğer ev stili özelliğinin değeri başka bir şeyse (örneğin, ranch), bu koşul Hayır olarak değerlendirilir.

Küme içi koşullar genellikle one-hot kodlu özellikleri test eden koşullara kıyasla daha verimli karar ağaçları oluşturur.

örnek

Örnek kelimesinin eş anlamlısı.

talimat ince ayarı

#generativeAI

İnce ayar biçimidir. Üretken yapay zeka modelinin talimatlara uyma becerisini geliştirir. Talimat ince ayarı, genellikle çok çeşitli görevleri kapsayan bir dizi talimat istemi üzerinde model eğitme işlemidir. Talimatlara göre ayarlanmış model, çeşitli görevlerde sıfır görevli istemlere yararlı yanıtlar üretme eğilimindedir.

Şununla karşılaştırın:

yorumlanabilirlik

#fundamentals

Bir makine öğrenimi modelinin muhakemesini bir insana anlaşılır bir şekilde açıklama veya sunma becerisi.

Örneğin, çoğu doğrusal regresyon modeli yüksek oranda yorumlanabilir. (Her bir özelliğin eğitilmiş ağırlıklarına bakmanız yeterlidir.) Karar ormanları da yüksek oranda yorumlanabilir. Ancak bazı modellerin yorumlanabilmesi için gelişmiş görselleştirmeler gerekir.

ML modellerini yorumlamak için Learning Interpretability Tool'u (LIT) kullanabilirsiniz.

değerlendiriciler arası uyum

#Metric

İnsan derecelendirme uzmanlarının bir görevi yaparken ne sıklıkta aynı fikirde olduğunun ölçüsü. Değerlendirme uzmanları aynı fikirde değilse görev talimatlarının iyileştirilmesi gerekebilir. Bazen yorumcular arası anlaşma veya değerlendirmeler arası güvenilirlik olarak da adlandırılır. Ayrıca, en popüler gözlemciler arası anlaşma ölçümlerinden biri olan Cohen's kappa'ya bakın.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Kategorik veriler: Yaygın sorunlar bölümüne bakın.

kesişim bölü bileşim (IoU)

#image

İki kümenin kesişiminin birleşimine bölünmesi. Makine öğrenimi görüntü algılama görevlerinde IoU, modelin tahmin edilen sınırlayıcı kutusunun kesin referans sınırlayıcı kutusuna göre doğruluğunu ölçmek için kullanılır. Bu durumda, iki kutunun IoU'su, çakışan alan ile toplam alan arasındaki orandır ve değeri 0 (tahmini sınırlayıcı kutu ile kesin referans sınırlayıcı kutu arasında çakışma yok) ile 1 (tahmini sınırlayıcı kutu ile kesin referans sınırlayıcı kutu tam olarak aynı koordinatlara sahip) arasında değişir.

Örneğin, aşağıdaki resimde:

  • Tahmin edilen sınırlayıcı kutu (modelin, resimde komodinin nerede olduğunu tahmin ettiğini sınırlayan koordinatlar) mor renkle belirtilir.
  • Kesin referans sınırlayıcı kutusu (tablodaki gece masasının gerçekte bulunduğu yeri sınırlayan koordinatlar) yeşil renkle belirtilmiştir.

Van Gogh'un Arles'teki Vincent'ın Yatak Odası adlı tablosu. Yatağın yanındaki gece masasının etrafında iki farklı sınırlayıcı kutu var. Kesin referans sınırlayıcı kutusu (yeşil renkte), komodini mükemmel şekilde çevreliyor. Tahmini sınırlayıcı kutu (mor renkte), gerçek sınırlayıcı kutunun% 50 aşağısında ve sağında yer alıyor. Komodinin sağ alt çeyreğini kapsıyor ancak tablonun geri kalanını kapsamıyor.

Burada, tahmin ve kesin referans için sınırlayıcı kutuların kesişimi (aşağıda solda) 1, tahmin ve kesin referans için sınırlayıcı kutuların birleşimi (aşağıda sağda) 7 olduğundan IoU değeri \(\frac{1}{7}\)'dır.

Yukarıdakiyle aynı görselde her sınırlayıcı kutu dört çeyreğe bölünmüştür. Kesin referans sınırlayıcı kutusunun sağ alt çeyreği ile tahmini sınırlayıcı kutunun sol üst çeyreği birbirleriyle çakıştığı için toplam yedi çeyrek vardır. Bu
          çakışan bölüm (yeşille vurgulanmış) kesişimi temsil eder ve alanı 1'dir. Yukarıdakiyle aynı görselde her sınırlayıcı kutu dört çeyreğe bölünmüştür. Kesin referans sınırlayıcı kutusunun sağ alt çeyreği ile tahmini sınırlayıcı kutunun sol üst çeyreği birbirleriyle çakıştığı için toplam yedi çeyrek vardır.
          Her iki sınırlayıcı kutuyla çevrili tüm iç kısım (yeşille vurgulanmış) birleşimi temsil eder ve alanı 7'dir.

IoU

Kesişim bölü bileşim kısaltması.

öğe matrisi

#recsystems

Öneri sistemlerinde, her öğe hakkında gizli sinyaller içeren matris çarpanlarına ayırma tarafından oluşturulan yerleştirme vektörleri matrisi. Öğe matrisinin her satırında, tüm öğeler için tek bir gizli özelliğin değeri bulunur. Örneğin, bir film öneri sistemini ele alalım. Öğe matrisindeki her sütun tek bir filmi temsil eder. Gizli sinyaller türleri temsil edebilir veya tür, yıldızlar, filmin yaşı ya da diğer faktörler arasındaki karmaşık etkileşimleri içeren, yorumlanması daha zor sinyaller olabilir.

Öğe matrisi, çarpanlarına ayrılan hedef matrisle aynı sayıda sütuna sahiptir. Örneğin, 10.000 film başlığını değerlendiren bir film öneri sistemi verildiğinde öğe matrisinde 10.000 sütun bulunur.

items

#recsystems

Öneri sisteminde, sistemin önerdiği öğeler. Örneğin, video kiralama mağazasının önerdiği öğeler videolar, kitapçının önerdiği öğeler ise kitaplardır.

iteration

#fundamentals

Modelin parametrelerinin (modelin ağırlıkları ve eğilimleri) eğitim sırasında tek bir kez güncellenmesi. Toplu iş boyutu, modelin tek bir yinelemede kaç örnek işlediğini belirler. Örneğin, toplu iş boyutu 20 ise model, parametreleri ayarlamadan önce 20 örnek işler.

Nöral ağ eğitirken tek bir yineleme aşağıdaki iki geçişi içerir:

  1. Tek bir toplu işlemdeki kaybı değerlendirmek için iletme.
  2. Modelin parametrelerini kayba ve öğrenme hızına göre ayarlamak için geriye doğru geçiş (geri yayılım).

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Gradyen inişi bölümüne bakın.

J

JAX

Yüksek performanslı sayısal bilgi işlem için XLA (Hızlandırılmış Doğrusal Cebir) ve otomatik türevlendirmeyi bir araya getiren bir dizi bilgi işlem kitaplığıdır. JAX, birleştirilebilir dönüşümlerle hızlandırılmış sayısal kod yazmak için basit ve güçlü bir API sağlar. JAX aşağıdaki gibi özellikler sunar:

  • grad (otomatik farklılaştırma)
  • jit (tam zamanında derleme)
  • vmap (otomatik vektörleştirme veya toplu işleme)
  • pmap (paralelleştirme)

JAX, sayısal kod dönüşümlerini ifade etme ve oluşturma için kullanılan bir dildir. Python'ın NumPy kitaplığına benzer ancak kapsamı çok daha geniştir. (Aslında, JAX'teki .numpy kitaplığı, Python NumPy kitaplığının işlevsel olarak eşdeğer ancak tamamen yeniden yazılmış bir sürümüdür.)

JAX, modelleri ve verileri GPU ve TPU hızlandırıcı çipleri arasında paralelliğe uygun bir biçime dönüştürerek birçok makine öğrenimi görevini hızlandırmak için özellikle uygundur.

Flax, Optax, Pax ve diğer birçok kitaplık, JAX altyapısı üzerinde oluşturulmuştur.

K

Keras

Popüler bir Python makine öğrenimi API'si. Keras, TensorFlow da dahil olmak üzere çeşitli derin öğrenme çerçevelerinde çalışır. TensorFlow'da tf.keras olarak kullanılabilir.

Çekirdek Destek Vektör Makineleri (KSVM'ler)

Giriş verisi vektörlerini daha yüksek boyutlu bir alana eşleyerek pozitif ve negatif sınıflar arasındaki marjı en üst düzeye çıkarmayı amaçlayan bir sınıflandırma algoritmasıdır. Örneğin, giriş veri kümesinin yüz özelliğe sahip olduğu bir sınıflandırma sorununu ele alalım. Pozitif ve negatif sınıflar arasındaki marjı en üst düzeye çıkarmak için bir KSVM, bu özellikleri dahili olarak bir milyon boyutlu alana eşleyebilir. KSVM'ler, menteşe kaybı adı verilen bir kayıp işlevi kullanır.

keypoints

#image

Bir resimdeki belirli özelliklerin koordinatları. Örneğin, çiçek türlerini ayırt eden bir görüntü tanıma modelinde, önemli noktalar her bir yaprağın merkezi, sap, stamen vb. olabilir.

k katlı çapraz doğrulama

Bir modelin yeni verileri genelleme yeteneğini tahmin etmeye yönelik bir algoritma. K katlı çapraz doğrulama yöntemindeki k, bir veri kümesinin örneklerini böldüğünüz eşit grup sayısını ifade eder. Yani modelinizi k kez eğitir ve test edersiniz. Eğitim ve testin her turunda farklı bir grup test kümesi, kalan tüm gruplar ise eğitim kümesi olur. k eğitim ve test turundan sonra, seçilen test metriklerinin ortalamasını ve standart sapmasını hesaplarsınız.

Örneğin, veri kümenizin 120 örnekten oluştuğunu varsayalım. Ayrıca, k'yi 4 olarak ayarlamaya karar verdiğinizi varsayalım. Bu nedenle, örnekleri karıştırdıktan sonra veri kümesini 30 örnekten oluşan dört eşit gruba ayırır ve dört eğitim ve test turu gerçekleştirirsiniz:

Dört eşit örnek grubuna ayrılmış bir veri kümesi. 1. turda,
          ilk üç grup eğitim için, son grup ise
          test için kullanılır. 2. turda, ilk iki grup ve son grup eğitim için, üçüncü grup ise test için kullanılır. 3. turda, ilk grup ve son iki grup eğitim için, ikinci grup ise test için kullanılır.
          4. turda ilk grup test için, son üç grup ise eğitim için kullanılır.

Örneğin, ortalama karesel hata (MSE), doğrusal regresyon modeli için en anlamlı metrik olabilir. Bu nedenle, dört tur boyunca MSE'nin ortalamasını ve standart sapmasını bulursunuz.

k-ortalama

#clustering

Denetimsiz öğrenmede örnekleri gruplandıran popüler bir kümeleme algoritması. K-ortalama algoritması temel olarak şunları yapar:

  • En iyi k merkez noktasını (centroidler olarak bilinir) yinelemeli olarak belirler.
  • Her örneği en yakın merkez noktasına atar. Aynı merkez noktasına en yakın olan örnekler aynı gruba aittir.

K-means algoritması, her örnekten en yakın merkez noktasına olan uzaklıkların kümülatif karesini en aza indirmek için merkez noktası konumlarını seçer.

Örneğin, köpek yüksekliğinin köpek genişliğine göre grafiğini inceleyelim:

Birkaç düzine veri noktası içeren bir Kartezyen grafiği.

k=3 ise k-means algoritması üç merkez belirler. Her örnek, en yakın merkez noktasına atanır ve üç grup oluşturulur:

Önceki resimdekiyle aynı Kartezyen grafik. Yalnızca üç ağırlık merkezi eklenmiştir.
          Önceki veri noktaları üç ayrı grupta toplanır. Her grup, belirli bir merkez noktasına en yakın olan veri noktalarını temsil eder.

Bir üreticinin, köpekler için küçük, orta ve büyük beden kazakların ideal boyutlarını belirlemek istediğini düşünün. Üç merkez nokta, bu kümedeki her köpeğin ortalama yüksekliğini ve ortalama genişliğini tanımlar. Bu nedenle, üretici muhtemelen kazak bedenlerini bu üç merkez noktasına göre belirlemelidir. Bir kümenin merkez noktasının genellikle kümedeki bir örnek olmadığını unutmayın.

Önceki resimlerde, yalnızca iki özelliğe (yükseklik ve genişlik) sahip örnekler için k-means algoritması gösterilmektedir. K-means algoritmasının, örnekleri birçok özellik genelinde gruplandırabileceğini unutmayın.

Daha fazla bilgi için Kümeleme kursundaki K-means kümeleme nedir? başlıklı makaleyi inceleyin.

k-medyan

#clustering

K-ortalama ile yakından ilişkili bir kümeleme algoritması. Bu iki veri türü arasındaki pratik fark şöyledir:

  • K-means'te, merkezler bir merkez adayı ile örneklerinin her biri arasındaki mesafenin karelerinin toplamı en aza indirilerek belirlenir.
  • k-medyanında, merkezler bir merkez adayı ile örneklerinin her biri arasındaki mesafenin toplamını en aza indirerek belirlenir.

Mesafe tanımlarının da farklı olduğunu unutmayın:

  • k-ortalama, merkezden bir örneğe olan Öklid uzaklığını temel alır. (İki boyutta Öklid mesafesi, hipotenüsü hesaplamak için Pisagor teoreminin kullanılması anlamına gelir.) Örneğin, (2,2) ile (5,-2) arasındaki k-means mesafesi şu şekilde olur:
$$ {\text{Euclidean distance}} = {\sqrt {(2-5)^2 + (2--2)^2}} = 5 $$
  • k-medyan, merkezoidden bir örneğe olan Manhattan uzaklığına dayanır. Bu mesafe, her boyuttaki mutlak farkların toplamıdır. Örneğin, (2,2) ile (5,-2) arasındaki k-medyan uzaklığı şu şekilde olur:
$$ {\text{Manhattan distance}} = \lvert 2-5 \rvert + \lvert 2--2 \rvert = 7 $$

L

L0 normalleştirmesi

#fundamentals

Bir modeldeki sıfır olmayan ağırlıkların toplam sayısını cezalandıran bir normalleştirme türü. Örneğin, 11 sıfır olmayan ağırlığa sahip bir model, 10 sıfır olmayan ağırlığa sahip benzer bir modelden daha fazla cezalandırılır.

L0 normalleştirmesi bazen L0 normlu normalleştirme olarak adlandırılır.

L1 kaybı

#fundamentals
#Metric

Gerçek etiket değerleri ile modelin tahmin ettiği değerler arasındaki farkın mutlak değerini hesaplayan bir kayıp işlevi. Örneğin, beş örnekten oluşan bir toplu işlem için L1 kaybının hesaplanması aşağıda verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Delta'nın mutlak değeri
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kaybı

L1 kaybı, L2 kaybına kıyasla aykırı değerlere karşı daha az hassastır.

Ortalama mutlak hata, örnek başına ortalama L1 kaybıdır.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Doğrusal Regresyon: Kayıp bölümüne bakın.

L1 normalleştirmesi

#fundamentals

Ağırlıkların mutlak değerinin toplamıyla orantılı olarak ağırlıklara ceza uygulayan bir normalleştirme türü. L1 normalleştirme, alakasız veya neredeyse alakasız özelliklerin ağırlıklarını tam olarak 0'a düşürmeye yardımcı olur. Ağırlığı 0 olan bir özellik, modelden etkili bir şekilde kaldırılır.

L2 normalleştirmesi ile karşılaştırın.

L2 kaybı

#fundamentals
#Metric

Gerçek etiket değerleri ile modelin tahmin ettiği değerler arasındaki farkın karesini hesaplayan bir kayıp işlevi. Örneğin, beş örnekten oluşan bir toplu işlem için L2 kaybının hesaplanması aşağıda verilmiştir:

Örneğin gerçek değeri Modelin tahmini değeri Delta kare
7 6 1
5 4 1
8 11 9
4 6 4
9 8 1
  16 = L2 kaybı

Kare alma işlemi nedeniyle L2 kaybı, aykırı değerlerin etkisini artırır. Yani L2 kaybı, kötü tahminlere L1 kaybından daha güçlü tepki verir. Örneğin, önceki toplu iş için L1 kaybı 16 yerine 8 olur. 16 değerin 9'unun tek bir aykırı değerden oluştuğuna dikkat edin.

Regresyon modelleri genellikle kayıp işlevi olarak L2 kaybını kullanır.

Ortalama Karesel Hata, örnek başına ortalama L2 kaybıdır. Kare kaybı, L2 kaybının diğer adıdır.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Lojistik regresyon: Kayıp ve düzenlileştirme bölümüne bakın.

L2 normalleştirme

#fundamentals

Ağırlıkların karelerinin toplamıyla orantılı olarak ağırlıklara oran uygulayan bir normalleştirme türü. L2 düzenlileştirme, aykırı ağırlıkların (yüksek pozitif veya düşük negatif değerlere sahip olanlar) 0'a daha yakın olmasına yardımcı olur ancak tam olarak 0'a ulaşmaz. Değerleri 0'a çok yakın olan özellikler modelde kalır ancak modelin tahminini çok fazla etkilemez.

L2 düzenlileştirme, doğrusal modellerde her zaman genelleştirmeyi iyileştirir.

L1 normalleştirmesi ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş Hızlandırılmış Kursu'ndaki Aşırı Uydurma: L2 düzenlileştirme bölümüne bakın.

etiket

#fundamentals

Denetimli makine öğreniminde, bir örneğin "yanıt" veya "sonuç" kısmı.

Her etiketli örnek, bir veya daha fazla özellikten ve bir etiketten oluşur. Örneğin, bir spam algılama veri kümesinde etiket muhtemelen "spam" veya "spam değil" olur. Bir yağış veri kümesinde etiket, belirli bir dönemde düşen yağmur miktarı olabilir.

Daha fazla bilgi için Makine Öğrenimine Giriş bölümündeki Denetimli Öğrenme başlıklı makaleyi inceleyin.

etiketli örnek

#fundamentals

Bir veya daha fazla özellik ve bir etiket içeren bir örnek. Örneğin, aşağıdaki tabloda bir ev değerleme modelinden alınmış, her biri üç özelliğe ve bir etikete sahip üç etiketli örnek gösterilmektedir:

Yatak odası sayısı Banyo sayısı Evin yaşı Ev fiyatı (etiket)
3 2 15 345.000 ABD doları
2 1 72 $179.000
4 2 34 392.000 ABD doları

Gözetimli makine öğreniminde, modeller etiketli örnekler üzerinde eğitilir ve etiketsiz örnekler üzerinde tahminler yapar.

Etiketli örneği etiketsiz örneklerle karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş bölümündeki Denetimli Öğrenme başlıklı makaleyi inceleyin.

etiket sızıntısı

Bir özelliğin etiketin yerine kullanıldığı model tasarım hatası. Örneğin, olası bir müşterinin belirli bir ürünü satın alıp almayacağını tahmin eden bir ikili sınıflandırma modelini ele alalım. Modelin özelliklerinden birinin SpokeToCustomerAgent adlı bir Boole olduğunu varsayalım. Ayrıca, müşteri temsilcisinin yalnızca potansiyel müşteri ürünü satın aldıktan sonra atandığını varsayalım. Eğitim sırasında model, SpokeToCustomerAgent ile etiket arasındaki ilişkiyi hızlıca öğrenir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki İşlem hatlarını izleme bölümüne bakın.

lambda

#fundamentals

Normalleştirme oranı ile eş anlamlıdır.

Lambda, aşırı yüklenmiş bir terimdir. Burada, terimin normalleştirme kapsamındaki tanımına odaklanıyoruz.

LaMDA (Language Model for Dialogue Applications)

#language

Google tarafından geliştirilen, Transformer tabanlı bir büyük dil modelidir. Büyük bir diyalog veri kümesi üzerinde eğitilmiş olup gerçekçi sohbet yanıtları üretebilir.

LaMDA: Çığır açan sohbet teknolojimiz hakkında genel bir bakış sunar.

önemli noktalar

#image

keypoints kelimesinin eş anlamlısı.

dil modeli

#language

Daha uzun bir jeton dizisinde bir jetonun veya jeton dizisinin gerçekleşme olasılığını tahmin eden bir modeldir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Dil modeli nedir? konusuna bakın.

büyük dil modeli

#language

En azından çok sayıda parametreye sahip bir dil modeli. Daha gayri resmi olarak, Gemini veya GPT gibi Transformer tabanlı herhangi bir dil modeli.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Büyük dil modelleri (LLM'ler) başlıklı makaleye göz atın.

gecikme

#generativeAI

Bir modelin girişi işlemesi ve yanıt oluşturması için gereken süre. Yüksek gecikme süresine sahip bir yanıtın oluşturulması, düşük gecikme süresine sahip bir yanıttan daha uzun sürer.

Büyük dil modellerinin gecikmesini etkileyen faktörler şunlardır:

  • Giriş ve çıkış [jeton] uzunlukları
  • Model karmaşıklığı
  • Modelin üzerinde çalıştığı altyapı

Gecikmeye göre optimizasyon, duyarlı ve kullanıcı dostu uygulamalar oluşturmak için çok önemlidir.

latent space

#language

Yerleştirme uzayı ile eş anlamlıdır.

katman

#fundamentals

Nöral ağdaki bir grup nöron. Sık kullanılan üç katman türü şunlardır:

Örneğin, aşağıdaki resimde bir giriş katmanı, iki gizli katman ve bir çıkış katmanı içeren bir sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir sinir ağı. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

TensorFlow'da katmanlar, Tensor'ları ve yapılandırma seçeneklerini giriş olarak alan, çıkış olarak da başka tensorlar üreten Python işlevleridir.

Layers API (tf.layers)

#TensorFlow

Katmanların birleşimi olarak derin bir sinir ağı oluşturmak için kullanılan TensorFlow API'si. Layers API, aşağıdakiler gibi farklı türlerde katmanlar oluşturmanıza olanak tanır:

Layers API, Keras katmanları API kurallarına uyar. Yani, farklı bir önek dışında, Layers API'deki tüm işlevler, Keras katmanları API'deki karşılıklarıyla aynı adlara ve imzalara sahiptir.

yaprak

#df

Karar ağacındaki herhangi bir uç nokta. Bir koşulun aksine, yaprak test yapmaz. Daha doğrusu, yaprak olası bir tahmindir. Yaprak, çıkarım yolunun son düğümüdür.

Örneğin, aşağıdaki karar ağacında üç yaprak bulunur:

Üç yaprağa yol açan iki koşullu bir karar ağacı.

Daha fazla bilgi için Karar Ormanları kursundaki Karar ağaçları bölümüne bakın.

Learning Interpretability Tool (LIT)

Görsel ve etkileşimli bir model anlama ve veri görselleştirme aracı.

Modelleri yorumlamak veya metin, resim ve tablo verilerini görselleştirmek için açık kaynaklı LIT'i kullanabilirsiniz.

öğrenme hızı

#fundamentals

Gradyan inişi algoritmasına her iterasyonda ağırlıkların ve yanlılıkların ne kadar güçlü şekilde ayarlanacağını söyleyen bir kayan noktalı sayıdır. Örneğin, 0,3 öğrenme hızı, ağırlıkları ve yanlılıkları 0,1 öğrenme hızına kıyasla üç kat daha güçlü bir şekilde ayarlar.

Öğrenme hızı önemli bir hiperparametredir. Öğrenme oranını çok düşük ayarlarsanız eğitim çok uzun sürer. Öğrenme oranını çok yüksek ayarlarsanız gradyan inişi genellikle yakınsama noktasına ulaşmakta zorlanır.

Daha fazla bilgi için Makine Öğrenimine Hızlı Bakış Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

en küçük kareler regresyonu

L2 kaybı en aza indirilerek eğitilmiş bir doğrusal regresyon modeli.

Levenshtein Uzaklığı

#language
#metric

Bir kelimeyi başka bir kelimeye dönüştürmek için gereken en az silme, ekleme ve değiştirme işlemlerini hesaplayan bir düzenleme mesafesi metriği. Örneğin, "heart" ve "darts" kelimeleri arasındaki Levenshtein mesafesi üçtür. Çünkü bir kelimeyi diğerine dönüştürmek için en az üç düzenleme gerekir:

  1. heart → deart ("h" yerine "d" koyma)
  2. deart → dart ("e" harfi silinir)
  3. dart → darts (insert "s")

Yukarıdaki sıranın, üç düzenlemenin tek yolu olmadığını unutmayın.

doğrusal

#fundamentals

Yalnızca toplama ve çarpma işlemleriyle gösterilebilen iki veya daha fazla değişken arasındaki ilişki.

Doğrusal bir ilişkinin grafiği bir doğrudur.

Doğrusal olmayan ile karşılaştırma.

doğrusal model

#fundamentals

Tahmin yapmak için her bir özelliğe bir ağırlık atayan bir model. (Doğrusal modellerde yanlılık da bulunur.) Buna karşılık, derin modellerde özelliklerin tahminlerle ilişkisi genellikle doğrusal değildir.

Doğrusal modellerin eğitimi genellikle daha kolaydır ve derin modellere kıyasla daha yorumlanabilir. Ancak derin modeller, özellikler arasındaki karmaşık ilişkileri öğrenebilir.

Doğrusal regresyon ve mantıksal regresyon, iki tür doğrusal modeldir.

doğrusal regresyon

#fundamentals

Aşağıdakilerin her ikisinin de geçerli olduğu bir makine öğrenimi modeli türü:

Doğrusal regresyonu mantıksal regresyonla karşılaştırın. Ayrıca regresyonu sınıflandırma ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Doğrusal regresyon bölümüne bakın.

LIT

Daha önce Language Interpretability Tool olarak bilinen Learning Interpretability Tool (LIT)'in kısaltması.

LLM

#language
#generativeAI

Büyük dil modeli kısaltması.

LLM değerlendirmeleri (evals)

#language
#generativeAI
#Metric

Büyük dil modellerinin (LLM'ler) performansını değerlendirmeye yönelik bir dizi metrik ve karşılaştırma. Özetle, LLM değerlendirmeleri:

  • Araştırmacıların, LLM'lerin iyileştirilmesi gereken alanları belirlemesine yardımcı olun.
  • Farklı büyük dil modellerini karşılaştırmak ve belirli bir görev için en iyi büyük dil modelini belirlemek amacıyla kullanılır.
  • Büyük dil modellerinin güvenli ve etik bir şekilde kullanılmasını sağlamaya yardımcı olur.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Büyük dil modelleri (LLM'ler) başlıklı makaleye göz atın.

mantıksal regresyon

#fundamentals

Bir olasılığı tahmin eden bir tür regresyon modeli. Lojistik regresyon modelleri aşağıdaki özelliklere sahiptir:

  • Etiket kategoriktir. Mantıksal regresyon terimi genellikle ikili mantıksal regresyonu, yani iki olası değere sahip etiketlerin olasılıklarını hesaplayan bir modeli ifade eder. Daha az yaygın bir varyant olan çok terimli lojistik regresyon, ikiden fazla olası değere sahip etiketlerin olasılıklarını hesaplar.
  • Eğitim sırasında kullanılan kayıp fonksiyonu Log Loss'tur. (İkiden fazla olası değere sahip etiketler için birden fazla Log Loss birimi paralel olarak yerleştirilebilir.)
  • Model, derin sinir ağı değil, doğrusal bir mimariye sahiptir. Ancak bu tanımın geri kalanı, kategorik etiketlerin olasılıklarını tahmin eden derin modeller için de geçerlidir.

Örneğin, bir giriş e-postasının spam veya spam olmama olasılığını hesaplayan bir lojistik regresyon modelini ele alalım. Çıkarım sırasında modelin 0, 72 tahmin ettiğini varsayalım. Bu nedenle, model şunları tahmin etmektedir:

  • E-postanın spam olma olasılığı% 72.
  • E-postanın spam olmama olasılığı% 28.

Lojistik regresyon modeli, aşağıdaki iki adımlı mimariyi kullanır:

  1. Model, giriş özelliklerinin doğrusal bir fonksiyonunu uygulayarak ham bir tahmin (y') oluşturur.
  2. Model, bu ham tahmini sigmoid işlevine girdi olarak kullanır. Bu işlev, ham tahmini 0 ile 1 arasında (0 ve 1 hariç) bir değere dönüştürür.

Herhangi bir regresyon modeli gibi, mantıksal regresyon modeli de bir sayı tahmin eder. Ancak bu sayı genellikle aşağıdaki gibi ikili sınıflandırma modelinin bir parçası haline gelir:

  • Tahmin edilen sayı sınıflandırma eşiğinden büyükse ikili sınıflandırma modeli pozitif sınıfı tahmin eder.
  • Tahmin edilen sayı, sınıflandırma eşiğinden küçükse ikili sınıflandırma modeli negatif sınıfı tahmin eder.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Lojistik regresyon bölümüne bakın.

logits

Bir sınıflandırma modelinin oluşturduğu ham (normalleştirilmemiş) tahmin vektörü. Bu vektör normalde bir normalleştirme işlevine iletilir. Model bir çok sınıflı sınıflandırma sorununu çözüyorsa logitler genellikle softmax işlevinin girdisi olur. Ardından softmax işlevi, her olası sınıf için bir değer içeren (normalleştirilmiş) olasılık vektörü oluşturur.

Günlük Kaybı

#fundamentals

İkili mantıksal regresyonda kullanılan kayıp fonksiyonu.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Lojistik regresyon: Kayıp ve düzenlileştirme bölümüne bakın.

log-odds

#fundamentals

Bazı olayların olasılık oranının logaritması.

Uzun kısa süreli bellek (LSTM)

#seq

El yazısı tanıma, makine çevirisi ve görüntü açıklaması gibi uygulamalarda veri dizilerini işlemek için kullanılan bir yinelemeli sinir ağı hücresi türü. LSTMLer, RNN'leri eğitirken uzun veri dizileri nedeniyle ortaya çıkan kaybolan gradyan sorununu, RNN'deki önceki hücrelerden gelen yeni giriş ve bağlama dayalı bir dahili bellek durumunda geçmişi koruyarak ele alır.

LoRA

#language
#generativeAI

Düşük Sıralı Uyarlanabilirlik'in kısaltmasıdır.

mağlubiyet

#fundamentals
#Metric

Gözetimli bir modelin eğitimi sırasında, modelin tahmininin etiketinden ne kadar uzak olduğunu gösteren bir ölçü.

Kayıp işlevi, kaybı hesaplar.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Doğrusal regresyon: Kayıp bölümüne bakın.

kayıp toplayıcı

Birden fazla modelin tahminlerini birleştirerek ve bu tahminleri tek bir tahmin yapmak için kullanarak modelin performansını artıran bir makine öğrenimi algoritması türü. Sonuç olarak, bir kayıp toplayıcı tahminlerin varyansını azaltabilir ve tahminlerin doğruluğunu artırabilir.

kayıp eğrisi

#fundamentals

Eğitim iterasyonlarının sayısının bir fonksiyonu olarak kaybın grafiği. Aşağıdaki grafikte tipik bir kayıp eğrisi gösterilmektedir:

Kayıp ile eğitim yinelemeleri arasındaki ilişkiyi gösteren bir Kartezyen grafik. İlk yinelemelerde kayıpta hızlı bir düşüş, ardından kademeli bir düşüş ve son yinelemelerde düz bir eğim gösterir.

Kayıp eğrileri, modelinizin ne zaman yakınlaştığını veya aşırı uyum sağladığını belirlemenize yardımcı olabilir.

Kayıp eğrileri, aşağıdaki kayıp türlerinin tümünü çizebilir:

Ayrıca genelleştirme eğrisini de inceleyin.

Daha fazla bilgi için Makine Öğrenimine Hızlı Bakış kursundaki Aşırı Uydurma: Kayıp eğrilerini yorumlama başlıklı makaleye bakın.

kayıp fonksiyonu

#fundamentals
#Metric

Eğitim veya test sırasında, bir örnek grubu üzerindeki kaybı hesaplayan matematiksel bir işlev. Bir kayıp işlevi, iyi tahminler yapan modeller için kötü tahminler yapan modellere göre daha düşük bir kayıp değeri döndürür.

Eğitimin amacı genellikle bir kayıp işlevinin döndürdüğü kaybı en aza indirmektir.

Birçok farklı türde kayıp fonksiyonu vardır. Oluşturduğunuz model türü için uygun kayıp işlevini seçin. Örneğin:

kayıp yüzeyi

Kilo kaybı grafiği. Gradyan iniş, kayıp yüzeyinin yerel minimumda olduğu ağırlıkları bulmayı amaçlar.

Düşük Dereceli Uyarlanabilirlik (LoRA)

#language
#generativeAI

Modelin önceden eğitilmiş ağırlıklarını "dondurarak" (artık değiştirilemezler) ve ardından modele küçük bir eğitilebilir ağırlık grubu ekleyerek ince ayar yapmaya yönelik parametre açısından verimli bir teknik. Bu eğitilebilir ağırlıklar kümesi ("güncelleme matrisleri" olarak da bilinir) temel modelden önemli ölçüde küçüktür ve bu nedenle eğitimi çok daha hızlıdır.

LoRA aşağıdaki avantajları sağlar:

  • İnce ayarın uygulandığı alan için modelin tahminlerinin kalitesini artırır.
  • Bir modelin tüm parametrelerinin ince ayarını gerektiren tekniklerden daha hızlı ince ayar yapar.
  • Aynı temel modeli paylaşan birden fazla uzmanlaşmış modelin eşzamanlı olarak sunulmasını sağlayarak çıkarım hesaplama maliyetini düşürür.

LSTM

#seq

Uzun kısa süreli bellek'in kısaltmasıdır.

M

makine öğrenimi

#fundamentals

Giriş verilerinden model eğiten bir program veya sistem. Eğitilmiş model, modeli eğitmek için kullanılan dağıtımla aynı dağıtımdan alınan yeni (daha önce hiç görülmemiş) verilerden yararlı tahminler yapabilir.

Makine öğrenimi, bu programlar veya sistemlerle ilgili çalışma alanını da ifade eder.

Daha fazla bilgi için Makine Öğrenimine Giriş kursuna bakın.

makine çevirisi

#generativeAI

Metni bir insan dilinden başka bir insan diline (ör. İngilizceden Japoncaya) dönüştürmek için yazılım (genellikle makine öğrenimi modeli) kullanma.

çoğunluk sınıfı

#fundamentals

Sınıf dengesizliği olan bir veri kümesinde daha yaygın olan etiket. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesinde negatif etiketler çoğunluk sınıfıdır.

Azınlık sınıfıyla karşılaştırma

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Veri kümeleri: Dengesiz veri kümeleri bölümüne bakın.

Markov karar süreci (MDP)

#rl

Markov özelliği geçerli olduğu varsayımıyla bir dizi durumda gezinmek için kararlar (veya işlemler) alınan karar verme modelini temsil eden bir grafik. Pekiştirme öğreniminde durumlar arasındaki bu geçişler sayısal bir ödül döndürür.

Markov özelliği

#rl

Durum geçişlerinin tamamen mevcut durumda ve temsilcinin eyleminde örtülü olarak bulunan bilgilerle belirlendiği belirli ortamların bir özelliği.

maskelenmiş dil modeli

#language

Bir dizideki boşlukları dolduracak aday jetonların olasılığını tahmin eden bir dil modeli. Örneğin, maskelenmiş bir dil modeli, aşağıdaki cümlede altı çizili kelimenin yerine geçecek aday kelimelerin olasılıklarını hesaplayabilir:

The ____ in the hat came back.

Literatürde genellikle alt çizgi yerine "MASK" dizesi kullanılır. Örneğin:

Şapka üzerindeki "MASK" yazısı geri geldi.

Çoğu modern maskelenmiş dil modeli çift yönlüdür.

matplotlib

Açık kaynaklı bir Python 2D çizim kitaplığı olan matplotlib, makine öğreniminin farklı yönlerini görselleştirmenize yardımcı olur.

matrisi çarpanlara ayırma

#recsystems

Matematikte, skaler çarpımı hedef matrise yaklaşan matrisleri bulma mekanizması.

Öneri sistemlerinde hedef matris, genellikle kullanıcıların öğelerle ilgili puanlarını içerir. Örneğin, bir film öneri sisteminin hedef matrisi aşağıdaki gibi görünebilir. Burada pozitif tam sayılar kullanıcı derecelendirmelerini, 0 ise kullanıcının filmi derecelendirmediğini gösterir:

  Kazablanka The Philadelphia Story Black Panther Wonder Woman Ucuz Roman
1. Kullanıcı 5,0 3,0 0,0 2,0 0,0
2. Kullanıcı 4.0 0,0 0,0 1,0 5,0
3. Kullanıcı 3,0 1,0 4.0 5,0 0,0

Film öneri sistemi, derecelendirilmemiş filmler için kullanıcı derecelendirmelerini tahmin etmeyi amaçlar. Örneğin, 1. Kullanıcı Black Panther filmini beğenir mi?

Öneri sistemlerinde kullanılan bir yaklaşım, aşağıdaki iki matrisi oluşturmak için matris çarpanlarına ayırma yöntemini kullanmaktır:

  • Kullanıcı sayısı X yerleştirme boyutu sayısı şeklinde oluşturulan bir kullanıcı matrisi.
  • Öğe matrisi, yerleştirme boyutlarının sayısı X öğe sayısı şeklinde oluşturulur.

Örneğin, üç kullanıcımız ve beş öğemiz üzerinde matrisi çarpanlara ayırma yöntemini kullandığımızda aşağıdaki kullanıcı matrisi ve öğe matrisi elde edilebilir:

User Matrix                 Item Matrix

1.1   2.3           0.9   0.2   1.4    2.0   1.2
0.6   2.0           1.7   1.2   1.2   -0.1   2.1
2.5   0.5

Kullanıcı matrisi ile öğe matrisinin nokta çarpımı, yalnızca orijinal kullanıcı puanlarını değil, aynı zamanda her kullanıcının izlemediği filmlerle ilgili tahminleri de içeren bir öneri matrisi oluşturur. Örneğin, Kullanıcı 1'in Casablanca filmine verdiği 5, 0 puanı ele alalım. Öneri matrisinde bu hücreye karşılık gelen skaler çarpım, umarız 5,0 civarındadır ve şöyledir:

(1.1 * 0.9) + (2.3 * 1.7) = 4.9

Daha da önemlisi, 1. Kullanıcı Black Panther'ı beğenir mi? İlk satır ve üçüncü sütuna karşılık gelen nokta çarpımı, 4,3 olarak tahmin edilen bir puanı verir:

(1.1 * 1.4) + (2.3 * 1.2) = 4.3

Matrisi çarpanlara ayırma genellikle hedef matristen çok daha kompakt olan bir kullanıcı matrisi ve öğe matrisi oluşturur.

Ortalama mutlak hata (MAE)

#Metric

L1 kaybı kullanıldığında örnek başına ortalama kayıp. Ortalama mutlak hatayı aşağıdaki şekilde hesaplayın:

  1. Bir toplu iş için L1 kaybını hesaplayın.
  2. L1 kaybını toplu işteki örnek sayısına bölün.

Örneğin, aşağıdaki beş örnekten oluşan toplu işlemde L1 kaybının hesaplanmasını ele alalım:

Örneğin gerçek değeri Modelin tahmini değeri Kayıp (gerçek ve tahmin edilen değer arasındaki fark)
7 6 1
5 4 1
8 11 3
4 6 2
9 8 1
  8 = L1 kaybı

Bu nedenle, L1 kaybı 8 ve örnek sayısı 5'tir. Bu nedenle, ortalama mutlak hata şöyledir:

Mean Absolute Error = L1 loss / Number of Examples
Mean Absolute Error = 8/5 = 1.6

Ortalama mutlak hatayı ortalama karesel hata ve kök ortalama karesel hata ile karşılaştırın.

k'da ortalama hassasiyet (mAP@k)

#language
#generativeAI
#Metric

Bir doğrulama veri kümesindeki tüm k değerinde ortalama hassasiyet puanlarının istatistiksel ortalaması. k'da ortalama hassasiyetin bir kullanım alanı, öneri sistemi tarafından oluşturulan önerilerin kalitesini değerlendirmektir.

"Ortalama" ifadesi gereksiz gibi görünse de metriğin adı uygundur. Bu metrik, birden fazla k değerinde ortalama kesinliğin ortalamasını bulur.

Ortalama Karesel Hata (MSE)

#Metric

L2 kaybı kullanıldığında örnek başına ortalama kayıp. Ortalama karesel hatayı aşağıdaki şekilde hesaplayın:

  1. Bir toplu iş için L2 kaybını hesaplayın.
  2. L2 kaybını toplu işteki örnek sayısına bölün.

Örneğin, aşağıdaki beş örneklik gruptaki kaybı ele alalım:

Gerçek değer Modelin tahmini Kayıp Karesel kayıp
7 6 1 1
5 4 1 1
8 11 3 9
4 6 2 4
9 8 1 1
16 = L2 kaybı

Bu nedenle, ortalama karesel hata şöyledir:

Mean Squared Error = L2 loss / Number of Examples
Mean Squared Error = 16/5 = 3.2

Ortalama karesel hata, özellikle doğrusal regresyon için popüler bir eğitim optimizasyon aracıdır.

Karesel ortalama hatayı ortalama mutlak hata ve kök ortalama kare hatası ile karşılaştırın.

TensorFlow Playground, kayıp değerlerini hesaplamak için ortalama kare hatayı kullanır.

örgü

#TensorFlow
#GoogleCloud

Makine öğrenimi paralel programlamada, verileri ve modeli TPU çiplere atama ve bu değerlerin nasıl parçalanacağını veya kopyalanacağını tanımlama ile ilişkili bir terimdir.

Mesh, aşağıdaki anlamlara gelebilen aşırı yüklenmiş bir terimdir:

  • TPU çiplerinin fiziksel düzeni.
  • Verileri ve modeli TPU çipleriyle eşlemek için kullanılan soyut bir mantıksal yapı.

Her iki durumda da bir ağ, şekil olarak belirtilir.

meta öğrenme

#language

Bir öğrenme algoritmasını keşfeden veya geliştiren makine öğrenimi alt kümesi. Meta öğrenme sistemi, az miktarda veriden veya önceki görevlerde kazanılan deneyimlerden yeni bir görevi hızlıca öğrenecek bir modeli eğitmek için de kullanılabilir. Meta öğrenme algoritmaları genellikle aşağıdakileri yapmaya çalışır:

  • Elle tasarlanmış özellikleri (ör. başlatıcı veya optimize edici) iyileştirin ya da öğrenin.
  • Veri ve işlem açısından daha verimli olun.
  • Genelleştirmeyi iyileştirin.

Meta öğrenme, az görevli öğrenme ile ilgilidir.

metrik

#TensorFlow
#Metric

Önemsediğiniz bir istatistik.

Hedef, makine öğrenimi sisteminin optimize etmeye çalıştığı bir metriktir.

Metrics API (tf.metrics)

#Metric

Modelleri değerlendirmek için kullanılan bir TensorFlow API'si. Örneğin, tf.metrics.accuracy, bir modelin tahminlerinin etiketlerle ne sıklıkta eşleştiğini belirler.

mini toplu iş

#fundamentals

Tek bir iterasyonda işlenen toplu işin küçük ve rastgele seçilmiş bir alt kümesi. Bir mini toplu işin toplu iş boyutu genellikle 10 ile 1.000 örnek arasındadır.

Örneğin, tüm eğitim kümesinin (tam toplu iş) 1.000 örnekten oluştuğunu varsayalım. Ayrıca, her mini toplu işin toplu iş boyutunu 20 olarak ayarladığınızı varsayalım. Bu nedenle, her yinelemede 1.000 örnekten rastgele seçilen 20 örnekteki kayıp belirlenir ve ardından ağırlıklar ve önyargılar buna göre ayarlanır.

Kaybı tam toplu işteki tüm örnekler üzerinden hesaplamak yerine mini toplu iş üzerinden hesaplamak çok daha verimlidir.

Daha fazla bilgi için Makine Öğrenimine Hızlı Bakış Kursu'ndaki Doğrusal regresyon: Hiperparametreler bölümüne bakın.

mini toplu stokastik gradyan inişi

Mini gruplar kullanan bir gradyan azalma algoritması. Diğer bir deyişle, mini toplu stokastik gradyan inişi, gradyanı eğitim verilerinin küçük bir alt kümesine göre tahmin eder. Normal stokastik gradyan inişi, 1 boyutlu bir mini toplu iş kullanır.

minimax kaybı

#Metric

Üretilen verilerin dağıtımı ile gerçek veriler arasındaki çapraz entropiye dayalı olarak üretken karşıt ağlar için bir kayıp işlevi.

Minimax kaybı, üretken rakip ağları açıklamak için ilk makalede kullanılmıştır.

Daha fazla bilgi için Üretken Çekişmeli Ağlar kursundaki Kayıp İşlevleri bölümüne bakın.

azınlık sınıfı

#fundamentals

Sınıf dengesizliği olan bir veri kümesindeki daha az yaygın etiket. Örneğin, %99 negatif etiket ve% 1 pozitif etiket içeren bir veri kümesinde pozitif etiketler azınlık sınıfıdır.

Çoğunluk sınıfıyla karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Veri kümeleri: Dengesiz veri kümeleri bölümüne bakın.

uzman karışımı

#language
#generativeAI

Belirli bir giriş jetonunu veya örneğini işlemek için parametrelerinin yalnızca bir alt kümesini (uzman olarak bilinir) kullanarak sinir ağı verimliliğini artırma planı. Bir giriş kontrolü ağı, her giriş jetonunu veya örneğini uygun uzmanlara yönlendirir.

Ayrıntılar için aşağıdaki makalelerden birine bakın:

ML

Makine öğrenimi kısaltması.

MMIT

#language
#image
#generativeAI

Çok formatlı talimatlara göre ayarlanmış ifadesinin kısaltması.

MNIST

#image

LeCun, Cortes ve Burges tarafından derlenen, kamu malı olan bir veri kümesi. Bu veri kümesi, her biri bir insanın 0-9 arasındaki belirli bir rakamı manuel olarak nasıl yazdığını gösteren 60.000 resim içerir. Her resim, 28x28 tamsayı dizisi olarak saklanır. Her tamsayı, 0 ile 255 arasında (0 ve 255 dahil) bir gri tonlama değeridir.

MNIST, makine öğrenimi için kurallı bir veri kümesidir ve genellikle yeni makine öğrenimi yaklaşımlarını test etmek için kullanılır. Ayrıntılar için The MNIST Database of Handwritten Digits başlıklı makaleyi inceleyin.

modalite

#language

Üst düzey bir veri kategorisi. Örneğin, sayılar, metin, resimler, video ve ses beş farklı formatı ifade eder.

model

#fundamentals

Genel olarak, giriş verilerini işleyen ve çıkış döndüren tüm matematiksel yapılar. Başka bir deyişle model, bir sistemin tahmin yapması için gereken parametreler ve yapı kümesidir. Gözetimli makine öğreniminde, bir model giriş olarak örnek alır ve çıkış olarak tahmin çıkarır. Gözetimli makine öğreniminde modeller biraz farklılık gösterir. Örneğin:

  • Doğrusal regresyon modeli, bir dizi ağırlık ve bir önyargıdan oluşur.
  • Nöral ağ modeli şunlardan oluşur:
    • Her biri bir veya daha fazla nöron içeren bir dizi gizli katman.
    • Her bir nöronla ilişkili ağırlıklar ve sapma.
  • Karar ağacı modeli şunlardan oluşur:
    • Ağacın şekli; yani koşulların ve yaprakların bağlanma şekli.
    • Koşullar ve izinler

Modelleri kaydedebilir, geri yükleyebilir veya kopyalayabilirsiniz.

Gözetimsiz makine öğrenimi de modeller oluşturur. Bu modeller genellikle bir giriş örneğini en uygun kümeye eşleyebilen bir işlevdir.

model kapasitesi

#Metric

Bir modelin öğrenebileceği sorunların karmaşıklığı. Bir modelin öğrenebileceği sorunlar ne kadar karmaşıksa modelin kapasitesi de o kadar yüksek olur. Bir modelin kapasitesi genellikle model parametrelerinin sayısıyla artar. Sınıflandırma modeli kapasitesinin resmi tanımı için VC boyutu başlıklı makaleye bakın.

model basamaklandırma

#generativeAI

Belirli bir çıkarım sorgusu için ideal modeli seçen bir sistem.

Çok büyük (çok sayıda parametre) ile çok daha küçük (çok daha az parametre) arasında değişen bir grup model olduğunu düşünün. Çok büyük modeller, çıkarım sırasında daha küçük modellere kıyasla daha fazla bilişim kaynağı tüketir. Ancak çok büyük modeller genellikle daha küçük modellere kıyasla daha karmaşık istekleri tahmin edebilir. Model basamaklandırma, çıkarım sorgusunun karmaşıklığını belirler ve ardından çıkarımı gerçekleştirmek için uygun modeli seçer. Model basamaklandırmanın temel amacı, genellikle daha küçük modelleri seçerek ve yalnızca daha karmaşık sorgular için daha büyük bir model seçerek çıkarım maliyetlerini düşürmektir.

Küçük bir modelin telefonda, bu modelin daha büyük bir sürümünün ise uzak bir sunucuda çalıştığını düşünün. İyi bir model basamaklandırması, küçük modelin basit istekleri işlemesini sağlayarak ve yalnızca karmaşık istekleri işlemek için uzak modeli çağırarak maliyeti ve gecikmeyi azaltır.

Ayrıca model yönlendirici başlıklı makaleyi de inceleyin.

model paralelliği

#language

Bir modelin farklı bölümlerini farklı cihazlara yerleştirerek eğitimi veya çıkarımı ölçeklendirme yöntemi. Model paralelliği, tek bir cihaza sığamayacak kadar büyük modelleri kullanmanıza olanak tanır.

Model paralelliğini uygulamak için bir sistem genellikle aşağıdakileri yapar:

  1. Modeli daha küçük parçalara ayırır.
  2. Bu küçük parçaların eğitimini birden fazla işlemciye dağıtır. Her işlemci, modelin kendi bölümünü eğitir.
  3. Tek bir model oluşturmak için sonuçları birleştirir.

Model paralelliği eğitimi yavaşlatır.

Ayrıca veri paralelliği başlıklı makaleyi de inceleyin.

model router

#generativeAI

Model sıralamada çıkarım için ideal modeli belirleyen algoritma. Model yönlendirici, genellikle belirli bir giriş için en iyi modeli nasıl seçeceğini kademeli olarak öğrenen bir makine öğrenimi modelidir. Ancak model yönlendirici bazen daha basit bir makine öğrenimi dışı algoritma olabilir.

model eğitimi

En iyi modeli belirleme süreci.

MOE

#language
#image
#generativeAI

Uzman karışımı ifadesinin kısaltması.

İlgiyi Artırma

Öğrenme adımının yalnızca mevcut adımdaki türeve değil, aynı zamanda hemen önceki adımın türevlerine de bağlı olduğu gelişmiş bir gradyan iniş algoritması. Momentum, zaman içindeki gradyanların üstel olarak ağırlıklandırılmış hareketli ortalamasını hesaplamayı içerir. Bu, fizikteki momentuma benzer. Momentum, öğrenmenin bazen yerel minimumlarda takılmasını önler.

MT

#generativeAI

Makine çevirisi kısaltması.

çok sınıflı sınıflandırma

#fundamentals

Denetimli öğrenmede, veri kümesinin ikiden fazla sınıf etiket içerdiği bir sınıflandırma problemi. Örneğin, Iris veri kümesindeki etiketler aşağıdaki üç sınıftan biri olmalıdır:

  • Iris setosa
  • Iris virginica
  • Iris versicolor

Yeni örneklerde Iris türünü tahmin etmek için Iris veri kümesi üzerinde eğitilmiş bir model, çok sınıflı sınıflandırma gerçekleştiriyor.

Buna karşılık, tam olarak iki sınıf arasında ayrım yapan sınıflandırma sorunları ikili sınıflandırma modelleridir. Örneğin, spam veya spam değil olarak tahmin yapan bir e-posta modeli, ikili sınıflandırma modelidir.

Kümeleme sorunlarında çok sınıflı sınıflandırma, ikiden fazla kümeyi ifade eder.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Nöral ağlar: Çok sınıflı sınıflandırma başlıklı makaleyi inceleyin.

çok sınıflı mantıksal regresyon

Çok sınıflı sınıflandırma sorunlarında mantıksal regresyon kullanma.

çok başlı kendi kendine dikkat

#language

Giriş dizisindeki her konum için öz dikkat mekanizmasını birden çok kez uygulayan bir öz dikkat uzantısıdır.

Transformers, çok başlı öz dikkat özelliğini kullanıma sundu.

çok formatlı talimatlara göre ayarlanmış

#language

Metnin yanı sıra resim, video ve ses gibi girişleri işleyebilen talimatlara göre ayarlanmış bir model.

çok formatlı model

#language

Girişleri, çıkışları veya her ikisi de birden fazla modalite içeren model. Örneğin, hem resmi hem de metin açıklamasını (iki format) özellik olarak alan ve metin açıklamasının resim için ne kadar uygun olduğunu gösteren bir puan çıkaran bir modeli ele alalım. Bu nedenle, bu modelin girişleri çok formatlı, çıkışı ise tek formatlıdır.

çok terimli sınıflandırma

Çok sınıflı sınıflandırma ile eş anlamlıdır.

çok terimli regresyon

Çok sınıflı mantıksal regresyon ile eş anlamlıdır.

çoklu görev

Tek bir modelin birden fazla görevi yerine getirmek üzere eğitildiği bir makine öğrenimi tekniği.

Çok görevli modeller, farklı görevlerin her biri için uygun verilerle eğitilerek oluşturulur. Bu sayede model, görevler arasında bilgi paylaşmayı öğrenir ve daha etkili bir şekilde öğrenir.

Birden fazla görev için eğitilmiş bir model genellikle daha iyi genelleme yeteneklerine sahiptir ve farklı veri türlerini işlemekte daha sağlam olabilir.

H

Nano

#generativeAI

Cihaz üzerinde kullanım için tasarlanmış, nispeten küçük bir Gemini modeli. Ayrıntılı bilgi için Gemini Nano başlıklı makaleyi inceleyin.

Ayrıca Pro ve Ultra planlarını da inceleyin.

NaN tuzağı

Modelinizdeki bir sayı eğitim sırasında NaN (Sayı Değil) değerine dönüştüğünde, modelinizdeki diğer sayıların çoğu veya tamamı da sonunda NaN değerine dönüşür.

NaN, Not a Number (Sayı Değil) ifadesinin kısaltmasıdır.

doğal dil işleme

#language
Bilgisayarlara, kullanıcının söylediği veya yazdığı şeyleri dilbilimsel kuralları kullanarak işlemeyi öğretme alanı. Neredeyse tüm modern doğal dil işleme, makine öğrenimine dayanır.

doğal dil anlama

#language

Söylenen veya yazılan bir şeyin niyetini belirleyen bir doğal dil işleme alt kümesi. Doğal dil anlama, bağlam, alay ve duygu gibi dilin karmaşık yönlerini dikkate almak için doğal dil işlemenin ötesine geçebilir.

negatif sınıf

#fundamentals
#Metric

İkili sınıflandırmada bir sınıfa pozitif, diğerine ise negatif adı verilir. Pozitif sınıf, modelin test ettiği şey veya etkinliktir. Negatif sınıf ise diğer olasılıktır. Örneğin:

  • Bir tıbbi testteki negatif sınıf "tümör yok" olabilir.
  • Bir e-posta sınıflandırma modelindeki negatif sınıf "spam değil" olabilir.

Pozitif sınıfla karşılaştırın.

negatif örnekleme

Aday örnekleme ile eş anlamlıdır.

Nöral Mimarili Arama (NAS)

Sinir ağı mimarisini otomatik olarak tasarlama tekniği. NAS algoritmaları, bir nöral ağı eğitmek için gereken süreyi ve kaynak miktarını azaltabilir.

NAS genellikle şunları kullanır:

  • Olası mimarilerden oluşan bir arama alanı.
  • Belirli bir mimarinin belirli bir görevdeki performansını ölçen bir uygunluk işlevi.

NAS algoritmaları genellikle olası mimarilerin küçük bir grubuyla başlar ve algoritma, hangi mimarilerin etkili olduğu hakkında daha fazla bilgi edindikçe arama alanını kademeli olarak genişletir. Uygunluk işlevi genellikle mimarinin bir eğitim kümesindeki performansına dayanır ve algoritma genellikle bir pekiştirmeli öğrenme tekniği kullanılarak eğitilir.

NAS algoritmalarının, görüntü sınıflandırma, metin sınıflandırma ve makine çevirisi gibi çeşitli görevler için yüksek performanslı mimariler bulmada etkili olduğu kanıtlanmıştır.

nöral ağ

#fundamentals

En az bir gizli katman içeren bir model. Derin nöral ağ, birden fazla gizli katman içeren bir nöral ağ türüdür. Örneğin, aşağıdaki şemada iki gizli katman içeren derin bir sinir ağı gösterilmektedir.

Giriş katmanı, iki gizli katmanı ve çıkış katmanı olan bir sinir ağı.

Nöral ağdaki her nöron, bir sonraki katmandaki tüm düğümlere bağlanır. Örneğin, önceki şemada ilk gizli katmandaki üç nöronun her birinin ikinci gizli katmandaki iki nöronun her ikisine de ayrı ayrı bağlandığını görebilirsiniz.

Bilgisayarlarda uygulanan nöral ağlar, beyinlerde ve diğer sinir sistemlerinde bulunan nöral ağlardan ayırt etmek için bazen yapay nöral ağlar olarak adlandırılır.

Bazı sinir ağları, farklı özellikler ve etiket arasındaki son derece karmaşık doğrusal olmayan ilişkileri taklit edebilir.

Ayrıca evrişimli nöral ağ ve yinelemeli nöral ağ başlıklı makalelere de bakın.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Nöral ağlar bölümünü inceleyin.

nöron

#fundamentals

Makine öğreniminde, nöral ağın gizli katmanındaki ayrı bir birim. Her nöron aşağıdaki iki adımlı işlemi gerçekleştirir:

  1. Giriş değerlerinin, karşılık gelen ağırlıklarıyla çarpılmış ağırlıklı toplamını hesaplar.
  2. Ağırlıklı toplamı bir etkinleştirme işlevine giriş olarak iletir.

İlk gizli katmandaki bir nöron, giriş katmanındaki özellik değerlerinden girişleri kabul eder. İlk katmanın ötesindeki herhangi bir gizli katmanda bulunan bir nöron, önceki gizli katmandaki nöronlardan girişleri kabul eder. Örneğin, ikinci gizli katmandaki bir nöron, ilk gizli katmandaki nöronlardan giriş kabul eder.

Aşağıdaki resimde iki nöron ve bunların girişleri vurgulanmaktadır.

Giriş katmanı, iki gizli katmanı ve çıkış katmanı olan bir sinir ağı. İki nöron vurgulanır: biri ilk gizli katmanda, diğeri ikinci gizli katmanda. İlk gizli katmandaki vurgulanmış nöron, giriş katmanındaki her iki özellikten de giriş alır. İkinci gizli katmandaki vurgulanmış nöron, ilk gizli katmandaki üç nöronun her birinden giriş alır.

Nöral ağdaki bir nöron, beyinlerdeki ve sinir sistemlerinin diğer kısımlarındaki nöronların davranışını taklit eder.

N-gram

#seq
#language

N kelimeden oluşan sıralı bir dizi. Örneğin, truly madly bir 2 gramdır. Sıra önemli olduğundan madly truly, truly madly'den farklı bir 2 gramdır.

H Bu tür N-gram'ların adları Örnekler
2 bigram veya 2-gram gitmek, öğle yemeği yemek, akşam yemeği yemek
3 üçlü veya 3 gram ate too much, happily ever after, the bell tolls
4 4-gram walk in the park, dust in the wind, the boy ate lentils (parkta yürüyüş, rüzgardaki toz, çocuk mercimek yedi)

Birçok doğal dil anlama modeli, kullanıcının yazacağı veya söyleyeceği bir sonraki kelimeyi tahmin etmek için N-gram'lardan yararlanır. Örneğin, bir kullanıcının happily ever yazdığını varsayalım. Üçlü gramlara dayalı bir NLU modeli, kullanıcının bir sonraki kelime olarak sonra kelimesini yazacağını tahmin edebilir.

N-gram'ları, sıralanmamış kelime kümeleri olan kelime torbasıyla karşılaştırın.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Büyük dil modelleri bölümüne bakın.

NLP

#language

Doğal dil işleme kısaltması.

NLU

#language

Doğal dil anlama kısaltması.

düğüm (karar ağacı)

#df

Karar ağacında herhangi bir koşul veya yaprak.

İki koşullu ve üç yapraklı bir karar ağacı.

Daha fazla bilgi için Karar Ormanları kursundaki Karar Ağaçları bölümüne bakın.

düğüm (nöral ağ)

#fundamentals

Gizli katmandaki bir nöron.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Nöral Ağlar bölümünü inceleyin.

düğüm (TensorFlow grafiği)

#TensorFlow

TensorFlow grafiğindeki bir işlem.

gürültü

Genel olarak, bir veri kümesindeki sinyali gizleyen her şey. Gürültü, verilere çeşitli şekillerde dahil edilebilir. Örneğin:

  • İnsan derecelendirmeciler etiketlemede hata yapabilir.
  • İnsanlar ve enstrümanlar, özellik değerlerini yanlış kaydeder veya atlar.

ikili olmayan koşul

#df

İkiden fazla olası sonuç içeren bir koşul. Örneğin, aşağıdaki ikili olmayan koşul üç olası sonuç içerir:

Üç olası sonuçla sonuçlanan bir koşul (number_of_legs = ?). Bir sonuç (number_of_legs = 8), örümcek adlı bir yaprağa yol açar. İkinci bir sonuç (number_of_legs = 4), köpek adlı bir yaprağa yol açar. Üçüncü bir sonuç (number_of_legs = 2), penguen adlı bir yaprağa yol açar.

Daha fazla bilgi için Karar Ormanları kursundaki Koşul türleri bölümünü inceleyin.

doğrusal olmayan

#fundamentals

Yalnızca toplama ve çarpma işlemleriyle gösterilemeyen iki veya daha fazla değişken arasındaki ilişki. Doğrusal bir ilişki çizgi olarak gösterilebilir. Doğrusal olmayan bir ilişki çizgi olarak gösterilemez. Örneğin, her biri tek bir özelliği tek bir etiketle ilişkilendiren iki modeli ele alalım. Soldaki model doğrusal, sağdaki model ise doğrusal değildir:

İki arsa. Bir grafik çizgidir, bu nedenle bu doğrusal bir ilişkidir.
          Diğer grafik bir eğri olduğundan bu doğrusal olmayan bir ilişkidir.

Farklı türde doğrusal olmayan işlevlerle denemeler yapmak için Makine Öğrenimine Giriş Kursu'ndaki Nöral ağlar: Düğümler ve gizli katmanlar bölümüne bakın.

yanıt vermeme önyargısı

#responsible

Seçim yanlılığı konusunu inceleyin.

durağan olmama

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişen bir özellik. Örneğin, durağan olmama durumuna ilişkin aşağıdaki örnekleri inceleyin:

  • Belirli bir mağazada satılan mayo sayısı mevsime göre değişir.
  • Belirli bir bölgede hasat edilen belirli bir meyvenin miktarı yılın büyük bir bölümünde sıfır olsa da kısa bir süre boyunca yüksek olabilir.
  • İklim değişikliği nedeniyle yıllık ortalama sıcaklıklar değişiyor.

Durağanlık ile karşılaştırın.

tek doğru yanıt yok (NORA)

#language
#generativeAI

Birden fazla uygun yanıtı olan bir istem. Örneğin, aşağıdaki istemin tek bir doğru yanıtı yoktur:

Fillerle ilgili bir fıkra anlat.

Tek bir doğru yanıtı olmayan istemleri değerlendirmek zor olabilir.

NORA

#language
#generativeAI

Doğru cevap yok ifadesinin kısaltması.

normalleştirme

#fundamentals

Genel olarak, bir değişkenin gerçek değer aralığını standart bir değer aralığına dönüştürme süreci. Örneğin:

  • -1 ile +1 arasında
  • 0 ile 1 arasında
  • Z puanları (kabaca -3 ila +3)

Örneğin, belirli bir özelliğin gerçek değer aralığının 800 ila 2.400 olduğunu varsayalım. Özellik mühendisliği kapsamında, gerçek değerleri -1 ile +1 gibi standart bir aralığa normalleştirebilirsiniz.

Normalleştirme, özellik mühendisliğinde yaygın bir görevdir. Özellik vektöründeki her sayısal özellik yaklaşık olarak aynı aralığa sahip olduğunda modeller genellikle daha hızlı eğitilir (ve daha iyi tahminler üretir).

Ayrıca Z puanı normalleştirme konusuna da bakın.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Sayısal Veriler: Normalleştirme bölümüne bakın.

Notebook LM

#language
#generativeAI

Kullanıcıların doküman yüklemesine ve ardından bu dokümanlarla ilgili soru sormak, özetlemek veya dokümanları düzenlemek için istemler kullanmasına olanak tanıyan Gemini tabanlı bir araç. Örneğin, bir yazar birkaç kısa öykü yükleyip NotebookLM'den ortak temalarını bulmasını veya hangisinin en iyi film olacağını belirlemesini isteyebilir.

yenilik algılama

Yeni bir örneğin eğitim kümesiyle aynı dağılımdan gelip gelmediğini belirleme süreci. Diğer bir deyişle, eğitim kümesi üzerinde eğitimden sonra yenilik algılama, yeni bir örneğin (çıkarım sırasında veya ek eğitim sırasında) aykırı değer olup olmadığını belirler.

Aykırı değer algılama ile karşılaştırma

sayısal veriler

#fundamentals

Tam sayılar veya gerçek değerli sayılar olarak gösterilen özellikler. Örneğin, bir ev değerleme modeli, evin büyüklüğünü (metrekare veya fit kare cinsinden) sayısal veri olarak temsil eder. Bir özelliği sayısal veri olarak temsil etmek, özelliğin değerlerinin etiketle matematiksel bir ilişkisi olduğunu gösterir. Yani bir evdeki metrekare sayısı muhtemelen evin değeriyle matematiksel bir ilişkiye sahiptir.

Tüm tam sayı verileri sayısal veri olarak gösterilmemelidir. Örneğin, dünyanın bazı bölgelerindeki posta kodları tam sayıdır ancak tam sayı posta kodları modellerde sayısal veri olarak gösterilmemelidir. Bunun nedeni, 20000 posta kodunun 10000 posta kodundan iki kat (veya yarısı) daha etkili olmamasıdır. Ayrıca, farklı posta kodları farklı emlak değerleriyle ilişkili olsa da 20000 posta kodundaki emlak değerlerinin 10000 posta kodundaki emlak değerlerinden iki kat daha değerli olduğunu varsayamayız. Posta kodları bunun yerine kategorik veri olarak gösterilmelidir.

Sayısal özelliklere bazen sürekli özellikler de denir.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sayısal verilerle çalışma bölümüne bakın.

NumPy

Python'da verimli dizi işlemleri sağlayan bir açık kaynaklı matematik kitaplığıdır. pandas, NumPy üzerine kurulmuştur.

O

hedef

#Metric

Algoritmanızın optimize etmeye çalıştığı bir metrik.

amaç işlevi

#Metric

Bir modelin optimize etmeyi amaçladığı matematiksel formül veya metrik. Örneğin, doğrusal regresyon için amaç işlevi genellikle ortalama kare kaybıdır. Bu nedenle, doğrusal regresyon modeli eğitilirken eğitim, ortalama kare kaybını en aza indirmeyi amaçlar.

Bazı durumlarda amaç, hedef işlevi en üst düzeye çıkarmaktır. Örneğin, amaç işlevi doğruluksa hedef, doğruluğu en üst düzeye çıkarmaktır.

Ayrıca kayıp konusuna da bakın.

eğik koşul

#df

Karar ağacında birden fazla özelliğin yer aldığı bir koşul. Örneğin, yükseklik ve genişlik özellikse aşağıdaki koşul eğik koşuldur:

  height > width

Eksenle hizalanmış koşul ile karşılaştırın.

Daha fazla bilgi için Karar Ormanları kursundaki Koşul türleri bölümünü inceleyin.

çevrimdışı

#fundamentals

Statik kelimesinin eş anlamlısı.

çevrimdışı çıkarım

#fundamentals

Bir modelin toplu tahminler oluşturup bu tahminleri önbelleğe alma (kaydetme) süreci. Böylece uygulamalar, modeli yeniden çalıştırmak yerine önbellekteki çıkarılmış tahmine erişebilir.

Örneğin, dört saatte bir yerel hava durumu tahminleri (öngörüler) oluşturan bir modeli ele alalım. Sistem, her model çalıştırmasından sonra tüm yerel hava durumu tahminlerini önbelleğe alır. Hava durumu uygulamaları, tahminleri önbellekten alır.

Çevrimdışı çıkarıma statik çıkarım da denir.

Online çıkarım ile karşılaştırın. Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Üretim ML sistemleri: Statik ve dinamik çıkarım bölümüne bakın.

one-hot kodlama

#fundamentals

Kategorik verileri şu şekilde vektör olarak temsil etme:

  • Bir öğe 1 olarak ayarlanır.
  • Diğer tüm öğeler 0 olarak ayarlanır.

Tek sıcak kodlama, olası değerleri sınırlı olan dizeleri veya tanımlayıcıları temsil etmek için yaygın olarak kullanılır. Örneğin, Scandinavia adlı belirli bir kategorik özelliğin beş olası değeri olduğunu varsayalım:

  • "Danimarka"
  • "İsveç"
  • "Norveç"
  • "Finland"
  • "İzlanda"

Tek sıcak kodlama, beş değerin her birini aşağıdaki gibi temsil edebilir:

Ülke Vektör
"Danimarka" 1 0 0 0 0
"İsveç" 0 1 0 0 0
"Norveç" 0 0 1 0 0
"Finland" 0 0 0 1 0
"İzlanda" 0 0 0 0 1

Tek sıcaklık kodlaması sayesinde bir model, beş ülkenin her birine göre farklı bağlantılar öğrenebilir.

Bir özelliği sayısal veri olarak temsil etmek, one-hot kodlamaya bir alternatiftir. Maalesef İskandinav ülkelerini sayısal olarak temsil etmek iyi bir seçim değildir. Örneğin, aşağıdaki sayısal gösterimi ele alalım:

  • "Denmark" is 0
  • "İsveç" 1
  • "Norveç" 2
  • "Finland" is 3
  • "İzlanda" 4

Sayısal kodlamada model, ham sayıları matematiksel olarak yorumlar ve bu sayılar üzerinde eğitim almaya çalışır. Ancak İzlanda, Norveç'in iki katı (veya yarısı) olmadığından model bazı tuhaf sonuçlara varır.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Kategorik veriler: Sözcük dağarcığı ve tek sıcak kodlama bölümüne bakın.

tek görevli öğrenme

Genellikle nesne sınıflandırması için kullanılan, tek bir eğitim örneğinden etkili bir sınıflandırma modeli öğrenmek üzere tasarlanmış bir makine öğrenimi yaklaşımı.

Çok görevli öğrenme ve sıfır görevli öğrenme bölümlerini de inceleyin.

tek görevli istem

#language
#generativeAI

Büyük dil modelinin nasıl yanıt vermesi gerektiğini gösteren bir örnek içeren istem. Örneğin, aşağıdaki istemde büyük bir dil modeline bir sorguya nasıl yanıt vermesi gerektiğini gösteren bir örnek yer alıyor.

Bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Fransa: EUR Bir örnek verelim.
Hindistan: Gerçek sorgu.

Tek görev istemi ile aşağıdaki terimleri karşılaştırın:

bire karşı tümü

#fundamentals

N sınıflı bir sınıflandırma problemi verildiğinde, her olası sonuç için bir ikili sınıflandırıcı olmak üzere N ayrı ikili sınıflandırıcıdan oluşan bir çözüm. Örneğin, örnekleri hayvan, bitki veya mineral olarak sınıflandıran bir model verildiğinde, bire karşı tüm çözüm aşağıdaki üç ayrı ikili sınıflandırıcıyı sağlar:

  • hayvan ve hayvan olmayan
  • sebze ve sebze olmayan
  • mineral ve mineral olmayan

online

#fundamentals

Dinamik kelimesinin eş anlamlısı.

online çıkarım

#fundamentals

İsteğe bağlı olarak tahminler oluşturma. Örneğin, bir uygulamanın bir modele giriş ilettiğini ve tahmin isteğinde bulunduğunu varsayalım. Online çıkarım kullanan bir sistem, modeli çalıştırarak (ve tahmini uygulamaya döndürerek) isteğe yanıt verir.

Çevrimdışı çıkarım ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Üretim ML sistemleri: Statik ve dinamik çıkarım bölümüne bakın.

işlem (op)

#TensorFlow

TensorFlow'da Tensor oluşturan, değiştiren veya yok eden tüm işlemler. Örneğin, matris çarpımı, giriş olarak iki tensör alan ve çıkış olarak bir tensör oluşturan bir işlemdir.

Optax

JAX için bir gradyan işleme ve optimizasyon kitaplığı. Optax, derin nöral ağlar gibi parametrik modelleri optimize etmek için özel şekillerde yeniden birleştirilebilen yapı taşları sağlayarak araştırmayı kolaylaştırır. Diğer hedefler şunlardır:

  • Temel bileşenlerin okunabilir, iyi test edilmiş ve verimli uygulamalarını sağlama.
  • Düşük seviyeli bileşenlerin özel optimize edicilerde (veya diğer gradyan işleme bileşenlerinde) birleştirilmesini sağlayarak üretkenliği artırma.
  • Herkesin katkıda bulunmasını kolaylaştırarak yeni fikirlerin benimsenmesini hızlandırın.

optimizer

Gradyan inişi algoritmasının belirli bir uygulaması. Popüler optimizasyon araçları şunlardır:

  • AdaGrad, ADAptive GRADient descent (uyarlanabilir gradyan azalma) anlamına gelir.
  • Adam, Momentum ile Uyarlanabilir anlamına gelir.

grup dışı homojenlik önyargısı

#responsible

Tutumları, değerleri, kişilik özelliklerini ve diğer özellikleri karşılaştırırken grup dışı üyeleri grup içi üyelerden daha benzer görme eğilimi. Grup içi, düzenli olarak etkileşimde bulunduğunuz kişileri; grup dışı ise düzenli olarak etkileşimde bulunmadığınız kişileri ifade eder. Kullanıcılardan grup dışındaki kişilerle ilgili özellikler sağlamalarını isteyerek bir veri kümesi oluşturursanız bu özellikler, katılımcıların kendi gruplarındaki kişiler için listelediği özelliklere kıyasla daha az ayrıntılı ve daha çok klişeleşmiş olabilir.

Örneğin, Lilliputlular diğer Lilliputluların evlerini ayrıntılı bir şekilde açıklayabilir, mimari stiller, pencereler, kapılar ve boyutlardaki küçük farklılıklardan bahsedebilir. Ancak aynı Lilliputlular, Brobdingnaglıların hepsinin aynı evde yaşadığını söyleyebilir.

Grup dışı homojenlik önyargısı, bir gruba atfetme önyargısı türüdür.

Ayrıca grup içi önyargı konusuna da bakın.

aykırı değer algılama

Eğitim kümesindeki aykırı değerleri belirleme süreci.

Yenilik tespiti ile karşılaştırın.

düşünün

Diğer değerlerin çoğundan uzak olan değerler. Makine öğreniminde aşağıdakilerin tümü aykırı değerdir:

  • Değerleri ortalamadan yaklaşık 3 standart sapmadan fazla olan verileri girin.
  • Mutlak değerleri yüksek olan ağırlıklar.
  • Tahmin edilen değerler, gerçek değerlerden nispeten uzaktır.

Örneğin, widget-price simgesinin belirli bir modelin özelliği olduğunu varsayalım. Ortalama widget-price değerinin 7 avro, standart sapmanın ise 1 avro olduğunu varsayalım. Bu nedenle, 12 avro veya 2 avro widget-price içeren örnekler aykırı değer olarak kabul edilir. Çünkü bu fiyatların her biri ortalamadan beş standart sapma uzaktadır.

Aykırı değerlere genellikle yazım hataları veya diğer giriş hataları neden olur. Diğer durumlarda ise aykırı değerler hata değildir. Ortalama değerden beş standart sapma uzaklıktaki değerler nadir olsa da imkansız değildir.

Aykırı değerler genellikle model eğitiminde sorunlara neden olur. Kırpma, aykırı değerleri yönetmenin bir yoludur.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sayısal verilerle çalışma bölümüne bakın.

out-of-bag evaluation (OOB evaluation)

#df

Her bir karar ağacını, o karar ağacının eğitimi sırasında kullanılmayan örneklerle karşılaştırarak karar ormanının kalitesini değerlendirme mekanizması. Örneğin, aşağıdaki şemada sistemin her karar ağacını örneklerin yaklaşık üçte ikisi üzerinde eğittiğini ve ardından örneklerin kalan üçte biri üzerinde değerlendirdiğini görebilirsiniz.

Üç karar ağacından oluşan bir karar ormanı.
          Bir karar ağacı, örneklerin üçte ikisi üzerinde eğitilir ve ardından kalan üçte biri OOB değerlendirmesi için kullanılır.
          İkinci bir karar ağacı, örneklerin önceki karar ağacından farklı olan üçte ikisi üzerinde eğitilir ve ardından önceki karar ağacından farklı olan üçte birlik bir bölümü OOB değerlendirmesi için kullanır.

Torba dışı değerlendirme, çapraz doğrulama mekanizmasının hesaplama açısından verimli ve tutarlı bir yaklaşımıdır. Çapraz doğrulama işleminde, her çapraz doğrulama turu için bir model eğitilir (örneğin, 10 katlı çapraz doğrulama işleminde 10 model eğitilir). Bant dışı değerlendirmede tek bir model eğitilir. Torbalama, eğitim sırasında her ağaçtan bazı verileri sakladığı için OOB değerlendirmesi, çapraz doğrulamayı yaklaşık olarak hesaplamak için bu verileri kullanabilir.

Daha fazla bilgi için Karar Ormanları kursundaki Torba dışı değerlendirme bölümüne bakın.

çıkış katmanı

#fundamentals

Nöral ağın "son" katmanı. Çıkış katmanı, tahmini içerir.

Aşağıdaki görselde, giriş katmanı, iki gizli katman ve çıkış katmanı olan küçük bir derin sinir ağı gösterilmektedir:

Bir giriş katmanı, iki gizli katman ve bir çıkış katmanı olan bir sinir ağı. Giriş katmanı iki özellikten oluşur. İlk gizli katman üç nörondan, ikinci gizli katman ise iki nörondan oluşur. Çıkış katmanı tek bir düğümden oluşur.

fazla uyumlu

#fundamentals

Modelin, eğitim verileriyle o kadar yakından eşleşmesi ki model, yeni verilerle ilgili doğru tahminler yapamaz.

Düzenlileştirme, aşırı uyumu azaltabilir. Büyük ve çeşitli bir eğitim kümesi üzerinde eğitim yapmak da aşırı uyumu azaltabilir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Aşırı Uydurma bölümüne bakın.

aşırı örnekleme

Daha dengeli bir eğitim kümesi oluşturmak için sınıf dengesizliği olan bir veri kümesindeki azınlık sınıfının örneklerini yeniden kullanma.

Örneğin, ikili sınıflandırma sorununda çoğunluk sınıfının azınlık sınıfına oranı 5.000:1 olsun. Veri kümesi bir milyon örnek içeriyorsa veri kümesinde azınlık sınıfına ait yalnızca yaklaşık 200 örnek vardır. Bu, etkili bir eğitim için çok az örnek olabilir. Bu eksikliği gidermek için 200 örneği birden çok kez yeniden kullanarak yeterli sayıda örnek elde edebilir ve bu örneklerle faydalı bir eğitim gerçekleştirebilirsiniz.

Aşırı örnekleme yaparken aşırı uyum konusunda dikkatli olmanız gerekir.

Eksik örnekleme ile karşılaştırın.

P

paketlenmiş veriler

Verileri daha verimli bir şekilde depolama yaklaşımı.

Paketlenmiş veriler, verileri sıkıştırılmış bir biçimde veya daha verimli bir şekilde erişilebilmesini sağlayan başka bir şekilde depolar. Paketlenmiş veriler, verilere erişmek için gereken bellek ve işlem miktarını en aza indirerek daha hızlı eğitim ve daha verimli model çıkarımı sağlar.

Paketlenmiş veriler genellikle veri artırma ve düzenlileştirme gibi diğer tekniklerle birlikte kullanılarak modellerin performansı daha da iyileştirilir.

PaLM

Pathways Language Model'in kısaltmasıdır.

pandalar

#fundamentals

numpy üzerine kurulu, sütun odaklı bir veri analizi API'si. TensorFlow da dahil olmak üzere birçok makine öğrenimi çerçevesi, giriş olarak pandas veri yapılarını destekler. Ayrıntılar için pandas belgelerine bakın.

parametresi

#fundamentals

Modelin eğitim sırasında öğrendiği ağırlıklar ve eğilimler. Örneğin, bir doğrusal regresyon modelinde parametreler, aşağıdaki formüldeki sapma (b) ve tüm ağırlıklardan (w1, w2 vb.) oluşur:

$$y' = b + w_1x_1 + w_2x_2 + … w_nx_n$$

Buna karşılık, hiperparametreler, sizin (veya bir hiperparametre ayarlama hizmetinin) modele sağladığı değerlerdir. Örneğin, öğrenme oranı bir hiperparametredir.

parametrelerin verimli kullanıldığı ayarlama

#language
#generativeAI

Tam ince ayardan daha verimli bir şekilde büyük bir önceden eğitilmiş dil modeline (PLM) ince ayar yapmaya yönelik bir dizi teknik. Parametre açısından verimli ayarlama, genellikle tam ayarlamaya kıyasla çok daha az sayıda parametreye ince ayar yapar ancak genellikle tam ayarlamadan oluşturulan büyük dil modeli kadar (veya neredeyse o kadar) iyi performans gösteren bir büyük dil modeli üretir.

Parametrelerin verimli kullanıldığı ayarlamayı aşağıdakilerle karşılaştırın:

Parametrelerin verimli kullanıldığı ayarlama, parametrelerin verimli kullanıldığı ince ayar olarak da bilinir.

Parametre sunucusu (PS)

#TensorFlow

Dağıtılmış bir ortamda modelin parametrelerini takip eden bir iş.

parametre güncellemesi

Eğitim sırasında, genellikle gradyan azalma işleminin tek bir yinelemesi içinde bir modelin parametrelerini ayarlama işlemi.

kısmi türev

Bir değişken hariç tüm değişkenlerin sabit olarak kabul edildiği türev. Örneğin, f(x, y) fonksiyonunun x'e göre kısmi türevi, yalnızca x'in fonksiyonu olarak kabul edilen f'nin türevidir (yani y sabit tutulur). f'nin x'e göre kısmi türevi yalnızca x'in nasıl değiştiğine odaklanır ve denklemdeki diğer tüm değişkenleri göz ardı eder.

katılım önyargısı

#responsible

Yanıt vermeme yanlılığı için eş anlamlıdır. Seçim yanlılığı konusunu inceleyin.

bölümlendirme stratejisi

Değişkenlerin parametre sunucularına dağıtıldığı algoritma.

k'da pas (pass@k)

#Metric

Büyük dil modelinin oluşturduğu kodun (ör. Python) kalitesini belirleyen bir metrik. Daha spesifik olarak, k'da geçme, k oluşturulan kod bloğundan en az birinin tüm birim testlerini geçme olasılığını gösterir.

Büyük dil modelleri, karmaşık programlama sorunları için genellikle iyi kodlar oluşturmakta zorlanır. Yazılım mühendisleri, büyük dil modelinden aynı sorun için birden fazla (k) çözüm üretmesini isteyerek bu soruna uyum sağlar. Ardından, yazılım mühendisleri çözümlerin her birini birim testlerine göre test eder. k'da geçme hesaplaması birim testlerinin sonucuna bağlıdır:

  • Bu çözümlerden biri veya daha fazlası birim testini geçerse LLM, kod oluşturma görevini geçer.
  • Çözümlerden hiçbiri birim testini geçemezse LLM, kod oluşturma görevinde başarısız olur.

k noktasındaki pas için formül aşağıdaki gibidir:

\[\text{pass at k} = \frac{\text{total number of passes}} {\text{total number of challenges}}\]

Genel olarak, k değerleri ne kadar yüksek olursa k'da geçme puanları da o kadar yüksek olur. Ancak k değerleri ne kadar yüksek olursa büyük dil modeli ve birim testi kaynakları da o kadar fazla gerekir.

Pathways Language Model (PaLM)

Gemini modellerinin eski bir modeli ve öncüsüdür.

Pax

#generativeAI

Birden fazla TPU hızlandırıcı çip dilimini veya kapsülünü kapsayacak kadar büyük ölçekli nöral ağ modellerini eğitmek için tasarlanmış bir programlama çerçevesi.

Pax, JAX üzerinde oluşturulan Flax üzerinde oluşturulmuştur.

Pax'in yazılım yığınındaki konumunu gösteren şema.
          Pax, JAX'in üzerine inşa edilmiştir. Pax'ın kendisi üç katmandan oluşur. En alttaki katmanda TensorStore ve Flax bulunur.
          Orta katmanda Optax ve Flaxformer bulunur. En üst katmanda Praxis Modelleme Kitaplığı bulunur. Fiddle, Pax'in üzerine inşa edilmiştir.

perceptron

Bir veya daha fazla giriş değeri alan, girişlerin ağırlıklı toplamı üzerinde bir işlev çalıştıran ve tek bir çıkış değeri hesaplayan bir sistemdir (donanım veya yazılım). Makine öğreniminde işlev genellikle doğrusal değildir. Örneğin, ReLU, sigmoid veya tanh. Örneğin, aşağıdaki algılayıcı üç giriş değerini işlemek için sigmoid işlevini kullanır:

$$f(x_1, x_2, x_3) = \text{sigmoid}(w_1 x_1 + w_2 x_2 + w_3 x_3)$$

Aşağıdaki görselde, perceptron üç giriş alıyor. Bu girişlerin her biri, perceptrona girmeden önce bir ağırlıkla değiştiriliyor:

Her biri ayrı ağırlıklarla çarpılan 3 girişi alan bir algılayıcı. Perseptron tek bir değer çıkarır.

Perseptronlar, nöral ağlardaki nöronlardır.

performans

#Metric

Aşağıdaki anlamlara sahip aşırı yüklenmiş terim:

  • Yazılım mühendisliğindeki standart anlam. Örneğin: Bu yazılım ne kadar hızlı (veya verimli) çalışıyor?
  • Makine öğrenimindeki anlamı. Burada performans, şu soruyu yanıtlar: Bu model ne kadar doğru? Yani modelin tahminleri ne kadar iyi?

permütasyon değişkeni önemleri

#df
#Metric

Özellik değerleri permütasyonundan sonra bir modelin tahmin hatasındaki artışı değerlendiren bir değişken önem derecesi türü. Permütasyonlu değişken önemi, modelden bağımsız bir metriktir.

şaşkınlık

#Metric

Bir modelin görevini ne kadar iyi yerine getirdiğinin bir ölçüsüdür. Örneğin, görevinizin bir kullanıcının telefon klavyesinde yazdığı kelimenin ilk birkaç harfini okumak ve olası tamamlama kelimelerinin bir listesini sunmak olduğunu varsayalım. Bu görev için şaşkınlık (P), listenizin kullanıcının yazmaya çalıştığı gerçek kelimeyi içermesi için sunmanız gereken tahminlerin sayısıdır.

Perplexity, çapraz entropi ile şu şekilde ilişkilidir:

$$P= 2^{-\text{cross entropy}}$$

ardışık düzen

Makine öğrenimi algoritmasını çevreleyen altyapı. Bir işlem hattı; verilerin toplanması, verilerin eğitim verisi dosyalarına yerleştirilmesi, bir veya daha fazla modelin eğitilmesi ve modellerin üretime aktarılması işlemlerini içerir.

Daha fazla bilgi için Makine Öğrenimi Projelerini Yönetme kursundaki ML işlem hatları bölümüne bakın.

ardışık düzenleme

#language

Bir modelin işlenmesinin ardışık aşamalara bölündüğü ve her aşamanın farklı bir cihazda yürütüldüğü bir model paralelliği biçimi. Bir aşama bir grubu işlerken önceki aşama bir sonraki grup üzerinde çalışabilir.

Ayrıca kademeli eğitim başlıklı makaleyi de inceleyin.

pjit

Kodu birden fazla hızlandırıcı çipte çalışacak şekilde bölen bir JAX işlevi. Kullanıcı, pjit'e bir işlev iletir. Bu işlev, eşdeğer semantiğe sahip ancak birden fazla cihazda (ör. GPU'lar veya TPU çekirdekleri) çalışan bir XLA hesaplamasına derlenmiş bir işlev döndürür.

pjit, SPMD bölümleyiciyi kullanarak kullanıcıların hesaplamaları yeniden yazmadan parçalamasına olanak tanır.

Mart 2023 itibarıyla pjit, jit ile birleştirildi. Daha fazla bilgi için Dağıtılmış diziler ve otomatik paralelleştirme başlıklı makaleyi inceleyin.

PLM

#language
#generativeAI

Önceden eğitilmiş dil modeli kısaltması.

pmap

Giriş işlevinin kopyalarını farklı giriş değerleriyle birden fazla temel donanım cihazında (CPU'lar, GPU'lar veya TPU'lar) yürüten bir JAX işlevi. pmap, SPMD'ye dayanır.

policy

#rl

Pekiştirmeli öğrenmede, aracının durumlardan işlemlere olasılık eşlemesi.

gruplandırma

#image

Önceki bir evrişimli katman tarafından oluşturulan bir matrisi (veya matrisleri) daha küçük bir matrise indirgeme. Havuz oluşturma genellikle havuz oluşturulan alan genelinde maksimum veya ortalama değerin alınmasını içerir. Örneğin, aşağıdaki 3x3 matrisimiz olduğunu varsayalım:

[[5,3,1], [8,2,5], [9,4,3]] 3x3 matrisi.

Havuzlama işlemi, evrişimli işlem gibi bu matrisi dilimlere böler ve ardından evrişimli işlemi adımlarla kaydırır. Örneğin, havuz oluşturma işleminin, evrişimli matrisi 1x1 adımlı 2x2 dilimlere böldüğünü varsayalım. Aşağıdaki şemada gösterildiği gibi dört havuz oluşturma işlemi gerçekleşir. Her bir havuz oluşturma işleminin, o dilimdeki dört değerin maksimumunu seçtiğini düşünün:

Giriş matrisi, [[5,3,1], [8,2,5], [9,4,3]] değerleriyle 3x3'tür.
          Giriş matrisinin sol üstteki 2x2 alt matrisi [[5,3], [8,2]] olduğundan sol üstteki havuz oluşturma işlemi 8 değerini verir (5, 3, 8 ve 2'nin maksimum değeri). Giriş matrisinin sağ üstteki 2x2 alt matrisi [[3,1], [2,5]] olduğundan sağ üstteki havuz oluşturma işlemi 5 değerini verir. Giriş matrisinin sol alt 2x2 alt matrisi [[8,2], [9,4]] olduğundan sol alttaki havuz oluşturma işlemi 9 değerini verir. Giriş matrisinin sağ alt 2x2 alt matrisi [[2,5], [4,3]] olduğundan sağ alttaki havuz oluşturma işlemi 5 değerini verir. Özetle, havuz oluşturma işlemi 2x2 matrisini oluşturur:
          [[8,5], [9,5]].

Havuz oluşturma, giriş matrisinde çeviri değişmezliğini zorunlu kılmaya yardımcı olur.

Görüntü uygulamaları için havuz oluşturma işlemi daha resmi olarak uzamsal havuz oluşturma olarak bilinir. Zaman serisi uygulamaları genellikle havuzlamayı zamansal havuzlama olarak adlandırır. Daha az resmi bir şekilde, havuzlamaya genellikle alt örnekleme veya aşağı örnekleme denir.

ML Practicum: Image Classification (Makine Öğrenimi Uygulamalı Eğitim Programı: Görüntü Sınıflandırma) kursundaki Introducing Convolutional Neural Networks (Konvolüsyonel Nöral Ağlara Giriş) bölümüne bakın.

konuma dayalı kodlama

#language

Bir dizideki jetonun konumu hakkında bilgileri jetonun yerleştirmesine ekleme tekniği. Transformer modelleri, dizinin farklı parçaları arasındaki ilişkiyi daha iyi anlamak için konumsal kodlama kullanır.

Konuma dayalı kodlamanın yaygın bir uygulaması sinüs fonksiyonunu kullanır. (Özellikle, sinüs fonksiyonunun frekansı ve genliği, dizideki jetonun konumuna göre belirlenir.) Bu teknik, bir Transformer modelinin sıranın farklı bölümlerine konumlarına göre dikkat etmeyi öğrenmesini sağlar.

pozitif sınıf

#fundamentals
#Metric

Test ettiğiniz sınıf.

Örneğin, bir kanser modelindeki pozitif sınıf "tümör" olabilir. Bir e-posta sınıflandırma modelindeki pozitif sınıf "spam" olabilir.

Negatif sınıfla karşılaştırın.

işleme sonrası

#responsible
#fundamentals

Model çalıştırıldıktan sonra modelin çıktısını ayarlama. Modellerin kendilerini değiştirmeden adalet kısıtlamalarını zorunlu kılmak için sonradan işleme kullanılabilir.

Örneğin, bir kullanıcı ikili sınıflandırıcıya son işlem uygulayabilir. Bunun için, gerçek pozitif oranının söz konusu özelliğin tüm değerleri için aynı olduğunu kontrol ederek sınıflandırma eşiği belirler. Böylece, fırsat eşitliği korunur.

sonradan eğitilmiş model

#language
#image
#generativeAI

Genellikle aşağıdaki gibi bir veya daha fazla işlem sonrası uygulanan önceden eğitilmiş bir modeli ifade eden, net olarak tanımlanmamış bir terimdir:

PR AUC (PR eğrisinin altındaki alan)

#Metric

Farklı sınıflandırma eşiği değerleri için (geri çağırma, hassasiyet) noktaları çizilerek elde edilen, enterpolasyonlu hassasiyet/geri çağırma eğrisinin altındaki alan.

Praxis

Pax'in temel ve yüksek performanslı bir makine öğrenimi kitaplığı. Praxis genellikle "Katman kitaplığı" olarak adlandırılır.

Praxis, yalnızca Katman sınıfının tanımlarını değil, destekleyici bileşenlerinin çoğunu da içerir. Örneğin:

Praxis, Model sınıfının tanımlarını sağlar.

precision

#fundamentals
#Metric

Aşağıdaki soruyu yanıtlayan sınıflandırma modelleri için bir metrik:

Model pozitif sınıfı tahmin ettiğinde tahminlerin yüzde kaçı doğruydu?

Formül şu şekildedir:

$$\text{Precision} = \frac{\text{true positives}} {\text{true positives} + \text{false positives}}$$

Bu örnekte:

  • Gerçek pozitif, modelin pozitif sınıfı doğru tahmin ettiği anlamına gelir.
  • Yanlış pozitif, modelin pozitif sınıfı yanlışlıkla tahmin ettiği anlamına gelir.

Örneğin, bir modelin 200 pozitif tahminde bulunduğunu varsayalım. Bu 200 olumlu tahminin:

  • 150'si gerçek pozitifti.
  • 50'si yanlış pozitifti.

Bu durumda:

$$\text{Precision} = \frac{\text{150}} {\text{150} + \text{50}} = 0.75$$

Doğruluk ve geri çağırma ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler bölümüne bakın.

k değerinde hassasiyet (precision@k)

#language
#Metric

Sıralanmış (sıralı) öğe listesini değerlendirmek için kullanılan bir metrik. k'daki duyarlık, listedeki ilk k öğeden "alakalı" olanların oranını tanımlar. Yani:

\[\text{precision at k} = \frac{\text{relevant items in first k items of the list}} {\text{k}}\]

k değeri, döndürülen listenin uzunluğundan küçük veya ona eşit olmalıdır. Döndürülen listenin uzunluğunun hesaplamaya dahil olmadığını unutmayın.

Alaka düzeyi genellikle özneldir. Hatta uzman insan değerlendiriciler bile hangi öğelerin alakalı olduğu konusunda çoğu zaman anlaşamaz.

Şununla karşılaştır:

hassasiyet-geri çağırma eğrisi

#Metric

Farklı sınıflandırma eşiklerinde hassasiyet ile geri çağırma arasındaki dengeyi gösteren bir eğri.

tahmin

#fundamentals

Modelin çıktısı. Örneğin:

  • İkili sınıflandırma modelinin tahmini, pozitif sınıf veya negatif sınıftır.
  • Çok sınıflı sınıflandırma modelinin tahmini tek bir sınıftır.
  • Doğrusal regresyon modelinin tahmini bir sayıdır.

tahmin önyargısı

#Metric

Veri kümesindeki tahminlerin ortalaması ile etiketlerin ortalaması arasındaki farkı gösteren değer.

Makine öğrenimi modellerindeki yanlılık terimi veya etik ve adalet bağlamındaki yanlılıkla karıştırılmamalıdır.

tahmine dayalı makine öğrenimi

Herhangi bir standart ("klasik") makine öğrenimi sistemi.

Tahmine dayalı makine öğrenimi teriminin resmi bir tanımı yoktur. Daha ziyade, bu terim üretken yapay zekaya dayanmayan bir makine öğrenimi sistemleri kategorisini ayırt eder.

tahmini eşitlik

#responsible
#Metric

Belirli bir sınıflandırıcı için hassasiyet oranlarının dikkate alınan alt gruplar için eşdeğer olup olmadığını kontrol eden bir adalet metriği.

Örneğin, üniversite kabulünü tahmin eden bir model, Lilliputlular ve Brobdingnaglılar için kesinlik oranı aynıysa milliyet açısından tahmini eşitliği karşılar.

Tahmini fiyat paritesi bazen tahmini oran paritesi olarak da adlandırılır.

Tahmini eşitlik hakkında daha ayrıntılı bilgi için "Adalet Tanımları Açıklaması" (bölüm 3.2.1) başlıklı makaleyi inceleyin.

tahmini fiyat eşitliği

#responsible
#Metric

Tahmini eşlik için kullanılan başka bir ad.

ön işleme

#responsible
Verileri, model eğitiminde kullanılmadan önce işleme Ön işleme, İngilizce metin derlemindeki İngilizce sözlükte yer almayan kelimelerin kaldırılması kadar basit veya veri noktalarının hassas özelliklerle ilişkili olabilecek mümkün olduğunca çok sayıda özelliği ortadan kaldıracak şekilde yeniden ifade edilmesi kadar karmaşık olabilir. Ön işleme, adalet kısıtlamalarını karşılamaya yardımcı olabilir.

önceden eğitilmiş model

#language
#image
#generativeAI

Bu terim, eğitilmiş herhangi bir modeli veya eğitilmiş yerleştirme vektörünü ifade edebilse de önceden eğitilmiş model artık genellikle eğitilmiş bir büyük dil modelini veya eğitilmiş başka bir üretken yapay zeka modelini ifade eder.

Ayrıca temel model ve temel model konularına da bakın.

ön eğitim

#language
#image
#generativeAI

Bir modelin büyük bir veri kümesi üzerinde ilk eğitimi. Bazı önceden eğitilmiş modeller beceriksiz devlerdir ve genellikle ek eğitimlerle iyileştirilmesi gerekir. Örneğin, makine öğrenimi uzmanları büyük bir dil modelini devasa bir metin veri kümesi (ör. Wikipedia'daki tüm İngilizce sayfalar) üzerinde önceden eğitebilir. Ön eğitimden sonra, elde edilen model aşağıdaki tekniklerden herhangi biriyle daha da iyileştirilebilir:

önceki inanç

Eğitime başlamadan önce veriler hakkında düşündükleriniz. Örneğin, L2 normalleştirmesi, ağırlıkların küçük olması ve normalde sıfır etrafında dağıtılması gerektiği yönündeki önceden edinilmiş bir inanca dayanır.

Pro

#generativeAI

Ultra'dan daha az, Nano'dan daha fazla parametreye sahip bir Gemini modeli. Ayrıntılar için Gemini Pro başlıklı makaleyi inceleyin.

olasılıksal regresyon modeli

Her bir özelliğin ağırlıklarının yanı sıra bu ağırlıkların belirsizliğini de kullanan bir regresyon modeli. Olasılıksal regresyon modeli, bir tahmin ve bu tahminin belirsizliğini oluşturur. Örneğin, olasılıksal bir regresyon modeli, 12 standart sapmayla 325 tahmini verebilir. Olasılıksal regresyon modelleri hakkında daha fazla bilgi için tensorflow.org adresindeki bu Colab'e bakın.

olasılık yoğunluk fonksiyonu

#Metric

Tam olarak belirli bir değere sahip veri örneklerinin sıklığını belirleyen bir işlev. Bir veri kümesinin değerleri sürekli kayan noktalı sayılar olduğunda tam eşleşmeler nadiren gerçekleşir. Ancak x değerinden y değerine kadar bir olasılık yoğunluk fonksiyonunun integrasyonu, x ile y arasındaki veri örneklerinin beklenen sıklığını verir.

Örneğin, ortalaması 200 ve standart sapması 30 olan normal bir dağılımı ele alalım. 211,4 ile 218,7 aralığına giren veri örneklerinin beklenen sıklığını belirlemek için normal dağılımın olasılık yoğunluk işlevini 211,4 ile 218,7 arasında entegre edebilirsiniz.

istem

#language
#generativeAI

Modelin belirli bir şekilde davranmasını sağlamak için büyük dil modeline giriş olarak girilen tüm metinler. İstemler bir kelime öbeği kadar kısa veya rastgele uzun olabilir (ör. bir romanın tamamı). İstemler, aşağıdaki tabloda gösterilenler de dahil olmak üzere birden fazla kategoriye ayrılır:

İstem kategorisi Örnek Notlar
Soru Bir güvercin ne kadar hızlı uçabilir?
Talimat Arbitraj hakkında komik bir şiir yaz. Büyük dil modelinden bir şey yapmasını isteyen istem.
Örnek Markdown kodunu HTML'ye çevirin. Örneğin:
Markdown: * list item
HTML: <ul> <li>list item</li> </ul>
Bu örnek istemdeki ilk cümle bir talimattır. İstemin geri kalanı örnektir.
Rol Fizik alanında doktora yapmış birine, makine öğrenimi eğitiminde neden gradyan inişinin kullanıldığını açıkla. Cümlenin ilk kısmı talimat, "to a PhD in Physics" (Fizik alanında doktora) ifadesi ise rol kısmıdır.
Modelin tamamlayacağı kısmi giriş Birleşik Krallık Başbakanı'nın ikamet ettiği yer Kısmi giriş istemi, bu örnekte olduğu gibi aniden veya alt çizgiyle sona erebilir.

Üretken yapay zeka modeli, bir isteme metin, kod, resim, gömme, video gibi neredeyse her şeyle yanıt verebilir.

istem tabanlı öğrenme

#language
#generativeAI

Belirli modellerin, rastgele metin girişine (istemler) yanıt olarak davranışlarını uyarlamalarını sağlayan bir özellik. İsteme dayalı öğrenme paradigmasında, büyük dil modeli metin oluşturarak bir isteme yanıt verir. Örneğin, bir kullanıcının aşağıdaki istemi girdiğini varsayalım:

Newton'un üçüncü hareket yasasını özetle.

İstem tabanlı öğrenme özelliğine sahip bir model, önceki isteme yanıt vermek için özel olarak eğitilmez. Bunun yerine, model fizik hakkında, genel dil kuralları hakkında ve genel olarak faydalı yanıtların ne olduğu hakkında çok fazla bilgiye "sahiptir". Bu bilgi, (umarım) faydalı bir yanıt vermek için yeterlidir. Ek insan geri bildirimi ("Bu yanıt çok karmaşıktı." veya "Tepki nedir?"), istem tabanlı bazı öğrenme sistemlerinin yanıtlarının faydasını kademeli olarak artırmasını sağlar.

istem tasarımı

#language
#generativeAI

İstem mühendisliği ile eş anlamlıdır.

istem mühendisliği

#language
#generativeAI

Büyük bir dil modelinden istenen yanıtları almayı sağlayan istemler oluşturma sanatı. İnsanlar istem mühendisliği yapar. İyi yapılandırılmış istemler yazmak, büyük bir dil modelinden faydalı yanıtlar almanın önemli bir parçasıdır. İstem mühendisliği, aşağıdakiler de dahil olmak üzere birçok faktöre bağlıdır:

İstem tasarımı, istem mühendisliğinin eş anlamlısıdır.

Faydalı istemler yazma hakkında daha fazla bilgi için İstem tasarımına giriş başlıklı makaleyi inceleyin.

istem ayarlama

#language
#generativeAI

Sistemin gerçek istemin önüne eklediği bir "önek" öğrenen parametrelerin verimli kullanıldığı ayarlama mekanizması.

Bazen prefix tuning olarak da adlandırılan istem ayarlama varyasyonlarından biri, her katmana önek eklemektir. Buna karşılık, çoğu istem ayarlama işlemi yalnızca giriş katmanına bir önek ekler.

proxy (hassas özellikler)

#responsible
Hassas bir özelliğin yerine kullanılan bir özellik. Örneğin, bir bireyin posta kodu, gelirinin, ırkının veya etnik kökeninin yerine kullanılabilir.

proxy etiketleri

#fundamentals

Etiketleri tahmin etmek için kullanılan veriler, bir veri kümesinde doğrudan kullanılamaz.

Örneğin, çalışanların stres düzeyini tahmin etmek için bir modeli eğitmeniz gerektiğini varsayalım. Veri kümeniz çok sayıda tahmini özellik içeriyor ancak stres seviyesi adlı bir etiket içermiyor. Pes etmeyip stres seviyesi için proxy etiket olarak "iş kazaları"nı seçiyorsunuz. Sonuçta, yüksek stres altındaki çalışanlar sakin çalışanlara göre daha fazla kaza yapar. Yoksa öyle mi? Belki de iş kazaları aslında birden fazla nedenden dolayı artıp azalıyor.

İkinci bir örnek olarak, veri kümeniz için yağmur yağıyor mu? ifadesinin Boole etiketi olmasını istediğinizi ancak veri kümenizde yağmur verisi olmadığını varsayalım. Fotoğraflar varsa şemsiye taşıyan kişilerin resimlerini Yağmur yağıyor mu? için proxy etiketi olarak belirleyebilirsiniz. Bu iyi bir vekil etiketi mi? Olabilir ancak bazı kültürlerde insanlar yağmurdan ziyade güneşten korunmak için şemsiye taşıyor olabilir.

Proxy etiketleri genellikle kusurludur. Mümkün olduğunda, proxy etiketler yerine gerçek etiketleri seçin. Bununla birlikte, gerçek bir etiket olmadığında en az kötü olan vekil etiket adayını seçerek vekil etiketi çok dikkatli bir şekilde belirleyin.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Veri Kümeleri: Etiketler bölümüne bakın.

saf işlev

Çıkışları yalnızca girişlerine dayanan ve yan etkisi olmayan bir işlev. Özellikle, saf işlevler herhangi bir genel durumu (ör. bir dosyanın içeriği veya işlevin dışındaki bir değişkenin değeri) kullanmaz ya da değiştirmez.

Saf işlevler, parçalama işlemi sırasında model kodunu birden fazla hızlandırıcı çip arasında dağıtırken faydalı olan, iş parçacığı açısından güvenli kod oluşturmak için kullanılabilir.

JAX'in işlev dönüşümü yöntemleri, giriş işlevlerinin saf işlevler olmasını gerektirir.

Q

Q-function

#rl

Pekiştirme öğreniminde, bir durumda eylem gerçekleştirip belirli bir politikayı izleyerek beklenen getiriyi tahmin eden işlev.

Q-fonksiyonu, durum-eylem değer fonksiyonu olarak da bilinir.

Q-learning

#rl

Pekiştirmeli öğrenmede, Bellman denklemini uygulayarak bir Markov karar sürecinin en uygun Q fonksiyonunu öğrenmesine olanak tanıyan bir algoritma kullanılır. Markov karar süreci modelleri bir ortamı modeller.

yüzdelik dilim

Kantil paketlemedeki her paket.

yüzdelik dilimlere ayırma

Bir özelliğin değerlerini gruplara dağıtarak her grubun aynı (veya neredeyse aynı) sayıda örnek içermesini sağlar. Örneğin, aşağıdaki şekilde 44 puan 4 pakete bölünmüş ve her pakette 11 puan bulunmaktadır. Şekildeki her paketin aynı sayıda nokta içermesi için bazı paketler farklı bir x değeri genişliğine yayılır.

Her biri 11 puanlık 4 pakete bölünmüş 44 veri noktası.
          Her pakette aynı sayıda veri noktası bulunsa da bazı paketler, diğer paketlere göre daha geniş bir özellik değeri aralığı içerir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Sayısal veriler: Gruplandırma bölümüne bakın.

kuantalama

Aşağıdaki şekillerde kullanılabilen aşırı yüklenmiş terim:

  • Belirli bir özellikte yüzdelik dilimlere göre paketlemeyi uygulama.
  • Daha hızlı depolama, eğitme ve çıkarım için verileri sıfır ve birlerden oluşan bir biçime dönüştürme. Boole verileri, diğer biçimlere kıyasla gürültü ve hatalara karşı daha dayanıklı olduğundan nicemleme, model doğruluğunu artırabilir. Kuantizasyon teknikleri arasında yuvarlama, kesme ve gruplandırma yer alır.
  • Bir modelin parametrelerini depolamak için kullanılan bit sayısını azaltma. Örneğin, bir modelin parametrelerinin 32 bit kayan nokta sayıları olarak depolandığını varsayalım. Kuantizasyon, bu parametreleri 32 bit'ten 4, 8 veya 16 bit'e dönüştürür. Kuantalama, aşağıdakileri azaltır:

    • İşlem, bellek, disk ve ağ kullanımı
    • Tahmin yapma süresi
    • Güç tüketimi

    Ancak nicemleme bazen bir modelin tahminlerinin doğruluğunu azaltır.

sıra

#TensorFlow

Kuyruk veri yapısını uygulayan bir TensorFlow işlemi. Genellikle giriş/çıkış işlemlerinde kullanılır.

R

RAG

#fundamentals

Almayla artırılmış üretim ifadesinin kısaltmasıdır.

rastgele orman

#df

Her bir karar ağacının torbalama gibi belirli bir rastgele gürültüyle eğitildiği karar ağaçlarından oluşan bir topluluktur�.

Rastgele ormanlar, bir karar ormanı türüdür.

Daha fazla bilgi için Karar Ormanları kursundaki Rastgele Orman bölümüne bakın.

rastgele politika

#rl

Pekiştirici öğrenmede, rastgele bir eylem seçen bir politika.

sıra (sıralama)

Sınıfları en yüksekten en düşüğe doğru sınıflandıran bir makine öğrenimi probleminde sınıfın sıralı konumu. Örneğin, bir davranış sıralama sistemi, bir köpeğin ödüllerini en yüksekten (biftek) en düşüğe (solmuş kara lahana) doğru sıralayabilir.

rank (Tensor)

#TensorFlow

Tensor'deki boyut sayısı. Örneğin, bir skalerin sıralaması 0, bir vektörün sıralaması 1 ve bir matrisin sıralaması 2'dir.

Sıra ile karıştırılmamalıdır.

sıralama

Amacı, öğe listesini sıralamak olan bir gözetimli öğrenme türü.

puan veren kullanıcı

#fundamentals

Örnekler için etiketler sağlayan bir kişi. "Açıklama Ekleyen", değerlendiricinin diğer adıdır.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Kategorik veriler: Yaygın sorunlar başlıklı makaleyi inceleyin.

hatırlanabilirlik

#fundamentals
#Metric

Aşağıdaki soruyu yanıtlayan sınıflandırma modelleri için bir metrik:

Kesin referans pozitif sınıf olduğunda model, tahminlerin yüzde kaçını doğru şekilde pozitif sınıf olarak tanımladı?

Formül şu şekildedir:

\[\text{Recall} = \frac{\text{true positives}} {\text{true positives} + \text{false negatives}} \]

Bu örnekte:

  • Gerçek pozitif, modelin pozitif sınıfı doğru tahmin ettiği anlamına gelir.
  • Yanlış negatif, modelin yanlışlıkla negatif sınıfı tahmin ettiği anlamına gelir.

Örneğin, modelinizin kesin referansın pozitif sınıf olduğu örnekler üzerinde 200 tahmin yaptığını varsayalım. Bu 200 tahminden:

  • 180'i doğru pozitifti.
  • 20'si yanlış negatifti.

Bu durumda:

\[\text{Recall} = \frac{\text{180}} {\text{180} + \text{20}} = 0.9 \]

Daha fazla bilgi için Sınıflandırma: Doğruluk, geri çağırma, hassasiyet ve ilgili metrikler başlıklı makaleye bakın.

k değerinde geri çağırma (recall@k)

#language
#Metric

Öğelerin sıralanmış (düzenli) listesini çıkaran sistemleri değerlendirmek için kullanılan bir metrik. k konumundaki hatırlama, döndürülen toplam alakalı öğe sayısı içindeki listedeki ilk k öğede bulunan alakalı öğelerin oranını tanımlar.

\[\text{recall at k} = \frac{\text{relevant items in first k items of the list}} {\text{total number of relevant items in the list}}\]

k ile kontrast oluşturun.

öneri sistemi

#recsystems

Her kullanıcı için büyük bir külliyattan nispeten küçük bir grup istenen öğe seçen bir sistem. Örneğin, bir video öneri sistemi 100.000 videodan oluşan bir derlemeden iki video önerebilir. Bir kullanıcı için Casablanca ve The Philadelphia Story, başka bir kullanıcı için ise Wonder Woman ve Black Panther filmlerini seçebilir. Video öneri sistemleri, önerilerini şu gibi faktörlere göre yapabilir:

  • Benzer kullanıcıların puan verdiği veya izlediği filmler.
  • Tür, yönetmenler, oyuncular, hedef demografi...

Daha fazla bilgi için Öneri Sistemleri kursuna göz atın.

Düzeltilmiş Doğrusal Birim (ReLU)

#fundamentals

Aşağıdaki davranışa sahip bir etkinleştirme işlevi:

  • Giriş negatif veya sıfırsa çıkış 0 olur.
  • Giriş pozitifse çıkış girişe eşittir.

Örneğin:

  • Giriş -3 ise çıkış 0 olur.
  • Giriş +3 ise çıkış 3, 0 olur.

ReLU grafiği:

İki çizgili bir kartezyen grafik. İlk satırın sabit bir y değeri vardır. Bu değer 0&#39;dır ve x ekseni boyunca -sonsuz,0 ile 0,-0 arasında değişir.
          İkinci satır 0,0&#39;dan başlar. Bu doğrunun eğimi +1 olduğundan 0,0 noktasından +sonsuz,+sonsuz noktasına kadar uzanır.

ReLU, çok popüler bir etkinleştirme işlevidir. Basit davranışına rağmen ReLU, sinir ağının doğrusal olmayan ilişkileri özellikler ile etiket arasında öğrenmesini sağlar.

yinelemeli nöral ağ

#seq

Her çalıştırmanın bir bölümünün bir sonraki çalıştırmaya aktarıldığı, kasıtlı olarak birden çok kez çalıştırılan bir nöral ağ. Daha net bir ifadeyle, önceki çalıştırmadaki gizli katmanlar, sonraki çalıştırmada aynı gizli katmana girişin bir kısmını sağlar. Yinelemeli sinir ağları, özellikle dizileri değerlendirmek için kullanışlıdır. Böylece gizli katmanlar, dizinin önceki bölümlerinde sinir ağının önceki çalıştırmalarından öğrenebilir.

Örneğin, aşağıdaki şekilde dört kez çalışan bir tekrarlayan sinir ağı gösterilmektedir. İlk çalıştırmada gizli katmanlarda öğrenilen değerlerin, ikinci çalıştırmada aynı gizli katmanlara giriş olarak dahil edildiğini unutmayın. Benzer şekilde, ikinci çalıştırmada gizli katmanda öğrenilen değerler, üçüncü çalıştırmada aynı gizli katmanın girişinin bir parçası haline gelir. Bu sayede, tekrarlayan sinir ağı yalnızca tek tek kelimelerin anlamını değil, dizinin tamamının anlamını kademeli olarak eğitir ve tahmin eder.

Dört giriş kelimesini işlemek için dört kez çalışan bir RNN.

referans metin

#language
#generativeAI

Bir uzmanın istem yanıtı. Örneğin, şu istemi girdiğinizde:

"What is your name?" (Adın ne?) sorusunu İngilizce'den Fransızca'ya çevir.

Uzman yanıtı şu şekilde olabilir:

Comment vous appelez-vous?

Çeşitli metrikler (ör. ROUGE), referans metnin bir makine öğrenimi modelinin oluşturulan metniyle eşleşme derecesini ölçer.

regresyon modeli

#fundamentals

Gayri resmi olarak, sayısal tahmin oluşturan bir model. (Buna karşılık, sınıflandırma modeli bir sınıf tahmini oluşturur.) Örneğin, aşağıdakilerin tümü regresyon modelidir:

  • Belirli bir evin değerini euro cinsinden (ör. 423.000) tahmin eden bir model.
  • Belirli bir ağacın ortalama yaşam süresini yıllar içinde tahmin eden bir model (ör.23,2).
  • Belirli bir şehirde önümüzdeki altı saat içinde düşecek yağmur miktarını inç cinsinden tahmin eden bir model (ör.0, 18).

Sık kullanılan iki tür regresyon modeli şunlardır:

  • Etiket değerlerini özelliklere en iyi şekilde uyduran çizgiyi bulan doğrusal regresyon.
  • Lojistik regresyon: 0,0 ile 1,0 arasında bir olasılık oluşturur. Bu olasılık, sistem tarafından genellikle bir sınıf tahminiyle eşlenir.

Sayısal tahminler veren her model bir regresyon modeli değildir. Bazı durumlarda sayısal tahmin, sayısal sınıf adlarına sahip bir sınıflandırma modelidir. Örneğin, sayısal bir posta kodunu tahmin eden model regresyon modeli değil, sınıflandırma modelidir.

normalleştirme

#fundamentals

Aşırı uyumu azaltan tüm mekanizmalar. Popüler düzenlileştirme türleri şunlardır:

Düzenlileştirme, modelin karmaşıklığına uygulanan ceza olarak da tanımlanabilir.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Aşırı Uydurma: Model karmaşıklığı bölümüne bakın.

normalleştirme oranı

#fundamentals

Eğitim sırasında düzenlileştirmenin göreli önemini belirten bir sayı. Düzenlileştirme oranını artırmak aşırı uyumu azaltır ancak modelin tahmin gücünü düşürebilir. Bunun tersine, düzenlileştirme oranının azaltılması veya atlanması aşırı uyumu artırır.

Daha fazla bilgi için Makine Öğrenimine Giriş Hızlandırılmış Kursu'ndaki Aşırı Uydurma: L2 düzenlileştirme bölümüne bakın.

pekiştirmeli öğrenme (RL)

#rl

Bir ortamla etkileşimde bulunurken getiriyi en üst düzeye çıkarmayı amaçlayan ve optimum politikayı öğrenen bir algoritma ailesidir. Örneğin, çoğu oyunun nihai ödülü zaferdir. Pekiştirmeli öğrenme sistemleri, daha önce kazanmaya ve kaybetmeye yol açan oyun hamlelerini değerlendirerek karmaşık oyunlarda uzmanlaşabilir.

Pekiştirmeli İnsan Geri Bildiriminden Öğrenme (RLHF)

#generativeAI
#rl

Modelin yanıtlarının kalitesini artırmak için uzman değerlendiricilerden alınan geri bildirimleri kullanma. Örneğin, bir RLHF mekanizması, kullanıcılardan bir modelin yanıtının kalitesini 👍 veya 👎 emojisiyle derecelendirmelerini isteyebilir. Sistem daha sonra bu geri bildirime göre gelecekteki yanıtlarını ayarlayabilir.

ReLU

#fundamentals

Rectified Linear Unit'in kısaltmasıdır.

tekrar oynatma arabelleği

#rl

DQN benzeri algoritmalarda, deneyim tekrarında kullanılmak üzere durum geçişlerini depolamak için aracı tarafından kullanılan bellek.

replika

Genellikle başka bir makinede depolanan eğitim kümesinin veya modelin bir kopyası (veya bir bölümü). Örneğin, bir sistem veri paralelliğini uygulamak için aşağıdaki stratejiyi kullanabilir:

  1. Mevcut bir modelin kopyalarını birden fazla makineye yerleştirin.
  2. Eğitim kümesinin farklı alt kümelerini her bir kopyaya gönderin.
  3. Parametre güncellemelerini toplayın.

Replika, çıkarım sunucusunun başka bir kopyası anlamına da gelebilir. Kopya sayısını artırmak, sistemin aynı anda sunabileceği istek sayısını artırır ancak yayın maliyetlerini de artırır.

bildirme önyargısı

#responsible

Kullanıcıların eylemler, sonuçlar veya özellikler hakkında yazma sıklığının, bunların gerçek hayattaki sıklığını ya da bir özelliğin bir kişi sınıfı için ne kadar karakteristik olduğunu yansıtmaması. Raporlama yanlılığı, makine öğrenimi sistemlerinin öğrendiği verilerin yapısını etkileyebilir.

Örneğin, kitaplarda güldü kelimesi nefes aldı kelimesinden daha yaygındır. Bir kitap derlemesinde gülme ve nefes alma sıklığını tahmin eden bir makine öğrenimi modeli, gülmenin nefes almaktan daha yaygın olduğunu belirleyebilir.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Adalet: Önyargı türleri bölümüne bakın.

temsil

Verileri faydalı özelliklerle eşleme süreci.

yeniden sıralama

#recsystems

Öneri sisteminin son aşamasıdır. Bu aşamada, puanlanmış öğeler başka bir algoritmaya (genellikle makine öğrenimi dışı) göre yeniden derecelendirilebilir. Yeniden sıralama, puanlama aşamasında oluşturulan öğe listesini değerlendirir ve aşağıdaki gibi işlemler gerçekleştirir:

  • Kullanıcının daha önce satın aldığı öğeleri ortadan kaldırın.
  • Daha yeni öğelerin puanını yükseltme

Daha fazla bilgi için Öneri Sistemleri kursundaki Yeniden sıralama başlıklı makaleyi inceleyin.

veriyle artırılmış üretim (RAG)

#fundamentals

Büyük dil modeli (LLM) çıkışının kalitesini artırmak için kullanılan bir tekniktir. Bu teknikte, model eğitildikten sonra alınan bilgi kaynaklarıyla temellendirme yapılır. RAG, eğitilmiş LLM'ye güvenilir bilgi tabanlarından veya belgelerden alınan bilgilere erişim sağlayarak LLM yanıtlarının doğruluğunu artırır.

Almayla artırılmış üretimi kullanmanın yaygın nedenleri şunlardır:

  • Modelin oluşturduğu yanıtların olgusal doğruluğunu artırma
  • Modele, eğitilmediği bilgilere erişim izni verme
  • Modelin kullandığı bilgileri değiştirme
  • Modelin kaynakları alıntılamasını sağlama

Örneğin, bir kimya uygulamasının kullanıcı sorgularıyla ilgili özetler oluşturmak için PaLM API'yi kullandığını varsayalım. Uygulamanın arka ucu bir sorgu aldığında arka uç:

  1. Kullanıcının sorgusuyla alakalı verileri arar ("alır").
  2. İlgili kimya verilerini kullanıcının sorgusuna ekler ("artırır").
  3. LLM'ye, eklenen verilere dayalı bir özet oluşturması talimatı verilir.

return

#rl

Pekiştirici öğrenmede, belirli bir politika ve belirli bir durum göz önüne alındığında, getiri, ajanın politikayı izleyerek durumdan bölümün sonuna kadar almayı beklediği tüm ödüllerin toplamıdır. Aracı, ödül almak için gereken durum geçişlerine göre ödüllerde indirim yaparak beklenen ödüllerin gecikmeli yapısını hesaba katar.

Bu nedenle, indirim faktörü \(\gamma\)ise ve \(r_0, \ldots, r_{N}\)bölümün sonuna kadar olan ödülleri gösteriyorsa getiri hesaplaması aşağıdaki gibidir:

$$\text{Return} = r_0 + \gamma r_1 + \gamma^2 r_2 + \ldots + \gamma^{N-1} r_{N-1}$$

ödül

#rl

Pekiştirmeli öğrenmede, ortam tarafından tanımlanan bir durumda işlem gerçekleştirmenin sayısal sonucu.

sırt normalleştirme

L2 normalleştirme ile eş anlamlıdır. Ridge düzenlileştirme terimi, saf istatistik bağlamlarında daha sık kullanılırken L2 düzenlileştirme makine öğreniminde daha sık kullanılır.

RNN

#seq

Yinelemeli nöral ağların kısaltması.

ROC (alıcı çalışma özelliği) eğrisi

#fundamentals
#Metric

İkili sınıflandırmada farklı sınıflandırma eşikleri için gerçek pozitif oranı ile yanlış pozitif oranı arasındaki ilişkiyi gösteren grafik.

ROC eğrisinin şekli, ikili sınıflandırma modelinin pozitif sınıfları negatif sınıflardan ayırma yeteneğini gösterir. Örneğin, ikili sınıflandırma modelinin tüm negatif sınıfları tüm pozitif sınıflardan mükemmel şekilde ayırdığını varsayalım:

Sağ tarafta 8 pozitif örnek ve sol tarafta 7 negatif örnek içeren bir sayı doğrusu.

Önceki modelin ROC eğrisi aşağıdaki gibi görünür:

ROC eğrisi. X ekseni yanlış pozitif oranı, y ekseni ise doğru pozitif oranıdır. Eğri, ters L şeklindedir. Eğri, (0.0,0.0) noktasından başlar ve (0.0,1.0) noktasına kadar düz bir şekilde yükselir. Ardından eğri (0,0,1,0) değerinden (1,0,1,0) değerine gider.

Buna karşılık, aşağıdaki resimde, negatif sınıfları pozitif sınıflardan hiç ayıramayan kötü bir modelin ham lojistik regresyon değerleri grafik olarak gösterilmektedir:

Pozitif örnekler ve negatif sınıfların tamamen karıştığı bir sayı doğrusu.

Bu modelin ROC eğrisi aşağıdaki gibi görünür:

(0.0,0.0) ile (1.0,1.0) arasında düz bir çizgi olan ROC eğrisi.

Bu arada, gerçek hayatta çoğu ikili sınıflandırma modeli pozitif ve negatif sınıfları bir dereceye kadar ayırır ancak genellikle mükemmel bir şekilde ayırmaz. Bu nedenle, tipik bir ROC eğrisi iki uç nokta arasında bir yerde bulunur:

ROC eğrisi. X ekseni yanlış pozitif oranı, y ekseni ise doğru pozitif oranıdır. ROC eğrisi, pusula noktalarını batıdan kuzeye doğru geçen titrek bir yayı yaklaşık olarak gösterir.

Bir ROC eğrisinde (0.0,1.0) noktasına en yakın olan nokta, teorik olarak ideal sınıflandırma eşiğini tanımlar. Ancak ideal sınıflandırma eşiğinin seçilmesini etkileyen başka birçok gerçek dünya sorunu vardır. Örneğin, yanlış negatif sonuçlar, yanlış pozitif sonuçlardan çok daha fazla sorun yaratabilir.

AUC adı verilen sayısal bir metrik, ROC eğrisini tek bir kayan nokta değeriyle özetler.

role prompting

#language
#generativeAI

Üretken yapay zeka modelinin yanıtı için hedef kitleyi tanımlayan, istemin isteğe bağlı bir bölümü. Rol istemi olmadığında büyük dil modeli, soru soran kişi için faydalı olabilecek veya olmayabilecek bir yanıt verir. Rol istemiyle büyük dil modeli, belirli bir hedef kitle için daha uygun ve faydalı bir şekilde yanıt verebilir. Örneğin, aşağıdaki istemlerin rol istemi kısmı kalın harflerle yazılmıştır:

  • Bu belgeyi ekonomi alanında doktora yapmış biri için özetle.
  • Gelgitlerin işleyiş şeklini on yaşındaki bir çocuğa anlat.
  • 2008 mali krizini açıkla. Küçük bir çocuğa veya golden retriever cinsi bir köpeğe konuşur gibi konuş.

kök

#df

Karar ağacındaki başlangıç düğümü (ilk koşul). Geleneksel olarak, diyagramlarda kök, karar ağacının en üstünde yer alır. Örneğin:

İki koşullu ve üç yapraklı bir karar ağacı. Başlangıç koşulu (x > 2) köktür.

kök dizin

#TensorFlow

Birden fazla modelin TensorFlow kontrol noktası ve etkinlik dosyalarının alt dizinlerini barındırmak için belirttiğiniz dizin.

Kök Ortalama Kare Hatası (RMSE)

#fundamentals
#Metric

Ortalama karesel hatanın karekökü.

dönme değişmezliği

#image

Görüntü sınıflandırma sorununda, bir algoritmanın görüntünün yönü değişse bile görüntüleri başarılı bir şekilde sınıflandırma becerisi. Örneğin, algoritma tenis raketini yukarı, yana veya aşağı bakıyor olsa da tanımlayabilir. Dönme değişmezliğinin her zaman istenen bir özellik olmadığını unutmayın. Örneğin, ters dönmüş bir 9, 9 olarak sınıflandırılmamalıdır.

Ayrıca çeviri değişmezliği ve boyut değişmezliği bölümlerini de inceleyin.

ROUGE (Recall-Oriented Understudy for Gisting Evaluation)

#language
#Metric

Otomatik özetleme ve makine çevirisi modellerini değerlendiren bir metrik ailesi. ROUGE metrikleri, referans metnin bir makine öğrenimi modelinin oluşturulan metniyle ne kadar örtüştüğünü belirler. ROUGE ailesinin her üyesi, çakışmayı farklı şekilde ölçer. ROUGE puanları ne kadar yüksek olursa referans metin ile oluşturulan metin arasındaki benzerlik o kadar fazla olur.

Her ROUGE ailesi üyesi genellikle aşağıdaki metrikleri oluşturur:

  • Hassasiyet
  • Geri çağırma
  • F1

Ayrıntılar ve örnekler için:

ROUGE-L

#language
#Metric

ROUGE ailesinin bir üyesi, referans metin ve oluşturulan metindeki en uzun ortak alt dizinin uzunluğuna odaklanır. Aşağıdaki formüller, ROUGE-L için hatırlama ve kesinliği hesaplar:

$$\text{ROUGE-L recall} = \frac{\text{longest common sequence}} {\text{number of words in the reference text} }$$
$$\text{ROUGE-L precision} = \frac{\text{longest common sequence}} {\text{number of words in the generated text} }$$

Ardından, ROUGE-L geri çağırma ve ROUGE-L hassasiyetini tek bir metriğe toplamak için F1'i kullanabilirsiniz:

$$\text{ROUGE-L F} {_1} = \frac{\text{2} * \text{ROUGE-L recall} * \text{ROUGE-L precision}} {\text{ROUGE-L recall} + \text{ROUGE-L precision} }$$

ROUGE-L, referans metindeki ve oluşturulan metindeki yeni satırları yok sayar. Bu nedenle, en uzun ortak alt dizi birden fazla cümleyi kapsayabilir. Referans metin ve oluşturulan metin birden fazla cümle içerdiğinde genellikle ROUGE-Lsum adlı ROUGE-L varyasyonu daha iyi bir metriktir. ROUGE-Lsum, bir pasajdaki her cümle için en uzun ortak alt diziyi belirler ve ardından bu en uzun ortak alt dizilerin ortalamasını hesaplar.

ROUGE-N

#language
#Metric

ROUGE ailesindeki bir dizi metrik, referans metin ve oluşturulan metindeki belirli boyuttaki ortak N-gram'ları karşılaştırır. Örneğin:

  • ROUGE-1, referans metin ve oluşturulan metindeki ortak jeton sayısını ölçer.
  • ROUGE-2, referans metin ve oluşturulan metindeki ortak bigram (2 gram) sayısını ölçer.
  • ROUGE-3, referans metin ve oluşturulan metindeki ortak üçlü gram (3 gram) sayısını ölçer.

ROUGE-N ailesinin herhangi bir üyesi için ROUGE-N geri çağırma ve ROUGE-N kesinliğini hesaplamak üzere aşağıdaki formülleri kullanabilirsiniz:

$$\text{ROUGE-N recall} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the reference text} }$$
$$\text{ROUGE-N precision} = \frac{\text{number of matching N-grams}} {\text{number of N-grams in the generated text} }$$

Daha sonra, ROUGE-N geri çağırma ve ROUGE-N kesinliğini tek bir metrikte toplamak için F1'i kullanabilirsiniz:

$$\text{ROUGE-N F}{_1} = \frac{\text{2} * \text{ROUGE-N recall} * \text{ROUGE-N precision}} {\text{ROUGE-N recall} + \text{ROUGE-N precision} }$$

ROUGE-S

#language
#Metric

ROUGE-N'nin, skip-gram eşleşmesine olanak tanıyan, daha esnek bir biçimi. Yani ROUGE-N yalnızca tam olarak eşleşen N-gramları sayar ancak ROUGE-S, bir veya daha fazla kelimeyle ayrılmış N-gramları da sayar. Örneğin aşağıdakileri göz önünde bulundurabilirsiniz:

ROUGE-N hesaplanırken 2 gramlık Beyaz bulutlar, Beyaz kabaran bulutlar ile eşleşmez. Ancak ROUGE-S hesaplanırken Beyaz bulutlar, Beyaz kabarık bulutlar ile eşleşir.

R-kare

#Metric

Bir etiketteki varyasyonun ne kadarının tek bir özellikten veya bir özellik grubundan kaynaklandığını gösteren regresyon metriği. Belirleme katsayısı, 0 ile 1 arasında bir değerdir ve şu şekilde yorumlanabilir:

  • 0 R kare değeri, bir varyasyonun hiçbirinin özellik kümesinden kaynaklanmadığı anlamına gelir.
  • Belirleme katsayısının 1 olması, bir etiketin tüm varyasyonunun özellik grubundan kaynaklandığı anlamına gelir.
  • 0 ile 1 arasındaki bir R kare değeri, etiketin varyasyonunun belirli bir özellikten veya özellik kümesinden ne ölçüde tahmin edilebileceğini gösterir. Örneğin, 0,10'luk bir R kare değeri, etiketteki varyansın yüzde 10'unun özellik grubundan kaynaklandığı anlamına gelir. 0,20'lik bir R kare değeri, yüzde 20'sinin özellik grubundan kaynaklandığı anlamına gelir.

Belirleme katsayısı, bir modelin tahmin ettiği değerler ile kesin referans arasındaki Pearson korelasyon katsayısının karesidir.

S

örnekleme yanlılığı

#responsible

Seçim yanlılığı konusunu inceleyin.

yerine koyarak örnekleme

#df

Aynı öğenin birden çok kez seçilebildiği, bir dizi aday öğe arasından öğe seçme yöntemi. "Değiştirme ile" ifadesi, her seçimden sonra seçilen öğenin aday öğeler havuzuna geri döndürüldüğü anlamına gelir. Ters yöntem olan yerine koymadan örnekleme, aday öğenin yalnızca bir kez seçilebileceği anlamına gelir.

Örneğin, aşağıdaki meyve setini ele alalım:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Sistemin ilk öğe olarak rastgele fig öğesini seçtiğini varsayalım. Değiştirme ile örnekleme kullanılıyorsa sistem, aşağıdaki gruptan ikinci öğeyi seçer:

fruit = {kiwi, apple, pear, fig, cherry, lime, mango}

Evet, bu daha öncekiyle aynı set olduğundan sistem fig öğesini tekrar seçebilir.

Yerine koymadan örnekleme kullanılıyorsa seçilen bir örnek tekrar seçilemez. Örneğin, sistem ilk örnek olarak rastgele fig öğesini seçerse fig tekrar seçilemez. Bu nedenle, sistem aşağıdaki (azaltılmış) kümeden ikinci örneği seçer:

fruit = {kiwi, apple, pear, cherry, lime, mango}

SavedModel

#TensorFlow

TensorFlow modellerini kaydetmek ve kurtarmak için önerilen biçimdir. SavedModel, dil açısından bağımsız ve kurtarılabilir bir serileştirme biçimidir. Bu biçim, daha üst düzey sistemlerin ve araçların TensorFlow modellerini üretmesine, kullanmasına ve dönüştürmesine olanak tanır.

Ayrıntılı bilgi için TensorFlow Programcı Kılavuzu'nun Kaydetme ve Geri Yükleme bölümüne bakın.

Tasarruflu

#TensorFlow

Model kontrol noktalarını kaydetmekten sorumlu bir TensorFlow nesnesi.

skaler

Rank 0 tensörü olarak gösterilebilen tek bir sayı veya tek bir dize. Örneğin, aşağıdaki kod satırlarının her biri TensorFlow'da bir skaler oluşturur:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)

ölçeklendirme

Bir etiketin, özellik değerinin veya her ikisinin de aralığını değiştiren tüm matematiksel dönüşümler ya da teknikler. Bazı ölçeklendirme biçimleri, normalleştirme gibi dönüştürmeler için çok yararlıdır.

Makine öğreniminde faydalı olan yaygın ölçeklendirme biçimleri şunlardır:

  • Genellikle orijinal değeri -1 ile +1 arasında veya 0 ile 1 arasında bir sayıyla değiştirmek için çıkarma ve bölme kombinasyonunu kullanan doğrusal ölçeklendirme.
  • Orijinal değeri logaritmasıyla değiştiren logaritmik ölçeklendirme.
  • Z puanı normalleştirme: Orijinal değeri, söz konusu özelliğin ortalamasından standart sapma sayısını temsil eden bir kayan nokta değeriyle değiştirir.

scikit-learn

Popüler bir açık kaynak makine öğrenimi platformu. scikit-learn.org adresini ziyaret edin.

puanlama

#recsystems
#Metric

Öneri sisteminin, aday oluşturma aşamasında üretilen her öğe için bir değer veya sıralama sağlayan kısmı.

seçim yanlılığı

#responsible

Verilerde gözlemlenen örnekler ile gözlemlenmeyen örnekler arasında sistematik farklılıklar oluşturan bir seçim süreci nedeniyle örneklenmiş verilerden çıkarılan sonuçlardaki hatalar. Aşağıdaki seçim yanlılığı türleri vardır:

  • Kapsam yanlılığı: Veri kümesinde temsil edilen popülasyon, makine öğrenimi modelinin tahminlerde bulunduğu popülasyonla eşleşmiyor.
  • Örnekleme önyargısı: Veriler, hedef gruptan rastgele toplanmaz.
  • Yanıt vermeme yanlılığı (katılım yanlılığı olarak da adlandırılır): Belirli gruplardaki kullanıcılar, diğer gruplardaki kullanıcılara kıyasla anketlere farklı oranlarda katılmayı reddeder.

Örneğin, insanların bir filmden ne kadar keyif alacağını tahmin eden bir makine öğrenimi modeli oluşturduğunuzu varsayalım. Eğitim verileri toplamak için, filmin gösterildiği bir tiyatronun ön sırasındaki herkese anket dağıtıyorsunuz. Bu, ilk bakışta veri kümesi toplamak için makul bir yöntem gibi görünebilir. Ancak bu veri toplama biçimi, aşağıdaki seçim önyargısı biçimlerine yol açabilir:

  • Kapsam yanlılığı: Filmi izlemeyi seçen bir popülasyondan örnekleme yaptığınızda modelinizin tahminleri, filme bu düzeyde ilgi göstermeyen kişiler için genelleştirilemeyebilir.
  • Örneklem önyargısı: Amaçlanan popülasyondan (sinemadaki tüm insanlar) rastgele örnekleme yapmak yerine yalnızca ön sıradaki insanları örneklediniz. Ön sırada oturanlar, diğer sıralarda oturanlara kıyasla filmle daha fazla ilgilenmiş olabilir.
  • Yanıt vermeme önyargısı: Genel olarak, güçlü görüşleri olan kişiler isteğe bağlı anketlere, görüşleri daha hafif olan kişilere göre daha sık yanıt verir. Film anketi isteğe bağlı olduğundan yanıtların normal (çan eğrisi) dağılım yerine iki modlu dağılım oluşturma olasılığı daha yüksektir.

öz dikkat (öz dikkat katmanı olarak da adlandırılır)

#language

Bir dizi yerleştirmeyi (örneğin, jeton yerleştirmeleri) başka bir dizi yerleştirmeye dönüştüren bir nöral ağ katmanı. Çıkış dizisindeki her yerleştirme, giriş dizisindeki öğelerden alınan bilgilerin dikkat mekanizması aracılığıyla entegre edilmesiyle oluşturulur.

Öz dikkat terimindeki öz kısmı, dizinin başka bir bağlam yerine kendisine dikkat etmesini ifade eder. Öz dikkat, dönüştürücülerin temel yapı taşlarından biridir ve "sorgu", "anahtar" ve "değer" gibi sözlük arama terminolojisini kullanır.

Öz dikkat katmanı, her kelime için bir tane olmak üzere giriş temsillerinin bir dizisiyle başlar. Bir kelimenin giriş temsili basit bir yerleştirme olabilir. Ağ, giriş dizisindeki her kelimenin tüm kelime dizisindeki her öğeyle alaka düzeyini puanlar. Alaka düzeyleri, kelimenin nihai gösteriminin diğer kelimelerin gösterimlerini ne kadar içerdiğini belirler.

Örneğin, aşağıdaki cümleyi ele alalım:

Hayvan çok yorgun olduğu için sokağı geçmedi.

Aşağıdaki resimde (Transformer: A Novel Neural Network Architecture for Language Understanding adlı makaleden alınmıştır) it zamiri için öz dikkat katmanının dikkat kalıbı gösterilmektedir. Her bir çizginin koyuluğu, her kelimenin temsile ne kadar katkıda bulunduğunu gösterir:

Aşağıdaki cümle iki kez tekrarlanıyor: Hayvan çok yorgun olduğu için sokağı geçmedi. Çizgiler, bir cümledeki &quot;it&quot; zamirini diğer cümledeki beş jetona (The, animal, street, it ve nokta) bağlar. it zamiri ile animal kelimesi arasındaki ilişki en güçlüdür.

Öz dikkat katmanı, "it" ile alakalı kelimeleri vurgular. Bu durumda dikkat katmanı, kendisine atıfta bulunabileceği kelimeleri vurgulamayı öğrenmiş ve hayvan kelimesine en yüksek ağırlığı atamıştır.

n jeton dizisi için öz dikkat, yerleştirme dizisini n kez, dizideki her konumda bir kez dönüştürür.

Dikkat ve çok başlı kendi kendine dikkat bölümlerini de inceleyin.

kendi kendine denetimli öğrenme

Gözetimsiz makine öğrenimi sorununu, etiketlenmemiş örneklerden vekil etiketler oluşturarak gözetimli makine öğrenimi sorununa dönüştürmeye yönelik bir teknik ailesi.

BERT gibi bazı Transformer tabanlı modeller, kendi kendine denetimli öğrenmeyi kullanır.

Kendi kendine denetimli eğitim, yarı denetimli öğrenme yaklaşımıdır.

kendi kendine eğitim

Aşağıdaki koşulların tümü geçerli olduğunda özellikle yararlı olan bir kendi kendine denetimli öğrenme çeşidi:

Kendi kendine eğitim, model gelişmeyi durdurana kadar aşağıdaki iki adımda tekrarlama yaparak çalışır:

  1. Etiketli örnekler üzerinde bir modeli eğitmek için gözetimli makine öğrenimini kullanın.
  2. Etiketsiz örnekler üzerinde tahminler (etiketler) oluşturmak için 1. adımda oluşturulan modeli kullanın. Yüksek güven düzeyine sahip olanları, tahmin edilen etiketle birlikte etiketli örneklere taşıyın.

2. Adım'ın her yinelemesinde, 1. Adım'ın eğitilmesi için daha fazla etiketli örnek eklendiğini unutmayın.

yarı gözetimli öğrenme

Eğitim örneklerinin bazılarının etiketli, bazılarının ise etiketsiz olduğu veriler üzerinde model eğitme. Yarı denetimli öğrenmeye yönelik bir teknik, etiketlenmemiş örneklerin etiketlerini tahmin etmek ve ardından yeni bir model oluşturmak için tahmin edilen etiketler üzerinde eğitim yapmaktır. Etiket elde etmek maliyetli ancak etiketsiz örnekler bol miktarda mevcutsa yarı gözetimli öğrenme yararlı olabilir.

Kendi kendine eğitim, yarı gözetimli öğrenme için kullanılan bir tekniktir.

hassas nitelik

#responsible
Yasal, etik, sosyal veya kişisel nedenlerle özel olarak nitelendirilmiş bir insan özelliği.

yaklaşım analizi

#language

Bir grubun hizmete, ürüne, kuruluşa veya konuya yönelik genel tutumunu (olumlu ya da olumsuz) belirlemek için istatistiksel algoritmalar veya makine öğrenimi algoritmaları kullanma. Örneğin, bir algoritma, doğal dil anlama özelliğini kullanarak bir üniversite kursuyla ilgili metin biçimindeki geri bildirimler üzerinde duygu analizi yapabilir ve öğrencilerin kursu genel olarak ne kadar beğendiğini veya beğenmediğini belirleyebilir.

Daha fazla bilgi için Metin sınıflandırma kılavuzuna bakın.

sıra modeli

#seq

Girişleri sıralı bağımlılığa sahip olan bir model. Örneğin, daha önce izlenen videolar dizisinden bir sonraki izlenecek videoyu tahmin etme.

sıradan sıraya görev

#language

Jetonlardan oluşan bir giriş dizisini jetonlardan oluşan bir çıkış dizisine dönüştüren görev. Örneğin, iki popüler sıra-sıra görevi türü şunlardır:

  • Çevirmenler:
    • Örnek giriş dizisi: "Seni seviyorum."
    • Örnek çıkış sırası: "Je t'aime."
  • Soru yanıtlama:
    • Örnek giriş sırası: "New York'ta arabamı kullanmam gerekiyor mu?"
    • Örnek çıkış sırası: "Hayır. Arabanızı evde bırakın."

porsiyon

Eğitilmiş bir modeli online çıkarım veya offline çıkarım aracılığıyla tahmin sağlamak için kullanılabilir hale getirme süreci.

shape (Tensor)

Bir tensörün her bir boyutundaki öğe sayısı. Şekil, tam sayılardan oluşan bir liste olarak gösterilir. Örneğin, aşağıdaki iki boyutlu tensörün şekli [3,4]'tür:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]

TensorFlow, boyutların sırasını temsil etmek için satır öncelikli (C stili) biçimi kullanır. Bu nedenle TensorFlow'daki şekil [4,3] değil [3,4] şeklindedir. Diğer bir deyişle, iki boyutlu bir TensorFlow Tensor'da şekil [satır sayısı, sütun sayısı] olur.

Statik şekil, derleme zamanında bilinen bir tensör şeklidir.

Dinamik şekil, derleme zamanında bilinmez ve bu nedenle çalışma zamanı verilerine bağlıdır. Bu tensör, TensorFlow'da [3, ?] örneğinde olduğu gibi yer tutucu bir boyutla temsil edilebilir.

parça

#TensorFlow
#GoogleCloud

Eğitim kümesinin veya modelin mantıksal bir bölümü. Genellikle bir işlem, örnekleri veya parametreleri (genellikle) eşit boyutlu parçalara bölerek parçalar oluşturur. Her parça daha sonra farklı bir makineye atanır.

Bir modeli parçalama işlemine model paralelliği, verileri parçalama işlemine ise veri paralelliği adı verilir.

küçülme

#df

Gradyan artırmada aşırı uyumu kontrol eden bir hiperparametredir. Gradyan artırmada küçültme, gradyan inişindeki öğrenme hızına benzer. Küçülme, 0,0 ile 1,0 arasında bir ondalık değerdir. Daha düşük bir daralma değeri, aşırı uyumu daha büyük bir daralma değerinden daha fazla azaltır.

yan yana değerlendirme

İki modelin kalitesini, aynı isteme verdikleri yanıtları değerlendirerek karşılaştırma Örneğin, aşağıdaki istemin iki farklı modele verildiğini varsayalım:

Üç topla jonglörlük yapan sevimli bir köpek resmi oluştur.

Yan yana değerlendirmede, değerlendirici hangi resmin "daha iyi" olduğunu seçer (Daha doğru mu? Daha güzel mi? Cuter?).

sigmoid işlevi

#fundamentals

Bir giriş değerini sınırlı bir aralığa (genellikle 0 ile 1 veya -1 ile +1) "sıkıştıran" matematiksel bir işlev. Yani, bir sigmoid fonksiyonuna herhangi bir sayı (iki, bir milyon, eksi bir milyar vb.) iletebilirsiniz ve çıkış yine de sınırlı aralıkta olur. Sigmoid aktivasyon fonksiyonunun grafiği şu şekilde görünür:

X değerlerinin -sonsuz ile +pozitif arasında, y değerlerinin ise neredeyse 0 ile neredeyse 1 arasında değiştiği iki boyutlu eğri grafiği. x 0 olduğunda y 0, 5 olur. Eğrinin eğimi her zaman pozitiftir.En yüksek eğim 0,05&#39;te olup x&#39;in mutlak değeri arttıkça eğimler kademeli olarak azalır.

Sigmoid işlevinin makine öğreniminde çeşitli kullanım alanları vardır. Örneğin:

benzerlik ölçüsü

#clustering
#Metric

Kümeleme algoritmalarında, iki örneğin ne kadar benzer olduğunu belirlemek için kullanılan metrik.

tek program / çoklu veri (SPMD)

Aynı hesaplamanın farklı cihazlarda farklı giriş verileri üzerinde paralel olarak çalıştırıldığı bir paralellik tekniği. SPMD'nin amacı, sonuçları daha hızlı elde etmektir. Bu, en yaygın paralel programlama stilidir.

boyut değişmezliği

#image

Bir görüntü sınıflandırma sorununda, algoritmanın görüntü boyutları değişse bile görüntüleri başarılı bir şekilde sınıflandırma becerisi. Örneğin, algoritma 2 milyon piksel veya 200 bin piksel tükettiğinde kediyi tanımlayabilir. En iyi resim sınıflandırma algoritmalarının bile boyut değişmezliği konusunda pratik sınırlamaları olduğunu unutmayın. Örneğin, yalnızca 20 piksel tüketen bir kedi resminin bir algoritma (veya insan) tarafından doğru şekilde sınıflandırılması olası değildir.

Ayrıca öteleme değişmezliği ve dönme değişmezliği hakkında bilgi edinin.

Daha fazla bilgi için Kümeleme kursuna bakın.

çizim

#clustering

Denetimsiz makine öğrenimi, örnekler üzerinde ön benzerlik analizi yapan bir algoritma kategorisidir. Çizim algoritmaları, benzer olma olasılığı yüksek noktaları belirlemek için konuma duyarlı karma işlevi kullanır ve ardından bu noktaları gruplandırarak gruplara ayırır.

Çizim, büyük veri kümelerinde benzerlik hesaplamaları için gereken işlem miktarını azaltır. Veri kümesindeki her bir örnek çifti için benzerliği hesaplamak yerine, yalnızca her bir paketteki her bir nokta çifti için benzerliği hesaplarız.

skip-gram

#language

Orijinal bağlamdaki kelimeleri atlayabilen (veya "geçebilen") bir n-gram. Bu, N kelimenin başlangıçta bitişik olmayabileceği anlamına gelir. Daha net bir ifadeyle, "k-skip-n-gram", en fazla k kelimenin atlanmış olabileceği bir n-gramdır.

Örneğin, "the quick brown fox" (hızlı kahverengi tilki) ifadesinin olası 2 gramlık bölümleri şunlardır:

  • "the quick"
  • "quick brown" (hızlı kahverengi)
  • "kahverengi tilki"

"1-skip-2-gram", aralarında en fazla 1 kelime bulunan iki kelimeden oluşan bir çifttir. Bu nedenle, "the quick brown fox" ifadesi aşağıdaki 1 atlamalı 2 gramları içerir:

  • "the brown" (kahverengi)
  • "quick fox" (hızlı tilki)

Ayrıca, birden az kelime atlanabileceğinden tüm 2 gramlar aynı zamanda 1 atlamalı 2 gramlardır.

Atlanan kelimeler, bir kelimenin bağlamını daha iyi anlamak için faydalıdır. Örnekte, "fox" kelimesi 1-atla-2-gram kümesinde "quick" kelimesiyle doğrudan ilişkilendirilmiş ancak 2-gram kümesinde ilişkilendirilmemiştir.

Skip-gram'ler, kelime yerleştirme modellerinin eğitilmesine yardımcı olur.

softmax

#fundamentals

Çok sınıflı sınıflandırma modelinde olası her sınıf için olasılıkları belirleyen bir işlev. Olasılıkların toplamı tam olarak 1,0'dır. Örneğin, aşağıdaki tabloda softmax'ın çeşitli olasılıkları nasıl dağıttığı gösterilmektedir:

Resim bir... Probability
köpek 0,85
Cat 0,13
at 0,02

Softmax, tam softmax olarak da adlandırılır.

Aday örnekleme ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Nöral ağlar: Çok sınıflı sınıflandırma başlıklı makaleyi inceleyin.

yumuşak istem ayarlama

#language
#generativeAI

Kaynak yoğun ince ayar yapmadan, belirli bir görev için büyük bir dil modelini ayarlama tekniği. Yumuşak istem ayarlama, modeldeki tüm ağırlıkları yeniden eğitmek yerine aynı hedefe ulaşmak için istemleri otomatik olarak ayarlar.

Metin istemi verildiğinde, istemde ek jeton yerleştirmeleri kullanılır ve girişi optimize etmek için genellikle geri yayılım kullanılır.

"Sert" istemler, jeton yerleştirmeleri yerine gerçek jetonlar içerir.

seyrek özellik

#language
#fundamentals

Değerleri çoğunlukla sıfır veya boş olan bir özellik. Örneğin, tek bir 1 değeri ve bir milyon 0 değeri içeren bir özellik seyrek olur. Buna karşılık, yoğun bir özellik, çoğunlukla sıfır veya boş olmayan değerlere sahiptir.

Makine öğreniminde, şaşırtıcı sayıda özellik seyrek özelliklerdir. Kategorik özellikler genellikle seyrek özelliklerdir. Örneğin, bir ormanda olabilecek 300 ağaç türünden tek bir örnek yalnızca akçaağaç olarak tanımlanabilir. Alternatif olarak, bir video kitaplığındaki milyonlarca olası videodan tek bir örnek yalnızca "Casablanca"yı tanımlayabilir.

Bir modelde, seyrek özellikleri genellikle one-hot kodlama ile temsil edersiniz. One-hot kodlama büyükse daha fazla verimlilik için one-hot kodlamanın üzerine bir yerleştirme katmanı koyabilirsiniz.

seyrek gösterim

#language
#fundamentals

Seyrek bir özellikte yalnızca sıfır olmayan öğelerin konumlarını saklama.

Örneğin, species adlı kategorik bir özelliğin belirli bir ormandaki 36 ağaç türünü tanımladığını varsayalım. Ayrıca her örneğin yalnızca tek bir türü tanımladığını varsayalım.

Her örnekteki ağaç türünü göstermek için tek sıcaklık vektörü kullanabilirsiniz. Tek sıcaklık vektöründe tek bir 1 (örnekteki belirli ağaç türünü temsil etmek için) ve 35 0 (örnekteki 35 ağaç türünü temsil etmemek için) bulunur. Bu nedenle, maple için tek sıcaklık gösterimi aşağıdaki gibi olabilir:

0-23 arasındaki konumların 0 değerini, 24. konumun 1 değerini ve 25-35 arasındaki konumların 0 değerini tuttuğu bir vektör.

Alternatif olarak, seyrek gösterim yalnızca belirli türlerin konumunu tanımlar. maple 24. konumdaysa maple öğesinin seyrek gösterimi şu şekilde olur:

24

Seyrek gösterimin, tek sıcak gösterimden çok daha kompakt olduğuna dikkat edin.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki Kategorik verilerle çalışma bölümüne bakın.

seyrek vektör

#fundamentals

Değerleri çoğunlukla sıfır olan bir vektör. Ayrıca sparse feature ve sparsity konularına da bakın.

seyreklik

#Metric

Bir vektör veya matriste sıfır (ya da boş) olarak ayarlanan öğelerin sayısının, söz konusu vektör veya matristeki toplam giriş sayısına bölünmesiyle elde edilen değer. Örneğin, 98 hücresinde sıfır bulunan 100 öğelik bir matrisi ele alalım. Seyrekliği hesaplama şekli şöyledir:

$$ {\text{sparsity}} = \frac{\text{98}} {\text{100}} = {\text{0.98}} $$

Özellik seyrekliği, özellik vektörünün seyrekliğini ifade ederken model seyrekliği, model ağırlıklarının seyrekliğini ifade eder.

mekansal havuz oluşturma

#image

Havuz oluşturma bölümünü inceleyin.

Split

#df

Karar ağacında, koşulun diğer adı.

ayırıcı

#df

Karar ağacı eğitilirken her bir düğümde en iyi koşulu bulmaktan sorumlu rutin (ve algoritma).

SPMD

Tek program / çoklu veri kısaltması.

kare menteşe kaybı

#Metric

Menteşe kaybının karesi. Karesel menteşe kaybı, aykırı değerleri normal menteşe kaybına kıyasla daha sert şekilde cezalandırır.

kare kaybı

#fundamentals
#Metric

L2 kaybı ile eş anlamlıdır.

aşamalı eğitim

#language

Bir modeli ayrı aşamalar halinde eğitme taktiği. Amaç, eğitim sürecini hızlandırmak veya daha iyi model kalitesi elde etmek olabilir.

Aşamalı katmanlama yaklaşımının bir örneği aşağıda gösterilmiştir:

  • 1. aşamada 3 gizli katman, 2. aşamada 6 gizli katman ve 3. aşamada 12 gizli katman bulunur.
  • 2. aşama, 1. aşamanın 3 gizli katmanında öğrenilen ağırlıklarla eğitime başlar. 3. aşamada, 2. aşamanın 6 gizli katmanında öğrenilen ağırlıklarla eğitim başlar.

1. Aşama, 2. Aşama ve 3. Aşama olarak etiketlenmiş üç aşama.
          Her aşamada farklı sayıda katman bulunur: 1. aşamada 3 katman, 2. aşamada 6 katman ve 3. aşamada 12 katman vardır.
          1. aşamadaki 3 katman, 2. aşamanın ilk 3 katmanı olur.
          Benzer şekilde, 2. Aşamada yer alan 6 katman, 3. Aşamada ilk 6 katman olur.

Ayrıca ardışık işlem bölümünü de inceleyin.

durum

#rl

Pekiştirmeli öğrenmede, agent'ın bir işlem seçmek için kullandığı, ortamın mevcut yapılandırmasını açıklayan parametre değerleri.

durum-eylem değeri fonksiyonu

#rl

Q-function ile aynı anlama gelir.

statik

#fundamentals

Sürekli olarak değil, bir kez yapılan bir şey. Statik ve çevrimdışı terimleri eş anlamlıdır. Aşağıda, makine öğreniminde statik ve çevrimdışı kullanımına dair yaygın örnekler verilmiştir:

  • Statik model (veya çevrimdışı model), bir kez eğitilen ve bir süre kullanılan modeldir.
  • Statik eğitim (veya çevrimdışı eğitim), statik bir modeli eğitme sürecidir.
  • Statik çıkarım (veya çevrimdışı çıkarım), bir modelin tek seferde bir grup tahmin oluşturduğu bir süreçtir.

Dinamik ile karşılaştırma

statik çıkarım

#fundamentals

Çevrimdışı çıkarım ile eş anlamlıdır.

durağanlık

#fundamentals

Değerleri bir veya daha fazla boyutta (genellikle zaman) değişmeyen bir özellik. Örneğin, değerleri 2021 ve 2023'te yaklaşık olarak aynı görünen bir özellik durağanlık gösterir.

Gerçek dünyada çok az özellik durağanlık gösterir. Kararlılıkla eş anlamlı olan özellikler (ör. deniz seviyesi) bile zaman içinde değişir.

Durağansızlık ile karşılaştırın.

adım

Bir toplu işlemin ileriye ve geriye doğru hesaplaması.

İleri geçiş ve geri geçiş hakkında daha fazla bilgi için geri yayılım bölümüne bakın.

adım boyutu

Öğrenme hızı ile eş anlamlıdır.

stokastik gradyan inişi (SGD)

#fundamentals

Toplu iş boyutunun bir olduğu gradyan inişi algoritması. Diğer bir deyişle SGD, eğitim setinden rastgele ve eşit şekilde seçilen tek bir örnek üzerinde eğitilir.

Daha fazla bilgi için Machine Learning Crash Course'taki Doğrusal regresyon: Hiperparametreler başlıklı makaleyi inceleyin.

stride

#image

Bir evrişimli işlem veya havuzlamada, bir sonraki giriş dilimleri serisinin her boyutundaki delta. Örneğin, aşağıdaki animasyonda bir evrişim işlemi sırasında (1,1) adımı gösterilmektedir. Bu nedenle, bir sonraki giriş dilimi, önceki giriş diliminin bir konum sağından başlar. İşlem sağ kenara ulaştığında bir sonraki dilim tamamen sola, ancak bir konum aşağıda olur.

5x5&#39;lik bir giriş matrisi ve 3x3&#39;lük bir evrişim filtresi. Adım (1,1) olduğundan, evrişimli filtre 9 kez uygulanır. İlk evrişimli dilim, giriş matrisinin sol üstteki 3x3 alt matrisini değerlendirir. İkinci dilim, üst orta 3x3 alt matrisini değerlendirir. Üçüncü evrişimli dilim, sağ üstteki 3x3 alt matrisini değerlendirir. Dördüncü dilim, sol ortadaki 3x3 alt matrisi değerlendirir.
     Beşinci dilim, ortadaki 3x3 alt matrisi değerlendirir. Altıncı dilim, sağ ortadaki 3x3 alt matrisi değerlendirir. Yedinci dilim, sol alttaki 3x3 alt matrisi değerlendirir. Sekizinci dilim, alt ortadaki 3x3 alt matrisi değerlendirir. Dokuzuncu dilim, sağ alttaki 3x3 alt matrisi değerlendirir.

Yukarıdaki örnekte iki boyutlu bir adım gösterilmektedir. Giriş matrisi üç boyutluysa adım da üç boyutlu olur.

yapısal risk minimizasyonu (SRM)

İki hedefi dengeleyen bir algoritma:

  • En tahmin edici modeli (örneğin, en düşük kayıp) oluşturma ihtiyacı.
  • Modeli mümkün olduğunca basit tutma ihtiyacı (örneğin, güçlü düzenlileştirme).

Örneğin, eğitim kümesinde kayıp+düzenlileştirme işlemini en aza indiren bir fonksiyon, yapısal risk minimizasyonu algoritmasıdır.

Deneysel risk minimizasyonu ile karşılaştırın.

alt örnekleme

#image

Havuz oluşturma bölümünü inceleyin.

alt kelime belirteci

#language

Dil modellerinde, bir kelimenin alt dizesi olan ve kelimenin tamamı olabilen jeton.

Örneğin, "itemize" gibi bir kelime, "item" (kök kelime) ve "ize" (sonek) parçalarına ayrılabilir. Bu parçaların her biri kendi jetonuyla temsil edilir. Dil modelleri, yaygın olmayan kelimeleri alt kelimeler adı verilen parçalara ayırarak kelimenin daha yaygın olan bileşenleri (ör. önekler ve sonekler) üzerinde işlem yapabilir.

Buna karşılık, "going" gibi yaygın kelimeler ayrılmayabilir ve tek bir jetonla temsil edilebilir.

özet

#TensorFlow

TensorFlow'da belirli bir adımda hesaplanan bir değer veya değerler kümesi. Genellikle eğitim sırasında model metriklerini izlemek için kullanılır.

denetimli makine öğrenmesi

#fundamentals

Özelliklerden ve bunlara karşılık gelen etiketlerden model eğitimi. Denetimli makine öğrenimi, bir dizi soruyu ve ilgili cevaplarını inceleyerek bir konuyu öğrenmeye benzer. Sorular ve cevaplar arasındaki eşlemeyi öğrendikten sonra, öğrenciler aynı konuyla ilgili yeni (daha önce hiç görülmemiş) soruları cevaplayabilir.

Denetimsiz makine öğrenimi ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş kursundaki Gözetimli Öğrenme bölümüne bakın.

yapay özellik

#fundamentals

Giriş özellikleri arasında bulunmayan ancak bir veya daha fazla giriş özelliğinden oluşturulan bir özellik. Yapay özellikler oluşturma yöntemleri şunlardır:

  • Sürekli bir özelliği aralık gruplarına gruplandırma.
  • Çapraz özellik oluşturma.
  • Bir özellik değerini diğer özellik değerleriyle veya kendisiyle çarpma (ya da bölme). Örneğin, a ve b giriş özellikleri ise aşağıdaki özellikler sentetik özellik örnekleridir:
    • ab
    • a2
  • Bir özellik değerine aşkın fonksiyon uygulama. Örneğin, c bir giriş özelliği ise aşağıdaki özellikler sentetik özellik örnekleridir:
    • sin(c)
    • ln(c)

Yalnızca normalleştirme veya ölçeklendirme ile oluşturulan özellikler, sentetik özellik olarak kabul edilmez.

T

T5

#language

Google Yapay Zeka tarafından 2020'de kullanıma sunulan, metinden metne transfer öğrenimi modeli. T5, Transformer mimarisine dayalı, son derece büyük bir veri kümesi üzerinde eğitilmiş bir kodlayıcı-kod çözücü modelidir. Metin oluşturma, dil çevirme ve soruları sohbet eder gibi yanıtlama gibi çeşitli doğal dil işleme görevlerinde etkilidir.

T5, adını "Text-to-Text Transfer Transformer "daki beş T'den alır.

T5X

T5X

#language

Büyük ölçekli doğal dil işleme (NLP) modelleri oluşturmak ve eğitmek için tasarlanmış açık kaynaklı bir makine öğrenimi çerçevesi. T5, T5X kod tabanında (JAX ve Flax üzerine kurulmuştur) uygulanır.

tablo şeklinde Q-öğrenimi

#rl

Pekiştirmeli öğrenmede, her durum ve işlem kombinasyonu için Q-işlevlerini depolamak üzere bir tablo kullanarak Q-öğrenimi uygulama.

hedef

Etiket kelimesinin eş anlamlısı.

hedef ağ

#rl

Derin Q-öğreniminde, ana sinir ağının kararlı bir yaklaşımı olan bir sinir ağı kullanılır. Ana sinir ağı, Q işlevini veya politikayı uygular. Ardından, hedef ağ tarafından tahmin edilen Q değerleri üzerinde ana ağı eğitebilirsiniz. Bu nedenle, ana ağın kendisi tarafından tahmin edilen Q değerleri üzerinde eğitildiği geri bildirim döngüsünü önlersiniz. Bu geri bildirimi önleyerek eğitim kararlılığını artırabilirsiniz.

görev

Aşağıdakiler gibi makine öğrenimi teknikleri kullanılarak çözülebilecek bir sorun:

sıcaklık

#language
#image
#generativeAI

Bir modelin çıkışının rastgelelik derecesini kontrol eden hiperparametredir. Sıcaklık yükseldikçe daha rastgele çıkışlar, düştükçe ise daha az rastgele çıkışlar elde edilir.

En iyi sıcaklığı seçmek, belirli uygulamaya ve/veya dize değerlerine bağlıdır.

zamansal veriler

Farklı zaman noktalarında kaydedilen veriler. Örneğin, yılın her günü için kaydedilen kışlık mont satışları zamansal verilerdir.

Tensor

#TensorFlow

TensorFlow programlarındaki birincil veri yapısı. Tensorlar, N boyutlu (N çok büyük olabilir) veri yapılarıdır. En yaygın olarak skalerler, vektörler veya matrisler kullanılır. Bir tensörün öğeleri tam sayı, kayan nokta veya dize değerleri içerebilir.

TensorBoard

#TensorFlow

Bir veya daha fazla TensorFlow programının yürütülmesi sırasında kaydedilen özetleri gösteren kontrol paneli.

TensorFlow

#TensorFlow

Büyük ölçekli, dağıtılmış bir makine öğrenimi platformu. Bu terim, TensorFlow yığınındaki temel API katmanı için de kullanılır. Bu katman, veri akışı grafiklerinde genel hesaplamayı destekler.

TensorFlow öncelikle makine öğrenimi için kullanılsa da veri akışı grafikleri kullanılarak sayısal hesaplama gerektiren makine öğrenimi dışı görevler için de TensorFlow'u kullanabilirsiniz.

TensorFlow Playground

#TensorFlow

Farklı hiperparametrelerin model (öncelikle sinir ağı) eğitimini nasıl etkilediğini görselleştiren bir program. TensorFlow Playground ile denemeler yapmak için http://playground.tensorflow.org adresine gidin.

TensorFlow Serving

#TensorFlow

Eğitilmiş modelleri üretimde dağıtma platformu.

Tensor İşleme Birimi (TPU)

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yüklerinin performansını optimize eden uygulamaya özel bir entegre devre (ASIC). Bu ASIC'ler, TPU cihazında birden fazla TPU çipi olarak dağıtılır.

Tensör sıralaması

#TensorFlow

rank (Tensor) başlıklı makaleyi inceleyin.

Tensör şekli

#TensorFlow

Tensor'un çeşitli boyutlarda içerdiği öğelerin sayısı. Örneğin, bir [5, 10] tensörünün bir boyutta 5, diğer boyutta 10 şekli vardır.

Tensör boyutu

#TensorFlow

Bir Tensor'un içerdiği toplam skaler sayısı. Örneğin, bir [5, 10] tensörünün boyutu 50'dir.

TensorStore

Büyük çok boyutlu dizileri verimli bir şekilde okuma ve yazma için kullanılan bir kitaplık.

sonlandırma koşulu

#rl

Pekiştirme öğreniminde, bir bölümün ne zaman sona ereceğini belirleyen koşullar (ör. temsilci belirli bir duruma ulaştığında veya eşik sayıda durum geçişini aştığında). Örneğin, XOX oyununda bir oyuncu üç ardışık alanı işaretlediğinde veya tüm alanlar işaretlendiğinde bölüm sona erer.

test

#df

Karar ağacında, koşulun diğer adı.

test kaybı

#fundamentals
#Metric

Bir modelin test kümesine karşı kaybını temsil eden bir metrik. Model oluştururken genellikle test kaybını en aza indirmeye çalışırsınız. Bunun nedeni, düşük test kaybının düşük eğitim kaybı veya düşük doğrulama kaybından daha güçlü bir kalite sinyali olmasıdır.

Test kaybı ile eğitim kaybı veya doğrulama kaybı arasında büyük bir fark olması bazen düzenlileştirme oranını artırmanız gerektiğini gösterir.

test seti

Eğitilmiş bir modelin test edilmesi için ayrılmış veri kümesinin bir alt kümesi.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

Veri kümesindeki her örnek, yukarıdaki alt kümelerden yalnızca birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de test kümesine ait olmamalıdır.

Eğitim kümesi ve doğrulama kümesi, model eğitme ile yakından ilişkilidir. Test kümesi yalnızca eğitimle dolaylı olarak ilişkili olduğundan test kaybı, eğitim kaybı veya doğrulama kaybından daha az yanlı ve daha yüksek kaliteli bir metriktir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Veri kümeleri: Orijinal veri kümesini bölme başlıklı makaleyi inceleyin.

metin aralığı

#language

Bir metin dizesinin belirli bir alt bölümüyle ilişkili dizi dizini aralığı. Örneğin, Python dizesindeki good kelimesi s="Be good now", 3 ile 6 arasındaki metin aralığını kaplar.

tf.Example

#TensorFlow

Makine öğrenimi modeli eğitimi veya çıkarımı için giriş verilerini açıklayan standart bir protokol arabelleği.

tf.keras

#TensorFlow

Keras'ın TensorFlow'a entegre edilmiş bir uygulaması.

eşik (karar ağaçları için)

#df

Eksene göre hizalanmış koşulda, özelliğin karşılaştırıldığı değer. Örneğin, aşağıdaki koşulda 75 eşik değerdir:

grade >= 75

Daha fazla bilgi için Karar Ormanları kursundaki Sayısal özelliklerle ikili sınıflandırma için tam ayırıcı başlıklı makaleyi inceleyin.

zaman serisi analizi

#clustering

Makine öğrenimi ve istatistiklerin bir alt alanı olan zamansal verileri analiz eder. Sınıflandırma, kümeleme, tahmin ve anormallik algılama gibi birçok makine öğrenimi problemi için zaman serisi analizi gerekir. Örneğin, geçmiş satış verilerine dayanarak aylık bazda kışlık montların gelecekteki satışlarını tahmin etmek için zaman serisi analizini kullanabilirsiniz.

zaman adımı

#seq

Yinelemeli nöral ağ içindeki "açılmış" bir hücre. Örneğin, aşağıdaki şekilde üç zaman adımı gösterilmektedir (t-1, t ve t+1 alt simgeleriyle etiketlenmiştir):

Yinelemeli nöral ağda üç zaman adımı. İlk zaman adımının çıktısı, ikinci zaman adımının girişi olur. İkinci zaman adımının çıktısı, üçüncü zaman adımının girişi olur.

token

#language

Dil modelinde, modelin üzerinde eğitildiği ve tahminlerde bulunduğu atomik birim. Bir jeton genellikle aşağıdakilerden biridir:

  • Bir kelime (ör. "köpekler kedileri sever" ifadesi üç kelime jetonundan oluşur: "köpekler", "sever" ve "kedileri").
  • bir karakter (ör. "bisiklet balığı" ifadesi dokuz karakterlik jetondan oluşur). (Boşluğun jetonlardan biri olarak sayıldığını unutmayın.)
  • Alt kelimeler: Tek bir kelime, tek bir jeton veya birden fazla jeton olabilir. Bir alt kelime, kök kelime, ön ek veya son ekten oluşur. Örneğin, alt kelimeleri jeton olarak kullanan bir dil modeli, "dogs" (köpekler) kelimesini iki jeton (kök kelime "dog" ve çoğul eki "s") olarak görebilir. Aynı dil modeli, "daha uzun" kelimesini iki alt kelime olarak görebilir (kök kelime "uzun" ve sonek "er").

Dil modelleri dışındaki alanlarda jetonlar, diğer türden atomik birimleri temsil edebilir. Örneğin, bilgisayarla görme alanında bir jeton, görüntünün bir alt kümesi olabilir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Büyük dil modelleri bölümüne bakın.

belirteç oluşturucu

#language

Bir giriş verileri dizisini jetonlara çeviren bir sistem veya algoritma.

Çoğu modern temel model çok formatlıdır. Çok formatlı bir sistem için belirteçleyici, her giriş türünü uygun biçime çevirmelidir. Örneğin, hem metin hem de grafiklerden oluşan giriş verileri verildiğinde belirteçleyici, giriş metnini alt kelimelere, giriş resimlerini ise küçük yamalara çevirebilir. Daha sonra belirteçleyici, tüm belirteçleri tek bir birleştirilmiş yerleştirme alanına dönüştürmelidir. Bu sayede model, çok formatlı bir giriş akışını "anlayabilir".

top-k doğruluğu

#language
#Metric

Oluşturulan listelerin ilk k konumunda "hedef etiketin" görünme yüzdesi. Listeler, kişiselleştirilmiş öneriler veya softmax'a göre sıralanmış öğelerden oluşabilir.

Top-k doğruluğu, k'da doğruluk olarak da bilinir.

kule

Kendisi de derin nöral ağ olan bir derin nöral ağın bileşeni. Bazı durumlarda her kule bağımsız bir veri kaynağından okuma yapar ve bu kuleler, çıkışları son bir katmanda birleştirilene kadar bağımsız kalır. Diğer durumlarda (örneğin, birçok Transformer'ın kodlayıcı ve kod çözücü kulesinde) kuleler birbirleriyle çapraz bağlantılara sahiptir.

toksik

#language
#Metric

İçeriğin kötüye kullanım, tehdit veya rahatsız edici olma derecesi Birçok makine öğrenimi modeli, toksisiteyi tanımlayıp ölçebilir. Bu modellerin çoğu, toksisiteyi birden fazla parametreye göre tanımlar. Örneğin, küfürlü dilin ve tehdit içeren dilin seviyesi.

TPU

#TensorFlow
#GoogleCloud

Tensor İşleme Birimi'nin kısaltmasıdır.

TPU çipi

#TensorFlow
#GoogleCloud

Makine öğrenimi iş yükleri için optimize edilmiş, çip üzerinde yüksek bant genişliğine sahip belleği olan programlanabilir bir doğrusal cebir hızlandırıcı. Bir TPU cihazına birden fazla TPU çipi dağıtılır.

TPU cihazı

#TensorFlow
#GoogleCloud

Birden fazla TPU çipi, yüksek bant genişliğine sahip ağ arayüzleri ve sistem soğutma donanımı içeren bir baskılı devre kartı (PCB).

TPU düğümü

#TensorFlow
#GoogleCloud

Belirli bir TPU türüne sahip Google Cloud'daki bir TPU kaynağı. TPU düğümü, eş VPC ağından VPC ağınıza bağlanır. TPU düğümleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU Kapsülü

#TensorFlow
#GoogleCloud

Google veri merkezindeki TPU cihazlarının belirli bir yapılandırması. TPU Kapsülündeki tüm cihazlar, özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır. TPU Kapsülü, belirli bir TPU sürümü için kullanılabilen en büyük TPU cihazı yapılandırmasıdır.

TPU kaynağı

#TensorFlow
#GoogleCloud

Google Cloud'da oluşturduğunuz, yönettiğiniz veya kullandığınız bir TPU varlığı. Örneğin, TPU düğümleri ve TPU türleri, TPU kaynaklarıdır.

TPU dilimi

#TensorFlow
#GoogleCloud

TPU dilimi, TPU kapsülündeki TPU cihazlarının bir bölümüdür. Bir TPU dilimindeki tüm cihazlar, özel bir yüksek hızlı ağ üzerinden birbirine bağlıdır.

TPU türü

#TensorFlow
#GoogleCloud

Belirli bir TPU donanım sürümüne sahip bir veya daha fazla TPU cihazı yapılandırması. Google Cloud'da TPU düğümü oluştururken bir TPU türü seçersiniz. Örneğin, v2-8 TPU türü, 8 çekirdekli tek bir TPU v2 cihazıdır. v3-2048 TPU türünde, ağa bağlı 256 TPU v3 cihazı ve toplam 2.048 çekirdek bulunur. TPU türleri, Cloud TPU API'de tanımlanan bir kaynaktır.

TPU çalışanı

#TensorFlow
#GoogleCloud

Bir ana makinede çalışan ve TPU cihazlarında makine öğrenimi programlarını yürüten bir süreç.

eğitim

#fundamentals

Model oluşturan ideal parametrelerin (ağırlıklar ve önyargılar) belirlenmesi süreci. Eğitim sırasında sistem, örnekleri okur ve parametreleri kademeli olarak ayarlar. Eğitimde her örnek birkaç kezden milyarlarca kez kullanılabilir.

Daha fazla bilgi için Makine Öğrenimine Giriş kursundaki Gözetimli Öğrenme bölümüne bakın.

eğitim kaybı

#fundamentals
#Metric

Belirli bir eğitim yinelemesi sırasında modelin kaybını temsil eden bir metrik. Örneğin, kayıp işlevinin ortalama kare hatası olduğunu varsayalım. Örneğin, 10.yinelemede eğitim kaybı (ortalama kare hatası) 2,2, 100.yinelemede ise 1,9 olabilir.

Kayıp eğrisi, eğitim kaybını yineleme sayısına karşı çizer. Bir kayıp eğrisi, eğitimle ilgili aşağıdaki ipuçlarını sağlar:

  • Aşağı doğru eğim, modelin iyileştiğini gösterir.
  • Yukarı doğru eğim, modelin kötüleştiğini gösterir.
  • Düz bir eğim, modelin yakınsama noktasına ulaştığını gösterir.

Örneğin, aşağıdaki biraz idealize edilmiş kayıp eğrisi şunları gösterir:

  • İlk yinelemeler sırasında hızlı model iyileştirmesini ifade eden dik bir aşağı eğim.
  • Eğitim sona erene kadar kademeli olarak düzleşen (ancak yine de aşağı doğru) bir eğim. Bu, ilk yinelemelerdeki hızdan biraz daha yavaş bir hızda modelin iyileşmeye devam ettiğini gösterir.
  • Eğitimin sonuna doğru düz bir eğim, yakınsama olduğunu gösterir.

Eğitim kaybının yinelemelere karşı grafiği. Bu kayıp eğrisi, dik bir aşağı eğimle başlar. Eğim, sıfır olana kadar kademeli olarak düzleşir.

Eğitim kaybı önemli olsa da genelleştirme konusuna da göz atın.

eğitim ve sunma arası sapma

#fundamentals

Bir modelin eğitim sırasındaki performansı ile aynı modelin sunma sırasındaki performansı arasındaki fark.

eğitim seti

#fundamentals

Veri kümesinin bir modeli eğitmek için kullanılan alt kümesi.

Geleneksel olarak, veri kümesindeki örnekler aşağıdaki üç farklı alt kümeye ayrılır:

İdeal olarak, veri kümesindeki her örnek yalnızca yukarıdaki alt kümelerden birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de doğrulama kümesine ait olmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Veri kümeleri: Orijinal veri kümesini bölme başlıklı makaleyi inceleyin.

yörünge

#rl

Pekiştirme öğreniminde, aracının durum geçişlerinin bir dizisini temsil eden bir demetler dizisi. Her demet, belirli bir durum geçişi için durumu, işlemi, ödülü ve sonraki durumu ifade eder.

transfer öğrenimi

Bilgileri bir makine öğrenimi görevinden diğerine aktarma. Örneğin, çok görevli öğrenmede tek bir model birden fazla görevi çözer. Farklı görevler için farklı çıkış düğümleri olan bir derin model buna örnek verilebilir. Öğrenim aktarma, daha basit bir görevin çözümünden elde edilen bilgilerin daha karmaşık bir göreve aktarılmasını veya daha fazla verinin bulunduğu bir görevden daha az verinin bulunduğu bir göreve aktarılmasını içerebilir.

Çoğu makine öğrenimi sistemi tek bir görevi çözer. Öğrenim aktarma, tek bir programın birden fazla görevi çözebildiği yapay zekaya doğru atılan küçük bir adımdır.

Transformatör

#language

Google'da geliştirilen bir nöral ağ mimarisidir. Bu mimari, evrişimler veya tekrarlayan nöral ağlara dayanmadan bir giriş yerleştirme dizisini bir çıkış yerleştirme dizisine dönüştürmek için kendi kendine dikkat mekanizmalarını kullanır. Dönüştürücü, öz dikkat katmanlarının yığını olarak görülebilir.

Bir dönüştürücü aşağıdakilerden herhangi birini içerebilir:

Kodlayıcı, bir yerleştirme dizisini aynı uzunlukta yeni bir diziye dönüştürür. Kodlayıcı, her biri iki alt katman içeren N adet özdeş katmandan oluşur. Bu iki alt katman, giriş yerleştirme dizisinin her konumunda uygulanarak dizinin her öğesini yeni bir yerleştirmeye dönüştürür. İlk kodlayıcı alt katmanı, giriş dizisindeki bilgileri toplar. İkinci kodlayıcı alt katmanı, toplanan bilgileri çıkış yerleştirmesine dönüştürür.

Kod çözücü, giriş yerleştirilmiş öğe dizisini farklı uzunlukta olabilen çıkış yerleştirilmiş öğe dizisine dönüştürür. Kod çözücüde ayrıca üç alt katmanlı N adet özdeş katman bulunur. Bu katmanlardan ikisi kodlayıcı alt katmanlarına benzer. Üçüncü kod çözücü alt katmanı, kodlayıcının çıkışını alır ve öz dikkat mekanizmasını uygulayarak çıkıştan bilgi toplar.

Transformer: A Novel Neural Network Architecture for Language Understanding (Dönüştürücü: Dil Anlama İçin Yeni Bir Nöral Ağ Mimarisi) başlıklı blog yayını, dönüştürücüler hakkında iyi bir giriş sunmaktadır.

Daha fazla bilgi için Makine Öğrenimine Giriş Kursu'ndaki LLM'ler: Büyük dil modeli nedir? başlıklı makaleyi inceleyin.

öteleme değişmezliği

#image

Bir görüntü sınıflandırma sorununda, görüntüdeki nesnelerin konumu değişse bile bir algoritmanın görüntüleri başarılı bir şekilde sınıflandırma yeteneği. Örneğin, algoritma, köpeğin karenin ortasında veya sol ucunda olmasına bakılmaksızın köpeği tanımlayabilir.

Ayrıca boyut değişmezliği ve dönme değişmezliği bölümlerini de inceleyin.

üçlü harf

#seq
#language

N=3 olan bir N-gram.

doğru negatif (TN)

#fundamentals
#Metric

Modelin negatif sınıfı doğru şekilde tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olmadığını çıkarımlıyor ve bu e-posta iletisi gerçekten spam değil.

Gerçek pozitif (TP)

#fundamentals
#Metric

Modelin pozitif sınıfı doğru tahmin ettiği bir örnek. Örneğin, model belirli bir e-posta iletisinin spam olduğunu çıkarımlıyor ve bu e-posta iletisi gerçekten spam oluyor.

Gerçek pozitif oranı (TPR)

#fundamentals
#Metric

Geri çağırma ile eş anlamlıdır. Yani:

$$\text{true positive rate} = \frac {\text{true positives}} {\text{true positives} + \text{false negatives}}$$

Gerçek pozitif oranı, ROC eğrisindeki y eksenidir.

TTL

Geçerlilik süresinin kısaltmasıdır.

U

Ultra

#generativeAI

En fazla parametreye sahip Gemini modeli. Ayrıntılı bilgi için Gemini Ultra başlıklı makaleyi inceleyin.

Ayrıca Pro ve Nano'yu da inceleyin.

farkında olmama (hassas bir özellik için)

#responsible

Hassas özelliklerin mevcut olduğu ancak eğitim verilerine dahil edilmediği durum. Hassas özellikler genellikle verilerin diğer özellikleriyle ilişkili olduğundan, hassas bir özellikten habersiz olarak eğitilen bir model, bu özellik açısından orantısız etkiye sahip olmaya devam edebilir veya diğer adalet kısıtlamalarını ihlal edebilir.

eksik uyum

#fundamentals

Model, eğitim verilerinin karmaşıklığını tam olarak yakalamadığı için zayıf tahmin yeteneğine sahip bir model oluşturma. Aşağıdakiler de dahil olmak üzere birçok sorun, eksik uyuma neden olabilir:

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Aşırı Uydurma bölümüne bakın.

eksik örnekleme

Daha dengeli bir eğitim kümesi oluşturmak için sınıf dengesizliği olan veri kümesindeki çoğunluk sınıfından örneklerin kaldırılması.

Örneğin, azınlık sınıfının çoğunluk sınıfına oranının 20:1 olduğu bir veri kümesini ele alalım. Bu sınıf dengesizliğinin üstesinden gelmek için azınlık sınıfı örneklerinin tümünden, çoğunluk sınıfı örneklerinin ise yalnızca onda birinden oluşan bir eğitim kümesi oluşturabilirsiniz. Bu durumda eğitim kümesinin sınıf oranı 2:1 olur. Az örnekleme sayesinde, bu daha dengeli eğitim seti daha iyi bir model oluşturabilir. Alternatif olarak, bu daha dengeli eğitim kümesi, etkili bir model eğitmek için yeterli örnek içermeyebilir.

Aşırı örnekleme ile karşılaştırın.

tek yönlü

#language

Yalnızca bir hedef metin bölümünden önceki metni değerlendiren bir sistem. Buna karşılık, çift yönlü bir sistem hem metnin hedef bölümünden önceki hem de sonraki metni değerlendirir. Daha fazla bilgi için çift yönlü konusuna bakın.

tek yönlü dil modeli

#language

Olasılıklarını yalnızca hedef jetonlardan önce gelen jetonlara göre belirleyen bir dil modeli. Çift yönlü dil modeli ile karşılaştırın.

etiketsiz örnek

#fundamentals

Özellik içeren ancak etiket içermeyen bir örnek. Örneğin, aşağıdaki tabloda bir ev değerleme modelinden alınan üç etiketsiz örnek gösterilmektedir. Bu örneklerin her birinde üç özellik vardır ancak ev değeri yoktur:

Yatak odası sayısı Banyo sayısı Evin yaşı
3 2 15
2 1 72
4 2 34

Gözetimli makine öğreniminde, modeller etiketli örnekler üzerinde eğitilir ve etiketsiz örnekler üzerinde tahminler yapar.

Yarı gözetimli ve denetimsiz öğrenmede eğitim sırasında etiketsiz örnekler kullanılır.

Etiketsiz örneği etiketli örnekle karşılaştırın.

denetimsiz makine öğrenmesi

#clustering
#fundamentals

Bir veri kümesindeki (genellikle etiketlenmemiş bir veri kümesi) kalıpları bulmak için model eğitme.

Gözetimsiz makine öğreniminin en yaygın kullanım şekli, verileri benzer örnekler grupları halinde kümelemektir. Örneğin, gözetimsiz bir makine öğrenimi algoritması, şarkıları müziğin çeşitli özelliklerine göre gruplandırabilir. Elde edilen kümeler, diğer makine öğrenimi algoritmalarına (ör. müzik önerisi hizmeti) giriş olarak kullanılabilir. Kümeleme, faydalı etiketlerin az olduğu veya hiç olmadığı durumlarda yardımcı olabilir. Örneğin, kötüye kullanım ve sahtekarlıkla mücadele gibi alanlarda kümeler, insanların verileri daha iyi anlamasına yardımcı olabilir.

Denetimli makine öğrenimi ile karşılaştırın.

Daha fazla bilgi için Makine Öğrenimine Giriş kursundaki Makine öğrenimi nedir? başlıklı makaleyi inceleyin.

artış modelleme

Pazarlamada yaygın olarak kullanılan bir modelleme tekniğidir. Bu teknik, bir "tedavinin" bir "birey" üzerindeki "nedensel etkisini" (artımlı etki olarak da bilinir) modeller. Aşağıda iki örnek verilmiştir:

  • Doktorlar, bir hastanın (birey) yaşına ve tıbbi geçmişine bağlı olarak bir tıbbi işlemin (tedavi) ölüm oranındaki azalmayı (nedensel etki) tahmin etmek için artış modellemesini kullanabilir.
  • Pazarlamacılar, bir kişiye (birey) yönelik bir reklam (işlem) nedeniyle satın alma olasılığındaki artışı (nedensel etki) tahmin etmek için artış modellemesini kullanabilir.

Artış modellemesi, bazı etiketlerin (örneğin, ikili uygulamalardaki etiketlerin yarısı) artış modellemesinde her zaman eksik olması nedeniyle sınıflandırma veya regresyondan farklıdır. Örneğin, bir hasta tedavi görebilir veya görmeyebilir. Bu nedenle, hastanın iyileşip iyileşmeyeceğini yalnızca bu iki durumdan birinde (ancak asla ikisinde birden değil) gözlemleyebiliriz. Artış modelinin temel avantajı, gözlemlenmeyen durum (karşı olgusal) için tahminler oluşturabilmesi ve nedensel etkiyi hesaplamak için bu tahminleri kullanabilmesidir.

ağırlık artırma

Alt örneklenmiş sınıfa, alt örnekleme yaptığınız faktöre eşit bir ağırlık uygulama.

kullanıcı matrisi

#recsystems

Öneri sistemlerinde, matris çarpanlarına ayırma tarafından oluşturulan ve kullanıcı tercihlerine ilişkin gizli sinyaller içeren bir gömme vektörü. Kullanıcı matrisinin her satırında, tek bir kullanıcı için çeşitli gizli sinyallerin göreceli gücü hakkında bilgiler yer alır. Örneğin, bir film öneri sistemini ele alalım. Bu sistemde, kullanıcı matrisindeki gizli sinyaller her kullanıcının belirli türlere olan ilgisini temsil edebilir veya birden fazla faktör arasında karmaşık etkileşimler içeren, yorumlanması daha zor sinyaller olabilir.

Kullanıcı matrisinde her gizli özellik için bir sütun, her kullanıcı için bir satır bulunur. Yani, kullanıcı matrisi, çarpanlarına ayrılan hedef matrisle aynı sayıda satıra sahiptir. Örneğin, 1.000.000 kullanıcı için bir film öneri sistemi verildiğinde kullanıcı matrisinde 1.000.000 satır bulunur.

V

doğrulama

#fundamentals

Bir modelin kalitesinin ilk değerlendirmesi. Doğrulama, bir modelin tahminlerinin kalitesini doğrulama kümesi ile karşılaştırarak kontrol eder.

Doğrulama kümesi, eğitim kümesinden farklı olduğundan doğrulama, aşırı uyum sorununu önlemeye yardımcı olur.

Modeli doğrulama kümesine göre değerlendirmeyi ilk test turu, modeli test kümesine göre değerlendirmeyi ise ikinci test turu olarak düşünebilirsiniz.

doğrulama kaybı

#fundamentals
#Metric

Eğitimin belirli bir iterasyonu sırasında doğrulama kümesindeki bir modelin kaybını temsil eden bir metrik.

Ayrıca genelleştirme eğrisini de inceleyin.

doğrulama seti

#fundamentals

Eğitilmiş bir modele karşı ilk değerlendirmeyi yapan veri kümesinin alt kümesi. Genellikle, eğitilen modeli test kümesine göre değerlendirmeden önce doğrulama kümesine göre birkaç kez değerlendirirsiniz.

Geleneksel olarak, veri kümesindeki örnekleri aşağıdaki üç farklı alt kümeye bölersiniz:

İdeal olarak, veri kümesindeki her örnek yalnızca yukarıdaki alt kümelerden birine ait olmalıdır. Örneğin, tek bir örnek hem eğitim kümesine hem de doğrulama kümesine ait olmamalıdır.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Veri kümeleri: Orijinal veri kümesini bölme başlıklı makaleyi inceleyin.

değer atama

Eksik bir değeri kabul edilebilir bir alternatifle değiştirme işlemi. Bir değer eksik olduğunda örneğin tamamını silebilir veya değeri tahmin ederek örneği kurtarabilirsiniz.

Örneğin, her saat kaydedilmesi gereken bir temperature özelliği içeren bir veri kümesini ele alalım. Ancak sıcaklık ölçümü belirli bir saatte kullanılamıyordu. Veri kümesinin bir bölümü aşağıda verilmiştir:

Zaman damgası Sıcaklık
1680561000 10
1680564600 12
1680568200 eksik
1680571800 20
1680575400 21
1680579000 21

Bir sistem, eksik örneği silebilir veya eksik sıcaklığı, tamamlama algoritmasına bağlı olarak 12, 16, 18 veya 20 olarak tamamlayabilir.

kaybolan gradyan sorunu

#seq

Bazı derin sinir ağlarının ilk gizli katmanlarının gradyanlarının şaşırtıcı derecede düz (düşük) hale gelme eğilimi. Eğimlerin giderek azalması, derin nöral ağdaki düğümlerin ağırlıklarında giderek daha küçük değişikliklere yol açar ve bu da öğrenmenin az olmasına veya hiç olmamasına neden olur. Kaybolan gradyan sorunundan etkilenen modellerin eğitilmesi zorlaşır veya imkansız hale gelir. Uzun kısa süreli bellek hücreleri bu sorunu çözer.

Patlayan gradyan sorunu ile karşılaştırın.

değişken önemleri

#df
#Metric

Her bir özelliğin model için göreli önemini gösteren bir puan grubu.

Örneğin, ev fiyatlarını tahmin eden bir karar ağacını ele alalım. Bu karar ağacının üç özellik kullandığını varsayalım: boyut, yaş ve stil. Üç özellik için değişken önem düzeyleri kümesi {size=5.8, age=2.5, style=4.7} olarak hesaplanırsa boyut, karar ağacı için yaş veya stilden daha önemlidir.

Farklı değişken önem metrikleri vardır. Bu metrikler, makine öğrenimi uzmanlarına modellerin farklı yönleri hakkında bilgi verebilir.

varyasyonel otomatik kodlayıcı (VAE)

#language

Girişlerin değiştirilmiş sürümlerini oluşturmak için girişler ve çıkışlar arasındaki tutarsızlığı kullanan bir otomatik kodlayıcı türü. Varyasyonel otomatik kodlayıcılar, üretken yapay zeka için yararlıdır.

VAE'ler, olasılık modelinin parametrelerini tahmin etmeye yönelik bir teknik olan varyasyonel çıkarıma dayanır.

vektör

Anlamı farklı matematiksel ve bilimsel alanlarda değişiklik gösteren, çok fazla kullanılan bir terimdir. Makine öğreniminde bir vektörün iki özelliği vardır:

  • Veri türü: Makine öğrenimindeki vektörler genellikle kayan nokta sayıları içerir.
  • Öğe sayısı: Bu, vektörün uzunluğu veya boyutudur.

Örneğin, sekiz kayan noktalı sayı içeren bir özellik vektörünü ele alalım. Bu özellik vektörünün uzunluğu veya boyutu sekizdir. Makine öğrenimi vektörlerinin genellikle çok sayıda boyutu olduğunu unutmayın.

Birçok farklı türde bilgiyi vektör olarak gösterebilirsiniz. Örneğin:

  • Dünya yüzeyindeki herhangi bir konum, 2 boyutlu bir vektör olarak gösterilebilir. Bu vektörde bir boyut enlem, diğer boyut ise boylamdır.
  • 500 hissenin mevcut fiyatları 500 boyutlu bir vektör olarak gösterilebilir.
  • Sonlu sayıda sınıf üzerindeki bir olasılık dağılımı vektör olarak gösterilebilir. Örneğin, üç çıkış renginden (kırmızı, yeşil veya sarı) birini tahmin eden bir çok sınıflı sınıflandırma sistemi, P[red]=0.3, P[green]=0.2, P[yellow]=0.5 anlamına gelmek üzere (0.3, 0.2, 0.5) vektörünü çıkış olarak verebilir.

Vektörler birleştirilebilir. Bu nedenle, çeşitli farklı medya türleri tek bir vektör olarak gösterilebilir. Bazı modeller, birçok one-hot kodlamanın birleştirilmesiyle doğrudan çalışır.

TPU'lar gibi özel işlemciler, vektörler üzerinde matematiksel işlemler yapmak için optimize edilmiştir.

Vektör, 1 dereceli bir tensördür.

Vertex

#GoogleCloud
#generativeAI
Google Cloud'un yapay zeka ve makine öğrenimi platformu. Vertex, Gemini modellerine erişim de dahil olmak üzere yapay zeka uygulamaları oluşturma, dağıtma ve yönetme için araçlar ve altyapı sağlar.

W

Wasserstein kaybı

#Metric

Üretilen verilerin dağıtımı ile gerçek veriler arasındaki toprak taşıyıcının mesafesine dayalı olarak üretken çekişmeli ağlarda yaygın olarak kullanılan kayıp işlevlerinden biridir.

ağırlık

#fundamentals

Bir modelin başka bir değerle çarptığı değer. Eğitim, bir modelin ideal ağırlıklarını belirleme sürecidir. Çıkarım ise tahminlerde bulunmak için öğrenilen bu ağırlıkları kullanma sürecidir.

Daha fazla bilgi için Makine Öğrenimi Hızlandırılmış Kursu'ndaki Doğrusal regresyon bölümüne bakın.

Ağırlıklı Alternatif En Küçük Kareler (WALS)

#recsystems

Öneri sistemlerinde matris çarpanlarına ayırma sırasında amaç işlevini en aza indirmeye yönelik bir algoritmadır. Bu algoritma, eksik örneklerin ağırlığını azaltmaya olanak tanır. WALS, satır faktörizasyonu ile sütun faktörizasyonu arasında geçiş yaparak orijinal matris ile yeniden yapılandırma arasındaki ağırlıklı karesi alınmış hatayı en aza indirir. Bu optimizasyonların her biri en küçük kareler dışbükey optimizasyonu ile çözülebilir. Ayrıntılar için Öneri Sistemleri kursuna bakın.

ağırlıklı toplam

#fundamentals

İlgili tüm giriş değerlerinin toplamının, karşılık gelen ağırlıklarıyla çarpılması. Örneğin, ilgili girişlerin aşağıdakilerden oluştuğunu varsayalım:

giriş değeri giriş ağırlığı
2 -1,3
-1 0,6
3 0,4

Bu nedenle, ağırlıklı toplam şöyledir:

weighted sum = (2)(-1.3) + (-1)(0.6) + (3)(0.4) = -2.0

Ağırlıklı toplam, bir etkinleştirme işlevinin giriş bağımsız değişkenidir.

geniş model

Genellikle birçok seyrek giriş özelliği olan doğrusal bir model. Bu tür bir model, çıkış düğümüne doğrudan bağlanan çok sayıda girişi olan özel bir nöral ağ türü olduğundan bu modele "geniş" adını veriyoruz. Geniş modellerin hata ayıklaması ve incelenmesi, derin modellere kıyasla genellikle daha kolaydır. Geniş modeller, gizli katmanlar aracılığıyla doğrusal olmayan durumları ifade edemese de farklı şekillerde doğrusal olmayan durumları modellemek için özellik kesişimi ve gruplandırma gibi dönüşümleri kullanabilir.

Derin model ile karşılaştırın.

genişlik

Bir sinir ağının belirli bir katmanındaki nöron sayısı.

kitlelerin bilgeliği

#df

Büyük bir insan grubunun ("kalabalık") görüşlerinin veya tahminlerinin ortalamasını almanın genellikle şaşırtıcı derecede iyi sonuçlar verdiği fikri. Örneğin, büyük bir kavanoza doldurulmuş sakızlı şeker sayısını tahmin etmeye dayalı bir oyunu ele alalım. Tahminlerin çoğu yanlış olsa da tüm tahminlerin ortalamasının, kavanozdaki şeker sayısına şaşırtıcı derecede yakın olduğu deneysel olarak gösterilmiştir.

Topluluk modelleri, topluluğun bilgeliğinin yazılımdaki karşılığıdır. Tek tek modeller çok yanlış tahminler yapsa bile birçok modelin tahminlerinin ortalaması genellikle şaşırtıcı derecede iyi tahminler üretir. Örneğin, tek bir karar ağacı kötü tahminler yapsa da karar ormanı genellikle çok iyi tahminler yapar.

kelime yerleştirme

#language

Bir kelime grubundaki her kelimeyi yerleştirme vektöründe temsil etme; yani her kelimeyi 0,0 ile 1,0 arasında kayan noktalı değerlerden oluşan bir vektör olarak temsil etme. Anlamları benzer olan kelimeler, anlamları farklı olan kelimelere göre daha benzer temsiller içerir. Örneğin, havuç, kereviz ve salatalık, uçak, güneş gözlüğü ve diş macunu temsillerinden çok farklı olan, nispeten benzer temsillerle gösterilir.

X

XLA (Accelerated Linear Algebra)

GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları için açık kaynaklı bir makine öğrenimi derleyicisi.

XLA derleyicisi, PyTorch, TensorFlow ve JAX gibi popüler makine öğrenimi çerçevelerindeki modelleri alır ve GPU'lar, CPU'lar ve makine öğrenimi hızlandırıcıları dahil olmak üzere farklı donanım platformlarında yüksek performanslı yürütme için optimize eder.

Z

sıfır görevli öğrenim

Modelin, özellikle eğitilmediği bir görev için tahmin çıkardığı bir makine öğrenimi eğitimi türü. Diğer bir deyişle, modele göreve özgü sıfır eğitim örneği verilir ancak bu görev için çıkarım yapması istenir.

sıfır görevli istem

#language
#generativeAI

Büyük dil modelinin nasıl yanıt vermesini istediğinize dair örnek vermeyen bir istem. Örneğin:

Bir istemin bölümleri Notlar
Belirtilen ülkenin resmi para birimi nedir? LLM'nin yanıtlamasını istediğiniz soru.
Hindistan: Gerçek sorgu.

Büyük dil modeli aşağıdaki yanıtları verebilir:

  • Rupi
  • INR
  • Hint rupisi
  • Rupi
  • Hindistan rupisi

Belirli bir biçimi tercih edebilirsiniz ancak tüm yanıtlar doğrudur.

Sıfır görevli istem ile aşağıdaki terimleri karşılaştırın:

Z puanı normalleştirme

#fundamentals

Ham özellik değerini, söz konusu özelliğin ortalamasından standart sapma sayısını temsil eden bir kayan nokta değeriyle değiştiren bir ölçeklendirme tekniği. Örneğin, ortalaması 800 ve standart sapması 100 olan bir özelliği ele alalım. Aşağıdaki tabloda, Z puanı normalleştirmenin ham değeri Z puanıyla nasıl eşleyeceği gösterilmektedir:

İşlenmemiş değer Z puanı
800 0
950 +1,5
575 -2,25

Makine öğrenimi modeli daha sonra ham değerler yerine bu özelliğin Z puanları üzerinde eğitilir.

Daha fazla bilgi için Makine Öğrenimine Hızlı Başlangıç Kursu'ndaki Sayısal veriler: Normalleştirme bölümüne bakın.

Bu sözlükte makine öğrenimi terimleri tanımlanmaktadır.