Yapay ZekaDerin Ogrenme: Sinir Aglari Nasil Calisir ve Nasil Baslanir?
CNN'den Transformer'lara kadar derin ogrenme ve sinir agi turlerini ogrenin. PyTorch ile pratik ornekler, cerceve karsilastirma tablosu ve yeni baslayanlar icin yol haritasi.
Neler öğreneceksiniz?
- Derin ogrenmenin ne oldugunu ve CNN'den Transformer'lara kadar sinir agi turlerini anlayacaksiniz
- PyTorch ve TensorFlow gibi cerceveler arasindaki farklari ogreneceksiniz
- PyTorch ile pratik ornekler ve yeni baslayanlar icin net bir yol haritasi elde edeceksiniz
Derin Ogrenme Nedir?
GPT-4 modelinin 1,7 trilyondan fazla parametre sahip oldugunu biliyor musunuz? Ya da DeepMind'in AlphaFold sisteminin bilim insanlarini onlarca yil ugrastiran protein katlama problemini derin ogrenme kullanarak cozdugunu? Bu teknoloji artik arastirma makalelerinde kalmadi — dunyanin en akilli sistemlerini guclendiyor.
Derin ogrenme (Deep Learning), cok katmanli yapay sinir aglarina dayanan makine ogreniminin ileri bir daldir. "Derin" olarak adlandirilir cunku bu aglar, giris ve cikis katmanlari arasinda birden fazla gizli katman (Hidden Layers) icerir ve bu da verilerdeki karmasik oruntuleri ogrenme konusunda olaganustu bir yetenek saglar.
Derin ogrenme, telefonunuzun yuzunuzu tanimasi, Google Translate'in 130 dili cevirebilmesi ve Tesla araclarinin otonom surme yetenegi arkasindaki teknolojidir. Bu sadece akademik bir konu degil — su anda dunyayi degistiren bir aractir.
Eger yapay zeka temelleriyle henuz tanismadiyseniz, bu konuya dalmadan once yapay zeka temelleri hakkindaki makalemizi okumanizi oneririz.
Geleneksel makine ogrenimi, verilerden ozellik cikarimi (Feature Engineering) icin manuel calisma gerektirirken, derin ogrenme bu ozellikleri otomatik olarak kesfetme yetenegi ile one cikar. Bu ozellik, onu goruntu tanima, dil cevirisi ve otonom surme gibi gorevlerde geleneksel yontemlere karsi belirgin bir ustunluk saglamistir.
Yapay Sinir Aglari Nasil Calisir?
Yapay Sinir Agi (Artificial Neural Network — ANN), insan beyninin calisma prensiplerinden esinlenmistir. Noronlar (Neurons) adi verilen kucuk hesaplama birimlerinden olusur ve bunlar ardisik katmanlar halinde duzenlenir.
Temel Bilesenler
1. Noron (Neuron)
Her noron bir dizi giris alir, bunlari agirliklarla (Weights) carpar, bir sapma (Bias) ekler ve sonucu bir aktivasyon fonksiyonu (Activation Function) uzerinden gecirir. Bu, asagidaki formul ile basitlestirebilir:
y = f(w₁x₁ + w₂x₂ + ... + wₙxₙ + b)
Burada x girisler, w agirliklar, b sapma ve f aktivasyon fonksiyonudur.
2. Katmanlar (Layers)
Tipik bir sinir agi uc tur katmandan olusur:
- Giris Katmani (Input Layer): Ham verileri alir — ornegin bir goruntudeki piksel degerleri veya bir cumledeki kelimeler
- Gizli Katmanlar (Hidden Layers): Verileri isler ve oruntuleri cikarir. Bu katmanlar ne kadar coksa, ag o kadar derin olur ve daha karmasik oruntuleri ogrenebilir
- Cikis Katmani (Output Layer): Nihai sonucu uretir — ornegin bir goruntuyu siniflandirma veya bir deger tahmini
3. Aktivasyon Fonksiyonlari (Activation Functions)
Aktivasyon fonksiyonlari aga dogrusal olmama ozelligi katar ve karmasik iliskileri ogrenmesini saglar. En yaygin olanlar:
- ReLU (Rectified Linear Unit): Gizli katmanlarda en cok kullanilan, pozitif ise degerin kendisini, negatif ise sifir ciktilar
- Sigmoid: Degerleri 0 ile 1 arasina donusturur, genellikle ikili siniflandirma gorevlerinde kullanilir
- Softmax: Cok sinifli siniflandirma icin cikis katmaninda kullanilir, her sinif icin olasilik ciktisi verir
Egitim Sureci
Sinir agi, iki ana adimdan olusan yinelemeli bir surecle egitilir:
1. Ileri Yayilim (Forward Propagation): Veriler giris katmanindan gizli katmanlar uzerinden cikis katmanina ulasir. Her katmanda yukarida bahsedilen matematik formul hesaplanir.
2. Geri Yayilim (Backpropagation): Sonuc elde edildikten sonra, tahmin ile gercek deger arasindaki farki olcen kayip fonksiyonu (Loss Function) hesaplanir. Ardindan gradyan inis (Gradient Descent) algoritmasi her katmandaki agirliklari ve sapmalari ayarlar, boylece hata her yinelemede kademeli olarak azalir.
Bu surecler, ag kabul edilebilir bir performans seviyesine ulasana kadar binlerce veya milyonlarca kez tekrarlanir.
Derin Sinir Agi Turleri
Evrisimli Sinir Aglari (CNN)
Evrisimli Sinir Aglari (Convolutional Neural Networks — CNN), bilgisayarla gorme alaninda baskin mimaridir. Ozellikle goruntuler gibi izgara yapisindaki verileri islemek icin tasarlanmistir.
CNN'ler ozellestirilmis katmanlar araciligiyla calisir:
- Evrisim Katmani (Convolution Layer): Goruntunun uzerinde kayarak kenarlar, koseler ve oruntuler gibi yerel ozellikleri cikaran kucuk filtreler (Filters) kullanir
- Havuzlama Katmani (Pooling Layer): En onemli ozellikleri koruyarak veri boyutlarini azaltir, hesaplama yukunu dusurur ve asiri uyumu (Overfitting) onler
- Tam Bagli Katman (Fully Connected Layer): Cikarilan ozellikleri alir ve nihai karar vermek icin kullanir
CNN Uygulamalari:
- Akilli telefonlarda yuz tanima
- Tibbi goruntulerde hastalik teshisi (ornegin rontgen goruntulerde tumor tespiti)
- Sosyal medya platformlarinda gorsel icerik siniflandirma
- Otonom surme (trafik isaretleri ve yayalari tanima)
En bilinen CNN mimarileri arasinda: 2012'de devrim yaratan AlexNet ve artik baglantilar (Residual Connections) fikriyle goruntu siniflandirmada insan performansini asan ResNet yer alir.
Tekrarlayan Sinir Aglari (RNN)
Tekrarlayan Sinir Aglari (Recurrent Neural Networks — RNN), her elemanin bir oncekine bagimli oldugu sirali verileri islemek icin tasarlanmistir. Geleneksel aglardan farkli olarak, RNN'ler onceki adimlardan bilgileri saklayan bir ic hafizaya sahiptir.
Ancak geleneksel RNN'ler kaybolan gradyan (Vanishing Gradient) probleminden muzdariptir — ag uzak bilgileri hatirlamada yeteneksizlesir. Bu sorunu cozmek icin iki gelistirilmis mimari ortaya cikmistir:
- LSTM (Long Short-Term Memory): Bilgi akisini kontrol etmek icin kapilar (Gates) kullanir — hangi bilginin saklanacagina ve hangisinin unutulacagina karar verir
- GRU (Gated Recurrent Unit): LSTM'nin basitlestirilmis surumu olup benzer performans ve daha dusuk hesaplama yuku saglar
RNN Uygulamalari:
- Makine cevirisi (ornegin Google Translate)
- Konusma tanima ve metne donusturme
- Metin ve muzik uretimi
- Hisse senedi fiyati ve hava durumu tahmini
Donusturuculer (Transformers)
Donusturuculer, 2017'de Google'in unlu "Attention Is All You Need" makalesiyle ortaya ciktigindan bu yana dogal dil islemede oyun kurallarini degistiren mimaridir. Modelin giristeki tum parcelara ayni anda bakmasina olanak taniyan oz-dikkat (Self-Attention) mekanizmasina dayanir.
Donusturuculer, GPT, BERT, Claude ve Gemini gibi buyuk dil modellerinin temelidir. Etkileri Vision Transformer (ViT) mimarisi araciligiyla bilgisayarla gorme alanina da yayilmistir.
Uretici Cekismeli Aglar (GANs)
Uretici Cekismeli Aglar (Generative Adversarial Networks — GANs) birbirine karsi yarisan iki agdan olusur:
- Uretici (Generator): Gercekci veriler (ornegin goruntuler) olusturmaya calisir
- Ayirt Edici (Discriminator): Gercek ve uretilmis verileri birbirinden ayirt etmeye calisir
Bu rekabet, ureticinin her yinelemede giderek daha gercekci veriler uretmesini saglar. GAN'lar gercekci goruntu uretimi, goruntu cozunurlugunu artirma ve dijital sanat olusturmada kullanilir.
Derin Ogrenmenin Gercek Hayattaki Uygulamalari
Tipta
- Hastalik Teshisi: Derin ogrenme modelleri, mamografi goruntulerde meme kanserini tespit etmede radyologlari gecmistir
- Ilac Kesfetme: Molekuler ilac tasarimini yillardan haftalara hizlandirma
- Genom Analizi: Genetik mutasyonlari ve hastaliklarla iliskisini anlama
Ulasimda
- Otonom Araclar: Tesla ve Waymo gibi sirketler, cevreyi anlamak ve surus kararlari almak icin derin ogrenmeye guvenirler
- Trafik Optimizasyonu: Sikisikligi azaltmak icin gercek zamanli trafik verilerini analiz etme
Is Dunyasinda
- Yapay Zeka Asistanlari: ChatGPT, Claude ve Gemini Transformer mimarisi uzerine insa edilmistir
- Oneri Sistemleri: Netflix ve Spotify, her kullaniciya davranislarina gore kisisellestirilmis icerik onerir
- Dolandiricilik Tespiti: Bankalar finansal islemleri izler ve supheli oruntuleri aninda tespit eder
Yaratici Alanlarda
- Goruntu Uretimi: DALL-E ve Midjourney gibi araclar, metin aciklamalarindan goruntuler olusturur
- Muzik ve Video Uretimi: Giderek artan kalitede yaratici icerik olusturma
- Gercek Zamanli Ceviri: Sesli konusmalari gercek zamanli ceviri
Derin Ogrenmeye Nasil Baslanir?
Bu alana ilgi duyuyorsaniz, iste pratik bir yol haritasi:
1. Matematik Temeller
- Dogrusal Cebir: Matrisler ve vektorler — sinir aglarindaki tum hesaplamalarin temeli
- Kalkulus: Geri yayilim ve gradyan inisi anlamak icin gerekli
- Olasilik ve Istatistik: Modelleri anlamak ve performanslarini degerlendirmek icin temel
2. Programlama
- Python ogrenin — derin ogrenme alaninda baskin dil
- NumPy ve Pandas gibi veri kutuphanelerini ogretin
- Matplotlib kullanarak veri gorsellestirme ogrenin
3. Cerceveler
| Cerceve | Sirket | Guclu Yonler | Zayif Yonler | En Iyi Kullanim |
|---|---|---|---|---|
| PyTorch | Meta | Esnek, hata ayiklamasi kolay, arastirmalarda en populer | Dagitim biraz daha karmasik | Akademik arastirma ve ogrenme |
| TensorFlow/Keras | Dagitim icin mukemmel, mobil icin TF Lite | Daha az esnek | Uretim ve buyuk olcekli dagitim | |
| JAX | Yuksek performans, guclu matematiksel donusumler | Dik ogrenme egrisi | Yuksek performansli bilimsel hesaplama |
Yeni basliyorsaniz, PyTorch ile baslayin. NeurIPS ve ICML konferanslarindaki son arastirmalarin %75'inden fazlasi PyTorch koduyla yayinlaniyor — bu da cok daha fazla ornek ve ogrenme kaynagi bulacaginiz anlamina gelir.
Iste el yazisi rakamlari siniflandirmak icin basit bir sinir agi olusturmanin pratik bir ornegi:
# PyTorch kullanarak rakam siniflandirmasi icin basit bir sinir agi olusturma
import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
# MNIST verilerini yukleme — el yazisi rakamlar (0-9)
transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.1307,), (0.3081,))
])
train_data = datasets.MNIST('./data', train=True, download=True, transform=transform)
train_loader = torch.utils.data.DataLoader(train_data, batch_size=64, shuffle=True)
# Sinir agi mimarisini tanimlama
class SimpleNN(nn.Module):
def __init__(self):
super().__init__()
self.flatten = nn.Flatten()
# Birinci katman: 784 giris (28x28 piksel) → 128 noron
self.fc1 = nn.Linear(784, 128)
# ReLU aktivasyon fonksiyonu — dogrusal olmama ozellik katar
self.relu = nn.ReLU()
# Ikinci katman: 128 → 10 sinif (0-9 rakamlari)
self.fc2 = nn.Linear(128, 10)
def forward(self, x):
x = self.flatten(x)
x = self.relu(self.fc1(x))
return self.fc2(x)
# Model, kayip fonksiyonu ve optimizatoru baslatma
model = SimpleNN()
criterion = nn.CrossEntropyLoss() # Cok sinifli siniflandirma icin kayip fonksiyonu
optimizer = optim.Adam(model.parameters(), lr=0.001)
# Modeli egitme — ornek olarak bir epoch
model.train()
for batch_idx, (data, target) in enumerate(train_loader):
optimizer.zero_grad() # Gradyanlari sifirla
output = model(data) # Ileri yayilim
loss = criterion(output, target) # Kaybi hesapla
loss.backward() # Geri yayilim
optimizer.step() # Agirliklari guncelle
if batch_idx % 200 == 0:
print(f"Batch {batch_idx}: Kayip = {loss.item():.4f}")
print("Egitim tamamlandi!")
4. Pratik Projeler
Basit projelerle baslayin ve kademeli olarak karmasikligi artirin:
- El yazisi rakam siniflandirma (MNIST veri seti)
- Goruntu siniflandirma (CIFAR-10 veri seti)
- Metin duygu analizi
- Basit bir metin uretme modeli olusturma
Zorluklar ve Gelecek
Etkileyici ilerlemeye ragmen, derin ogrenme temel zorluklarla karsi karsiya:
- Buyuk veri ihtiyaci: Modeller egitim icin milyonlarca ornek gerektirir ve bu verileri toplamak pahali olup gizlilik endiselerini dogurur
- Hesaplama maliyeti: Buyuk modellerin egitimi pahali GPU donanimi ve yuksek enerji tuketimi gerektirir
- Yorumlanabilirlik: Derin sinir aglari "kara kutu" olarak kabul edilir — nasil karar verdiklerini anlamak zordur
- Onyargi: Modeller, egitim verilerindeki onyargilari ogrenip yeniden uretebilir
Ancak gelecek umit verici gorunuyor. Arastirmalar, daha az veriye ihtiyac duyan daha verimli modellere, karar alma sureclerinde daha fazla seffafliga ve bu teknolojilerin etik ve sorumlu kullanimina giderek artan bir odaklanma yonunde ilerliyor.
Makine ogrenimi ile derin ogrenme arasindaki fark nedir?
Makine ogrenimi, verilerden ogrenen algoritmalari iceren genis bir alandir. Derin ogrenme ise derin, cok katmanli sinir aglarini kullanan bir alt kumelidir. Temel fark, geleneksel makine ogreniminin manuel ozellik cikarimi gerektirmesi, derin ogrenmenin ise bunlari otomatik olarak kesfetmesidir.
Derin ogrenme icin guclu matematik bilgisine ihtiyac var mi?
Evet, sinir aglarinin nasil calistigini anlamak icin dogrusal cebir, kalkulus ve olasilik temellerini bilmek onemlidir. Ancak PyTorch veya Keras gibi matematik karmasikliginin buyuk kismini gideren cerceveleri kullanarak pratik yaparak baslayabilir, ardindan matematik bilginizi kademeli olarak derinlestirebilirsiniz.
Yeni baslayanlar icin en iyi cerceve hangisi?
PyTorch su anda yeni baslayanlar icin en iyi secenektir. Normal Python yaziyormus gibi hissettiren sezgisel bir API'ye, aktif bir topluluga ve mukemmel dokumantasyona sahiptir. Son arastirmalarin cogu da PyTorch koduyla yayinlanmaktadir.
Derin ogrenmeyi ogrenmek ne kadar surer?
Arka planiniza baglidir. Programlama ve matematik bilginiz varsa, iki ila uc ayda basit modeller olusturabilirsiniz. Ileri seviyeye ulasmak ise bir ila iki yil surekli calisma ve pratik gerektirebilir.
Derin ogrenme modellerini GPU olmadan calistirabilir miyim?
Kucuk modelleri normal CPU uzerinde egitebilirsiniz, ancak buyuk modeller kesinlikle GPU gerektirir. Google Colab ve Kaggle gibi platformlar, deney ve ogrenme icin ucretsiz GPU erisimi saglar.
Yeni baslayanlar icin en iyi veri setleri hangileri?
Klasik veri setleriyle baslayin: Rakam siniflandirma icin MNIST, goruntu siniflandirma icin CIFAR-10, metin duygu analizi icin IMDB Reviews. Bu veri setleri kucuk boyutludur ve PyTorch ile TensorFlow uzerinden dogrudan erisilebilir.
Derin ogrenme yapay zeka ile nasil iliskilidir?
Derin ogrenme, yapay zeka alanindaki temel araclardan biridir. Bu alandaki modern basarilarin cogununun — yapay zeka asistanlarindan otonom araclara ve buyuk dil modellerine kadar — arkasindaki motor olarak dusunulebilir.
Son Soz
Derin ogrenme gecici bir trend degil — bugunku dunyanin en guclu yapay zeka sistemlerinin uzerine insa edildigi temeldir. Yuz tanimadan ilac kesfine kadar bu teknoloji her sektoru yeniden sekillendiriyor.
Iyi haber su ki baslamak icin doktora derecesine ihtiyaciniz yok. Python temellerini ogrenerek baslayin, ardindan PyTorch'a gecin ve MNIST veri seti uzerinde ilk projenizi olusturun. Her kucuk adim sizi bu olaganustu alani anlamaya yaklastirir. Gelecek, bu teknolojiyi anlayan ve nasil kullanacagini bilenlere aittir.
Yapay Zeka Bölümü — AI Darsi
Yapay zeka ve makine öğrenimi uzmanları
İlgili Makaleler

2026'da Yapay Zeka ve SEO ile Google'da 1 Numara Olmak
2026'da SEO için yapay zekayı nasıl kullanacağınızı öğrenin. Google Arama ve AI Overviews'da üst sıralara çıkmak için araçlar, stratejiler ve pratik teknikler.

2026'da Öğrenciler İçin En İyi 9 Yapay Zeka Uygulaması
2026'da öğrenciler için en iyi 9 ücretsiz AI uygulamasını keşfedin — ders çalışma, araştırma, yazma ve kodlama için pratik ipuçlarıyla.
Google Aramayı Yapay Zeka ile Güncelliyor: Geleneksel SEO'nun Sonu mu?
Google'ın yeni AI Overview güncellemesi arama kurallarını değiştiriyor — içerik üreticilerini ve web sitelerini nasıl etkiliyor ve uyum stratejileri neler.