GPT-3 İLE YAPAY ZEKÂDA YENİ BİR DÖNEM

GPT-3 ile Yapay Zekâda Yeni Bir Dönem

GPT-3 ismi son zamanlarda gündeme bomba gibi düştü. San Francisco'lu bir girişim olan OpenAI’ın GPT-3’ü kullanıma sunması, birçok otorite tarafından Yapay Zekâ (AI) dünyasındaki kilometre taşlarından birisi olarak görülmekte. Kullanım alanları ise örnekleri gören herkesi heyecanlandıracak, hatta bazılarını korkutacak kadar güçlü gibi duruyor. Peki ne ki bu GPT-3 tam olarak?

GPT-3 Yapay Zekâ’dan güç alan bir dil modeli. Dil modeli genel anlamda bir cümlenin gerçek hayatta kurulmasının ne kadar mümkün olduğunu hesaplayabilen sisteme denir. Dil modeli cümleleri hem yapısal hem de anlamsal açıdan değerlendirerek bir sonuca varır. Bu değerlendirmeleri yapması ise ise oldukça fazla miktardaki veri beslemesiyle mümkün olmakta. Derin Öğrenme (Deep Learning) ve farklı Makine Öğrenimi algoritmaları kullanarak bu veriyi analiz eden sistem, beslendiği verinin ve kullandığı sistemin büyüklüğü ile doğru orantılı şekilde “insansı” cümleler kurabilmeye başlıyor.   

İşte GPT-3’ü bu kadar büyük bir atlama yapan şeylerden birisi bu verinin büyüklüğü. GPT-3’ün eğitilmesi sırasında günümüzün en kapsamlı bilgi kaynaklarından birisi olarak görülen Wikipedia’nın tamamı kullanılmış. Ama bu aslında pastadaki en küçük dilimlerden birisi. Verinin sayısı teknik olarak Token sayısı olarak ele alındığı için biz de bu açıdan bir kıyaslama yaparsak, Wikipedia yaklaşık 3 Milyar token etmekte. GPT-3’ün eğitimi sırasında ise toplamında 499 Milyar Tokenlik veri kullanılmış. Bunun ne kadar büyük olduğu yorumunu size bırakarak biz GPT-3 ün esas önemli kısmına geçiyoruz.

Dil Modellerindeki en önemli faktör, modelin büyüklüğü aslında. GPT-3, 175 Milyar parametreyle gelmiş geçmiş kurulmuş en büyük model. Atası olan GPT-2  ise aslında yine de çok büyük bir sayı olan 1.5 Milyar parametreye sahipti. Burada parametre dediğimiz şey de ne peki ? Buradaki parametre sayısı, Nöral Ağ çalışırken aslında optimize etmeye çalıştığı değerlerin sayısı. Daha farklı bir deyişle, Yapay Zekâ’nın öğrenme sırasında göze aldığı kıstas sayısı bu 175 Milyar. Bu sayının bu kadar büyük olması, GPT-3 ün bu kadar insansı konuşabilmesine olanak sağlıyor işte.

GPT-3 ü farklı kılan bir diğer yanı ise, herhangi bir alanda spesifik olarak çalışması için büyük bir dataset’e ihtiyaç duymuyor oluşu. Normalde Makine Öğrenmesi ile eğitilen sistemler spesifik olarak bir alan üzerinde veriyle eğitilir uzun bir süre boyunca ve o alanda sonuçlar verir. Oysaki GPT-3, hikaye ve şiir yazmaktan birçok farklı dilde bilgisayar kodu yazmaya; site tasarımı yapmaktan yemek tarifleri yapmaya kadar farklı alanlarda örnekler sunmaya başladı bile. Ne kadar insansı olabilir ki diye merak edip denemek istiyorsanız kötü bir haberimiz var, bu teknoloji henüz herkese açık kullanıma sunulmadı. OpenAI’a başvurup erişim hakkı elde etmeniz gerekiyor. Ancak erişim hakkı elde eden kişilerin yarattığı bahsettiğimiz sonuçları görmek ise herkese açık.

Bahsettiğimiz örneklere biraz daha detaylı değinmek isterim. GPT-3 ile geliştirilmiş sistemlerin birisinde isterseniz sizin istediğiniz bir konuda, belki de çok sevdiğiniz bir yazarın yazdıklarından ve ya üslubundan esinlenerek bir yazı üretmesini istediğinizde, size, gerçekten bir insan tarafından yazılmadığını asla anlayamayacağınız metinler üretmekte. Beslendiği veri havuzu sayesinde GPT-3, sadece insan gibi konuşmakla kalmayıp, insan gibi yazılı sanat eserleri de üretebiliyor. Yazdığı şeylerin içerisinde dilsel açıdan hiçbir kusur olmaması ve gerçekten de anlamsal bağlamda sizin istediğiniz konuda ya da üslupta bir şeyler üretebiliyor olması, ve bunu yaparken de aslında kelimelerin gerçekten ne anlam ifade ettiğini hiç bilmiyor oluşu, insanı bir kere daha derin bir sorgulama sürecine itmiyor değil.

Yaratıcı yazı yazımı dışındaki bir yaygın örnek alanı ise insan dilini programlama diline çevirmekteki başarısı. Normal cümlelerle ifade edilmiş programları; ML’den Regex’e, SQL’den CSS’e kadar birçok farklı programlama diline aktarabiliyor GPT-3. Kullanıcının tek yapması gereken ise “ Bana X işini yapan bir program yaz ” demek oluyor. Bunun yanı sıra daha ilgi çekici olanı ise, tasarım dahi yapabilmesi. Kullanıcıdan bir web sitesi tasviri alan program, saniyeler içerisinde anlatılan siteyi yaratabiliyor. Tüm bunlar akıllara, acaba kod yazmanın sonu mu geliyor diye düşündürse de, bir sonuca varmak için daha çok erken.

Bu genel kullanım alanları dışında çok spesifik alanlara yönelik çıkarılmış ürünler de mevcut. Birkaç cümlelik tarifle resmi formatta mail hazırlayan örnek, Tweet üreten veyahut özlü sözler üreten örnekler, CV ve özgeçmiş üreten örnekler, kısa şakalar yazan örnekler ve iş tanımı ve ya girişim fikri üreten örnekler… Kısacası bir şeyin cümlelerle ifade edilebilmesi, GPT-3’ün oraya el atması için yeterli bir durum. Özel bir eğitim olmaksızın bu kadar farklı alanlarda bu kadar tutarlı sonuçlar vermesi ise işte tam olarak insanları heyecanlandıran nokta

Tabii ki GPT-3 henüz çok toy bir sistem ve bu gördüklerimiz sadece birkaç aylık çalışmalar. Ancak bu kadar kısa sürede bu sayıda örnek üretilebilmesi, teknolojinin önümüzdeki yıllarda bize neler sunabileceği hakkında kısa bir tanıtım filmi gibi. Ve gerçekten teknolojinin ne yöne doğru gidebileceği ise şu an için tamamen hayal gücüyle sınırlı gibi duruyor.
 

Hazar ÇAKIR
Boğaziçi Üniversitesi Bilgisayar Mühendisliği Öğrencisi

 




Eğitimlerle ilgili bilgi almak ve diğer tüm sorularınız için bize ulaşın!

İlgili Eğitimler

Son Blog Yazılarımız

Yakın tarihte açılacak eğitimler

Sitemizi kullanarak çerezlere (cookie) izin vermektesiniz. Detaylı bilgi için Çerez Politika'mızı inceleyebilirsiniz.