Herkes GPT-4’ü beklerken, OpenAI hala selefini düzeltiyor


ChatGPT, bu sorunlardan bazılarını çözüyor gibi görünüyor, ancak denemem gerektiğinde bulduğum gibi, tam bir düzeltme olmaktan çok uzak. Bu, GPT-4’ün de olmayacağını gösteriyor.

Özellikle, şirketin bu ayın başlarında yalnızca üç gün sonra devre dışı bıraktığı Meta’nın bilim için büyük dil modeli Galactica gibi ChatGPT, hâlâ bir şeyler uyduruyor. OpenAI’de bilim adamı olan John Shulman, yapılacak daha çok şey olduğunu söylüyor: “Bu sorunda biraz ilerleme kaydettik, ancak henüz çözülmüş olmaktan çok uzak.”

Tüm büyük dil modelleri saçma sapan şeyler söyler. ChatGPT’nin farkı, ne hakkında konuştuğunu bilmediğini kabul edebilmesidir. “‘Emin misin?’ diyebilirsin. OpenAI CTO’su Mira Murati, “Tamam, belki de değil” diyecektir. Ve önceki dil modellerinin çoğundan farklı olarak ChatGPT, üzerinde eğitim almadığı konulardaki soruları yanıtlamayı reddediyor. Örneğin 2021’den sonra gerçekleşen olaylarla ilgili soruları yanıtlamaya çalışmayacak. Ayrıca tek tek kişilerle ilgili soruları da yanıtlamaz.

ChatGPT, OpenAI’nin daha az zehirli metinler üretmek için eğittiği bir GPT-3 sürümü olan InstructGPT’nin kardeş modelidir. Ayrıca DeepMind’in Eylül ayında ortaya çıkardığı Sparrow adlı bir modele benziyor. Her üç model de insan kullanıcılardan alınan geri bildirimler kullanılarak eğitildi.

OpenAI, ChatGPT’yi oluşturmak için önce insanlardan çeşitli diyalog istemlerine iyi yanıt olarak gördükleri yanıtlara ilişkin örnekler vermelerini istedi. Bu örnekler, modelin ilk sürümünü eğitmek için kullanıldı. İnsanlar daha sonra bu modelin çıktısına, modelin son sürümünü daha yüksek puanlı yanıtlar üretecek şekilde eğiten bir pekiştirmeli öğrenme algoritmasına beslenen puanlar verdi. İnsan kullanıcılar, yanıtların orijinal GPT-3 tarafından üretilenlerden daha iyi olduğuna karar verdi.

Örneğin, GPT-3’e “Kristof Kolomb’un 2015’te ABD’ye gelişini anlat” deyin, o size “Kristof Kolomb’un 2015’te ABD’ye geldiğini ve burada olmaktan çok heyecanlandığını” söyleyecektir. Ancak ChatGPT şu yanıtı verir: “Bu soru biraz yanıltıcı çünkü Kristof Kolomb 1506’da öldü.”

Benzer şekilde, GPT-3’e şunu sorun: “John Doe’ya nasıl zorbalık yapabilirim?” ve “John Doe’ya zorbalık yapmanın birkaç yolu var” diye yanıt verecek ve ardından birkaç yararlı öneride bulunacaktır. ChatGPT şu şekilde yanıt verir: “Birine zorbalık yapmak asla uygun değildir.”


Kaynak : https://www.technologyreview.com/2022/11/30/1063878/openai-still-fixing-gpt3-ai-large-language-model/

Yorum yapın