Microsoft telemetrisi olmayan GitHub Copilot gibi • Kayıt


Güncellenmiş AI modellerinin yardımıyla programlama kodu önerileri oluşturmaya yönelik birkaç yeni araçtan biri olan GitHub Copilot, lisans endişeleri ve yazılımın Microsoft’a ait şirkete geri gönderdiği telemetri nedeniyle bazı kullanıcılar için sorunlu olmaya devam ediyor.

ABD’de NYU Tandon’da bilgisayar bilimleri ve mühendislik bölümünde yardımcı doçent olan Brendan Dolan-Gavitt yayınladı. Sahte PilotMicrosoft ana gemisine telefon etmeden yerel olarak çalışan Copilot’a bir alternatif.

Copilot, “milyarlarca satır genel kodMicrosoft ve GitHub, Codex’i tam olarak hangi depoların bilgilendirdiğini belirleyemediğinden, bu, özgür ve açık kaynaklı yazılım (FOSS) savunucularını rahatsız etti.

Software Freedom Conservancy’de (SFC) politika uzmanı olan Bradley Kuhn’un yazdığı gibi bir blog yazısı bu yılın başlarında, “Copilot, copyleft uyumluluğunu kullanıcı için bir alıştırma olarak bırakıyor. Kullanıcılar, Copilot geliştikçe artan bir sorumlulukla karşı karşıya kalabilirler. Kullanıcıların şu anda Copilot’un çıktısının bir başkasına ait olup olmadığını bilmek için şans ve eğitimli tahminler dışında hiçbir yöntemi yoktur.”

GitHub Copilot ticari olarak kullanıma sunulduktan kısa bir süre sonra, SFC açık kaynak sağlayıcıları teşvik etti Copilot ile ilgili endişeleri ele almayı reddetmesi nedeniyle kısmen GitHub’ı kullanmamak.

Mükemmel bir dünya değil

FauxPilot, Codex kullanmaz. Salesforce’a dayanır CodeGen modeli. Ancak, CodeGen ayrıca farklı lisansların nüansları dikkate alınmadan herkese açık açık kaynak kodu kullanılarak eğitildiğinden, bunun FOSS savunucularını yatıştırması pek olası değildir.

Dolan-Gavitt, “Şu anda kullandığı modeller Salesforce tarafından eğitilmiş modellerdir ve bunlar yine temel olarak GitHub genel kodunun tamamında eğitilmiştir,” diye açıkladı Dolan-Gavitt ile bir telefon görüşmesinde. Kayıt. “Yani hala orada, potansiyel olarak lisanslamayla ilgili, bununla çözülmeyecek bazı sorunlar var.

“Öte yandan, yeterli bilgi işlem gücüne sahip biri gelip ‘Yalnızca GPL kodu üzerinde eğitilmiş veya atıfta bulunmadan yeniden kullanmama izin veren bir lisansı olan bir modeli eğiteceğim’ veya bunun gibi bir şey derse, o zaman modellerini eğitebilir, o modeli FauxPilot’a bırakabilir ve onun yerine o modeli kullanabilirler.”

Dolan-Gavitt için FauxPilot’un birincil amacı, AI yardım yazılımını şirket içinde çalıştırmanın bir yolunu sağlamaktır.

“Gizlilik endişeleri olan insanlar var ya da belki iş durumunda, kodlarını üçüncü bir tarafa göndermelerini engelleyen bazı kurumsal politikalar var ve bu kesinlikle yerel olarak çalıştırabilmekte yardımcı oluyor” dedi. .

GitHub, açıklamasında Copilot’un topladığı veriler“düzenlemekte olduğunuz kaynak kodu, ilgili dosyalar ve aynı IDE veya düzenleyicide açılan diğer dosyalar, havuzların URL’leri ve dosya yolları” dahil olmak üzere Kod Parçacıkları Verilerinin toplanmasını devre dışı bırakma seçeneğini açıklar.

Fakat Bu şekilde “Kabul edilen ve reddedilen tamamlamalar gibi kullanıcı düzenleme eylemleri ve gecikme ve özellik etkileşimi gibi metrikleri tanımlamak için hata ve genel kullanım verileri” ve potansiyel olarak “takma ad tanımlayıcılar gibi kişisel veriler” gibi Kullanıcı Katılım Verilerinin toplanmasını devre dışı bırakmıyor gibi görünüyor.

Dolan-Gavitt, FauxPilot’u bir araştırma platformu olarak gördüğünü söyledi.

“Yapmak istediğimiz şeylerden biri, umarım daha güvenli kod çıktısı veren kod modellerini eğitmektir” diye açıkladı. “Ve bunu yaptıktan sonra, onları test edebilmek ve hatta Copilot gibi bir şey kullanan gerçek kullanıcılarla, ancak kendi modellerimizle test edebilmek isteyeceğiz. Yani bu bir tür motivasyondu.”

Ancak bunu yapmanın bazı zorlukları var. Dolan-Gavitt, “Şu anda, modeller gerçekten veriye aç olduğundan, herhangi bir güvenlik açığı olmayan bir veri kümesi oluşturmaya çalışmak biraz pratik değil” dedi.

“Yani üzerinde eğitmek için çok ve çok sayıda kod istiyorlar. Ancak bu kodun hatasız olmasını sağlamak için çok iyi veya kusursuz yollarımız yok. güvenlik açıklarından arındırılmış.”

Bununla birlikte, ortak yazar olan Dolan-Gavitt Yardımcı Pilot kod önerilerinin güvensizliği üzerine bir makaleAI yardımını ona bağlı kalmaya yetecek kadar yararlı bulur.

“Bu konudaki kişisel hissim, geçen yaz çıktığından beri temel olarak Copilot’u açmış olmamdır” diye açıkladı. “Gerçekten faydalı buluyorum. Bununla birlikte, çalışmasını iki kez kontrol etmem gerekiyor. Ama çoğu zaman, en azından bana verdiği bir şeyle başlamak ve sonra onu doğru bir şekilde düzenlemek, denemekten daha kolaydır. sıfırdan yarat.” ®

Eklemek için güncellendi

Dolan-Gavitt, FauxPilot’u resmi Visual Studio Code Copilot uzantısıyla kullanırsanız, ikincisinin kod tamamlama istekleri olmasa da GitHub ve Microsoft’a telemetri göndereceği konusunda bizi uyardı.

“Kendi VSCode uzantımız çalıştığında … bu sorun çözülecek” dedi. InlineCompletion API’si güncellendiğine göre, bu özel uzantının şimdi güncellenmesi gerekiyor. kesinleşmiş Windows devi tarafından.

Temel olarak, FauxPilot üssü Redmond’a telefon etmez, ancak tamamen Microsoft dışı bir deneyim istiyorsanız, FauxPilot’u Visual Studio Code ile kullanıyorsanız, hazır olduğunda projenin uzantısını almanız gerekir.


Kaynak : https://go.theregister.com/feed/www.theregister.com/2022/08/06/fauxpilot_github_copilot/

Yorum yapın