MIT Araştırmacıları Tüm Ağ Tıkanıklığı Algoritmalarının Haksız Olduğunu Söylüyor


Bu site, bu sayfadaki bağlantılardan bağlı kuruluş komisyonları kazanabilir. Kullanım Şartları.

(Kredi: Getty Images)

Hepimiz her zamankinden daha fazla veri kullanıyoruz ve ISS’lerin bize uyguladığı bant genişliği sınırları insanları yavaşlatmak için çok az şey yapıyor – bunlar sadece daha fazla para kazanmak için bir araç. Meşru ağ yönetimi, insanları daha fazla veri kullandıkları için cezalandırmanın ötesine geçmelidir, ancak MIT’den araştırmacılar, bunu yapması gereken algoritmaların düşündüğümüz kadar iyi çalışmadığını söylüyor. Yeni yayınlanan bir çalışma gösteriyor ki, imkansız Bu algoritmaların bant genişliğini adil bir şekilde dağıtması için.

Hepimiz oradaydık, yoğun kullanım sırasında video akışı yapmak veya büyük dosyalar yüklemek için yeterli bant genişliği elde etmek için mücadele ettik. Cihazlarınız, yukarı akış ağ koşulları hakkında bilgi sahibi olmadıkları için paketleri ne kadar hızlı göndereceklerini bilmiyorlar. Paketleri çok yavaş gönderirlerse, mevcut bant genişliğini boşa harcarsınız. Çok hızlı giderlerse paketler kaybolabilir ve yeniden gönderilen paketler gecikmelere neden olur. Akademisyenler ve işletmeler, ağ doygunluğunun etkisini azaltması beklenen algoritmalar geliştirmek için yıllarını harcasalar da, bu durum sinir bozucu olabilir. Google tarafından geliştirilen BBR algoritması gibi bu sistemler, herkesin bir miktar bant genişliği aldığından emin olmak için ağda kuyruklarda bekleyen paketlerden kaynaklanan gecikmeleri kontrol etmeyi amaçlar.

Ancak bu tür bir sistem hiç adil olabilir mi? yeni çalışma her zaman anlaşmada mahvolan en az bir gönderici olacağını iddia ediyor. Bu bahtsız bağlantı hiçbir veri alamazken, diğerleri mevcut olandan pay alır, bu “açlık” olarak bilinen bir sorundur. Ekip, ağ tıkanıklığının matematiksel bir modelini geliştirdi ve buna, tıkanıklığı kontrol etmek için şu anda kullanılan tüm algoritmaları besledi. Ne yaparlarsa yapsınlar, her senaryo en az bir kullanıcıyı kapatarak sona erdi.

Optik fiber, mavi ve beyaz

Sorun, internetin ezici karmaşıklığı gibi görünüyor. Algoritmalar, tıkanıklığı tahmin etmek için paket kaybı gibi sinyalleri kullanır, ancak tıkanıklıkla ilgisi olmayan nedenlerle paketler de kaybolabilir. Araştırmacılar, bu “titreşim” gecikmesinin tahmin edilemez olduğunu ve algoritmanın açlığa doğru sarmal bir hale gelmesine neden olduğunu söylüyor. Bu, ekibin, açlığın kaçınılmaz olduğunu belirtmek için bu sistemleri “gecikme-yakınsayan algoritmalar” olarak tanımlamasına yol açtı.

Çalışma yazarı ve MIT lisansüstü öğrencisi Venkat Arun, ekibin tespit ettiği arıza modlarının yıllardır internette mevcut olduğunu açıklıyor. Kimsenin onları bilmediği gerçeği, sorunun zorluğuna işaret ediyor. Mevcut algoritmalar açlığı önlemede başarısız olabilir, ancak araştırmacılar bir çözümün mümkün olduğuna inanıyor. Daha iyi bir iş çıkarabilecek diğer algoritma sınıflarını keşfetmeye devam ediyorlar, belki de bir ağdaki gecikmede daha geniş varyasyonu kabul ederek. Aynı modelleme araçları, ağ bağlantılı sistemlerdeki diğer çözülmemiş sorunları anlamamıza da yardımcı olabilir.

Şimdi Oku:




Kaynak : https://www.extremetech.com/internet/338610-mit-researchers-say-all-network-congestion-algorithms-are-unfair

Yorum yapın