Idézet: zoli62 - Dátum: 2007. jún. 4., hétfő - 15:19
Röpke számolás. Ha 10000 felhasználó tartozik a 250 GB korlátot elérők közé, akkor cca 7,7 Gb/s-os sávszélességet használnak. Amennyiben ennek a tizede, akkor meg 0,77Gb/s, azaz kb. 770 Mb/s. Ekkora sávszélességet pedig kell bírnia a hálózatnak. Amennyiben nem, akkor az egész emelés túlméretezett volt. Persze nem tudom, hogya fejállomásokon mekkora uplinkek vannak pontosan, illetve mennyi a user/fejállomás arány. Érzésem szerint bizonyos területeken "ész" nélkül beközöttek egy fejállomás alá több előfizetőt is, mint amennyit a rendszer elbírt. Nem tudom, milyen a szimetrikus terheléselosztás sem, ezek nem publikus infók, de gyanítom, valahol itt kell a mostanában tapasztalt jelenségekre az okokat keresni.
NSD?

Effektíve a terhelési adatok nyilván nem azok, de próbáljunk meg mindenki által hozzáférhető vagy általános információkból építkezni:
- egy darab chello prof csomag 20 MBit-et bír
- egy darab EuroDOCSIS downstream channel a szabványban definiált érték szerint 55 MBit
- egy darab professional-re warezhuszár 24/7-ben forgalmazó gépének az átlagos sávszélességhasználata (számára ideális esetben) alulról közelíti a 20 MBit/sec-et.
- egy darab bármilyen chello csomagra előfizető egységsugarú, egybites átlaguser átlagos sávszélkihasználtsága 64 kbit/sec (egybites userünk havi 5GB-t forgalmaz naponta a 16-22h közötti időszakban - ő egy teljesen átlagos magyar internetező, és mint ilyen, jó 80%-os többségben van)
A fentieket ha összefésüljük, mit kapunk? Egy darab ED DS channel ki tud szolgálni
a) többszázas nagyságrendű egybites usert
b) 2-3 komoly töltögetőt
A bevételi oldalt gondolom nem kell összehasonlítani, triviális, hogy átlagos magyar ISP az a) esetnek örül jobban. Csakhogy! Nincsenek ilyen ideális esetek, és minden egyes DS csatornán akadhat a párszáz egybites user között néhány, aki n * 10G-t, kevesebb, aki n * 100G-t és elvétve aki ennél is jóval többet forgalmaz. Namost ha 2-3db ilyen user
a technológiából adódóan tönkrevághatja párszáz másik szolgáltatását, akkor triviális megoldásként ott a QoS. Határozzunk meg alkalmazási szinteket, osztályozzuk őket és biztosítsunk elsőbbséget az arra érdemesnek, mert ő termel profit, őt szeretjük vagy szimplán mert az az alkalmazás érzékeny a késleltetésre (voip, gaming..).
Márpedig statisztikailag minden node-on lakhat (és lakik is) heavy user, tehát indokolt az egybitesek védelme tőlük, hiszen ők az elképesztően nagy többség. Például olyan módon lehet őket megvédeni, hogy az általuk használt csomagoknak elsőbbséget adunk. Amikor tehát csúcsidő van, többen használnak http-t, nézegetnek youtube-ot, leveleznek, játszanak, adott kapacitálsból nagyobb részt falnak fel a p2p rovására. Este aztán lefekszenek aludni, csökken a terheltség és máris több maradt a p2p-nek, a queue-ban lévő letöltések meglódulnak és mire reggel felkelsz, le is ért a kedvenc sorozatod, amit a kliensed RSS-en már behúzott a kedvenc torrent protálodról.
Zoli62, az elméleted tehát ott hibádzik, hogy a szűk keresztmetszet jellemzően nem a nagy, agregált forgalmat áteresztő pontokon szokott lenni (azaz hiába nézegetitek, mennyit bírna még a két BIX link), hanem a fogyasztóhoz közeli szakaszokon (a last mile-on). Azt pedig csak a hálózat felügyeletéért felelősök látják, és annak a bővítése emészt fel igazán nagy összegeket.
(Ja, az egybites user pedig nem sarkított példa, a felhasználói szokásokról szóló online szakirodalom biztos, hogy megerősít. Mint ahogy a warezhuszár sem sarkított. Sajnos.)