Re: Mindennél hatékonyabb webes tömörítési algoritmus jelent meg
#1
Elküldve: 2013. 03. 01. 15:26
https://www.hwsw.hu/hirek/49897/google-zopfli-zlib-deflate-http-tomorites.html
#2
Elküldve: 2013. 03. 01. 15:26
#3
Elküldve: 2013. 03. 01. 15:35
#4
Elküldve: 2013. 03. 01. 15:37
Idézet: lacyc3 - Dátum: 2013. 03. 01. 15:35
Pfff, a jó ég tudja. Bár most ami árat kaptam íreknél a 100 megás vonalra, azon lehidaltam. 100 megabites kihajtásokat viszont röptében tömörítgetni nem egyszerű mutatvány. De majd elolvasom a cikket is.
#5
Elküldve: 2013. 03. 01. 15:38
#6
Elküldve: 2013. 03. 01. 15:49
És ki nem szarja le azt a 80mb-ot ami ráadásul az elméleti plafon a nyereségben? Ehhez szerver oldalon egy erőforrás zabáló encoder-t kell implementálni, kliens oldalon meg egy decodert, én már ott leragadtam hogy képesek emberek 7zip-t használni hogy nyerjnekek 10-20 megabájtot egy több gigás fájlnál, felfohatalan amikor a TB-os hdd-k korát éljük, de hajrá, tudod a túlzott spórolás soha nem vezet jó eredményre ))
#7
Elküldve: 2013. 03. 01. 15:52
#8
Elküldve: 2013. 03. 01. 16:08
Kiszamoljam neked, hogy ez hany milliard dollar?
#9
Elküldve: 2013. 03. 01. 16:14
Légy oly kedves. Egyébiránt milyen infrastruktúra építést szeretnél ezzel megspórolni?
Itt max sávszélességbővítésen lehet valamit spórolni, cserébe mindkét oldalon némi munkát kell végezni ) Ha a logikádat követném akkor az ennél lényegesen jobb hatásfokkal rendelkező mozgóképtömörítő algoritmusok fénysebességel tejednének a világban, de nem ezt látom, gondolkodj el rajta, pedig ott nem 3%-ot lehetne fogni ))
#10
Elküldve: 2013. 03. 01. 16:22
De hogy ne csak offtopic legyen: hogy egy szinte bruteforce algoritmust prezentál egy csávó a ZIP tömörítésre, az csak akkor szép, ha a bruteforce-nál sokkal gyorsabban éri el az azonos hatásfokot. Hétköznapi haszna meg biztos van, de nem hinném, hogy gyorsan elterjed majd.
#11
Elküldve: 2013. 03. 01. 16:43
Ezt elsősorban arra szánják, hogy statikus dolgok legyenek vele jobban tömörítve, nem pedig röptömörítésre. Van egy portál - mittomén index.hu - legyártanak egy képet png formátumban. Ha ezt több szerver szolgálja ki - mondjuk a képeket is 12 - mivel a szerverek sávszélessége véges, akkor 8% esetén rögtön -1 szerver költség. A tömörítés meg igen, lassabb lesz 30x - na bumm, nem 0.1, hanem 3 sec alatt végez vele. Ez még akkor is elviselhető, ha a felhasználónak meg kell várnia, de ha nem kell megvárnia, akkor meg pláne semmit se számít.
#12
Elküldve: 2013. 03. 01. 16:45
Tudom, hogy ez a példa sántít, főleg mert a szerverpark nem közös cache-t használ, de a lényeg remélem átment, hogy ez a módszer nem a házi barkács dolgokban hoz forradalmi változást, hanem az ipari felhasználásban, ahol ha egy százalék (sávszél) terhelés csökkentés egy milló dollárt hoz a konyhára havonta vagy évente, akkor ez a 3-8 százalék megtakarítás még akkor is kifizeti minden évben a bora-bora -i nyaralásomat, ha a prociban bukok néhány ampert.
Egyébként akik szerint 3-8 százalék semmit nem ér, az szóljon és küldöm a számlaszámomat, ahova elutalhatják a nettó fizetésük 5 százalékát, ha tényleg nem számít! 8-)
#13
Elküldve: 2013. 03. 01. 16:46
Idézet: patikaatika - Dátum: 2013. 03. 01. 16:14
Légy oly kedves. Egyébiránt milyen infrastruktúra építést szeretnél ezzel megspórolni?
Itt max sávszélességbővítésen lehet valamit spórolni, cserébe mindkét oldalon némi munkát kell végezni ) Ha a logikádat követném akkor az ennél lényegesen jobb hatásfokkal rendelkező mozgóképtömörítő algoritmusok fénysebességel tejednének a világban, de nem ezt látom, gondolkodj el rajta, pedig ott nem 3%-ot lehetne fogni ))
Segíts nekünk, hogy segíthessünk másokon!
(Holnap délelőtt úgysem jó neki, mert nem engedem ki az ágyamból... Tündérvirág)
#14
Elküldve: 2013. 03. 01. 16:51
"mivel a szerverek sávszélessége véges"
Ezt fejtsd ki légyszíves? Mi az hogy véges, mennyire vannak a szerverek sávszélessége a maximum közelében?
#15
Elküldve: 2013. 03. 01. 16:53
Nem mondtam hogy az vagyok, te meg fröcsögsz, ha valami szakmai véleményed van akkor írd ide kérlek.
#16
Elküldve: 2013. 03. 01. 17:06
"Ha ezt több szerver szolgálja ki - mondjuk a képeket is 12 - mivel a szerverek sávszélessége véges, akkor 8% esetén rögtön -1 szerver költség"
hát ez elég leegyszerüsítése a dolgoknak
#17
Elküldve: 2013. 03. 01. 17:19
Tehát ha jól értem mindenki azonnal befogja vezetni ezt a tömörítést hiszen azonnali költségcsökkentő tényezőként szerepelne, vagy ha mégsem akkor aki itt sávszélesség ls költségmegtakarítás cunamit vízionál annak mi erről a véleménye?
#18
Elküldve: 2013. 03. 01. 17:34
#19
Elküldve: 2013. 03. 01. 17:44
Idézet: 'Geri' - Dátum: 2013. 03. 01. 17:34
Mivel abból nem kellett újat implementálni, ezért gondolom azzal nem is vesződött az úriember.
#20
Elküldve: 2013. 03. 01. 18:04
Kb 7-8 éve dolgoztam egy webaudit top10-es magyar cégnek, nekik akkor volt vagy 20 db képszerverük. Ez azt jelenti, hogy halál egyszerű webszerverek, minden ugyanaz a statikus tartalom - kép hegyek - vannak. És semmi mást nem csinálnak, csak adják vissza a http kéréseknek a képeket. Az meg hogy a kérés melyik szerverre fut be, az más lapra tartozik - anno megoldották "kézzel" a terhelés elosztást, persze vannak erre más eszközök is.
Egy gigabites sávszél jóindulattal 100MByte nettóban, ami mondjuk 20 Kbyte-os képeket feltételezve 5000 kép/sec. Ha egy oldalon ebből van 25 db, akkor 20 felhasználónyi kép másodpercenként. Ha a felhasználók átlag 2 percenként kattintanak, akkor egy ilyen szerver - egyenletes eloszlás esetén - 2400 párhuzamos felhasználót tud kiszolgálni. Az meg nem túl sok, ettől nagyobb terhelések voltak már akkoriban is.