Idézet: Stanlee - Dátum: 2015. 03. 03. 19:39
En ebbol csak azt lattam/erzekeltem, hogy korulottem mindenki az iwiw-rol beszelt, en nem tudtam feljutni, meg senkinek sem volt meghivoja honapokig, aztan meg amikor meghivtak vegre, annyira lassu lett, hogy mar nem is volt erdekes. Mindezzel egy idoben meg ott volt mar a facebook, igaz csak angol felulettel, es meghivo nelkul lehetett regisztralni, es gyors volt, annak ellenere, hogy nem a kozelben voltak a szerverei. A wiw vihette volna sokra, ha az elejen tudnak zsetont talalni - egy igazi penzugyi befekteto szemelyeben - es beengedik a cegbe a befektetot. De ugye mar ott bukott el, hogy a kod es az egesz rendszer struktura rossz volt, amit egy befektetonek meg lehetett mutatni. A meghivozas viszont hype-ot general, meg ma is jo marketing a meghivo.
én mindig hüledezve nézek ezekre a ,,jaj nincs szerverkapacitás'' szintű sztorikra. még az ősszel írtam C-ben egy fórumrendszert, nincs teljesen befelyezve, kidebuggolva, stb, de simán ki tudok szolgálni néhány ezer teljes oldalrenderelő requestet vele gyakorlatilag az adatbázis méretétől függetlenül (persze azért biztos, hogy logaritmikus lassulás jelentkezik egy bizonyos méret (pár giga) fölött) egy másodperc alatt úgy, hogy a kirenderelt oldalak cachelve sincsenek, tehát mindegyiket teljesen újra kell renderelni, és write cache sincs, mindezt egyetlen 3 ghz-s 6 éves amd magon (azóta már threadoltam). szóval amikor azt látom, hogy egy oldal gazdái visonganak, hogy jaj, nem megy bír napi pár tízmillió requestet a szerver, aztán valami több tízmillió forintos fél ház méretű fos, akkor csak arra tudok gondolni, hogy megint valami milliókból apache/php/sql univerzumban összevérpistikézgetett jambikuspentameter-hulladékról lehet szó, ami a büdös kurva életbe se lesz képes skálázódni egy bizonyos mérték fölött, hívhatnak rá bármilyen úgynevezett ,,adatbázisszakértőt'', hogy reszelgesse a fingot az sql-ben, aminek csak egy request átadása több erőforrásba kerül, mintha helyben egy célirányos algoritmus egy saját adatbázisstruktúrából kiszedné az egész oldalt minden eredménnyel együtt. ez lett például az iwiw veszte is. egy ponton túl meg kell tanulni programozni a valóságban is, ezt nem lehet kikerülni egy nagy forgalmú portál esetén. amikor a facebooknál már látszott, hogy nem fog menni úgy, ahogy eddig, nem a holdat kezdték el szerverekkel betelepíteni, hanem az oldal egy részét átírták C-re, másik részén dinamikus fordítást használnak c-re, meg ilyenek.