nezem itt ezt a frissen indult topic-ot, de csak nem tudtok leszokni arrol, hogy ugy probaljatok meg kiszamolni az elettartamot, hogy azzal szamoltok, mennyiszer lehet felulirni az egeszet, es azt osztjatok vissza...
hogy lassatok a problemat, vegyunk egy tulzoan leegyszerusitett peldat. legyen 32G az SSD, 1000x ujrairhatoak a cellak, es nincs tartalekcella. ha mindig irok ra adatokat, es azokat az adatokat (az osszeset!) torlom is folyamatosan, akkor igaz ra az a szamitas, hogy 32Gx1000/365/5=napi 17G adatot lehet 5 even keresztul irni ra.
de vegyuk azt a scenariot, hogy az ssd nagy resze statikus adatokkal van tele, amiket soha nem torlok (31G), es 1G szabad helyem van, amire mondjuk folyamatosan log file-okat irok, a regieket tomoritem, a meg regebbiket torlom. ebben az esetben ugye ugyanugy mindig "tovabbmegy" az iras, tehat ugyanugy faradasmentesiti, de mivel a 31G adat nem torlodik soha, az nem mozog odebb, es csak 1G teruleten vandorolhatnak a cellak. ez viszont szemben a fenti 17G-val mar csak 0.5G napi irast jelent 5 even keresztul.
ergo: 1) a szamitast nem szabad ugy elvegezni, hogy a max kapacitast fogom es azt szorzom osztom. 2) a gyartok ezen adatai gyanus, hogy best case scenariok, es vigyazni kell vele. 3) lehet szaolni varhato elettartamot, de ez eroteljesen fuggeni fog a felhasznalas modjatol.
es meg egy megjegyzes: amikor fenykepezogepbe valo memoriakartyakrol beszel valaki, ott eppen hogy mindent letorlok es ujrairok eset forog fenn, ezert azoknal valoban lehet a felso becslessel szamolni. de egy operaciosrendszerben igen sok file marad ott, ahova elsore felirta az ember, ellenben bizonyos log file-ok meg a maradek teruleten folyamatosan valtoznak.