На какво се разчита при този метод с checksum-ите?
На това, че ако има проблем с паметта или HDD-то (лоши сектори например), то при евентуална загуба на част от файла, съответно и checksum-а ще се промени ли?
Не. Няма нищо общо с HDD.
Разчита на това, че това са много бързи и интензивни изчисления. Надявам се, че знаеш как работи един компютър? Постоянно има обмен четене/запис между процесора-шини данни/адреси и паметта.
Сега ако даже само един бит се обърне(изпусне) в целият процес на обмен и пресмятане, то сумата ще е различна. Един бит може да се обърне от самата памет или от шината (т.е. чипсет) или някъде в процесора. Такова 'изпускане' се дължи на повредена електроника или 'полу повредена' електроника - когато проблема понякога се скрива, а понякога се появява - например при загряване или пък студено пускане или пък дълга работа ... дрейфове - все проблеми които много трудно се откриват, защото са непостоянни. Но даже и да са непостоянни и да го прави проблема от-време на време то това пак си е ПОВРЕДЕНА ЕЛЕКТРОНИКА и е НЕРАБОТЕЩ КОМПЮТЪР.
Обикновено юзера не може да ги забележи тези проблеми..... и си мисли че нещо се е заблудил... За него те изглеждат, ...я забиване на компютъра .... я случаен рестарт ..... я браузера се крашва или някоя игра .... я CD-то дето си го е записал е развалено ..... я като разкомпресира някой по-голям архив дава checksum error...... я виндовс регистрито се развалило --- все такива хубави работи.
Но ако направим чексума на голям файл и има разлика това може да се види нагледно. Виждал съм много развалени или 'полу-развалени' компютри и съм се убедил, че това е абсолютно сигурен метод.