Und das Gegenargument war zu sagen das so leider ganz viel Speicherplatz auch in Zukunft verbraucht werden würde so dass die Dezentralisierung da drunter leidet weil nur noch wenige Menschen diese große Größe der blockchain auf einer Festplatte zum handelsüblichen Preis unterbringen können? Ist es nicht so oder verstehe ich etwas falsch?
Nicht nur. In der Praxis spielt die Festplattenkapazität tatsächlich eher eine untergeordnete Rolle, wichtiger werden bei größeren Blockgrößen tatsächlich auch Bandbreite und teilweise sogar die Rechenleistung und der Arbeitsspeicher des jeweiligen Rechners auf dem der Node laufen soll:
the builders thread:
https://bitcointalk.org/index.php?topic=5314398.0these cheap nodes that mine at a small profit can be in 10 thousand homes.
building a super node with 32mb blocks would mean using 8tb ssds in arrays
you would need more than 300mb internet speed.
I loaded a node/wallet on a thread ripper about 18 months ago
used a threadripper 3970 with 128gb ram
used 200mb internet and a 2tb nvme m.2 ssd
took 2 hours to synch it.
the time was 2 hours due to a 100mb switch I downloaded at a constant 80-90mb. it was about 300gb
but if we had a 32mb block thread it would be 16x the size
take 32 hours to download
and use 4.8tb
if it were a 96mb block
it takes 96 hours to download
and use 13.4tb
so that would mean at least two 8tb ssds in an array to give 16tb
maybe the 2000 usd threadripper the 3970 is good enough
maybe the 128gb ram is enough.
but I would need to have built a 9 k rig to do a node.
Es kann schon durchaus sein das es mit fortschreitender Technik früher oder später doch noch zu einer Vergrößerung der Blocksize kommt. Allerdings wäre dass dann ein mehr oder weniger irreversibles Upgrade weshalb hier eine sehr konservative Heransgehensweise durchaus Sinn macht. Dazu kommt dass der Transaktionsdurchsatz durch eine bloße Blocksize-Vergrößerung nur linear gesteigert werden kann, während Second-Layer Lösungen hier ohne Beeinträchtigung des Basis-Layers um einiges mehr herausholen können.