Next scheduled rescrape ... never
Version 2
Last scraped
Scraped on 07/08/2025, 12:48:51 UTC


Si ovviamente è praticamente ipossibile. Posso chiederti i motivi per cui lo riterresti sbagliato?

Io lo riterrei corretto per questo motivo. Dobbiamo capire dove posizionarci come tradeoff in uno spettro continuo che va tra blocchi piccolissimi e blocchi enormi.

Dove per enormi possiamo assumere una dimensione che permetterebbe un numero di transazioni paragonabile a visa o mastercard.

Se i blocchi sono enormi però ci si riconduce ovviamente ad un sistema centralizzato per ovvi motivi che su questo forum conosciamo tutti: pochissimi farebbero girare dei full node che occupano così tanto spazio disco. Solo pochi grossi soggetti interessati, alcuni miner e alcuni exchanger, sarebbe un cartello.

Quindi partiamo dell'attuale dimensione massima dei blocchi, quasi 4Mb, del tutto arbitraria: è un magic number.

Ora se raddoppio questo magic number, raddoppio il numero massimo di transazioni gestibili onchain, ma resta sempre un numero insignificante rispetto al numero di transazioni di sistemi come visa o mastercard. Quindi a fronte di un "non miglioramento", chissenefrega se faccio il doppio di transazioni di un numero ampiamente insufficiente, mi accollo un potenziale raddoppio della dimensione su disco della blockchain e qui il lato negativo è pesante. Raddoppiando tale spazio molte meno persone saranno ancora disposte a far girare un nodo validatore. Supponendo che "la voglia di far girare un nodo" sia linearmente correlata sullo spazio che va ad occupare possiamo ipotizzare un dimezzamento del numero di full node.

Invece se dimezzo questo magic number faccio sempre schifo rispetto a visa e mastercard, ma aumento potenzialmente di molto la distribuzione del network (con la supposizione di prima la raddoppio) e ho anche qualche chance che la blockchain possa anche essere sincronizzata sugli smartphone o altri microsistemi. La velocità con cui è aumentato lo spazio di archiviazione degli smartphone negli anni, non è cresciuta a tal punto da star dietro alla dimensione attuale della blockchain. Esistono esperimenti con smartphone di alta gamma con processero veloce, usandogli tutta la memoria di una sheda sd capiente, ma non è applicabile in modo mainstream allo smartphone medio.

In pratica o si scala offchain o non si scala, l'unico mio dubbio è se dimezzando la dimensione dei blocchi, ci sarà abbastanza spazio per aprire e chiudere un numero consono di canali sul Lightning Network, cosa che non ho mai approfondito. Dove consono ovviamente è un numero da valutare, altra scelta di "dimensionamento".

Attualmente siamo sulle circa 4.5 tx/s, siamo arrivati ad un massimo di 8 ma quando l'uso e l'ottimizzazione di Segwit non erano quelli di adesso.
Se tutte le tx fossero segwit native (bech32) ed ottimizzate,la rete potrebbe arrivare a processare circa 15 tx/s, quasi il quadruplo delle attuali.

Segwit al momento stà su oltre il 90% del totale transazioni ma di queste solo il 20-30% sono bech 32:  c'è molto margine di crescitamiglioramento.

La dimensione attuale ci dà quindi un notevole buffer di crescita senza incidere più di tanto sui costi di commissione e questo, a sua volta, dà tempo agli sviluppatori per lavorare su soluzioni di scaling, migliorando quelle attuali (LN) e creandone di nuove (si parla ultimamente un gran bene di Arch, progetto in gran parte italiano tra l'altro).

io non credo inoltre che ridurre il blocksize farebbe aumentare il numero di nodi perchè l'ostacolo principale a metter su un nodo non è una  la spesa, quanto piuttosto la pigrizia e la scarsa sensibilizzazione degli utenti al tema della decentralizzazione.

Ricordiamoci che a parità di altre condizioni, il costo di gestione di un nodo si riduce nel tempo per il fisiologico calo di prezzo dell'hardware (a specifiche costanti).
Version 1
Scraped on 07/08/2025, 12:24:01 UTC


Si ovviamente è praticamente ipossibile. Posso chiederti i motivi per cui lo riterresti sbagliato?

Io lo riterrei corretto per questo motivo. Dobbiamo capire dove posizionarci come tradeoff in uno spettro continuo che va tra blocchi piccolissimi e blocchi enormi.

Dove per enormi possiamo assumere una dimensione che permetterebbe un numero di transazioni paragonabile a visa o mastercard.

Se i blocchi sono enormi però ci si riconduce ovviamente ad un sistema centralizzato per ovvi motivi che su questo forum conosciamo tutti: pochissimi farebbero girare dei full node che occupano così tanto spazio disco. Solo pochi grossi soggetti interessati, alcuni miner e alcuni exchanger, sarebbe un cartello.

Quindi partiamo dell'attuale dimensione massima dei blocchi, quasi 4Mb, del tutto arbitraria: è un magic number.

Ora se raddoppio questo magic number, raddoppio il numero massimo di transazioni gestibili onchain, ma resta sempre un numero insignificante rispetto al numero di transazioni di sistemi come visa o mastercard. Quindi a fronte di un "non miglioramento", chissenefrega se faccio il doppio di transazioni di un numero ampiamente insufficiente, mi accollo un potenziale raddoppio della dimensione su disco della blockchain e qui il lato negativo è pesante. Raddoppiando tale spazio molte meno persone saranno ancora disposte a far girare un nodo validatore. Supponendo che "la voglia di far girare un nodo" sia linearmente correlata sullo spazio che va ad occupare possiamo ipotizzare un dimezzamento del numero di full node.

Invece se dimezzo questo magic number faccio sempre schifo rispetto a visa e mastercard, ma aumento potenzialmente di molto la distribuzione del network (con la supposizione di prima la raddoppio) e ho anche qualche chance che la blockchain possa anche essere sincronizzata sugli smartphone o altri microsistemi. La velocità con cui è aumentato lo spazio di archiviazione degli smartphone negli anni, non è cresciuta a tal punto da star dietro alla dimensione attuale della blockchain. Esistono esperimenti con smartphone di alta gamma con processero veloce, usandogli tutta la memoria di una sheda sd capiente, ma non è applicabile in modo mainstream allo smartphone medio.

In pratica o si scala offchain o non si scala, l'unico mio dubbio è se dimezzando la dimensione dei blocchi, ci sarà abbastanza spazio per aprire e chiudere un numero consono di canali sul Lightning Network, cosa che non ho mai approfondito. Dove consono ovviamente è un numero da valutare, altra scelta di "dimensionamento".

Attualmente siamo sulle circa 4.5 tx/s, siamo arrivati ad un massimo di 8 ma quando l'uso e l'ottimizzazione di Segwit non erano quelli di adesso.
Se tutte le tx fossero segwit native (bech32) ed ottimizzate,la rete potrebbe arrivare a processare circa 15 tx/s, quasi il quadruplo delle attuali.

Segwit al momento stà su oltre il 90% del totale transazioni ma di queste solo il 20-30% sono bech 32:  c'è molto margine di crescita.

La dimensione attuale ci dà quindi un notevole buffer di crescita senza incidere più di tanto sui costi di commissione e questo, a sua volta, dà tempo agli sviluppatori per lavorare su soluzioni di scaling, migliorando quelle attuali (LN) e creandone di nuove (si parla ultimamente un gran bene di Arch, progetto in gran parte italiano tra l'altro).

io non credo inoltre che ridurre il blocksize farebbe aumentare il numero di nodi perchè l'ostacolo principale a metter su un nodo non è una la spesa, quanto piuttosto la pigrizia e la scarsa sensibilizzazione degli utenti al tema della decentralizzazione.

Ricordiamoci che a parità di altre condizioni, il costo di gestione di un nodo si riduce nel tempo per il fisiologico calo di prezzo dell'hardware (a specifiche costanti).
Original archived Re: Dibattito rimozione limite OP_RETURN - Bitcoin Core rimuoverà il limite?
Scraped on 07/08/2025, 12:19:23 UTC


Si ovviamente è praticamente ipossibile. Posso chiederti i motivi per cui lo riterresti sbagliato?

Io lo riterrei corretto per questo motivo. Dobbiamo capire dove posizionarci come tradeoff in uno spettro continuo che va tra blocchi piccolissimi e blocchi enormi.

Dove per enormi possiamo assumere una dimensione che permetterebbe un numero di transazioni paragonabile a visa o mastercard.

Se i blocchi sono enormi però ci si riconduce ovviamente ad un sistema centralizzato per ovvi motivi che su questo forum conosciamo tutti: pochissimi farebbero girare dei full node che occupano così tanto spazio disco. Solo pochi grossi soggetti interessati, alcuni miner e alcuni exchanger, sarebbe un cartello.

Quindi partiamo dell'attuale dimensione massima dei blocchi, quasi 4Mb, del tutto arbitraria: è un magic number.

Ora se raddoppio questo magic number, raddoppio il numero massimo di transazioni gestibili onchain, ma resta sempre un numero insignificante rispetto al numero di transazioni di sistemi come visa o mastercard. Quindi a fronte di un "non miglioramento", chissenefrega se faccio il doppio di transazioni di un numero ampiamente insufficiente, mi accollo un potenziale raddoppio della dimensione su disco della blockchain e qui il lato negativo è pesante. Raddoppiando tale spazio molte meno persone saranno ancora disposte a far girare un nodo validatore. Supponendo che "la voglia di far girare un nodo" sia linearmente correlata sullo spazio che va ad occupare possiamo ipotizzare un dimezzamento del numero di full node.

Invece se dimezzo questo magic number faccio sempre schifo rispetto a visa e mastercard, ma aumento potenzialmente di molto la distribuzione del network (con la supposizione di prima la raddoppio) e ho anche qualche chance che la blockchain possa anche essere sincronizzata sugli smartphone o altri microsistemi. La velocità con cui è aumentato lo spazio di archiviazione degli smartphone negli anni, non è cresciuta a tal punto da star dietro alla dimensione attuale della blockchain. Esistono esperimenti con smartphone di alta gamma con processero veloce, usandogli tutta la memoria di una sheda sd capiente, ma non è applicabile in modo mainstream allo smartphone medio.

In pratica o si scala offchain o non si scala, l'unico mio dubbio è se dimezzando la dimensione dei blocchi, ci sarà abbastanza spazio per aprire e chiudere un numero consono di canali sul Lightning Network, cosa che non ho mai approfondito. Dove consono ovviamente è un numero da valutare, altra scelta di "dimensionamento".

Attualmente siamo sulle circa 4.5 tx/s, siamo arrivati ad un massimo di 8 ma quando l'uso e l'ottimizzazione di Segwit non erano quelli di adesso.
Se tutte le tx fossero segwit native (bech32) ed ottimizzate,la rete potrebbe arrivare a processare circa 15 tx/s, quasi il quadruplo delle attuali.

La dimensione attuale ci dà quindi un notevole buffer di crescita senza incidere più di tanto sui costi di commissione e questo, a sua volta, dà tempo agli sviluppatori per lavorare su soluzioni di scaling, migliorando quelle attuali (LN) e creandone di nuove (si parla ultimamente un gran bene di Arch, progetto in gran parte italiano tra l'altro).

io non credo inoltre che ridurre il blocksize farebbe aumentare il numero di nodi perchè l'ostacolo principale a metter su un nodo non è una la spesa, quanto piuttosto la pigrizia e la scarsa sensibilizzazione degli utenti al tema della decentralizzazione.

Ricordiamoci che a parità di altre condizioni, il costo di gestione di un nodo si riduce nel tempo per il fisiologico calo di prezzo dell'hardware (a specifiche costanti).