con una serie de programas creas unos archivos en tu disco duro llamado plots, que contendrán millones de hashes, y después con un minero que leerá rápidamente todos esos hashes por cada bloque en la red, buscando el siguiente bloque entre tus plots, por tanto, a mayor tamaño sean tus archivos, mas probabilidad de que generes tú el siguiente bloque
...
contra mas espacio le dediques a hacer plots, mas numeros de "lotería" tienes.
No entiendo, ¿acaso no es más rápido generar hashes aleatorios?, es más rápido generar números aleatorios en RAM y evaluarlos a medida que se generan (PoW) que leerlos de una lista en el disco duro... ¿no?, la velocidad de generación de hashes superará con creces a la velocidad de lectura del disco. Si el algoritmo funciona me parece muy interesante, pero le falta algún detalle muy importante a tu descripción... o yo no estoy captando algo... ¿hay alguna docuentación oficial del algoritmo? ¿algún paper o algo?.
EDIT: A menos que... el algoritmo de "evaluación" del hash sea bastante pesado y el universo de posibilidades de hashes sea radicalmente distinto al de otros algoritmos usados en PoW, si los plots contienen pares de número y su hash resueltos con anterioridad, la velocidad de lectura de los hashes evaluados sí podría superar a su evaluación en tiempo real, ¿es algo así?.