Warum? Weil Mathematik, Statistik und Risiko-Chancen-Abwägung überall funktionieren nur eben nicht bei Amazon? Was macht deren Service garantierbar fehlerfrei? Gelten die Theoreme von Turing und Gödel für die gesamte Computerwelt, nur nicht für Amazon?
Der Punkt ist einfach, dass Du erstmal das Niveau von Amazon und Co. erreichen musst, was (Daten-)Sicherheit, Skalierbarkeit und Kosten anbelangt. Ich gebe Dir darin Recht, dass speziell der Betrieb einer Bitcoinbörse Infrastruktur unter komplett eigener Kontrolle rechtfertigen würde.
Tatsächlich kannst Du Dich noch freuen, wenn jemand so rational/einsichtig ist und gleich zu Amazon geht. Mark hatte sein eigens kleines Rechenzentrum zusammengeschraubt. Das hat unheimlich "geholfen". So wie seine komplette Selbstüberschätzung sehr "nützlich" war. Besonders für die Diebe.
Das Sicherheitsniveau der Börsen ist so gering, bevor es sinnvoll wäre, dass die ein eigenes RZ planen, müsste die erstmal ganz andere Dinge in Ordnung bringen. Zum Beispiel ihr Cold Wallet mit mehr als einem Key sichern und vielleicht nicht immer alles auf eine Adresse legen. Wäre mal ein Anfang.
Die praktisch erreichbare Sicherheit liegt immer deutlich unterhalb der theoretisch möglichen. Und natürlich, das ist im Bitcoin-Umfeld ein Problem. Aber was willst Du machen?
bill86: Ich hab jetzt keine Zeit. Ein Hinweis warum Amazon so gut ist, geb ich Dir aber noch mit:
http://en.wikipedia.org/wiki/Werner_VogelsDie Credentials dieses Mannes sprechen ja wohl für sich. Das ist Informatik-Champions League IHMO.
Zunächst einmal war AWS nur exemplarisch gewählt, weil das vorher angesprochen wurde. Vielmehr reicht aber in der Regel ein Fehler in irgeneiner verwendeten Komponente, um das darauf basierende System (in diesem Fall den Exchange) zu gefährden. D.h. wenn vier Dienste verlinkt werden, hat ein Angreifer in der Regel die Auswahl aus vier Diensten. Dieser braucht nur eine Lücke finden, die zu dem gewünschten Angriffszenario passt. Der Exchangebetreiber muss hingegen dafür Sorge tragen, dass
gar keine sicherheitskritische Lücke besteht. Wie soll das gehen, wenn ein großer Teil eher auf Vertrauen statt auf Nachprüfbarkeit basiert? Konsistenzen im Code lassen sich in der Regel nicht vollständig beweisen, weshalb auch niemand jemals vollständige Fehlerfreiheit garantieren kann. Das ist einer der Gründe, warum Versicherungen in dem Bereich nur schwer zu finden sind.
Weiterhin ist anzumerken, dass bis auf ganz seltene Ausnahmen (z.B. das Computerspiel Banished) Programmierung ein Mannschaftssport ist und das ganze immernoch von Personen betrieben wird, die auch mal unkonzentriert sein können. Das ist menschlich und gehört einfach zum Business. Besonders im Unternehmensumfeld werdet ihr da nicht ein System finden, dass komplett alleine von einer Person geschrieben wurde. Diese müsste nämlich das Betriebssystem, die Serverkomponente, den darauf aufbauenden Dienst und sämtliche Verbindungen (z.B. Switche, Firmware im Backend) selbst programmieren und warten. Zeigt mir mal bitte irgendjemanden, der innerhalb weniger Jahre mehrere Milliarden Zeilen Code fehlerfrei in C/C++ zusammenschreibt.
Wo wir gerade dabei sind. Ihr könnt euch ja mal den Spass machen und recherchieren, bei wievielen Bugs pro KLOC man derzeit von hoher bzw. guter Softwarequalität im PHP-, Perl- und C/C++-Umfeld spricht. Dazu empfehle ich was Hochprozentiges.
Dass mal jemand mit Kompetenz unter all den outgesourcten Indern, Chinesen und Taiwanesen dabei ist, verbessert die Lage nämlich nur punktuell aber nicht systemweit.