Früher, wenn wir mehr Informationen speichern oder unsere Vorbereitungsleistung erhöhen mussten, war die normale Alternative proportional vertikal (um all die dominanteren Maschinen zu erhalten) oder eine weitere Aufrüstung der aktuellen Codebasis. Auf jeden Fall ist es mit den Fortschritten bei der parallelen Handhabung und den verbreiteten Frameworks immer regelmäßiger, gleichmäßig zu erweitern oder mehr Maschinen zu haben, um eine ähnliche Aufgabe parallel zu erledigen. Wir könnten bereits viele Informationskontrollapparate wie Flash, Hadoop, Kafka, Zookeeper und Tempest im Apache-Projekt sehen. Wie dem auch sei, um den Entscheidungsapparat sinnvoll auswählen zu können, ist ein wesentlicher Gedanke der Top-Hypothese wichtig. Die oberste Hypothese ist die Vorstellung, dass ein verstreutes Datenbank-Framework nur zwei der drei folgenden Kriterien erfüllen kann: Konsistenz, Zugänglichkeit und Parzellenfestigkeit.

Die Top-Hypothese ist in der Welt der Enorme Information von Bedeutung, insbesondere wenn wir angesichts unseres neuartigen Anwendungsfalles einen Austausch zwischen den drei Hypothesen vornehmen müssen. In diesem Blog werde ich versuchen, jede einzelne dieser Ideen und die Erklärungen hinter dem Austausch von zu klären. Ich werde davon absehen, explizite Modelle zu verwenden, da die DBMS schnell voranschreiten.

Partitionstoleranz

Diese Bedingung drückt aus, dass das Rahmenwerk weiterläuft, unabhängig von der Anzahl der Nachrichten, die das System zwischen den Knotenpunkten aufschiebt. Ein Rahmen, der segmentiert und tolerant ist, kann jede Maßnahme der Systementtäuschung unterstützen, die keine Enttäuschung der gesamten Organisation nach sich zieht. Informationsaufzeichnungen werden in angemessener Weise kreuz und quer über Mischungen von Hubs und Systemen wiederholt, um den Rahmen durch unregelmäßige Blackouts aufrechtzuerhalten. Bei der Verwaltung der heutigen verstreuten Frameworks ist Parcel Resilience keine Alternative. Sie ist eine Notwendigkeit. Von nun an müssen wir uns zwischen Konsistenz und Zugänglichkeit austauschen.

Hohe Konsistenz

Diese Bedingung drückt aus, dass alle Hubs gleichzeitig ähnliche Informationen sehen. Grundsätzlich wird durch das Abspielen einer Leseaktivität die Schätzung der letzten Kompositionsaktivität wiederhergestellt, so dass alle Hubs ähnliche Informationen zurückgeben. Ein Rahmenwerk ist konsistent, wenn ein Austausch mit einem Rahmenwerk in einem zuverlässigen Zustand beginnt und mit einem Rahmenwerk in einem stabilen Zustand endet. In diesem Modell kann ein Rahmenwerk während eines Austauschs in einen Konfliktzustand übergehen (und tut dies auch), jedoch wird der gesamte Austausch zurückversetzt, wenn in irgendeiner Phase die ganze Zeit über ein Fehler auftritt. In der Abbildung haben wir 2 verschiedene Datensätze (“Bulbasaur” und “Pikachu”) zu verschiedenen Zeitpunkten. Die Rendite des dritten Segments ist “Pikachu”, die aktuellste Information. Wie dem auch sei, die Hubs benötigen Zeit, um sich zu aktualisieren, und sind im System nicht so häufig zugänglich.

Hochverfügbarkeit

Diese Bedingung drückt aus, dass jede Anfrage eine Reaktion auf Fortschritte/Enttäuschungen erhält. Um die Zugänglichkeit in einem verbreiteten Rahmen zu erreichen, muss der Rahmen zu 100% funktionsfähig bleiben. Jeder Kunde erhält eine Reaktion, wobei der Zustand der einzelnen Knotenpunkte im Rahmenwerk kaum berücksichtigt wird. Diese Messung ist für die Beurteilung unwichtig: Es ist möglich, dass Sie Anweisungen zum Lesen/Zusammenstellen vorlegen können oder auch nicht. Die Datenbanken sind also zeitautonom, da die Hubs konsistent online zugänglich sein sollten. Das bedeutet, dass wir im Gegensatz zum bisherigen Modell nicht die geringste Ahnung haben, ob “Pikachu” oder “Bulbasaur” zuerst einbezogen wurde. Der Ertrag könnte sein, dass es möglich ist. Folglich, warum eine hohe Zugänglichkeit nicht erreichbar ist, wenn man sprudelnde Informationen bei hoher Wiederholungshäufigkeit zerlegt.