Nun ja, wir wollen da mal unterscheiden zwischen einem
-"Compute Cluster" der mittels Prozeduren des verteilten Rechnens grosse Rechenleistungen erbringt (bekannte Beispiele sind SETI, aber auch der Linux Beowulf Cluster, die ganzen bekannten Grossrechner wie Asci Red etc).
-"HA-Cluster" (High Availability) der die Hochverfügbarkeit garantiert, indem er praktisch transparent eine Applikation bzw Services zwischen den angeschlossenen Nodes switchen kann und so im Fehlerfall ein anderer Node im Cluster die Applikation bzw Service anbieten kann.
-"Scalability Cluster", im Prinzip ein HA-Cluster, der aber mittels Load Balancing die Performance eines Services vergrössern kann. Gute Beispiele hier sind zum Beispiel ein Webserver aber auch Oracle 9i RAC (Real Application Cluster) bzw Oracle 8 OPS). Hier ist auch als neuerer Trend das sog. Remote Shared Memory (RSM) zu erwähnen das die Performance bei skalierten Applikationen bei entsprechenden Links zwischen den Nodes wesentlich vergrössern kann.
Es ist immer extrem von der Applikation bzw Service abhängig welche Art von Clustering überhaupt angewendet werden kann. Gewisse Applikationen lassen sich nur sehr schwer über mehrere Nodes skalieren, andere nehmen das Load Balancing schon im Client vor. HA-Fähig hingegen sind die meisen Applikationen.
Generell ist ein Cluster eine recht komplexe Umgebung wo es nicht mit dem "Zusammenstöpseln zweier PC" getan ist. Vor allem im HA-Bereich muss auch im gesamten Umfeld eines solchen Clusters nach sog. SPOF (Single Point of Failure) gesucht werden, da z.B. fehlende Redundanz in der Administration (Admin auf Malediven im Urlaub - Cluster down: go imagine

) weitaus häufiger ist als Defekte in der Hardware.
Könnte jetzt noch stundenlang weiterschreiben, aber das würde wohl 99.999% der Personen hier zu komplex und langweilig werden *grins*
Gruss
Dominik