Jump to content

Wartungsfenster


Elrond

Recommended Posts

Hallo,

 

unsere Server ziehen in der Nacht vom 20. auf den 21.09. innerhalb des Provider-Rechenzentrums um. In der Zeit von 0:00 Uhr und 06:00 Uhr wird das Forum (wie auch kath.de) nicht erreichbar sein.

 

so long

elrond

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hallo,

 

unsere Server ziehen in der Nacht vom 20. auf den 21.09. innerhalb des Provider-Rechenzentrums um. In der Zeit von 0:00 Uhr und 06:00 Uhr wird das Forum (wie auch kath.de) nicht erreichbar sein.

 

so long

elrond

Sind wir jetzt eigentlich erfolgreich umgezogen?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ja, unschoenerweise sogar schon in der Nacht vom 19. auf den 20. Da war das Forum fuer 2h down.

Toll! Das habe ich gar nicht mitbekommen. Gibt es denn Änderungen? Ich meine sichtbare Änderungen?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ja, unschoenerweise sogar schon in der Nacht vom 19. auf den 20. Da war das Forum fuer 2h down.

Und niemand hat's gemerkt???? :lol:

Link zu diesem Kommentar
Auf anderen Seiten teilen

Franciscus non papa
Nein, nein, Umzug heisst in diesem Fall: Nehme Rechner aus Rack, schleppe ihn in andere Halle, baue Rechner in neues Rack.

ach, wenn doch alle umzüge so einfach wären.... *seufz*

Link zu diesem Kommentar
Auf anderen Seiten teilen

Nein, nein, Umzug heisst in diesem Fall: Nehme Rechner aus Rack, schleppe ihn in andere Halle, baue Rechner in neues Rack.

ach, wenn doch alle umzüge so einfach wären.... *seufz*

Jaaaaaaaaa! Ich möchte auch mal so umgezogen werden. Bei mir steht demnächst nämlich ein Umzug an. :lol:

Link zu diesem Kommentar
Auf anderen Seiten teilen

Jaaaaaaaaa! Ich möchte auch mal so umgezogen werden. Bei mir steht demnächst nämlich ein Umzug an. :lol:

Du solltest vielleicht einmal deine Einstellung zur Hygiene überdenken... :ph34r:

Link zu diesem Kommentar
Auf anderen Seiten teilen

Jaaaaaaaaa! Ich möchte auch mal so umgezogen werden. Bei mir steht demnächst nämlich ein Umzug an.  :lol:

Du solltest vielleicht einmal deine Einstellung zur Hygiene überdenken... :ph34r:

Hä? Das verstehe ich nun nicht? Bitte um Erklärung!

Link zu diesem Kommentar
Auf anderen Seiten teilen

Nein, nein, Umzug heisst in diesem Fall: Nehme Rechner aus Rack, schleppe ihn in andere Halle, baue Rechner in neues Rack.

ach, wenn doch alle umzüge so einfach wären.... *seufz*

Jaaaaaaaaa! Ich möchte auch mal so umgezogen werden. Bei mir steht demnächst nämlich ein Umzug an. :lol:

Passt Du denn in ein 19-Zoll Rack?

sun-storage-array-front.jpg

Link zu diesem Kommentar
Auf anderen Seiten teilen

Nein, nein, Umzug heisst in diesem Fall: Nehme Rechner aus Rack, schleppe ihn in andere Halle, baue Rechner in neues Rack.

ach, wenn doch alle umzüge so einfach wären.... *seufz*

Jaaaaaaaaa! Ich möchte auch mal so umgezogen werden. Bei mir steht demnächst nämlich ein Umzug an. :lol:

Passt Du denn in ein 19-Zoll Rack?

sun-storage-array-front.jpg

:) Noch nicht. Aber ehrlich gesagt, möchte ich das auch nicht. *Bauchstreichel* a055.gif

Link zu diesem Kommentar
Auf anderen Seiten teilen

Seufz ... so ein Platten-Array haette ich auch gerne.

 

*sabber*

Lieber Elrond:

 

Leider kann ich Dir das folgende Array nicht schenken; aber da es m.W. nicht mehr benutzt wird, koenntest Du ja mal fragen, ob Du es nicht billig gebraucht kaufen kannst. Abholen ist kein Problem mit einem Kleinlaster - es ist in der Franzoesischen Schweiz.

 

Das sind uebrigens 30TB, ueber iSCSI angeschlossen, mit eingebauten Cluster-Filesystem. Wenn Du genug Netzwerk-Bandbreite hast, kannst Du das Ding dauernd bei 1GByte/s lesen oder schreiben (wir haben's eine Woche lang probiert, und es klappt sogar wenn waehrenddessen ein paar Laufwerke sterben). Der Herr zur Rechten ist mein lieber Kollege Wayne. Wir sehen beide ziemlich uebernaechtigt aus (sowohl Jet-Lag, als auch ein paar Tage lang beinahe rund im die Uhr gearbeitet um das Ding ans Laufen zu kriegen).

 

0310007_02.sml.jpg

 

Gruesse,

Ralph

Link zu diesem Kommentar
Auf anderen Seiten teilen

CERN ... hmm ... kommen da Detektor-Daten drauf?

 

Was ist eigentlich der Vorteil von iSCSI im Vergleich zu Fibre-Channel-SANs? OK, es wird wahrscheinlich billiger sein, weil man auf Standard-Ethernet-Komponenten setzen kann, aber wuerde man auch ein solches Array wie dieses hier per Kupfer anbinden?

 

Laut diversen Analysten ist iSCSI bzw. Storage-enabled IP Networks eine DER Zukunftstechnologien im Speichermarkt. Warum? FC ist erprobt und aehnlich schnell?

Link zu diesem Kommentar
Auf anderen Seiten teilen

CERN ... hmm ... kommen da Detektor-Daten drauf?

Jupp. Dies hier ist eine Prototyp; das echte Produktions-Modell wird im Jahr 2008 ungefaehr 100x so gross sein (und wird wahrscheinlich nicht von der gleichen Firma hergestellt, da wir zu teuer sind).

 

Was ist eigentlich der Vorteil von iSCSI im Vergleich zu Fibre-Channel-SANs? OK, es wird wahrscheinlich billiger sein, weil man auf Standard-Ethernet-Komponenten setzen kann, aber wuerde man auch ein solches Array wie dieses hier per Kupfer anbinden?

 

Laut diversen Analysten ist iSCSI bzw. Storage-enabled IP Networks eine DER Zukunftstechnologien im Speichermarkt. Warum? FC ist erprobt und aehnlich schnell?

 

Ganz zynisch koennte ich das so beantworten: Eine FC-Karte kostet $800; eine Gig-E Karte kostet im Sonderangebot $19.99, und ist bei den meisten Motherboards schon kostenlos drauf. Ein 32-Port FC Switch (von Brocade oder McData) kostet $25000; ein 8-Port Gig-E Hub kostet $100, und mit 5 davon hat man 32 Ports. Und FC benoetigt in der Praxis Glasfaser-Verkabelung; die ist zwar weder besonders schwierig noch besonders teuer, aber nichts ist so billig wie Ethernet-Verkabelung (weil sie ueberall zu kriegen ist, und jeder Halbaffe sie installieren und warten kann).

 

OK, in der Praxis ist dieser Kostenvergleich natuerlich nicht ganz fair. Der billige gig-E Chip auf dem Motherboard hat keinen TCP-Assist (keine TOE oder TCP Offload Engine), und verbraet ungefaehr 1/2 GHz CPU-Geschwindigkeit; da aber auf dem Motherboard schon eine oder zwei 3GHz-CPUs draus sind, ist das kein riesiges Problem. Und FC laeuft heutzutage auf 2Gbit/s, waehrend Ethernet noch auf 1Gbit/s laeuft - aber fuer einen 1U rackmount Computer ist das wahrscheinlich egal; fuer die sind 100 MByte/s Bandbreite zur Platte gut genug und kostenguenstig. Und mit fuenf billigen Ethernet-Hubs aus dem Mediamarkt kann man kein stabiles, verwaltbares Netz bauen das auch unter hoher Belastung funktioniert; aber fuer viel weniger Geld als $25000 kann man sich einen wirklich guten Ethernet-Router kaufen.

 

Das groessere Kostenproblem bei FC liegt woanders. FC ist heutzutage eine Boutique-Technologie. Teuer, und schwer zu verwalten. Und nor Speicher-Leute kennen sich damit aus. Die echten Kosten sind also weniger in der Ausruestung, sondern in den Personal- und Wartungskosten. Und jeder Rechner braucht sein Ethernet sowieso; mit iSCSI (oder aehnlichen Technologien, manche Cluster-Filesysteme wie Lustre oder GPFS kommen auch ohne iSCSI aus, und lassen ihre Daten mit ihren eigenen Protokollen rumlaufen) kann man das eine Substrat Ethernet sowohl fuer Anwenderdaten, Systemverwaltung und fuer Storage verwenden. Und mit VLANs und QoS kann man einigermassen dafuer sorgen, dass diese verschiedenen Nutzer des Ethernets sich nicht zu sehr in die Haare kommen.

 

Genau deswegen waren wir so sehr daran interessiert, am CERN mal ein richtig grosses iSCSI/Ethernet Speicher-System auszutesten (30GB, beinahe 400 Laufwerke, ungefaehr 20 Hosts in der Speicherung, ungefaehr 200 Hosts fuer die Anwendungen, und ein absolut massiver Router in der Mitte): Um zu beweisen, dass auch mittelgrosse Speichersysteme sich ueber iSCSI machen lassen, und dann sehr sehr kostenguenstig und gut zu verwalten sind. Und zwar nicht im Labor eines Herstellers (da kann man sich alles moegliche zusammenluegen), sondern beim Endbenutzer; zum Glueck ist CERN fuer sowas der ideale Endbenutzer, die sind naemlich wirklich super-gut drauf, haben viel Ahnung, und auch viel Geduld (es hat naemlich eine ganze Weile gedauert, bis wir die verschiedenen Kinderkrankheiten des Systems geheilt hatten).

 

Andererseits: Wenn ich morgen einer Bank oder einer Versicherung sagen muesste, wie sie ihr SAN bauen soll, dann wuerde ich auf jeden Fall Fibre Channel sagen. Das ist zwar in allen Aspekten teurer, aber man braucht keine 15 Doktoren der Informatik und der Physik, um es zum Laufen zu kriegen. Fuer das wissenschaftliche RechenZentrum einer Gentechnik-Firma, die sehr viel CPU- und Speicher-Kapazitaet fuer weniger Geld braucht, koennte die Antwort ganz anders ausfallen.

 

Der echte Durchbruch von iSCSI (oder allgemeiner, Storage-Protokolle ueber IP) wird erst kommen, wenn 10gigE kostenguenstig zu haben ist. Das wird erfordern, dass alle Endgeraete einen TOE haben, weil sonst die gesamte CPU-Power fuer das Netzwerk-Protokoll verbraten wird. Und es erfordert, dass 10gigE ueber Kupferkabel vernuenftig funktioniert. Der erste Teil (TOE fuer 10 Gigabit) funktioniert bereits hervorragend im Labor, und die ersten Produkte (zu astronomischen Preisen) kommen auf den Markt; der zweite Teil (Kupfer) ist noch im Versuchsstadium. Wenn das erst mal alles fluppt, dann sollte man alle Aktien in FC-Herstellern (Brocade, McData, Emulex, QLogic ...) schnellstens verkaufen.

 

Ich fuerchte, ich habe soeben alle Foranten ausser Elrond zu Tode gelangweilt. Eine besonders ueble Art zu sterben.

 

Gruesse,

Ralph

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Neu erstellen...