Anzeige Techniker im Rechenzentrum: Viel mehr als nur Server schrauben tagein, tagaus [Anzeige]

Ich war in meiner Ausbildung relativ häufig in Rechenzentren, um unsere Server auszubauen und andere einzubauen. War gerade mit U18 wirklich sehr cool, der Krach war mir ziemlich egal.
Würde ich aber nicht jeden Tag machen wollen, muss ich gestehen:hammer_alt:
 
fej1965 schrieb:
Bin als Planer/Projektleiter von Großbaustellen tätig. Ich würde mal behaupten, dass die Geräuschkulisse dort deutlich höher ist, als in jedem Serverraum irgendwo auf der Welt. Für mich sind die Bohr-, Bagger-, Abbruch-, sonstige Geräusche "Musik" in den Ohren. Das muss man spüren, das lebt man aus...
Ich mein ich hab sonst auch kein Problem damit im Serverraum zu sein.
Aber das ist auch eine Gewohnheitssache, und damit meine ich nicht nur den potenziellen Hoerschaden.
Wenn man sonst vielleicht zweimal in der Woche eine halbe Stunde im RZ ist, dann ist ein voller Arbeitstag schon was anderes.
 
  • Gefällt mir
Reaktionen: Dimensionday
Thema ÖD ihr weist Stufe 5 ist nach 10 Jahres Berufserfahrung..
Ich war bei eine Kommune knapp 5 Jahren und nur 9a stufe 3-4(Softwareverteilung/1st und 2nd Level Support/MDM/AD/WSUS, Ausbilder usw) da könntest du nie auf 9b/10 Kommen ohne Studium...(was total bs ist weil die Studierten kam nur mit fast kein Berufserfhrung und müssten den immer "Ausbaden")
Jetzt bei eine Uni seit Anfang 2024 (das mit 53 Jahren alt!) 9b Stufe 5 (nächstes Jahr knapp 60k ) für SERVICEDESK.... lol(aber mit SAP Betreuung muss ich hinweisen)

RZ Techniker kann gut bezaht sein wenn zb bei Oetker usw bist.
ÖD meistens 8 oder 9a

@snaxilian in Bund/Land/Kommunen gibt es kein 9c in IT entweder 9b oder 10
 
  • Gefällt mir
Reaktionen: snaxilian
Es kommt auf das Rechenzentrum an, wie dort die Arbeit organisiert ist.
Die Techniker mit entsprechenden Gerätezertifizierungen werden nur in seltenen Fällen Kabel ziehen.
Oft haben nur externe Dienstleister entsprechende Zertifizierungen, weil die teils recht aufwändig und teuer sind (Beispiel Cisco). Gehörschutz ist ein Muss, am besten mittels frequenzkorrigierter Ohrstöpsel, die gibt es mit verschiedenen Filtereinsätzen.
Spannender kann es sein, wenn man nicht direkt im Datacenter arbeitet, sondern als externer Dienstleister entweder implementiert oder beim Betrieb beratend unterstützt.
 
chillipepper schrieb:
Die Techniker mit entsprechenden Gerätezertifizierungen werden nur in seltenen Fällen Kabel ziehen.
Leider.....

Wenn du 100G+ als DAC hast, dann gelten da recht harte Anforderungen an Biegeradien usw. Leider wird das oft nicht beachtet, was dann entweder direkt kaputte Kabel zur Folge hat oder für Probleme im Betrieb sorgt.

Auch Kabel ziehen ist in einem modernen Rechenzentrum nicht ohne.

Ich habe erst zuletzt einen Dienstleister 10+ Racks komplett neu verkabeln lassen, weil Sie es verbockt haben. Danach mussten dann auch nochmals 3-5 Kabel komplett getauscht werden da defekt....

Also zumindest bei den High Density Racks die ich normal habe sollten das nur Profis machen und keine Hilfsarbeiter oder Azubis bzw wenn dann nur nachdem man mit denen mal 1-2 Racks komplett gemeinsam gemacht hat.

Bei 2U4N bzw Blade Kisten kommt dann auch noch hinzu das Blades Im gewartet werden können müssen. Das macht dir Verkabelung teils auch herausfordernd.

Von HotSwap für Fans reden wir lieber nicht. Das bekommt eigentlich keiner hin das so zu verkabeln, dass das geht. Habe ich ehrlich gesagt aber auch kein großes Vertrauen in den normalen Mitarbeiter, dass da nichts kaputt geht.
 
Skysnake schrieb:
Von HotSwap für Fans reden wir lieber nicht.
Wir haben frueher immer diese unseligen Kabelarme an den Servern gehabt, damit man sie im laufenden Betrieb aus dem Rack ziehen konnte.
Es gab in den ersten 10 Jahren einen Fall, bei vielleicht 50 physikalischen Servern, das wir im laufenden Betrieb an die Buechse ran mussten. Und selbst das haetten wir aufschieben koennen um den Server abends herunterzufahren.
Im Gegenzug haben uns diese Arme aber die Temperaturen komplett vermiest. Ein volles Rack war von hinten eine Wand von Kabeln, was fuer den Airflow natuerlich eine Katastophe ist.
Im alten Serverraum, der klassisch nach "viel hilft viel" auf <18 Grad Raumtemperatur gezogen wurde fiel das nicht so auf, nach dem Umzug ins richtig designte RZ mit 25 Grad "Kaltgang" Temperatur wurde es zu viel.

Also weg mit den Armen :D
Wenn was an einem Server gemacht werden muss wird er halt heruntergefahren. Es laufen eh fast nur noch ESX Hosts, da ist in den Clustern genug Reserve das wir mindestens einen herunterfahren koennen.
Die Storageserver die man aus dem Rack ziehen muss um an alle Platten zu kommen, haben interne Kabelketten.


Skysnake schrieb:
Wenn du 100G+ als DAC hast, dann gelten da recht harte Anforderungen an Biegeradien usw.
Urg, ja. Beim LWL weiss jeder das man sie nicht knicken darf.
Das 400G QSFP optische DAC Kabel wird behandelt als waere es ein raeudiges Stromkabel. Dummerweise kostet das DAC Kabel mehrere tausend Euro...
 
pookpook schrieb:
Unsere IT´ler erhalten alle mind. 9a/9b, teilweise auch 10 und jeder bekommt 500,- bis 680 pauschal Zulage.
Ergänzung ()

Ranayna schrieb:
Ich mein ich hab sonst auch kein Problem damit im Serverraum zu sein.
Aber das ist auch eine Gewohnheitssache, und damit meine ich nicht nur den potenziellen Hoerschaden.
Wenn man sonst vielleicht zweimal in der Woche eine halbe Stunde im RZ ist, dann ist ein voller Arbeitstag schon was anderes.
Ich sag ja, ich möchte nicht tauschen. Liebe meinen Baustellenlärm. Habe auch für Großbank schon Rechzentrum gebaut, und war während der Inbetriebnahme konstant in dem Bunker anwesend. Also täglich möchte ich da nicht in dem Loch 20 m unter der Erde stecken, durch Sicherheitsschleusen, Überwachung, totale Öde, wenig soziale Begegnungen, und, und... da kommt man ja abends wie ein Kumpel aus dem Bergstollen.
 
Zuletzt bearbeitet:
fej1965 schrieb:
da kommt man ja abends wie ein Kumpel aus dem Bergstollen.
Das ist im Winter tatsaechlich total Krass finde ich.
Im RZ ist es so hell, und man hat keine Fenster, das es jedesmal schon fast eine Ueberraschung ist, wenn es waehrend man drin war draussen dunkel geworden ist.
 
Ranayna schrieb:
Im alten Serverraum, der klassisch nach "viel hilft viel" auf <18 Grad Raumtemperatur gezogen wurde fiel das nicht so auf, nach dem Umzug ins richtig designte RZ mit 25 Grad "Kaltgang" Temperatur wurde es zu viel.
So viel Unterschied machen die 7 Grad jetzt aber nicht. Normal sind die Geräte bei ~30°C Ambiente ausgelegt. Manche auch bei 35 Grad. In so nem Standard Server oder Chassis. Also vorn bis 30°C rein.
Was hinter dem System passiert, ist dann eher abhängig davon, ob da noch was baumelt, was mit der Abluft-Temperatur Probleme hat.
GBics in Switches oder Servern sind auch 95 Grad fest. Die Kabel stört das auch nur bedingt. Das muss man erstmal erreichen. Damit die Abluft im 90er Bereich ist, kocht das System intern schon massiv. 7 Grad weniger Ansaugluft vorn würden dann irgendwie fast nix bringen. Hast du halt 85 Grad Abluft. Wenn nicht sogar fast gar keine Absenkung, da die Lüfter dann im Zweifel niedriger drehen.

Ich denke eher der Unterschied ist hier, dass das besagte richtig gesignte RZ mit dem Kaltgang halt dem Namen auch gerecht wird. Also wie im Artikel auch im Bild zu sehen, der Kaltgang auch zu ist, sodass die kühle Ansaugluft auch nur dort ist wo sie sein muss. Anstatt stumpf den ganzen Raum durch abfallende (Wandgeräte) oder über Doppelboden oder im Rack unten im Boden kühl zu "pressen". Da werden dann üblicherweise in den Racks alle Öffnungen verschlossen wo es eben geht. Die Kabelführungen mit so "Besen-like" Borsten zugehangen, damit eben möglichst nur kühle Luft durch Geräte geschoben wird.
Hinten steigt der Spaß dann auf und wird dann abgesaugt.
Ranayna schrieb:
Wenn was an einem Server gemacht werden muss wird er halt heruntergefahren. Es laufen eh fast nur noch ESX Hosts, da ist in den Clustern genug Reserve das wir mindestens einen herunterfahren koennen.
Die Storageserver die man aus dem Rack ziehen muss um an alle Platten zu kommen, haben interne Kabelketten.
Die Kabelarme haben halt den entscheidenden Vorteil, dass du die Kabel nicht ziehen musst. Das ist nicht unbedingt nur wegen laufendem Betrieb der Fall, sondern eher auch ein Vorteil dass man Steckverbindungen nicht lösen muss. Je nachdem... Ich hab in der Vergangenheit mehr Störungen durch Wackler durch Neustecken/Arbeiten im laufenden Betrieb gehabt als durch echte Hardware Ausfälle. Weil halt auch eingerastete Steckverbindungen nicht vollends passgenau sind sondern alles irgendwo bisschen Spiel hat.
Ranayna schrieb:
Das 400G QSFP optische DAC Kabel wird behandelt als waere es ein raeudiges Stromkabel. Dummerweise kostet das DAC Kabel mehrere tausend Euro...
Naja, das besondere daran ist ja nicht das Kabel. Sondern eigentlich, dass es vorn wie hinten den GBic ersetzt. Das macht es teuer, weil die Module kosten Geld - die reine Faser ist spottbillig. Aber halt das anfällige an so einem Kabel.
Man könnte ja stattdessen auch Standard Steckverbinder nehmen und die GBics mit nem günstigen Kabel verbinden. Rammelt das dann wer kaputt, tauscht man es einfach und fertig.



Für die, die damit nichts anfangen können. Das ist in etwa wie ein PC/Notebook mit Steckbaren RAM und steckbarer SSD ggü. einem mit fest verlötetem RAM und SSD. Rammelt wer die SSD oder den RAM kaputt, schmeißt man alles weg. Dabei kann so ein Speicherbaustein spottbillig sein ggü. Board, CPU, ...

Man muss am Ende abwägen. Wir kaufen in aller Regel auch DAC - aber selten 400G XD. 10/25 oder 40/100G. Das ist preislich im Rahmen und bei kurzen Distanzen ist das meist auch einfach Kupfer anstatt LWL.
 
fdsonne schrieb:
Naja, das besondere daran ist ja nicht das Kabel. Sondern eigentlich, dass es vorn wie hinten den GBic ersetzt. Das macht es teuer, weil die Module kosten Geld - die reine Faser ist spottbillig. Aber halt das anfällige an so einem Kabel.
Du weisst das, ich weiss das, wer sich auskennt weiss das. Aber wenn man, und darauf wollte @Skynake vermutlich hinaus, hauptsaechlich bessere HiWis das RZ verkabeln laesst, weil die richtigen Fachkraefte zu teuer sind, kommen halt kaputte Kabel bei raus. Vermutlich wuerde es sich bei einem 400G DAC sogar lohnen das Kabel reparieren zu lassen, aber zum Glueck war das bei uns noch nicht noetig :D

Das ein Glasfaserkabel nicht geknickt werden darf, weiss (hoffentlich) jeder der einen Fuss in ein RZ setzen darf. Und die erkennt man ja eindeutig.
Das es auch bei Kupferkabeln Biegeradien gibt die man tunlichst einhalten sollte, ist dann vielen schon nicht mehr so klar.
DACs sind (zumindest die, die ich kenne) auch wenn sie optisch sind, schwarz ummantelt.
Das merkt man schon das mit solchen Kabeln die nicht zerbrechlich aussehen, rauher umgegangen wird.
 
Ranayna schrieb:
Du weisst das, ich weiss das, wer sich auskennt weiss das. Aber wenn man, und darauf wollte @Skynake vermutlich hinaus, hauptsaechlich bessere HiWis das RZ verkabeln laesst, weil die richtigen Fachkraefte zu teuer sind, kommen halt kaputte Kabel bei raus. Vermutlich wuerde es sich bei einem 400G DAC sogar lohnen das Kabel reparieren zu lassen, aber zum Glueck war das bei uns noch nicht noetig :D
Ist doch am Ende aber eine Frage der Haftung?
Ich mein, wers kaputt macht, zahlt für den Schaden... In eigentlich fast egal welcher Position in dieser Situation, kann es mir doch total egal sein? Außer ich bin der Jenige, der die Strippen zieht und den Schaden macht oder der, der diese Fuscher beschäftigt und den Auftrag für den Job erhalten hat.

Den Rest regeln doch Verträge? Zumindest kenne ich das bisher so.
Ich wollte damit halt primär aussagen, dass der Fokus auf diese DAC Teile eigentlich nur bedingt sinnig ist, weil nicht die LWL Strippe drinnen das teure ist, sondern die Module. Als Auftraggeber könnte ich auch die GBics in die Systeme stecken und ein günstiges Kabel ziehen lassen. Nur zahle ich dann für diese "Sicherheit" im Zweifel den Aufpreis. -> meist ist das ja teurer als DAC.


Aus meiner Sicht ist die ganze Thematik mit den Kabel so in dem Zusammenhang etwas überdramatisiert. Bzw. die weiter oben Beteiligten reden eher aneinander vorbei.
Mich dünkt, dass die initiale Aussage von den Strippenziehern ohne Zertifizierung eher auf den Aufbau des RZs zurückzuführen ist. Während dann am Ende mit deinem Beispiel, das 400G DAC Modul/Kabel doch ne ganz andere Baustelle ist. Denn wird dort wer via HandsOn Service beauftragt, so ein Kabel zu stecken, kommt ganz sicher nicht der Kabelboy, der die Kabel beim Bau des RZs durch die Kanäle geschossen hat. Auch die Aussage zu der Cisco Zertifizierung? -> was soll man da zertifizieren? Wie man ein Kabel steckt? Niemand braucht ne Zertifizierung für nen HandsOn Service. Da muss dann eher der RZ Betreiber drauf achten, seine MA entsprechend zu schulen. Und wenn extern, eben drauf achten, dass da keine Fuscher kommen. Und wenn doch -> siehe oben, Verträge regeln.
Ich kenne noch Fälle, wo Dritte Parteien beauftragt werden, in einem RZ für den Kunden, Dinge durchzuführen. Klassisch Dienstleistungstätigkeit. Aber das ist auch wieder so ein Ding - taugt der Dienstleister nicht, weil die Putzfrau die Strippen stecken soll, muss man das vertraglich eben regeln. Oder sich nen anderen Dienstleister suchen.

Ich hatte mal den Fall, das eine RMA von einem Server Board durch eine Firma vom Hersteller des Servers beauftragt wurde, wo mir der Techniker die CPU Kühler um 90 Grad zum Luftstrom falsch drauf geschraubt hatte. S2011 war das möglich. Ich hab das dann selbst gefixt - aber im Zweifel wäre der "Techniker" oder halt eine fähigere Person wieder angetanzt um das zu fixen.
 
Zuletzt bearbeitet:
fdsonne schrieb:
Normal sind die Geräte bei ~30°C Ambiente ausgelegt. Manche auch bei 35 Grad.
Ähm nein. Die meisten heutigen Server sind auf 25max ausgelegt. Viele sogar nur noch auf 20 max. Die Zeiten sind vorbei in denen unnötig gekühlt wurde.
fdsonne schrieb:
Man muss am Ende abwägen. Wir kaufen in aller Regel auch DAC - aber selten 400G XD. 10/25 oder 40/100G. Das ist preislich im Rahmen und bei kurzen Distanzen ist das meist auch einfach Kupfer anstatt LWL.
Ähm...

Ich glaub da muss man mal ein paar Begrifflichkeiten gerade rücken...

DAC: DirectAttachedCopper das ist ein passives Kupferkabel
ACC: ACopperCable auch Kupfer aber mit aktiven Komponenten im Kabel
AOC: ActiveOpticakCable wie ACC aber mit LWL statt Kupfer.

DAC, ACC und AOC gibt es dann jeweils noch als Fan out Cables.

Bei den bisherigen sind Kabel und Stecker immer fest verbunden und als Patch Kabel vorgesehen.

Daneben gibt es noch die Transciever wo Stecker und Kabel getrennt sind

fdsonne schrieb:
Ich mein, wers kaputt macht, zahlt für den Schaden... In eigentlich fast egal welcher Position in dieser Situation, kann es mir doch total egal sein
ähm und als Eigentümer hast du den Stress...

Vor allem musst du im Zweifel auch nachweisen, dass die Kacke gebaut haben.

Und die echten Probleme sind keine angescherten Kabel sondern die, die zwar noch tun aber nicht mehr innerhalb der Speck und dann zu hohe Fehlerraten auftreten was Link euros verursacht oder retransmits oder link downgrades. Tut zwar noch aber nicht mehr richtig.

fdsonne schrieb:
Außer ich bin der Jenige, der die Strippen zieht und den Schaden macht oder der, der diese Fuscher beschäftigt und den Auftrag für den Job erhalten hat.
Nein siehe oben. Und beim Aufbau musst du eben Kontrollieren weil sonst Mist rauskommt der dir den Betrieb über Jahre erschwert wegen höherer Ausfalraten.

Wenn du ne Hand voll Server hast scheiß drauf. Bei hunderten oder tausenden bekommst du das Kotzen...

fdsonne schrieb:
Ich wollte damit halt primär aussagen, dass der Fokus auf diese DAC Teile eigentlich nur bedingt sinnig ist, weil nicht die LWL Strippe drinnen das teure ist, sondern die Module. Als Auftraggeber könnte ich auch die GBics in die Systeme stecken und ein günstiges Kabel ziehen lassen. Nur zahle ich dann für diese "Sicherheit" im Zweifel den Aufpreis. -> meist ist das ja teurer als DAC.
Siehe oben,falsche Begrifflichkeiten.

GBics sind völlig uninteressant. Bei >=100G ist das ne ganz andere Sache. Wie gesagt, da haben selbst simple DAC Kabel von Mellanox Biegeradien für die Kabel an sich als auch für die Kabel am Stecker....

fdsonne schrieb:
Niemand braucht ne Zertifizierung für nen HandsOn Service
Ha ha, der war gut.

Dann lass mal jemanden ne SMX GPU tauschen. Die 4er und 8er Boards dürfen von vielen Herstellern gar nicht in field angefasst werden sondern werden komplett nach Asien geschickt....

Wenn da einer ne einzelne GPU tauschen darf, dann darf er sich freuen.

Ich kenne keinen Hersteller der nicht mit ein SMX Produkt hat, das nicht direkt an nVidia gehen muss.

Und das Teug geht deutlich öfter kaputt als die PCIe GPUs. Leider...
 
Ich finde die Computerbase Server und deren Hoster spitze.

Kaum eine Seite lädt so schnell wie CB.

Auch die Arbeit in einen Rechenzentrum könnte mir gefallen.

Das ganze Jahr in klimatisierten Räumen arbeiten, keine nervigen Mitmenschen, und wenn, dann hört man sie nicht. :D
 
Skysnake schrieb:
Ähm nein. Die meisten heutigen Server sind auf 25max ausgelegt. Viele sogar nur noch auf 20 max. Die Zeiten sind vorbei in denen unnötig gekühlt wurde.
? Was meinst du jetzt?
Ich spreche vom Ambiente Sensor, der vorn im Ansauglufttrakt steckt. Fujitsu gibt bei aktuellen Primergy Modellen bspw. 30°C an. Mache auch mit 35.
https://sp.ts.fujitsu.com/dmsp/Publications/public/ds-py-rx2540-m7-en-rh.pdf
da bspw. nachzulesen. Das sind Standard 0815 Server.

Der zweiter Satz ergibt aber keinen Sinn - um so niedriger die Ambiete Schwelle, desto höher doch der Kühlaufwand. Also mehr zugesicherte Temperatur = besser, weil weniger gekühlt werden muss?
Ich meine mich zu erinnern, dass das früher mal niedriger war. 25 hab ich im Hinterkopf. Aber frag mich nicht wo und bei was genau.
Skysnake schrieb:
Ich glaub da muss man mal ein paar Begrifflichkeiten gerade rücken...
Ne, brauchst du nicht, ist mir vollends bewusst. Ich sprach von DAC 10/25G Versionen. Also Kupfer als direct attached. -> deswegen sagte ich auch "wir kaufen in aller Regel". Selten kommen wir auf große Distanzen, wo Kupfer Probleme macht oder müssen so hoch mit der Bandbreite, dass wir wie die angesprochenen 400G verkabeln müssen.

Je nachdem wie Hersteller spezifisch das ist - unsere Leute verbauen teils fs.com Produkte. Da zahlste nen Appel und ein Ei für so nen 100G Strang. Wie gesagt, bezogen auf die Aussage zu den 400G Verbindung tausende Euro.
Skysnake schrieb:
ähm und als Eigentümer hast du den Stress...

Vor allem musst du im Zweifel auch nachweisen, dass die Kacke gebaut haben.
Na einen Tod und so ;)
Ich mein, entweder du machst es selbst - dann bist du selbst verantwortlich. Oder du beauftragst einen.

Auch ob man da nen Nachtest macht oder Messungen - zumindest dort wo es geht, lässt sich ja vertraglich regeln. Früher was sowas mal gängige Praxis mit nem Kabeltester die Strippen durchzumessen. Keine Ahnung wie das heute ist...
Die LWL Strippen in unseren RZ, die durch die Hütte gehen oder aktiv durch die Republik geschalten sind, wurden zumindest mit Protokoll "geschalten". Also es gab eine Abschlussmessung. Allerdings buchten wir dort in aller Regle ein Produkt mit garantierter Bandbreite.
Skysnake schrieb:
GBics sind völlig uninteressant. Bei >=100G ist das ne ganz andere Sache. Wie gesagt, da haben selbst simple DAC Kabel von Mellanox Biegeradien für die Kabel an sich als auch für die Kabel am Stecker....
GBics kommen ja ins Spiel, wenn du die Kabel günstig haben willst. Zumindest da wo es das gibt. Im Ethernet Umfeld geht das häufig.
Biegeradien sind natürlich immer ein Thema. Aber so ein AWG30 für 100G - wo liegt da der Biegeradius? Um die 30-35mm? Das ist jetzt nicht wirklich sooo riesig. Da muss man sich schon anstellen um das kaputt zu bekommen. Dünner und ggf. kürzer gibts sowas auch mit 20mm.
Skysnake schrieb:
Ha ha, der war gut.

Dann lass mal jemanden ne SMX GPU tauschen. Die 4er und 8er Boards dürfen von vielen Herstellern gar nicht in field angefasst werden sondern werden komplett nach Asien geschickt....
Das ist Hersteller Sache. HandsOn meint hier die Verkablung des Systems (außen). Spezielle Arbeiten, wie nen Tausch einzelner Einheiten in einem vielleicht noch zertifizierten System - das ist doch nix für 0815 HandsOn, wo der einfache Techniker gerufen wird.

Entweder du nimmst den Support vom Hersteller - der schickt dir nen Techniker oder einen aus einer Firma, den er selbst beauftragt oder du buchst auf eigene Faust? nen HandsOn - aber dann musst du dich halt auch kümmern. Freilich ist es dann natürlich auch dein Verantwortungsbereich... Wie gesagt oben das Beispiel mit dem falsch montierten CPU Kühler bei ner RMA von nem Board. Sowas passiert halt wenn die Leute keine Ahnung haben. Bei unseren NetApps hat seinerzeit mal der Azubi die Speichermodule im laufenden Betrieb getauscht - da hatte ich bissi Bammel. Aber er hats geschafft. Jahre später ist der auch älter und erfahrener geworden.
Skysnake schrieb:
Siehe oben,falsche Begrifflichkeiten.
Sorry, ich verwendete fälschlicherweise DAC als Synonym für direct attached. Gemeimt war ein Kabel mit Modulen. Du hast vollkommen Recht, es ist der falsche Begriff dafür. Man möge es mir nachsehen, da es nur bedingt an den Aussagen was ändert.
Ergänzung ()

IBISXI schrieb:
Das ganze Jahr in klimatisierten Räumen arbeiten, ...
Unterschätz das mal nicht - hinter den Systemen ist es nicht sonderlich kühl XD Eher im Gegenteil. Es ist schon sehr belastend, wenn du von kalt in warmgang und umgekehrt hin und her laufen musst.
 
fdsonne schrieb:
? Was meinst du jetzt?
Das nen großer Teil der Server eben nicht mehr so betrieben werden kann.
fdsonne schrieb:
Ich spreche vom Ambiente Sensor, der vorn im Ansauglufttrakt steckt.
Ich auch.
fdsonne schrieb:
Fujitsu gibt bei aktuellen Primergy Modellen bspw. 30°C an. Mache auch mit 35.
https://sp.ts.fujitsu.com/dmsp/Publications/public/ds-py-rx2540-m7-en-rh.pdf
Du hast den folgenden Satz gelesen?
There could be
configurations that are not able to work within this normal operation class. Please use the Fujitsu WebArchitect
(www.fujitsu.com/configurator/public) to get detailed information on the corresponding configurations.
Das heißt ganz schnell keine oder nur wenige Platten verbaut. Keine 100G+ nic verbaut, keine High TDP CPUs verbaut usw usf. Und da reden wir von heute, wo es schon erste SKUs gibt, die du gar nicht mehr mit Luft betreiben kannst. Mit 2U1N geht das noch halbwegs. Mit 1U1N wird die Liste was alles nicht mehr geht schon ganz ansehnlich und mit 2U2N hast du inzwischen sogar so Späße, wo die größten Netzteile keine Redundanz mehr unter Last haben weil die Power nicht ausreicht.

Das wird in den nächsten 2 Jahren noch viel viel schlimmer....

fdsonne schrieb:
da bspw. nachzulesen. Das sind Standard 0815 Server
das ist ne dicke Büchse, die nur sinnvoll ist, wenn du GPUs, FPGAs oder sonst was rein packst.

Alternativ vielleicht noch als NVMe Büchse, wobei das dann schon eher zu wenig Potenzial für die Anbindung ins Netzwerk hast. Da sind 1U tendenziell interessanter meiner Meinung nach.

fdsonne schrieb:
Der zweiter Satz ergibt aber keinen Sinn - um so niedriger die Ambiete Schwelle, desto höher doch der Kühlaufwand.
genau, aber wenn sonst sie CPU verglüht?

Ich habe z.b. ganz tolle 1U Server die bei 90+ lamden wenn ich die richtig trete und das trotz 100% fan und 20 Grad.

fdsonne schrieb:
Also mehr zugesicherte Temperatur = besser, weil weniger gekühlt werden muss?
genau, nur kann dir das bei immer weniger zugesichert werden. Selbst mit den größten Turbinen im Server die 200W+ allein ziehen.
fdsonne schrieb:
Na einen Tod und so ;)
Ich mein, entweder du machst es selbst - dann bist du selbst verantwortlich. Oder du beauftragst einen.
du meinst den Hersteller der Systeme? Also so wie z.b. Fujitsu?

PS und nein von denen hatte ich noch keine Systeme aber von vielen anderen.
fdsonne schrieb:
Selten kommen wir auf große Distanzen, wo Kupfer Probleme macht oder müssen so hoch mit der Bandbreite, dass wir wie die angesprochenen 400G verkabeln müssen
siehst du und bei mir hat jeder Server min 100G ;)

Wobei inzwischen sogar 200G. Und ich rede da von mehreren hundert bei kleineren Systemen bis tausende.

fdsonne schrieb:
Auch ob man da nen Nachtest macht oder Messungen - zumindest dort wo es geht, lässt sich ja vertraglich regeln.
das kannst du bei der Anzahl an Kabeln aber nicht bezahlen, zumal das Zeug auch zickig ist. Neu stecken löst 80% der Probleme. Da hilft dir Messen rein gar nichts.
fdsonne schrieb:
Die LWL Strippen in unseren RZ, die durch die Hütte gehen oder aktiv durch die Republik geschalten sind, wurden zumindest mit Protokoll "geschalten".
da macht das auch durchaus Sinn. Musst dann ja auch durch Brandschotts usw usf. Da ist es dann billiger einfach zu messen. Zudem gibt es da auch standardequipment für. Bei DACs wäre mir nichts bekannt.

fdsonne schrieb:
GBics kommen ja ins Spiel, wenn du die Kabel günstig haben willst. Zumindest da wo es das gibt. Im Ethernet Umfeld geht das häufig.
das GBic Zeug ist ja auch spot billig. Trotzdem ist der DAC noch billiger. Aber klar wenn man etwas länger gehen muss keine große Entscheidung.
fdsonne schrieb:
Biegeradien sind natürlich immer ein Thema. Aber so ein AWG30 für 100G - wo liegt da der Biegeradius? Um die 30-35mm?
Ähm nein, schön wäre es. Wir reden von 72-89mm!

Hast du mal gesehen wie voll so nen Switch wird? Das ist echt ne Herausforderung. Wie gesagt, mir hat so einer mal einige Kabel geschrottet direkt bei Installation... Und da hatten wir noch Glück. Die 5 Biegeradien waren öfters erreicht oder unterschritten...

fdsonne schrieb:
Das ist jetzt nicht wirklich sooo riesig
Also ich finde 72-89mm schon riesig. Wir reden ja von Radius! Das sind über 14cm Durchmesser.

fdsonne schrieb:
Da muss man sich schon anstellen um das kaputt zu bekommen. Dünner und ggf. kürzer gibts sowas auch mit 20mm.
Nö, das war mal. Und in Zukunft wird es mit DAC noch schlimmer, wenn es überhaupt noch geht. Mit 800G erwarte ich die letzten DACs und ich denke ACC killen Sie dann auch direkt, so daß nur noch AOC bleibt für die Anbindung von Servern. Das wird nen teurer Spaß...

fdsonne schrieb:
Das ist Hersteller Sache. HandsOn meint hier die Verkablung des Systems (außen). Spezielle Arbeiten, wie nen Tausch einzelner Einheiten in einem vielleicht noch zertifizierten System - das ist doch nix für 0815 HandsOn, wo der einfache Techniker gerufen wird.
Ich rede von den Herstellern...

fdsonne schrieb:
der schickt dir nen Techniker oder einen aus einer Firma, den er selbst beauftragt oder du buchst auf eigene Faust?
wie gesagt, ich rede von den Herstellern. Wenn du DGX Clone kaufst, dann gibt es genug Varianten bei denen kein Hersteller dieser Welt Hand anlegen darf es sei denn er heißt nVidia.

Die Lage hat sich etwas entspannt, aber das kann mit jeder Gen wieder kommen. Und so nen 8er GPU Board nach Asien schicken weil EINE Karte defekt ist tut schon weh...

fdsonne schrieb:
nen HandsOn - aber dann musst du dich halt auch kümmern. Freilich ist es dann natürlich auch dein Verantwortungsbereich...
also nVidia kaufen oder wie?

fdsonne schrieb:
Wie gesagt oben das Beispiel mit dem falsch montierten CPU Kühler bei ner RMA von nem Board. Sowas passiert halt wenn die Leute keine Ahnung haben.
Das ist einfach dumm...

fdsonne schrieb:
Unterschätz das mal nicht - hinter den Systemen ist es nicht sonderlich kühl XD Eher im Gegenteil. Es ist schon sehr belastend, wenn du von kalt in warmgang und umgekehrt hin und her laufen musst.
Kalt Warmgang finde ICH jetzt nicht so stressig.

Abgesenkte Atmosphäre und >40 Grad hinten bei >30 im "Kalt"gang ist da eher stressig. Wobei "Gang". Das sind dann in der Regel geschlossene Racks mit Sidecooler. Aber wenn du die auf machst bläst dich halt nen Föhn an. DAS ist unangenehm. Vor allem weil selbst nen Server der aus ist noch >50 Grad haben kann. Das Zeug kocht dann schön vor sich hin mit WaKü-Luft Hybriden. Transciever bei >90 Graf sind dann auch nett. Da passt du ganz schnell auf wo du hin fasst.
 
Finde ich super spannend. Sowas in der Art war mein eigentlicher Berufswunsch glaube ich, irgendwas mit der Technik zu machen. Bin dann aber doch in die Dienstleistungsbranche gerutscht und jetzt als Softwareentwickler tätig, was ich eigentlich nicht werden wollte. Aber gut, beschweren will ich mich nicht, bin so weit zufrieden. Für eine Arbeit als Techniker im RZ bin ich gleichermaßen überqualifiziert (in theoretischem Wissen) und unterqualifiziert (handwerklich und im Umgang mit der Technik), allerdings sehe ich auch das Potential das schnell zu erlernen. Aber so richtig Bock auf körperliche Arbeit habe ich auch nicht, wenn ich ehrlich bin, vorallem wahrscheinlich auch noch zu einem geringeren Gehalt.
Aber dafür ist das auch ein Job der so schnell nicht von einer KI potentiell ersetzt nachhaltig umgestaltet werden kann, bis Roboter diese Arbeit übernehmen können. Aber wenn es so weit ist steht eh der Sinn der meisten Arbeiten in Frage, aber gut das wird zu philosophisch und zu weit ab vom Kurs glaube ich, jedenfalls leben wir in spannenden Zeiten, so viel kann man sagen.

In welchen Gehaltssprektrum kann man denn als RZ-Techniker so landen? Vielleicht überlege ich es mir ja noch :D
 
Moin.
Bin seit über 16 Jahren als IT-Techniker unterwegs, weniger als Admin/Turnschuh-Admin.
In meinem letzten Job in der Industrie haben wir ein breites Dienstleistungs-Spektrum bedient, sind somit auch teilweise in RZ, vor allem aber in Netzwerkräumen tätig.
Klar. Es ist laut, aber es ist auch so dass Netzwerkräume und RZ vor allem dann ihren Reiz haben, wenn man mal entfliehen will.
Über 30°C draußen, gute 26°C im Office/Werkhallen? Gerade dann bin ich liebend gern mal für eine halbe Stunde in diese Räumlichkeiten eingekehrt.
Man hat endlich mal Ruhe vor Kollegen, Kunden oder wem auch immer. Man kann mal durchatmen, abkühlen, reflektieren, laut fluchen oder eben auch mal ungeniert einen knattern lassen ;)

Zur Lohndebatte hier.
Als gelernter Fachinformatiker SI habe ich bisher viele Möglichkeiten gehabt, mich auch als Admin ausprobiert. Dennoch fühle ich mich als Techniker doch wohler. Eine gute Balance auch mal etwas Anspruchsvolleres zu machen, wenn man möchte/es sein muss im Home Office arbeiten oder im Büro mit Kollegen zu lachen.
Meine Entlohnung ist für unsere Region über dem Durchschnitt und lehnt sich an dem TVÖD (E10) an.

Im Bereich IT-Techniker/Support sind in unserem Raum, mit etwas Erfahrung, locker über 50k möglich. Was in unserem Raum über dem Durchschnitt liegt und wir damit gut leben können.
Als Koch - was mein erster Beruf war - sind 40k schon schwer auszuhandeln/zu erreichen und dies ist ein deutlich anstrengender & stressiger Job.
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben