thanatur
Lieutenant
- Registriert
- Jan. 2013
- Beiträge
- 661
mach ich trotzdem, je nach Thema mal gerneJan schrieb:Für die Anzeige also solche, nicht Klicks darauf.
bei euch lass ich auch alles an Werbung bei uMatrix zu
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
mach ich trotzdem, je nach Thema mal gerneJan schrieb:Für die Anzeige also solche, nicht Klicks darauf.
Datei: | Settings: | Grösse: |
---|---|---|
PNG Original | Win+Print | 5.19MB |
PNG Irfanview | compression lvl 6 | 3.99MB |
PNG OptiPNG | level 4 | 3.91MB |
PNG PNGquant | default | 1.46MB |
JPG Irfanview | Q75 | 0.89MB |
JPG2000 | Q75 | 1.19MB |
WebP Irfanview | Q75 compression 4 | 0.45MB |
AVIF avif.io | Effort 50 Q75 | 0.70MB |
AVIF convertio.co | default | 0.85MB |
AVIF aconvert.com | default | 0.66MB |
Danke euch für eure Transparenz und Kompetenz (nicht nur auf dieses spezielle Thema bezogen)Jan schrieb:Die Zugriffe werden am Ende auch berichtet und sind für den Kunden natürlich ein wichtiges Maß fur den Erfolg.
LukS schrieb:haha, das musste ich auch mal testen mit unserem Warenwirtschafssystem:
Anhang anzeigen 1153180
in der tat ist die Latenz zu CB kürzer als in unserem eigenen Netzwerk. 😂
Ich finde solche Einblicke in die Technik einer Seite echt toll. Danke dafür. Gerne mehr davon.
Kann ich nicht durchführen mit computerbase.de bzw. nur teilweise. Aber das war nur die Antwort auf den Screenshot, dass alles bei 20ms einfach schlecht ist. Liefert natürlich keinerlei Erkenntnisse - wobei ein traceroute ja auch nur Pings sindfoo_1337 schrieb:Ein traceroute würde eher helfen zu sehen, woran es liegt (routing/peering) als ein stumpfer ping
Kann trotzdem sein, dass die interessanten Router gerade antworten... 20ms sind auf jeden Fall merkwürdig, denn Google gibt dir scheinbar auch einen Server aus Frankfurt - den du in 4ms erreichst. Unwahrscheinlich, dass die bloße Distanz ein Problem ist.ebird schrieb:Kann ich nicht durchführen mit computerbase.de bzw. nur teilweise.
Mit ComputerBase Pro sind so um die 20 Requests - DOM ist nach ca. 100ms fertig, der komplette Content in <1s. Kann ich nur empfehlenebird schrieb:Das Problem von CB sind eher die 400 Requests in den ersten 10Sekunden, wobei nur ca. 90 Content ausliefern und die übrigen Tracking, Tracking, Tracking und auch etwas Werbung.
% ping www.computerbase.de
PING www.computerbase.de (212.83.33.137): 56 data bytes
64 bytes from 212.83.33.137: icmp_seq=0 ttl=252 time=1.967 ms
64 bytes from 212.83.33.137: icmp_seq=1 ttl=252 time=1.602 ms
64 bytes from 212.83.33.137: icmp_seq=2 ttl=252 time=1.555 ms
64 bytes from 212.83.33.137: icmp_seq=3 ttl=252 time=1.527 ms
64 bytes from 212.83.33.137: icmp_seq=4 ttl=252 time=1.575 ms
^C
--- www.computerbase.de ping statistics ---
5 packets transmitted, 5 packets received, 0.0% packet loss
round-trip min/avg/max/stddev = 1.527/1.645/1.967/0.163 ms
Und haben dann normal trotzdem nur N+1 Redundanz. Die Anzahl der NTs sagt erst mal nichts aus.Dr. MaRV schrieb:Große Geräte, bspw. Server, Filer und SAN-Directoren haben meist 4 Netzteile
Ist so Pauschal auch nicht richtig. Wenn ein Task schon seit Wochen läuft willst du den nicht wegen nem kaputten NT verlieren.xexex schrieb:Redundante Netzteile sind durchaus Standard, der Rest der Aussage ist hingegen daher geredet. Wer echte Redundanz will, stellt mehrere Geräte hin, redundante Netzteile sind dagegen nur ein kleiner "Trostpflaster", mit dem sich die Hersteller, oft ohne einen echten Bedarf, ein gutes Zubrot verdienen.
Naja, das sind jetzt nicht viele. Wir haben einige tausend Server in Betrieb. Da fällt schon immer mal wieder eins aus. Gerade im ersten Jahr verabschiedet sich doch öfters mal eins.M@tze schrieb:Zwei Netzteile sind üblich, das eins ausfällt eher nicht - wir hatten 2 Defekte in den letzten 20 Jahren bei 40+ Servern.
Das Spiel kann man beliebig weit treiben. Auf so ne Diskussion sollte man sich nicht einlassen. Es kommt immer einer, der noch eins drauf legt. Wir können das Spiel gerne 10 Runden spielenM@tze schrieb:Na ja, 2 Server nebeneinander zu stellen ist jetzt auch nicht wirklich eine Redundanz, wenn die am selben Stromkreis hängen und im selben Brandabschnitt liegen.
ZFS ist bei kleinen Files nicht gerade der King, wenn es um Metadaten geht. Mit NVMe kommt man aber schon weit. Nen HW Raid mit Write Cache ist aber schon noch in manchen Bereichen überlegen. Für euch aber wahrscheinlich irrelevant.Steffen schrieb:Weiterhin ext4. Wie ist deine Erfahrung mit ZFS? Nutzt du das nur für sowas wie Bilddateien oder liegen da auch Datenbanken drauf?
Zwei Kreise reichen normal ja auch aus. Wenn einer davon noch an der USV hängt, dann ist das auch nicht schlecht.xexex schrieb:Einen Brand halte ich in einem RZ für äußerst unwahrscheinlich, da reicht in den meisten Fällen auch ein Backup an einen anderen Standort. Allerdings darf man hier von einem ziemlichen Luxus sprechen, die RZs die ich in Frankfurt so gesehen habe, stellen nur zwei Stromkreise pro Schrank bereit.
Ihr habt also 2 Server und nen S3 für offsite Backup. Wie macht ihr denn dann den Wechsel zwischen den Servern?Steffen schrieb:Nein. Der Leidensdruck war bislang nicht groß genug, weil wir praktisch nie Hardware-Probleme hatten. Und je komplexer das Setup, desto eher kann diese Komplexität dann auch zu Downtimes führen. Als nächsten Schritt will ich die Bilddateien und Forumanhänge irgendwann in einen Object Store packen. Danach gäbe es dann nur noch die Datenbank als "state".
Wirklich zstd oder pzstd? Pzstd rockt schon gut.Steffen schrieb:das tägliche MySQL-Backup nutzen wir Percona Xtrabackup + zstd-Komprimierung + age-Verschlüsselung
Ist das schnell genug für euch? Also bezüglich Metadaten. Aber klar die snapshots sind schon geil. Habe ich erst in nem Backup System wi gesetzt. Jeden Tag nen kompletten Stand, den man leicht zurückspielen kann, aber trotzdem nur die Änderungen als neuen Speicherbedarf.startaq schrieb:Das komplette System liegt gespiegelt auf 2 NVMe-Laufwerken. Eingesetzt wird es als VM-Host. Großer Vorteil hier sind die Instant Snapshots von ZFS, d. h. es gibt quasi keine Downtime beim VM-Backup. Aktiviert habe ich auch die Kompression, das spart einiges und erhöht auch nochmal die Geschwindigkeit. Mit der Stabilität bin ich zufrieden, das System läuft jetzt seit einigen Wochen inkl. täglicher Backups einiger großer Windows-VMs.
Nein, wenn man vernünftige Software nutzt, gibt es kein write hole. Die HW Raidcontroller sind ja auch so performant, weil sie bescheißen und bei nem flush schon zurückkommen, wenn die Daten erst in RAM vom Controller sind und nicht erst wenn sie auf der Platte liegen. Dafür brauchen Sie halt die Batterie, sonst sind die Daten weg...washieiko schrieb:Das bedeutet aber auch bei einem Stromausfall (klar, unwahrscheinlich im Rechenzentrum), wäre keine Datensicherheit gegeben ? Normal setzt man doch nur auf einen extra Contro
foo_1337 schrieb:Genau deshalb hatte ich gefragt, heise gibts auch nur in FRA bei Plusline… und nein, traceroute ist kein ping sondern udp Nur Windows benutzt by default ICMP, aber deinem output nach war das nicht windows. Daher probier mal traceroute -I oder tcptraceroute auf port 443.
Daher probier mal traceroute -I oder tcptraceroute auf port 443.
Leider habe ich aktuell nichts in Frankfurt. Habe meine letzten bei Hosteurope gekündigt, nachdem die Telekom übernommen hat.64 bytes from 212.83.33.137: icmp_seq=4 ttl=252 time=1.575 ms
^C
--- www.computerbase.de ping statistics ---
5 packets transmitted, 5 packets received, 0.0% packet loss
round-trip min/avg/max/stddev = 1.527/1.645/1.967/0.163 ms
[/code]
hab ich jetzt gewonnen?
Der Payload ist egal, das Protokoll nicht. Je nachdem was die Targets / Hops erlauben, nimmt man halt UDP, ICMP oder TCP. Und nur diesen Hinweis wollte ich dir geben weil du sagtest:ebird schrieb:Ist das nicht etwas Haarspalterei? Beides sind verbindungslose IP Pakete. Die TTL ist da entscheidend und nicht der Payload. Und da geht es nicht darum, was in dem Pong Paket steht oder welches Transportprotokoll es ist.
Und genau deshalb hätte mich die Route interessiert. Was heißt "ungefähr" gleich? Da muss es einen entscheidenden Unterschied geben. Peers/PNI/Whatever überlastet? Das hätte man halt auf dem Traceroute gesehen. So ist es leider ein "20ms ist nicht schnell!" bzw "mies" wie du zuerst sagtest. Mit der Aussage kann aber so keiner was anfangen. AS47447 hat z.B. auch ein paar weniger peers/andere via ipv6. Evtl. liegt es auch daran? Falls du dich umentscheiden solltest und einen traceroute nachliefern magst, wäre es interessant sowohl einen via v4 und einen via v6 zu sehen.ebird schrieb:sondern darum, dass 20ms definitiv nicht schnell ist. Alle Routen sind ungefähr gleich.
Man konnte als Mitleser hier im Forum anhand deines Beitrags nur eines sehen: Die RTT. Ob das was direkt oder nicht irgendwo hin ging, war und ist nicht ersichtlich.ebird schrieb:Man konnte auch schon vorher sehen, dass diese direkt nach Frankfurt gehen. Einige waren bis Frankfurt sogar gleich.
Die Telekom? Host Europe gehört GoDaddy. Die Telekom hatte das zwar vor, aber es kam nie zustande.ebird schrieb:Habe meine letzten bei Hosteurope gekündigt, nachdem die Telekom übernommen hat.
Ich bezog mich hier eher auf die klassischen Fälle im Mittelstand, wo die Hersteller allesamt gerne redundante Netzteile verkaufen, wo aber oft kein wirklicher Nutzen draus entsteht. Es haben sich halt in diesem Sektor einige Eigenheiten eingebürgert, die längst nicht mehr wirklich Sinn ergeben, aber von einigen wie ein Mantra daher geredet werden.Skysnake schrieb:Ist so Pauschal auch nicht richtig. Wenn ein Task schon seit Wochen läuft willst du den nicht wegen nem kaputten NT verlieren.
In einem Colocation Schrank halte ich es als viel zu wenig. Unter Umständen hast du dort 42 Netzteile an jedem Stromkreis. Das ist nicht nur eine potentielle Fehlerquelle, falls mal wirklich ein Netzteil kaputt geht, es schränkt auch meist den maximalen Strombedarf ein.Skysnake schrieb:Zwei Kreise reichen normal ja auch aus. Wenn einer davon noch an der USV hängt, dann ist das auch nicht schlecht.
Du kannst es schlecht vergleichen.jonsger schrieb:Wie findest du die SuperMicros im Vergleich zu den HPE Servern? Ich wäre v.a. interessiert an foldgenden Dingen: Remote Console, Remote Steuerung (Neustart etc), Boot-Dauer, SNMP-Unterstützung, Firmware-Updates.
Wenn du das bei HP kritisierst, solltest du mit Supermicro gar nicht erst anfangen, das UEFI ist bei HP vergleichsweise überschaubar.jonsger schrieb:Sowohl das iLO als auch das BIOS sind nicht so wirklich übersichtlich.
Also 22kW dürften normal völlig ausreichend sein für Colocation. Das ist eine 3-Phasen PDU. Davon als zero U zwei Stück und gut ist. Mehr braucht es da nicht wirklich weil mehr bekommst du mit Luft eh nicht effizient gekühlt.xexex schrieb:In einem Colocation Schrank halte ich es als viel zu wenig. Unter Umständen hast du dort 42 Netzteile an jedem Stromkreis. Das ist nicht nur eine potentielle Fehlerquelle, falls mal wirklich ein Netzteil kaputt geht, es schränkt auch meist den maximalen Strombedarf ein.
foo_1337 schrieb:
Steffen schrieb:ComputerBase ist am Montagmorgen nicht nur auf neue Server umgezogen, sondern auch zu einem neuen Server-Provider in ein neues Rechenzentrum.
Zur News: In eigener Sache: Das neue Server-Setup von ComputerBase (2021)