Bericht Community-Umfrage 2021: Welche Hardware und IT-Produkte nutzt du?

1) Was sind "heimliche" vier Waende?

2) Warum ist deine Leitung nicht schneller?
Weil mit die Geschwindigkeit reicht...
 
ZenMasterTM schrieb:
Auch Alderlake sind nur Tigerlake-Kerne in Kombination mit beschnittenen Atom-Kernen.
Gefährliches Halbwissen.
Die Golden Cove Kerne (P-Kerne) von Alder Lake-S haben nichts mit den Tiger Lake Kernen zu tun, auch wenn du dies hier gerade so darstellst. Dies kann man überall Nachlesen. Falls du da aber mehr als Intel selbst weißt, hätte ich dazu gerne die Quellenangabe.
 
UrlaubMitStalin schrieb:
  1. Das so viele Leute unnötig große Netzteile nutzen (hohe Maximalleistung senkt die Effizienz im Leerlauf).
Ich hab mich diesbezüglich sogar schon gebessert 😅. Wenn auch nur weil ich zu faul bin alles wieder umzubauen.
Ich hatte vor Jahren das Corsair AX1200i gekauft, in weiser Voraussicht was da noch kommen möge,auch wenn es erstmal sinnfrei erschien, das hatte sich aber irgendwann mit einem technischen Defekt verabschiedet. Als Ersatz kam dann ein AX860i rein, was jetzt noch im System arbeitet. Das 1200er wurde von Corsair ersetzt und liegt jetzt im Regal falls es doch irgendwann nochmal nötig wird. 😉 Das Thema Effizienz ist mir relativ egal, der Kasten läuft nicht 24/7, mir ist nur wichtig dass für Lastspitzen Luft nach oben da ist.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wäre bei den cloud nutzern vmtl. noch spannend, wer selbst hostet, und wer etwas a la google/dropbox, oder was es da so gibt nutzt.
 
  • Gefällt mir
Reaktionen: dideldei, pseudopseudonym, Tsu und 2 andere
KitKat::new() schrieb:
Nicht. Da gabs nicht viele dynamische Booststufen.

KitKat::new() schrieb:
Muss ein Netzteil dafür ausgelegt werden?
Wer sagt, dass ein Netzteil nicht trotzdem ohne Probleme damit umgehen kann?
Ja muss es, weil es eben selbst auch so schnell reagieren können muss (bzw keine NT Komponenten dafür zu träge sein sollten), Schutzschaltungen entsprechend scharf gestellt sein müssen, etc.

KitKat::new() schrieb:
Gibt's da Statistiken dazu, wo das hervorgeht?
Das darfst du gerne recherchieren, ich hab schon genug Zeit in diese Diskussion gesteckt.
Ergänzung ()

bondki schrieb:
Was Spiele angeht aber egal. Da genehmigen sich auch Intels Stromfresser nur 100-130W (also auch nich mehr als AMD)
Wir reden aber nicht nur von Spielen, bzw wird ein PC auch mal was anderes machen als nur Spiele. Bzw werden auch in heutigen Spielen auch an und zu mal alle Thread belastet und die Power Limits ausgefahren.
 
  • Gefällt mir
Reaktionen: Mcr-King
Hutzeliger schrieb:
Mit einem G-Sync Modul beginnt der Bereich viel früher (1Hz) und nicht erst zum Beispiel bei 48 Hz…
Bei FreeSync gibt es genau genommen gar keine feste Untergrenze, sondern hängt einzig vom Monitorhersteller hab. FreeSync unterstützt jeden Bereich, den der Treiber vom Monitor vorgegeben bekommt. Wenn die Hersteller bei FreeSync-Monitoren keine Panels und Elektronik verbauen, die unter 48Hz geht, liegt das nicht an FreeSync.

Compatible graphics cards support a wide variety of dynamic refresh ranges with AMD FreeSync™ technology. FreeSync capable graphics cards can detect and set the appropriate maximum and minimum refresh rate based on the capabilities reported by the display. This means FreeSync supports up to the maximum refresh rate of the display itself.
https://www.amd.com/en/technologies/free-sync-faq#faq-What-is-the-supported-range-of-refresh-rates-with-AMD-FreeSync™-technology-and-DisplayPort-Adaptive-Sync?
Und der Abschnitt drunter auch noch. Prinzipiell kann FreeSync auch drunter, die Hersteller sollen aber nicht gezwungen werden, entsprechend teurere Komponenten verbauen zu müssen.
 
  • Gefällt mir
Reaktionen: Mcr-King und janeeisklar
Tja so ist aber die Realität, die allermeisten Freesync Monitore können nicht unter 48 Hz aber alle Monitore mit G-Sync Modul können runter auf 1 Hz. 🤷‍♂️

Egal, leidige Diskussion.
 
  • Gefällt mir
Reaktionen: PeriQue1337
bondki schrieb:
Mein Monitor möchte gerne ein ernsthaftes Wörtchen mit deinem Stuss reden.
Hutzeliger schrieb:
Mit einem G-Sync Modul beginnt der Bereich viel früher (1Hz) und nicht erst zum Beispiel bei 48 Hz…

Würden nicht wenige @4K in mancher Situation zu schätzen wissen.
Ihr seid auf das Marketing von nvidia reingefallen. Zugegeben, das Marketing von nvidia ist sehr sher gut.

GSync (mit Modul!):
Monitorhersteller dürfen die minimal PanelFrequenz NICHT(!) angeben. Die "1Hz" sind mit Frame Doubling (das ist bei AMD LFC).

FreeSync:
Monitorhersteller müssen die minimal PanelFrequenz angeben. Die zb "30Hz" sind ohne LFC (das ist bei nvidia Frame Doubling).

@ComputerBase
Bitte Bitte bringt mal einen Artikel der dazu aufklärt, das Panel bestimmt letztlich die AdaptiveSync Range.
 
  • Gefällt mir
Reaktionen: Tsu, MasterAK und Hibbelharry
Warum gibt es die Raytracing-Frage nur für Nvidia-GPUs? Ist die Frage stumpf aus 2020 rauskopiert worden?

Sehr schade. Nur weil das RT von AMD zur Zeit nicht auf dem Level von nV ist, heißt das nicht, dass man es nicht nutzen kann/würde.
 
  • Gefällt mir
Reaktionen: DagdaMor
Wubziz schrieb:
Gefährliches Halbwissen.
Die Golden Cove Kerne (P-Kerne) von Alder Lake-S haben nichts mit den Tiger Lake Kernen zu tun, auch wenn du dies hier gerade so darstellst. Dies kann man überall Nachlesen. Falls du da aber mehr als Intel selbst weißt, hätte ich dazu gerne die Quellenangabe.
Man kann einer Ente einen Frack anziehen und ihn Kaviar nennen... Ente bleibt Ente.

Glaub was du willst 😉
 
Powl_0 schrieb:
Nicht. Da gabs nicht viele dynamische Booststufen.
Ich meinte damit in welchem Bereich die Frequenz damals lag, wenn heutzutage es heute im "Bereich" von 1000 Hz ist
Powl_0 schrieb:
Schutzschaltungen entsprechend scharf gestellt sein müssen, etc.
Inwiefern ist das relevant?
Wenn eine Komponente nun plötzlich auf zu hohe Lasten stellt, hat das Netzteil eine bestimmte Toleranz bis zu welcher es reagieren muss.
Hierfür ist doch die Schaltfrequenz der CPU irrelevant, zumal solche Schutzschaltungen doch eh nicht für den regulären Betrieb sind, oder?

Powl_0 schrieb:
Das darfst du gerne recherchieren, ich hab schon genug Zeit in diese Diskussion gesteckt.
Hab ich schon mal probiert, weil ständig solche Behauptungen (ohne belastbare Quellen) in den Raum geworfen werden.
Darum wollte ich jetzt mal von so jemanden Details wissen.
 
Alles ausgefüllt. Bei den Monitoren kann es nie genug geben, gerade auch wenn man streamt und triplescreen setups sind ja gar nicht mehr so selten.
 
  • Gefällt mir
Reaktionen: Kha'ak und 3v0lut!0n
@Jan
Nutzt du Touch oder Stift am Notebook?
Ist mit "Touch" ein "internes Touchpad", ein "externes Touchpad" oder ein "Touch-Bildschirm" gemeint?

Wundere mich, dass 80% kein (internes) Touchpad nutzen, welches doch bestimmt bei mehr als 50% der Notebooks ab Werk verbaut sein sollte. Gut, man muss es zu Hause mit Maus nicht nutzen, aber unterwegs ...

Grüße
 
  • Gefällt mir
Reaktionen: graslife
Nächste Umfrage bitte Aio Systeme berücksichtigen - keine Lust mehr, überteuerte HW zu kaufen, setz da lieber auf nen iMac mit Mx…
 
Powl_0 schrieb:
Wir reden aber nicht nur von Spielen, bzw wird ein PC auch mal was anderes machen als nur Spiele. Bzw werden auch in heutigen Spielen auch an und zu mal alle Thread belastet und die Power Limits ausgefahren.
Na eben nicht. Würdest du dir mal Tests in der Hinsicht anschauen, würdest du sowas nicht sagen. Die 12000er kommen nicht mal im Ansatz an die 241 W Marke ran.
 
KitKat::new() schrieb:
zumal solche Schutzschaltungen doch eh nicht für den regulären Betrieb sind, oder?
...wofür denn sonst?
 
Draco Nobilis schrieb:
Bei den Netzteilen werden wohl bald ein paar Kategorien nach oben hin dazukommen müssen ... die Angaben der nächsten Grafikkartengeneration so ansehe.

Das ist gut moeglich, nur richtet es sich auch danach, inwieweit man bereit ist das als potentieller Kunde mitzutragen.

Die Industrie/Grafikkartenchipentwickler koennen gerne versuchen Trends zu setzen, aber solange ich zumindest eine andere Wahl habe, werden diese bei mir (mit noch hoehren Energieanforderungen und neuen, teureren Netzteilstandards) auf Granit beissen und dazu kommt noch die Inflation (auch deutlich steigende Energiepreise im kommenden Jahr, vermutlich nicht nur in Deutschland).

Mehr als das dieses Jahr angeschaffte Seasonic 850W Netzteil bin ich (energetisch und preislich nicht bereit zu rechtfertigen) und die MCM-Design-GPUs sind zwar nette Machbarkeitsstudien, aber fuer die meisten preislich und anwendungstechnisch komplett irrelevant/weit ueberdimensioniert.

Sinn machen diese Grafikkarten m.E. ueberhaupt nicht mehr fuer die meisten (die Early Adopter und Hobby-Enthusiasten bzw. deren Anliegen interessieren mich ehrlich gesagt nicht die Bohne, egal wie viele davon auf CB Beitrage schreiben), nur um die Profite durch abgehobene Preisvorstellungen der Konzerne immer weiter zu erhoehen.

Ja, die Entwicklung sollte irgendwie weitergehen, nur hat man bei den Konzernen das Gefuehl, das es diese nicht schert, wenn es energetisch und preislich in die komplett falsche Richtung geht.

Hauptsache deren Profite koennen weiter vermehrt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
dunkelbunter schrieb:
Alles ausgefüllt. Bei den Monitoren kann es nie genug geben, gerade auch wenn man streamt und triplescreen setups sind ja gar nicht mehr so selten.
Sehe ich auch so, hab es auch mal mit Streaming versucht und bis auf 5 aufgerüstet, dann aber irgendwann das Interesse verloren und jetzt noch 3 die ich wirklich nutze am Tisch, die beiden übrigen stehen daneben falls ich doch nochmal auf die Idee komme 😅. 34" 1440p und 4x 24" 1080p, alle mit 144Hz 😉
 
bondki schrieb:
Na eben nicht. Würdest du dir mal Tests in der Hinsicht anschauen, würdest du sowas nicht sagen.
Ich rede ja nicht von Durchschnittsverbrauch beim Spielen. Da brauch ich auch nichts in Tests sehen, das kann ich in Spielen direkt bei meiner eigenen CPU beobachten. Wenn du solche Tests anschaust und dabei auch verstehst, was dort gemessen wird, wird dir das auch klar.

Viele Spiele schaffen sowas zB in Ladebildschirmen, wenn auf allen Threads parallel geladen und dekomprimiert wird.

Da schafft es dann zB mein 3900X im BF2042 Ladescreen die 144W auszureizen, obwohl es im Spiel dann nur 80W sind.

Mühsame Diskussionen hier...
 
ZuseZ3 schrieb:
Wäre bei den cloud nutzern vmtl. noch spannend, wer selbst hostet, und wer etwas a la google/dropbox, oder was es da so gibt nutzt.
Ich habe das "Cloud" in der Umfrage mal als Public Cloud gedeutet und daher "Nein" angegeben. Eine Präzisierung der Fragestellung und ggfs. Erweiterung der Antwortmöglichkeiten fände ich hier ebenfalls sinnvoll.
 
  • Gefällt mir
Reaktionen: ZuseZ3 und Tsu
Zurück
Oben