[Kurzreview] Samsung C34F791, UWQHD,100hz, Freesync

Status
Für weitere Antworten geschlossen.
Vega ohne gescheihten Monitor nützt dir aber auch nichts. Vega ist nur gut um die Preise der 1080 Ti zu drücken ;). Dann kann man sich vielleicht einen G-Sync-Übergangs-Monitor aus dem Lotto ziehen ;).
 
Habe mich jetzt doch noch kurzfristig umentschieden. Werde es dann vielleicht mal mit dem Acer XB271HU versuchen.

Der hat G-Sync und bei Nvidia kann ich mich wenigstens drauf verlassen, dass die immer was für mich haben, wenn ich upgraden will. ;) Ach ja und der hat halt keinen Gelbstich.
Siehe AMD, die haben immer noch nicht die 1070/1080 mit irgendwas gekontert. Und jetzt kommt mir nicht mit der alten Fury mit 4 GB HBM. :rolleyes:
 
Zuletzt bearbeitet:
Der 271 ist ok der hatte zumindest nicht den Gelbstich jedenfalls meiner hatte das nicht.

Aber die Optik ist so lala eher kiddy mäßig....^^
 
Würde ihn trotzdem eher als z.B. den Asus kaufen, Optik hin oder her.
Standfuß kann man ja vielleicht wechseln, wenn es zu sehr stört. Aber das ist immer noch eines der geringsten Probleme.
 
Marcus Hax0rway schrieb:
Siehe AMD, die haben immer noch nicht die 1070/1080 mit irgendwas gekontert. Und jetzt kommt mir nicht mit der alten Fury mit 4 GB HBM. :rolleyes:

Die Fury reicht für WQHD noch. Ist auch für hohe Auflösung atm AMDs einzige Karte.

Frisst jedoch Strom ohne Ende. Meine saugt 300 Watt alleine und heizt wie Hölle.

Aber wenn man einen Free-Sync Monitor mit hoher Auflösung (WQHD und mehr) vollständig nutzen will, führt an dieser Karte atm kein Weg vorbei.
 
Zuletzt bearbeitet von einem Moderator:
asus1889 schrieb:
Vega ohne gescheihten Monitor nützt dir aber auch nichts. Vega ist nur gut um die Preise der 1080 Ti zu drücken ;). Dann kann man sich vielleicht einen G-Sync-Übergangs-Monitor aus dem Lotto ziehen ;).

Nvidia kaufe ich nicht mehr solange AMD nicht pleite geht. Die Speicherlüge bei meiner GTX 970 und die absolut unverschämten Preiserhöhungen von der 900er zu der 1000er Generation nehme ich Nvidia sehr übel.
Wenn ich schon lese, dass manche Fanboys so einen Scheiss auch noch verteidigen. "Hat mehr Leistung, darf mehr kosten" - klar, mit dieser Mentalität müssten Grafikkarten schon 6-7 stellige Beträge kosten wenn man mal vergleicht wieviel Leistung eine 1080Ti hat und wieviel die erste Graka der Welt hatte.

Bei Volta zahlt man dann wahrscheinlich 1000€ für den GTX1080 Nachfolger.
 
AMD hat beim Ryzen auch Müll erzählt. Taugt auch nichts bei der single thread performance. OC ist ein Witz. 4,1 GHz bei 1,5 V :lol:. Deswegen senkt Intel auch nicht die Preise.

Volta Midrange wird nur 1000 Euro kosten, wenn AMDs Vega suckt. Ich werde keine AMD Karte mehr kaufen, die brauchen ewig um neue Chips zu entwickeln. Und nachher halten sie trotzdem nicht was sie versprochen haben.

Und bei Monitoren sieht es noch bitterer aus als bei Nvidia. Denn dort ist es bei günstigeren 16:9 Modellen nicht mal Lotto. Dort heißt es entweder Eizo oder nichts bei 144 Hz. Bei 4 K @ 60 Hz kann man AMD noch einsetzen. Zum Beispiel für einen LG 4 K Monitor mit HDR.
 
Zuletzt bearbeitet von einem Moderator:
Nvidia mag zwar Müll erzählen und die Preise erhöhen, aber die liefern wenigstens. Bei AMD heißt es leider alte Hardware kaufen bei den GPUs.

So sehr ich mir mal eine AMD-Karte holen würde, es hätte für mich keinerlei Vorteile. Habe keinen Bock, dann irgendwann wieder ein Jahr zu warten, damit AMD ein konkurrenzfähiges Produkt rausbringt.

HBM ist für mich auch kein Argument. Die hätten jederzeit irgendwas mit mehr Leistung und GDDR5 auf den Markt schmeißen können, hätte vollkommen ausgereicht. ;)
 
Zuletzt bearbeitet:
Marcus Hax0rway schrieb:
So sehr ich mir mal eine AMD-Karte holen würde, es hätte für mich keinerlei Vorteile. Habe keinen Bock, dann irgendwann wieder ein Jahr zu warten, damit AMD ein konkurrenzfähiges Produkt rausbringt.

1 Jahr ist gut. Seit der Fury sind fast 2 Jahre vergangen. Und selbst damals war die 980 Ti deutlich besser. Denn die normale Fury (Referenz-PCB) lässt sich wenn man Glück hat maximal 50 MHz auf 1050 MHz (GPU Takt) ocen. Die 980 Ti ging häufig bis mindestens 1450 MHz (GPU Takt) hoch.

Marcus Hax0rway schrieb:
HBM ist für mich auch kein Argument. Die hätten jederzeit irgendwas mit mehr Leistung und GDDR5 auf den Markt schmeißen können, hätte vollkommen ausgereicht. ;)

Stimmt :). AMD hat sich leider bei HBM verrannt. Das Festlegen auf HBM2 (gibt es atm nur von Hynix in abgespeckter Form, in geringen Mengen) bei Vega führt noch zu weiteren Verzögerungen des Releases.
 
Zuletzt bearbeitet von einem Moderator:
Was bringt einem die Single Thread Leistung? Jeder spielt in 1080p auffwärts, in grafisch aufwendigen Spielen bewegt sich der Unterschied zwischen den CPUs im einstelligen Prozentbereich, ab 1440p macht es quasi gar keinen Unterschied mehr und in nicht so aufwendigen Spielen juckt es nicht ob man 200fps mit AMD oder 300fps mit Intel hat.

In Anwendungen drehen die 16 Threads dann kreise um Intels gleichpreisige Alternativen.

Zudem kommt man mit 1.3x Volt hin wenn man sich mit 4Ghz begnügt. Oder man lässt die Werte @ Stock und kann 1700x/1800x um 0.1v undervolten (ka ob sich 1700 auch so gut undervolten lässt).

Bei mir words definitiv Ryzen am Ende des Jahres.
 
Nicht jeder spielt nur aktuelle Spiele, ich spiele z. B. noch immer Operation Flashpoint wo single thread Pflicht ist.

HolzStreich schrieb:
Nvidia kaufe ich nicht mehr solange AMD nicht pleite geht. Die Speicherlüge bei meiner GTX 970 und die absolut unverschämten Preiserhöhungen von der 900er zu der 1000er Generation nehme ich Nvidia sehr übel.

Die AMD Lüge in Verbindung mit Crytek zur x64 Fassung von Far Cry ist natürlich egal und die Lüge über den internen Aufbau beim Bulldozer auch. ;)
 
HolzStreich schrieb:
Was bringt einem die Single Thread Leistung? Jeder spielt in 1080p auffwärts, in grafisch aufwendigen Spielen bewegt sich der Unterschied zwischen den CPUs im einstelligen Prozentbereich, ab 1440p macht es quasi gar keinen Unterschied mehr und in nicht so aufwendigen Spielen juckt es nicht ob man 200fps mit AMD oder 300fps mit Intel hat.

In Anwendungen drehen die 16 Threads dann kreise um Intels gleichpreisige Alternativen.

Zudem kommt man mit 1.3x Volt hin wenn man sich mit 4Ghz begnügt. Oder man lässt die Werte @ Stock und kann 1700x/1800x um 0.1v undervolten (ka ob sich 1700 auch so gut undervolten lässt).

Bei mir words definitiv Ryzen am Ende des Jahres.

Also ich hab einen Intel Xeon E3-1231v3 und kann erfahrungsgemäß sagen: Ich hätte gern mehr Single-Thread-Performance. Allerdings hätte ich dann auch gern beim nächstem Mal mindestens einen 6-Kerner.
 
akuji13 schrieb:
Die AMD Lüge in Verbindung mit Crytek zur x64 Fassung von Far Cry ist natürlich egal und die Lüge über den internen Aufbau beim Bulldozer auch. ;)

Was du mit ersterem meinst weiß ich nicht, Google hat nichts ausgespuckt also kann es wohl keine große Sache gewesen sein. Und für die Bulldozer Lüge haben sie aufs Maul bekommen und wurden verklagt, welche Konsequenzen hat Nvidia wegen der GTX 970 Lüge erlitten? Ich glaube in den USA gabs paar $ Entschädigung, hier in Deutschland gab es nichts - als wären wir keine zahlenden Kunden.
 
HolzStreich schrieb:
Ich glaube in den USA gabs paar $ Entschädigung, hier in Deutschland gab es nichts - als wären wir keine zahlenden Kunden.

Doch einige Hersteller haben eine Rückabwicklung angeboten.

@akuji13

Damals (2004) hat AMD aber wenigstens noch etwas getaugt und war sogar besser als Intel.

Das Video ist trotzdem eine Täuschung, da diese Verbesserung nur bei Far Cry 1 und in Verbindung mit Windows XP 64 Bit möglich war. Vermutlich war es nur ein Texturemod, welcher bei AMD 64 Prozessoren freigeschaltet wurde :D.
 
Zuletzt bearbeitet von einem Moderator:
Tja und seit dem Intel C2D (2006) auf Conroe Basis ist Intel unangefochten. Ryzen ist nur in Anwendungen, gegenüber den Intel 4 Kernern, im Vorteil welche mehr als 4 Kerne unterstützen. Bei Spielen Pustekuchen. Da hat man mit AMD nur Nachteile. Würde nie 500+ Euro für so einen halbgaren Prozessor mit 0 OC Potenzial ausgeben.

An Nvidias Stelle würde ich mich ganz dringend um alle G-Sync Monitore kümmern. Ich würde verfügen, dass nur noch wirkliche Premiumpanel in G-Sync Monitoren verwendet werden. Wenn Nvidia dies gelingen würde, wäre AMD im Premium-Monitor-Segment weg vom Fenster.

Niemand würde dann notgedrungen zum FS2735, C34F791 oder Asus MX34VQ greifen.

AMD bzw. deren Grafikchip-Abteilung (welche von ATI übernommen wurde) hat meiner Meinung nach nur noch eine Chance im Grafikkarten-Premiumsegment, wenn die Grafiksparte von Intel geschluckt wird, welche das nötige Kapital für vernünftige High-End Grafikkarten in kurzen Intervallen haben.

Lol. Die haben bei Proshop echt gut geraucht. Sie haben den Preis jetzt sogar noch für das Buggerät erhöht ;).
 
Zuletzt bearbeitet von einem Moderator:
HolzStreich schrieb:
Was bringt einem die Single Thread Leistung?

Sogut wie alle MMos brauchen ordentlich IPC.
Krüppelports oder Spiele wie DayZ verlangen IPC.

Es geht ja eher um die min. FPS und da kackt AMD halt ab wenn nicht gerade alle Kerne genutzt werden.
Ergänzung ()

asus1889 schrieb:
Lol. Die haben bei Proshop echt gut geraucht. Sie haben den Preis jetzt sogar noch für das Buggerät erhöht ;).

Die Bude hat immer Traumpreise egal welchen Monitor.
 
Lol, Agon AG352UCG vs. XPS 13 mit LG/Sharp IPS:
7b05f80f_23.jpeg

Man soll doch keine Bleiche benutzen :D.

I honestly rate my AOC's display as JUNK. It's extremely TN-like.

Nur die Reaktionszeiten nicht :D.
 
Zuletzt bearbeitet von einem Moderator:
Status
Für weitere Antworten geschlossen.
Zurück
Oben