Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Die CES 2023 im Rückblick: Was sind eure High- und Lowlights aus Las Vegas?
- Ersteller Vitche
- Erstellt am
- Zur News: Die CES 2023 im Rückblick: Was sind eure High- und Lowlights aus Las Vegas?
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.280
Welche Auflösungen hättest Du denn gerne gehabt?jfive schrieb:Die Größte Enttäuschung (Mal wieder) sind die Monitore...
Jetzt ging es endlich mehr in Richtung OLED mit passender Bildwiederholrate, aber dafür durch die Bank entweder gammlige 24/27" oder Auflösung von vor 10 Jahren....
Ernsthaft? -.-
Bei den Nvidia Karten könnte man ja schon davon ausgehen dass die Preise komplett hirnverbrannt sind, insofern keine Enttäuschung wo keine Hoffnung
Bleibt als Highlight nur Ryzen 7k.
Ich warte auf die x3D, und bin am überlegen ob ich den 8 Kerner, oder lieber den 12 Kerner nehmen soll.
Es würden wohl so roudabout 100 Euro Unterschied anfallen meine ich gelesen zu haben, aber dann langt es hoffentlich für eine geraume Weile.
Ich habe schon beim letzten Mal am falschen Ende gespart 6 / 8 Kerne. (Wurde hier im Forum schon bemängelt, das es schlecht passt etc...s.u.).
Ich werde natürlich Tests abwarten ob das mit dem einseitigen Cache so mit Shedduler passen wird, das ist klar, wenns Probleme gibt dann den 8 Kerner.
Ich habe auch so einen Spezialfall, beim MSFS 2020 schafft mein R5 5600x, 32 GB 3600 MHz DDR4, und einer 3080Ti im schlimmsten Fall gerade mal so kurzfristig 10 FPS. (im Schnitt sinds bis zu 70 WQHD / Boing Landeanflug also im worst case.).
Zum Thema unterschiedlicher Takt, ich habe das so verstanden, das sowohl der Teil mit als auch ohne Cache den normalen Takt inklusive Boosts schaffen, nur der OHNE Cache soll HÖHER takten können.
(Inzwischen habe ich gelesen, das es zumindest beim 8 Kerner wohl wieder bei ca. - 400 MHz Takt bleiben wird.)
Gegenüber dem "normalen" R7 Prozzis wäre also alles in Butter, in Games wäre mehr Leistung drin. Also bei allen CPU´s HÖHER als der R7 7800x3D. (12 / 16 Kerner).
Ach ja, es soll ein neues ZWEIT! System werden, sonst hätte es auch ein 5800x3D getan, das weiss ich.
Grüsse.
Es würden wohl so roudabout 100 Euro Unterschied anfallen meine ich gelesen zu haben, aber dann langt es hoffentlich für eine geraume Weile.
Ich habe schon beim letzten Mal am falschen Ende gespart 6 / 8 Kerne. (Wurde hier im Forum schon bemängelt, das es schlecht passt etc...s.u.).
Ich werde natürlich Tests abwarten ob das mit dem einseitigen Cache so mit Shedduler passen wird, das ist klar, wenns Probleme gibt dann den 8 Kerner.
Ich habe auch so einen Spezialfall, beim MSFS 2020 schafft mein R5 5600x, 32 GB 3600 MHz DDR4, und einer 3080Ti im schlimmsten Fall gerade mal so kurzfristig 10 FPS. (im Schnitt sinds bis zu 70 WQHD / Boing Landeanflug also im worst case.).
Zum Thema unterschiedlicher Takt, ich habe das so verstanden, das sowohl der Teil mit als auch ohne Cache den normalen Takt inklusive Boosts schaffen, nur der OHNE Cache soll HÖHER takten können.
(Inzwischen habe ich gelesen, das es zumindest beim 8 Kerner wohl wieder bei ca. - 400 MHz Takt bleiben wird.)
Gegenüber dem "normalen" R7 Prozzis wäre also alles in Butter, in Games wäre mehr Leistung drin. Also bei allen CPU´s HÖHER als der R7 7800x3D. (12 / 16 Kerner).
Ach ja, es soll ein neues ZWEIT! System werden, sonst hätte es auch ein 5800x3D getan, das weiss ich.
Grüsse.
Zuletzt bearbeitet:
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.211
Abwarten Intel kommt auch noch mit CCDs für A870 und co. auch NV wird den Weg gehen müssen irgendwann.t3chn0 schrieb:Ich kann mir einfach nicht vorstellen, dass AMD die asynchronen CCDs bei Spielen korrekt in den Griff bekommt, bei dem was AMD derzeit für Grütze abliefert.
Enigma
Captain
- Registriert
- Apr. 2004
- Beiträge
- 3.906
Also nur ein Spiel, das unter 60 FPS im CPU Limit liegt und "echte" Probleme macht. Kann ja auch schlechte Programmierung seinHutzeliger schrieb:New World.
Hutzeliger
Banned
- Registriert
- Okt. 2021
- Beiträge
- 1.144
@Enigma
Nein, das ist ein Multiplayer, die stottern da gerne und wollen CPU bei vielen Playern.
Da fallen mir jetzt nen Dutzend ein.
Weiteres Beispiel: Forza Horizon 5.
Da gibt es sehr viele aktuelle Games.
New World ist sogar sehr gut optimiert, die GPU lässt sich schön auslasten und ist auch mit Abstand das schönste MMORPG. Aber halt CPU Lastig bei vielen Charakteren, das ist aber schon fast 2 Jahrzehnte so.
Des weiteren sind 60 FPS für mich nichts erstrebenswertes.
Für Sie vll, für mich bei weitem nicht.
Schon viele Jahre nicht mehr.
Den Rest zum CPU Limit und das ich meinen Monitor ausreizen will haben Sie gekonnt ignoriert.
Das einzige was mich bisschen "rettet" ist mein G-Sync Ultimate Monitor,
die geringen FPS fühlen sich wesentlich sauberer an als mit meinem letzten Freesync Monitor.
(Bei meinem G-Sync Monitor mit Modul greift der Sync ab dem 1. FPS, bei meinem Freesync Monitor ab FPS 48.
Auch Frame Doppelung rettet es nicht. Bei meinem G-Sync Monitor läuft alles unter 48 FPS wesentlich besser als mit Freesync.)
Das es sauber läuft ist mir viel wert, das will ich nach 20 Jahren Systemintegration.
Nur mein Anspruch, ich spreche nur für mich.
Nein, das ist ein Multiplayer, die stottern da gerne und wollen CPU bei vielen Playern.
Da fallen mir jetzt nen Dutzend ein.
Weiteres Beispiel: Forza Horizon 5.
Da gibt es sehr viele aktuelle Games.
New World ist sogar sehr gut optimiert, die GPU lässt sich schön auslasten und ist auch mit Abstand das schönste MMORPG. Aber halt CPU Lastig bei vielen Charakteren, das ist aber schon fast 2 Jahrzehnte so.
Des weiteren sind 60 FPS für mich nichts erstrebenswertes.
Für Sie vll, für mich bei weitem nicht.
Schon viele Jahre nicht mehr.
Den Rest zum CPU Limit und das ich meinen Monitor ausreizen will haben Sie gekonnt ignoriert.
Das einzige was mich bisschen "rettet" ist mein G-Sync Ultimate Monitor,
die geringen FPS fühlen sich wesentlich sauberer an als mit meinem letzten Freesync Monitor.
(Bei meinem G-Sync Monitor mit Modul greift der Sync ab dem 1. FPS, bei meinem Freesync Monitor ab FPS 48.
Auch Frame Doppelung rettet es nicht. Bei meinem G-Sync Monitor läuft alles unter 48 FPS wesentlich besser als mit Freesync.)
Das es sauber läuft ist mir viel wert, das will ich nach 20 Jahren Systemintegration.
Nur mein Anspruch, ich spreche nur für mich.
Zuletzt bearbeitet:
Tenferenzu
Vice Admiral
- Registriert
- Okt. 2017
- Beiträge
- 6.537
Nein, ich nutze W10 aber Windows 10 kann auch pro Monitor die Skalierung einstellen. Manche Programme nur beim Starten aber nicht beim Verschieben. Soll heißen sie skalieren schön für Monitor A, man verschiebt sie auf Monitor B und schon ist alles unscharf oder unproportional. Wenn das unter W11 wirdklich funktioniert wäre es schön aber ich bezweifle es.adel schrieb:@Tenferenzu nutzt du Windows 11? Ich kann die Skalierung für jeden Monitor einstellen. 26,9" 1440p 100% und 27" 2160p 125%
hat sich der seit Markteinführung verändert? Wo ist das Problem, den in Temp-Bereichen zu bringen für die er spezifiziert ist?Jojo One schrieb:1. ein Ryzen 7 5800x 3D auf den Markt kam der Anfangs kaum zu kühlen war
Da ist was dran und das verstehe ich auch nicht aus Entwicklersicht. Aber vllt. kommt das Ahh! ja noch irgendwann.Jojo One schrieb:2. die neuen Ryzen 7xxx auf den Markt kamen und man krampfhaft am alten Kühler Befestigungssystem festgehalten hat
Jojo One schrieb:3. die RX 7900 XTX und die 7900 XT auf den Markt gekommen sind die extreme Temperaturprobleme haben wohl wegen der falsch befüllten Vapor Chamber.
Was hat das speziell mit AMD zu tun? Die werden die Kühler sicher nicht selbst fertigen, wie sie auch die Karten an sich nicht selbst fertigen. Ist ja nicht so, dass der Kühler an sich Mist ist. Aber eben teilweise fehlerhaft. Und wenn der OEM Mist baut, merkt man das in einer Massenproduktion leider erst zu spät. Die werden ja nicht jede einzelne Karte auf Herz und Nieren prüfen.
Jojo One schrieb:Als ich gesehen / gelesen habe das bei den 7000er 3D Prozessoren mit 12 und 16 Kernern nur ein "Die" den Cache bekommt, habe ich nur noch angewunken. Dann musste man auch noch lesen das dann die Dies die den Cache nicht drauf bekommen wohl etwas höher im Turbo takten.
Meist die haben gewürfelt wo wie was drauf kommt?
WUHD wäre doch mal was. Meinetwegen auch mit "nur" 120hz OLED Panelt3chn0 schrieb:Welche Auflösungen hättest Du denn gerne gehabt?
Hutzeliger
Banned
- Registriert
- Okt. 2021
- Beiträge
- 1.144
DefconDev
Commander
- Registriert
- Jan. 2008
- Beiträge
- 2.584
Positiv fand ich den 3D Cache für die 12 und 16 Kerner bei Zen4. Damit war nicht zwingend zu rechnen, auch wenn die Gerüchteküche es sehr stark angedeutet hatte.
Weniger positiv fand ich, die Aussagen von AMD bezüglich der Problematik um 7900XTX. Warum AMD keinen Rückruf startet, mit dem Wissen um die Problem-Serie, erschließt sich mir nicht. Auch wenn das nicht direkt was mit der CES zu tun hat.
Ebenso enttäuscht bin ich um die Informationen rund um die neuen APU mit Rdna 3, also Phoenix. Zumindest hätte ich gerne ein paar Spiele-Benchmarks gesehen, wo sich die APU einordnet. Ich schätze auf 1060 GTX Niveau, hoffe aber sogar auf 1660 Super/ti/3050 Rtx Niveau.
Von ASRock hätte ich mir gerne ein paar Infos zu den neuen Deskminis und Deskmeets gewünscht. Demzufolge auch über den neuen Chipsatz im Low Budgetbereich für AM5.
Die Preisentwicklung für 4070Ti und auch die des 13400(f) finde ich mehr als bedenklich. Der ganze IT Konsumermarkt ist in einer Rezension und nahezu überall werden die Preise erhöht.
Generell vermisse ich bei CB die Informationsflut. Auf anderen Seiten gab es viel mehr von der CES zu lesen über Neuheiten.
Weniger positiv fand ich, die Aussagen von AMD bezüglich der Problematik um 7900XTX. Warum AMD keinen Rückruf startet, mit dem Wissen um die Problem-Serie, erschließt sich mir nicht. Auch wenn das nicht direkt was mit der CES zu tun hat.
Ebenso enttäuscht bin ich um die Informationen rund um die neuen APU mit Rdna 3, also Phoenix. Zumindest hätte ich gerne ein paar Spiele-Benchmarks gesehen, wo sich die APU einordnet. Ich schätze auf 1060 GTX Niveau, hoffe aber sogar auf 1660 Super/ti/3050 Rtx Niveau.
Von ASRock hätte ich mir gerne ein paar Infos zu den neuen Deskminis und Deskmeets gewünscht. Demzufolge auch über den neuen Chipsatz im Low Budgetbereich für AM5.
Die Preisentwicklung für 4070Ti und auch die des 13400(f) finde ich mehr als bedenklich. Der ganze IT Konsumermarkt ist in einer Rezension und nahezu überall werden die Preise erhöht.
Generell vermisse ich bei CB die Informationsflut. Auf anderen Seiten gab es viel mehr von der CES zu lesen über Neuheiten.
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.280
Intel macht das aber über einen AI gestützten Hardware Scheduler, während AMD einfach komplett analog und oldschool Profile über den Chipsatztreiber nachlegen muss.Mcr-King schrieb:Abwarten Intel kommt auch noch mit CCDs für A870 und co. auch NV wird den Weg gehen müssen irgendwann.
Alleine das finde ich schon extrem unsexy und veraltet.
Hier wird ja von AMD immer gesagt dass es aufgrund der Kosten nicht für beide CCDs den 3D Cache gegeben hat.
Ich denke es liegt daran, dass die Kisten mit doppeltem 3D Cache nicht mehr zu kühlen sind und die Performance bei Anwendungen ohne Cache Affinität einfach noch schlechter ist als jetzt schon im Vergleich zum 13900K.
Hab meinen 7700X vorhin Mal auf 5050Mhz gestellt anstatt der 5550 die sonst Anliegen.
Das ist schon ein gewaltiger Unterschied in den Synthetischen Benchmarks.
Ich finde das mit dem 3D Cache einfach unsexy, wenn der Takt darunter leidet. Dann sind es halt nur reine Gaming Möhren. Sobald dann Anwendungen kommen wo es richtig rund geht, kacken die Dinger komplett gegen Intel ab.
Wenn es im Schnitt 15% Mehrleistung sind im Vergleich zum 5800X3D, dann reicht das nichtmals um den 13900K zu schlagen. Man ist gleich auf und wie immer bei den 3D Gurken in Anwendungen weit Abgeschlagen im Vergleich zu den non 3D und Intel Modellen.
Einen 7900X3D mit 5.6Ghz Boost Takt + Doppelt CCD Vcache würde ich mir für 800€ sofort holen.
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.936
ich freue mich auf die gaming oleds. ich denke bei mir wirds früher oder später ein 27" oder 32" wqhd oled - eher 27" wegen der pixeldichte.
die 3D vcache cpus von amd lassen mich eher kalt. sieht nach einem mittelmäßigen wurf aus - wie alles, was am5 betrifft.
die 3D vcache cpus von amd lassen mich eher kalt. sieht nach einem mittelmäßigen wurf aus - wie alles, was am5 betrifft.
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.280
@Hutzeliger
Das ist korrekt. Auch das Thema wird von Freesync Fanatikern gerne unter den Tisch gekehrt. Technisch ist Gsync, Freesync absolut überlegen.
Das fällt gerade im FS2020 extrem auf, wo man öfters Mal in Bereiche von 30-40 FPS kommt.
Mit Gsync Ultimate komplett flüssig, mit Adaptive Sync, Gsync kompatible und Freesync einfach ruckelig.
Das ist korrekt. Auch das Thema wird von Freesync Fanatikern gerne unter den Tisch gekehrt. Technisch ist Gsync, Freesync absolut überlegen.
Das fällt gerade im FS2020 extrem auf, wo man öfters Mal in Bereiche von 30-40 FPS kommt.
Mit Gsync Ultimate komplett flüssig, mit Adaptive Sync, Gsync kompatible und Freesync einfach ruckelig.
Wintermute
Fleet Admiral
- Registriert
- Feb. 2003
- Beiträge
- 14.361
Warum steckt noch keine 4090 drin dann? Wäre für diese Ansprüche doch perfekt.Hutzeliger schrieb:Das es sauber läuft ist mir viel wert, das will ich nach 20 Jahren Systemintegration.
Nur mein Anspruch, ich spreche nur für mich.
Ich fand die X3Ds von AMD interessant und den Video upscaler von nVidia. Ansonsten eher uninteressant, allem voran die 4070ti. Nochmal minimum 200€ runter und man könnte langsam anfangen drüber zu reden. Aber wartet mal ab bis die 4060 rauskommt. Wenn nVidia so weitermacht könnte das der schlechteste midrange Deal der Geschichte werden.
theGucky
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.434
AMD hat mal wieder Augenwischerei bei den Ryzen X3D betrieben.
Viele glauben z.b. das die X3D CCDs auf 5,7Ghz laufen werden.
Wenn das aber der Fall sein sollte, warum ist der 7800X3D dann nur auf 5Ghz? Und warum hat dieser nicht einmal ein Basetakt?
Beides einfach zu sagen, AMD weiß selbst noch nicht wie sie die einordnen sollen.
Die Base und Boosttakt Zahlen der anderen 2 X3Ds stammen NUR vom zweiten CCD ohne 3D-Cache.
Zudem wären 5Ghz beim X3D ein größerer Mhz-Verlust als wie beim 5800X3D.
Allcore Last beim 12 und 16 Kerner werden dann auch durch das PPT limitiert. Der 7950X zieht gerne mal 200W, der X3D hat aber nur 162W.
Dann auch noch die 6°C weniger beim Temp-Limit...
Dat wird nix halbes, aber auch nix ganzes...
AMD sagt vieles, aber das was sie NICHT sagen sagt viel aus, bei den RX7000 war das genauso...
Ich rechne mit weniger Leistungszuwachs als beim Vergleich: 5800X vs 5800X3D und damit, das es beim Launch Probleme geben wird.
Es KANN aber auch sein, das AMD die Boostkurve gut tuned, sodass sie effizent laufen.
Und dann kommen noch mögliche Scheduler Probleme wegen ungleichen CCDs...
Im Grunde ist das ein unlösbares Problem. Alle Spiele mit X3D laufen zu lassen ist eine Möglichkeit, aber manche Spiele laufen besser ohne X3D und mit mehr Takt. Also würden in einigen Spielen die CPUs ohne X3D schneller sein...
Dat wird jedenfalls ein Spaß im Februar und einen haufen Arbeit für Tester...
Was noch interessant war in der CES sind die OLED. Kaufen werde ich keinen, weil ich schon einen C2 habe.
Und die besonders Hellen gibt es nur als z.b. 55" G3...
Aber die Entwicklung für die nächsten 2 Jahre sieht gut aus. Wobei 1440p 240hz OLEDs sind für mich nix, die haben auch ne geringere ppi als mein 4k 42"...
Viele glauben z.b. das die X3D CCDs auf 5,7Ghz laufen werden.
Wenn das aber der Fall sein sollte, warum ist der 7800X3D dann nur auf 5Ghz? Und warum hat dieser nicht einmal ein Basetakt?
Beides einfach zu sagen, AMD weiß selbst noch nicht wie sie die einordnen sollen.
Die Base und Boosttakt Zahlen der anderen 2 X3Ds stammen NUR vom zweiten CCD ohne 3D-Cache.
Zudem wären 5Ghz beim X3D ein größerer Mhz-Verlust als wie beim 5800X3D.
Allcore Last beim 12 und 16 Kerner werden dann auch durch das PPT limitiert. Der 7950X zieht gerne mal 200W, der X3D hat aber nur 162W.
Dann auch noch die 6°C weniger beim Temp-Limit...
Dat wird nix halbes, aber auch nix ganzes...
AMD sagt vieles, aber das was sie NICHT sagen sagt viel aus, bei den RX7000 war das genauso...
Ich rechne mit weniger Leistungszuwachs als beim Vergleich: 5800X vs 5800X3D und damit, das es beim Launch Probleme geben wird.
Es KANN aber auch sein, das AMD die Boostkurve gut tuned, sodass sie effizent laufen.
Und dann kommen noch mögliche Scheduler Probleme wegen ungleichen CCDs...
Im Grunde ist das ein unlösbares Problem. Alle Spiele mit X3D laufen zu lassen ist eine Möglichkeit, aber manche Spiele laufen besser ohne X3D und mit mehr Takt. Also würden in einigen Spielen die CPUs ohne X3D schneller sein...
Dat wird jedenfalls ein Spaß im Februar und einen haufen Arbeit für Tester...
Was noch interessant war in der CES sind die OLED. Kaufen werde ich keinen, weil ich schon einen C2 habe.
Und die besonders Hellen gibt es nur als z.b. 55" G3...
Aber die Entwicklung für die nächsten 2 Jahre sieht gut aus. Wobei 1440p 240hz OLEDs sind für mich nix, die haben auch ne geringere ppi als mein 4k 42"...
Hutzeliger
Banned
- Registriert
- Okt. 2021
- Beiträge
- 1.144
Wintermute schrieb:Warum steckt noch keine 4090 drin dann? Wäre für diese Ansprüche doch perfekt.
Ich fand die X3Ds von AMD interessant und den Video upscaler von nVidia. Ansonsten eher uninteressant, allem voran die 4070ti. Nochmal minimum 200€ runter und man könnte langsam anfangen drüber zu reden.
Naja eben nicht. Das Thema dreht sich doch darum das meine 3080Ti schon von meinem 11700k limitiert wird. Ich spiele unter WQHD.
Die 4090 ist einfach eine 4K Karte und dieser würde ich da auch noch eine bessere CPU zur Seite stellen. Igor und co haven die 4090 sogar mit der stärksten Intel und AMD CPU teils ins CPU Limit getrieben.
@Wintermute unter mir:
Alles gut
Zuletzt bearbeitet:
Wintermute
Fleet Admiral
- Registriert
- Feb. 2003
- Beiträge
- 14.361
Doh. Das hatte ich überlesen. Dann wird wohl ein Plattformwechsel inklusive 4080/4090 fällig, damit du immer auf deine 240+ kommst.Hutzeliger schrieb:Das Thema dreht sich doch darum das meine 3080Ti schon von meinem 11700k limitiert wird. Ich spiele unter WQHD.
Ähnliche Themen
- Antworten
- 31
- Aufrufe
- 2.090
- Antworten
- 3
- Aufrufe
- 1.841
- Antworten
- 7
- Aufrufe
- 3.079
- Antworten
- 26
- Aufrufe
- 5.683
- Antworten
- 47
- Aufrufe
- 8.859