News CPU-/GPU-Gerüchte: Intels 48-Kerner, AMDs 64-Kerner und Nvidia RTX 2060

Simon#G schrieb:
Dann müsste es aber GTX 2060 heißen. Im Screenschot ist aber RTX 2060 zu lesen. Das widerspricht den bisherigen Information bzw. Annahmen.
Zum einen das, und zum anderen wären 25% sehr wenig. Die RX590 wär' da nur ca. 10% langsamer. Bei ~260€ dürfte eine GTX/RTX 2060 auch nicht viel mehr kosten (zumal ja wahrscheinlich wieder nur 6GB VRAM).
Die Lücke zwischen RTX/GTX 2060 zu RTX 2070 wär' da irgendwie zu groß, d.h. der 350-500€-Bereich wäre unbesetzt.
Eine RTX/GTX 2060 würde sich sehr wahrscheinlich als GTX1070 Nachfolger verstehen (vgl. GTX 1080->RTX 2070, GTX 1080ti->RTX 2080) und daher mindestens GTX 1070 Leistung haben also >= 35% (Zuwachs zur aktuellen GTX 1060). Der Preis sollte dann auch bei mind. 350€ liegen (~GTX 1070-Preis) (einfach aus dem Namensschema-Shift heraus).

PS:
Pixelkiller schrieb:
egal ob die 2060 RT cores hat oder nicht sie wären wertlos, mit welcher auflösung soll da ein Spiel mit aktivierten Raytracing flüssig laufen, 720p ?
Und genau deshalb darf man mit äußerst hoher Wahrscheinlichkeit davon ausgehen, dass sie eben überhaupt erst keine RT-Cores hat.
 
duskstalker schrieb:
wenn das die 40 CU navi ist, erreicht die mit ein paar anpassungen an der architektur knapp vega 56 stock leistung. viel mehr als 2 ghz wird auch am desktop nicht gehen. mit bissl mehr takt, liegt man vllt auf vega 56 custom performance.

Kann sein muss nicht. Keiner weis genau was an der GPU geändert besser gesagt angepasst wird.
 
Wie sich hier einige echauffieren. Willkommen im Kapitalismus und der freien Marktwirtschaft. Ihr tragt alle dazu bei. Ich rege mich schon lange nicht mehr auf
 
  • Gefällt mir
Reaktionen: franzerich, Yar und HiT-Killer
Im ersten Halbjahr 2019, spätestens zum Sommer soll Intels komplette Cascade-Lake-Familie auf einem Schlag vorgestellt werden und sich so direkt mit AMDs Neulingen messen.

besser wäre:

Im ersten Halbjahr 2019, spätestens zum Sommer soll Intels komplette Cascade-Lake-Familie auf einem Schlag vorgestellt werden und direkt von AMDs Neulingen vernichtet werden.

:king:
 
  • Gefällt mir
Reaktionen: MIWA P3D
Elverado schrieb:
Zum einen das, und zum anderen wären 25% sehr wenig.[...]
Meine Güte, anstatt zu spekulieren, solltest du dir die Werte ansehen. Es sind 30% und damit auf dem Niveau. Das passt sowohl zur bisherigen Turing Vorstellung als auch der Abstand wie bei Pascal wäre beibehalten.
Die Leistungssteierungen sind sehr gut bei NV vorhersehbar. +-5% versteht sich.
 
@Volker
Hat noch keiner aufgelöst? Im Cinebenchscreen steht "Inrel". Ich glaub kaum, daß Intel dieser Fehler unterlaufen wäre. :)
 
  • Gefällt mir
Reaktionen: Banned
Die 980Ti liegt in dem Benchmark näher an der 1080 als an der 1070?

Smells fishy.
 
  • Gefällt mir
Reaktionen: yummycandy und Makso
Das mit der 2060 wundert mich nicht.
War klar, dass noch mehr kommt.
Allerdings wird sich die RTX 2060 bei einem salzigen Preis schwer verkaufen.
Die RX 590 wird einiges günstiger sein und im Vergleich mit ihr der Kassenschlager.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
v_ossi schrieb:
Die Chipfläche wird mit der Zeit aber billiger. Die Kosten pro 16nm Wafer waren 2016 mit Gewissheit höher, als sie es heute bei 12nm Wafern sind, die ja selbst auch nur optimierte 16nm Wafer sind.
Nur dann, wenn der Yield sich verbessert. Bekanntlich sinkt dieser aber bei zunehmender Fläche, und das sogar exponentiell. Zudem werden die Chip-Preise immer noch von TSMC bestimmt und nicht zwangsläufig an den Kunden (Nvidia) weitergegeben.
v_ossi schrieb:
Wie viel größer der Chip selbst wird, steht ebenfalls noch gar nicht fest. Die Tensor und RT Einheiten könnten z.B. komplett entfallen, da die schon bei der 2070 nicht ausreichend dimensioniert sind um die gewünschten Effekte zu liefern. Damit bleibt wahrscheinlich ein recht 'konservativer' Chip über; ein Turing Aufguss von Pascal in 12nm. Der muss nicht zwangsläufig größer sein und gewiss nicht viel teurer.
Zum einen ist in der News von RTX die Rede, was also einschließt, dass auch alle Architektur-Erweiterungen von Turing verwendet werden würden. Zum anderen müssen sie die Preise auch auf die anderen (teureren) Produkte aus eigenem Haus abstimmen, da sie sich sonst selbst Konkurrenz machen würden und weniger Leute die (für Nvidia) profitableren High-End-GPUs kaufen würden.
v_ossi schrieb:
Aber Jen-Hsun "Jensen" Huang freut sich bestimmt, dass du deren Verhalten auch noch ohne Grundlage schön redest.
Mache ich nicht. Ich setze mich nur sachlich mit dem Thema auseinander und erwäge auch die Hintergründe, anstatt wie du lediglich das Ergebnis für den Endverbraucher zu berücksichtigen.
Im Übrigen gehöre ich selbst nicht zur Käuferschicht, weshalb mir die Preise persönlich auch ziemlich egal sind ;)
v_ossi schrieb:
Die Preiserhöhung beim Die Shrink in 7nm kannst du dann übrigens damit rechtfertigen, dass das eine neue Technik/Fertigungsgröße ist und diese NVidia ja teuer zu stehen kommt. Da sind die 1499€ für die 3080Ti ja irgendwie noch fair. :rolleyes:
Scheinbar weiß deine Glaskugel ja mehr als wir, wenn du die Preise der 3080 Ti bereits kennst und auch über die Produktions-Kosten bescheid weißt ;)

Im Übrigen wird GDDR6-Speicher auch nicht unbedingt hinterher geworfen, auch hier dürften die Kosten kaum geringer ausfallen als bei Pascal. Bedenke zudem, dass die hohen Kosten aktuell aber auch mit der hohen Leistung einhergehen. Relativ zur Performance sind sie kaum (oder je nach Modell sogar gar nicht) teurer geworden als der Vorgänger. Aber auch das hört man ja nicht gerne, schließlich erwartet man ja, dass man mit jeder Generation "mehr" für sein Geld bekommt, ganz egal, ob es in dieser Zeit technische Fortschritte gab oder nicht :rolleyes:
 
owned139 schrieb:
Genau und das Teil ist dann lauter, als ein Staubsauger?

Nö, eher der 7nm Fön im vgl. zum 12nm Turing Staubsauger ;)
 
Weiß jemand, ob die Dual-Sockel Boards für den 48c Xeon wirklich mit 24-Channel RAM kommen?
 
Eine RTX 2060 wird es nicht geben, vielleicht eine GTX 2060! Eine RTX Turing Grafikkarte mit dem synonyme RTX müsste auch die RTX Hardware Feature im Chip enthalten, aber wie soll das funktionieren? Eine RTX 2060 noch mehr in den RTX Hardware Feature wie eine RTX 2070 beschneiden geht nicht mehr, es sei denn man wirbt mit dem Zusatz:
RTX 2060 mit Raytraycing Diashow, für einen gemeinsamen Abend mit der Familie!!
Da Nvidia demnächst umgebaute / umgelabelte GTX 1080 Chips [und PCB`s] mit GDDR5X Speicherbausteinen als eine GTX 1060 [oder vielleicht doch als GTX 2060?] auf den Markt bringen will [Resteverwertung, wegen Überproduktion!], wo soll sich denn da eine RTX 2060 einordnen? Das erscheint mir völlig unwahrscheinlich und unrealistisch, ich denke vielmehr wird es genau diese umgelabelte GTX 1080, als eine GTX 2060 verkauft, eine RTX 2060 mit Turing Chip war nie geplant und wird es auch nicht geben.

Schaut man sich diesen FFXV-Benchmark mit einer angeblichen RTX 2060 an, deutet die Punktzahl eher auf diese umgelabelte GTX 2060 mit Pascal Chip und GDDR5X Speicher!
 
  • Gefällt mir
Reaktionen: Beyazid und yummycandy
Qonqueror schrieb:
Weiß jemand, ob die Dual-Sockel Boards für den 48c Xeon wirklich mit 24-Channel RAM kommen?
Wenn dann nur 12Channel und das Bild scheint ein Fake zu sein.
 
  • Gefällt mir
Reaktionen: Qonqueror
Die Situation kann man aktuell ja wie folgt beschreiben, „CPUs hui, GPUs pfui!“

Eine GTX 2060 mit einem Leistungsplus von ~ 25 Prozent oberhalb der GTX 1060 und einem Preis oberhalb einer GTX 1070? Nicht sonderlich prickelnd.

Naja, warten wir’s mal ab. Erste Gerüchte über Navi klingen mittlerweile recht vielversprechend.

Liebe Grüße
Sven
 
Sun_set_1 schrieb:
Nö, eher der 7nm Fön im vgl. zum 12nm Turing Staubsauger ;)
würde ich nicht sagen. Denke an so 45watt TDP. Bs dorthin entwickelst sich sicher noch einiges.
Wir wissen ja nicht wie gut/schlecht 7nm ist und wie es skaliert.
 
Auf wccftech wird spekuliert, dass die Grafikkarte vielleicht für Notebooks gedacht ist, und deswegen ein bisschen schwächer ausfällt als erwartet. Vielleicht eine GTX 2060-Max-Q oder so?
Immerhin behaupten einige Gerüchte auch, dass die mobilen Grafikkarten früher erscheinen würden. Das würde das Ergebnis in gewisser Weise bekräftigen. Und dann wäre sie leistungsmäßig gar nicht so schlecht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: CBL
Das Problem aktuell ist nicht nicht mehr, dass man rechenleistung nicht kaufen kann. - Das Problem ist, dass es nicht selbstverständlich ist, dass die Software, die wir nutzen (egal welche) auch mit so vielen Kernen umgehen kann. - Könnte jedes belibige PC Spiel mit 32 Kernen skalieren, dann wäre die Leistung pro CPU Einheit nicht mehr das Problem. - Dann könnte man plötzlich wieder mit PCs in der 1 bis 2 GHZ Region aktuelle Blockbuster Games spielen, die richtige Grafikkarte vorausgesetzt.
Und genau das muss das Ziel sein.
Ich habe eine 8 Kern CPU mit 16 Threads und kann sie nicht wirklich nutzen. - Nicht mit der Software, die ich im Einsatz habe.
Was sagt das jetzt über meinen Ryzen 7 1700X? - Vielleicht erleidet er das gleiche Schicksal wie der i5 2500K und ist nach 7-8 Jahren im Einsatz immer noch in der Lage, alles (in akzeptabler Zeit) wegzurechnen, was ich ihm vor die Füße werfe.
Und ja, ich weiß schon, dass ich SuperPi, Cinebench, etc auf der Kiste laufen lassen kann. - Das sind aber nur Benchmarking Tools, die mit normaler "PC Arbeit"bzw "Games" nichts zutun haben.

Ich hatte ja schon mal die Idee aus einem Potenten Gaming PC durch 2 virtuelle Maschinen 2 (virtuelle) Gaming PCs zu machen...
Gottseidank muss ich nach Weihnachten arbeiten, und hab die 2 Tage in der KW 52 nicht frei. - Ich glaub, sonst käme ich auf so tolle Ideen, um das mal auszuprobieren....
 
  • Gefällt mir
Reaktionen: Makso
Dass es eine 2060 Karte geben wird wissen wir doch schon. Ein Gigabyte Mitarbeiter hat doch bereits im Sommer gesagt, dass man am Ende des Jahres ihre Laptops mit Pascal Nachfolger erwarten darf.
Ob es jetzt eine GTX oder RTX Karte ist wird sich zeigen. Ich kann mir vorstellen, dass Nvidia die RTX 2060 rausbringt und diese mit der gleichen Menge an RT Kernen wie die 2070 ausstattet und dafür dann 400 - 450 Euro verlangt. Die RT Leistung einer RTX 2070 ist nunmal wirklich nicht so berauschend. Eine Karte mit noch weniger RT Kernen rausbringen macht keinen Sinn. Dann wirds eben so gemacht wie bei den 8 GB GDDR6 der RTX 2070 und 2080.
 
SaschaHa schrieb:
Nur dann, wenn der Yield sich verbessert. Bekanntlich sinkt dieser aber bei zunehmender Fläche, und das sogar exponentiell. Zudem werden die Chip-Preise immer noch von TSMC bestimmt und nicht zwangsläufig an den Kunden (Nvidia) weitergegeben.

Da verweise ich einfach mal auf den Yiel Calculator und nehme für die Defektraten die Präsentationsfolie aus dem letzten AdoredTV Youtube Video:
Adored.PNG


Pascal (gerechnet mit 480mm² für die 1080T bei eig. 471mm²):
Pascal.PNG


Turing (gerechnet mit 744mm² für die 2080Ti bei eig. 754mm²):
Turing.PNG



Da kämen bei den von mir gewählten Einstellungen 34 Turing Chips im Vergleich zu 30 Pascal Chips heraus. Klar, das ist auch nur eine ganz grobe Rechnung und viele der Variablen sind sicher an der Realität vorbei, aber selbst wenn man die Parameter zu Ungunsten von Turing verändert, sind wahrscheinlich akutell nicht so viel weniger Chips pro Wafer nutzbar, als das bei Pascal anfangs er Fall war.

Und selbst wenn, der 12nm Prozess ist ein verbesserter 16/14nm Prozess und nichts grundlegend Neues. Ich gehe stark davon aus, dass die Preise pro Wafer im Vergleich zu vor 2 Jahren nicht exorbitant gestiegen, eher gefallen sind.


SaschaHa schrieb:
Zum einen ist in der News von RTX die Rede, was also einschließt, dass auch alle Architektur-Erweiterungen von Turing verwendet werden würden.
RTX Effekte sind auf der 2070 schon kaum 'sinnvoll' nutzbar, was genau soll dann mit der 2060 passieren, wenn da noch mal weniger RT und Tensor Einheiten drauf sind?
Das kannst du doch niemandem mehr als Raytracing Karte verkaufen.
In der Nachricht steht auch explizit, dass es sich um Gerüchte handelt, da ist es zum momentanen Zeitpunkt und in Anbetracht der RT-Performance der 2070 mMn nur logisch, bei der 2060 keine RTX Spielereien zu erwarten.

SaschaHa schrieb:
Zum anderen müssen sie die Preise auch auf die anderen (teureren) Produkte aus eigenem Haus abstimmen, da sie sich sonst selbst Konkurrenz machen würden und weniger Leute die (für Nvidia) profitableren High-End-GPUs kaufen würden.
Das meine ich doch mit "weil wir es schlucken". Nvidia würfelt die Preise nicht nach den Kosten und einer gewissen Marge, sondern danach, was man so gerade noch verkaufen kann, weil man keine Konkurrenz hat.

SaschaHa schrieb:
Mache ich nicht. Ich setze mich nur sachlich mit dem Thema auseinander und erwäge auch die Hintergründe, anstatt wie du lediglich das Ergebnis für den Endverbraucher zu berücksichtigen.
Im Übrigen gehöre ich selbst nicht zur Käuferschicht, weshalb mir die Preise persönlich auch ziemlich egal sind ;).
Wie du hoffentlich siehst, setze ich mich auch mit den Hintergründen auseinander, aber gehe anscheinend genau anders herum an die Sache ran.
Ich frage mich nicht 'Warum sind die Preise gerechtfertigt?', sondern 'Warum sind die Dinger so viel teurer, als die letzte Generation?'

Und auch obwohl ich ebenfalls nicht zur Käuferschaft der 2070 aufwärts gehöre; wenn sich die Preise im High End Segment so etablieren, tröpfelt das langsam auch in die Mittelklasse runter. Der Kunde ist ja dran gewöhnt

SaschaHa schrieb:
Scheinbar weiß deine Glaskugel ja mehr als wir, wenn du die Preise der 3080 Ti bereits kennst und auch über die Produktions-Kosten bescheid weißt ;)

Im Übrigen wird GDDR6-Speicher auch nicht unbedingt hinterher geworfen, auch hier dürften die Kosten kaum geringer ausfallen als bei Pascal.
Das war wohl eher aus der Frustration heraus, dass einige User bei solchen reinen Luxusartikel -denn nichts anderes sind Pixelschubser im vierstelligen Eurobereich- eher den Herstellern, die wohlgemerkt gerade Rekordgewinne einfahren und daher per Definition ihre Produkte gar nicht zu billig anbieten können, zur Seite springen, als aus Konsumenten Sicht kritisch zu bleiben und NVidia (oder Intel mit seinen zuletzt lächerlichen Preisen) auf die Finger klopfen.

SaschaHa schrieb:
Bedenke zudem, dass die hohen Kosten aktuell aber auch mit der hohen Leistung einhergehen. Relativ zur Performance sind sie kaum (oder je nach Modell sogar gar nicht) teurer geworden als der Vorgänger. Aber auch das hört man ja nicht gerne, schließlich erwartet man ja, dass man mit jeder Generation "mehr" für sein Geld bekommt, ganz egal, ob es in dieser Zeit technische Fortschritte gab oder nicht :rolleyes:

Ja... mehr fürs gleiche Geld zu bekommen nennt sich technischer Fortschritt. Das lief bisher immer so. Mit jeder Generation. Etwas anders zu verlangen ist doch vollkommen absurd.

Dabei ist mir durchaus bewusst, dass die Entwicklung nicht immer gleich schnell weiter gehen kann, tendenziell eher teurer wird und sichtbare Fortschritte immer schwerer zu erreichen* sind, aber was du als Rechtfertigung für NVidias Preispolitik anführst, führt doch den ganzen Markt ad absurdum.

Es muss ja nicht jährlich eine neue Generation mit +30% Leistung zum (inflationsbereinigten) Preis des Vorgängers sein, aber alle 2 oder inzwischen gar 3 Jahre wäre das schon ganz nett.
So wie uns aktuell die Mehrleistung zum Mehrpreis verkauft wird, ist das ja streng genommen gar kein Fortschritt und wenn die Entwicklung so weiter geht, bekommt man nie mehr Leistung für sein Geld.

Da bleibt rational gesehen irgendwann nur noch der Schritt zur Konsole.

*man vergleiche hier nur mal den Polygon Count. Kaum grafische Unterschiede, trotzdem doppelt so aufwändig zu berechnen. Also sieht die Mehrleistung nicht direkt proportional 'besser' aus. Also ja, technischer Fortschritt wird teurer, das ist mir bewusst und das ist nur das einfachste Beispiel um das zu illustrieren.
cars_high_2.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: alkaAdeluxx, Makso und yummycandy
Zurück
Oben