News GeForce RTX 3060 Ti: GPU-Z verrät GA104 mit 4.864 ALUs und 8 GB GDDR6

Colindo schrieb:
Ich denke nicht, dass die Preise von AMD dieses Jahr deutlich unter Nvidias liegen werden. Dafür ist die Fertigung aktuell zu teuer.

Woher weist Du was die Fertigung einer Grafikkarte kostet? Insiderwissen oder Spekulation?
 
  • Gefällt mir
Reaktionen: Alpha.Male
Laphonso schrieb:
AMD beats Nvidia by availability ist der Tenor der Foren.
AMD gewinnt die Gruppe der "Unentschlossenen" bereits durch Verfügbarkeit, also dass man die RDNA2 Grafikkarten - im Gegensatz zu Ampere - überhaupt kaufen kann. ;)

Man kann Ampere schon kaufen - vor alllem die RTX 3070, auf Tenore im Forum würde ich nicht viel geben.
Auch nicht auf das olle Referenzdesign.
 
KlaraElfer schrieb:
Man kann Ampere schon kaufen - vor alllem die RTX 3070, auf Tenore im Forum würde ich nicht viel geben.
Auch nicht auf das olle Referenzdesign.

Wo kann man die 3070 denn kaufen?
 
  • Gefällt mir
Reaktionen: Dittsche, lalanunu, Alpha.Male und 2 andere
Also ich trau mich hier schon bald nicht mehr lesen..... Eine RTX 3080 mit saaaagenhaften 10 GB VRAM, eine RTX 3090 mit 24GB VRAM und einem Preis das einem schlecht wird. Eine RTX 3080 TI lies hoffen fällt ins Wasser. Und jetzt der taktische Paukenschlag eine RTX 3060TI Waaaaahnsinn!!!!

NVIDIA ich bin so stolz auf euch und Mister Lederjacke im nächsten Leben sollten sie wenn schon Backrohraction Bäcker werden.....
sTOrM41 schrieb:
Wo kann man die 3070 denn kaufen?

Ganz einfach dort wo alle anderen NVIDIA Karten mit Liefertermin unbekannt verkauft werden :daumen:

arni 3.png



Schreckliches Elend also AMD?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Alpha.Male, hongkongfui und 2 andere
@NguyenV3
das Problem ist die Leistung vs VRAm wenn die Karte 3060 auf 2070 Super niveau od. drüber ist dann passt der VRAM nicht zur Leistung weil die Karte zu schnell ans limit kommt.
 
Vermutlich die bessere Wahl als eine RTX 3070 mit gleich grossem/kleinen Speicherausbau und damit passender zur Rohleistung, dazu noch der bessere Preis und die bessere Effzienz.

Ja, das koennte die beste/rundeste RTX Ampere Grafikkarte von nVidia werden (noch vor einer gemunkelten RTX 3070Ti mit nur 10GB) ... warten wir es ab, ich denke, dass AMD/RTG 12 GB RX 6700 GPU Angebot duerfte trotzdem insgesamt besser/runder ausfallen ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cookie_dent und Benji18
InsideInfinity schrieb:
Schön das du es dann in einer Grafik zockst die der Realität (nämlich dem Optimum, dem was die Entwickler wollten) deutlich unterlegen ist.
Wie bist du denn drauf? Der Entwickler will also, dass alle auf "Ultra" spielen, aber welche Auflösung dabei gewählt wird ist dem Entwickler egal? Wäre es nicht sinnvoller anzunehmen, dass der Entwickler möchte, dass man im Spiel frei zwischen den Presets wählen kann, um für seine Ansprüche die richtige Einstellung zu finden?

Oder noch besser, man ändert die Einstellungen einzeln. Das scheint ja für dich unvorstellbar zu sein, wenn du nur Presets erwähnst. Und wunderst dich wahrscheinlich, warum du bei Medium nur Texturmatsch bekommst, weil du nicht verstehst, dass Texturen und Leistung nichts miteinander zu tun haben.

Ich habe schon oft Spiele in UWQHD gespielt, aber dann mit hohen Details, mittleren Schatten und Ultra-Texturen. So läuft das Spiel genau so, wie ich es gerne hätte, ohne dass es mir wahrnehmbare optische Nachteile verschafft.
cookie_dent schrieb:
Woher weist Du was die Fertigung einer Grafikkarte kostet? Insiderwissen oder Spekulation?
Spekulation, aber die Folie von AMD bezüglich der Preise von N7 und N5 sind dir bekannt? Habe ich schon ein paar Mal gepostet. Solange man nicht außergewöhnlich kleine Chips fertigt, sind die Kosten gegenüber 14nm schon deutlich.

Ich gestehe aber zu, dass der kleinere Chip von AMD in N7 eventuell gleich teuer wie der größere Nvidia-Chip in 8nm sein könnte. Je nach Defekten.
 
  • Gefällt mir
Reaktionen: Smartbomb, Hardware_Junkie, jemandanders und eine weitere Person
Colindo schrieb:
aber die Folie von AMD bezüglich der Preise von N7 und N5 sind dir bekannt? Habe ich schon ein paar Mal gepostet.
Ich hab die mal irgendwann gesehen. Könntest Du die bitte noch einmal für mich posten? Oder den Link dahin?
Dann speicher ich mir die auch mal ab. :)
 
Colindo schrieb:
Habe ich schon ein paar Mal gepostet. Solange man nicht außergewöhnlich kleine Chips fertigt, sind die Kosten gegenüber 14nm schon deutlich.m

In der Tat hatte ich mal einen Vergleich zwischen 14 und 7nm gesehen (Ryzen 1 vs Zen 2), ich weis aber nicht mehr wo.
Fazit aus dem Gedächtnis: 7nm = ca. doppelter Preis/Wafer bei fast doppelter Ausbeute an (CPU) Die´s.
Und die 7nm Wafer sollten mittlerweile im Preis gefallen sein.
 
NguyenV3 schrieb:
Kommt drauf an, wer der Konkurrent ist. Wenn es die 1660Ti ersetzt, ist die Alternative die RX 5600 XT und die hat auch nur 6 GB. Und morgen werden wohl nur die größeren Karten vorgestellt.
Nunja...das würde ich dann Lisamäuschen aber richtig krumm nehmen!. :D ;)
 
Colindo schrieb:
Wie bist du denn drauf? Der Entwickler will also, dass alle auf "Ultra" spielen, aber welche Auflösung dabei gewählt wird ist dem Entwickler egal? Wäre es nicht sinnvoller anzunehmen, dass der Entwickler möchte, dass man im Spiel frei zwischen den Presets wählen kann, um für seine Ansprüche die richtige Einstellung zu finden?

Also ich erwarte nicht das du es nachvollziehen kannst, aber für mich war es schon immer logisch, das die Entwickler ihre spiele so bauen das eben diese möglichst atmospherisch/immersiv sind. Ich erwarte einfach von jedem Entwickler das er ein Spiel um das maximum des Möglichen herum designed und nicht für 10 Jahre alt aussehende low Einstellungen.

Vergleich mal aktuelle Spiele auf minimalen und auf maximalen Einstellungen. Was sieht denn bitte immer atmospherischer aus, die minimalen Grafikeinstellungen oder die maximalen ??

Es ist ziemlich klar und eindeutig für mich. Aus diesem Grunde bin ich der Meinung das jeder Entwickler auch erwartet, sein Spiel auf möglichst hohen Einstellungen zu zocken und nicht auf geringen. Fortschritt kann auch nur dadurch erreicht werden ;)

Nimm mal ein Spiel wie Red Dead Redemption 2. Das ist auf maximalen Einstellungen deutlich atmospherischer als auf minimalen, das wird jeder mit einem quäntchen Verstand nachvollziehen können ;) Dies gilt für die meisten anderen Spiele und Genres auch (es gibt Ausnahmen, aber die gibt es schließlich immer).

Oder denkst du der aktuelle Microsoft flight Simulator hätte auch nur ansatzweise! soviel Beachtung gefunden wenn er ausgesehen hätte wie der letzte von vor 14 Jahren ??

Dann stell mal im flight Simulator alles auf minimale Einstellungen und dannach auf maximale und du siehst den Unterschied direkt ;)
 
@InsideInfinity Ich spreche allerdings nicht von minimalen Einstellungen, wie auch sonst keiner hier, sondern von mittleren bis hohen Einstellungen, teilweise auch mit Ultra. Ich meine, du machst es dir deutlich zu einfach, wie du das Problem betrachtest.

Schau dir nur mal die Wolkeneinstellungen bei AC:Odyssey an. Erwartet ein Entwickler wirklich, dass die Wolken auf die höchste Stufe gestellt werden, nur um dann dutzende % an Leistung zu verlieren? So etwas ist doch, wenn überhaupt zu rechtfertigen, für die Zukunft gemacht, wenn man viel fps über hat.
 
Meine für heutige Verhältnisse steinalte RX 570 hat 8GB VRAM. Und die hat 150€ gekostet.
Jetzt versucht Nvidia ne 6 GB Karte für 300 zu verticken... Nein Danke!
 
  • Gefällt mir
Reaktionen: Smartbomb
Vitali.Metzger schrieb:
Nur 8 und 10 GB Karten nein danke NVIDIA. Ich will nach über 4 Jahren bei einer neuen Karte mindestens 16 GB und kommt mir jetzt nicht mit RTX IO.
da bin ich bei dir
und zitiere mal PCGH
Jeder, der eine Geforce RTX 3070 8GB kauft, sollte sich darüber im Klaren sein, dass er oder sie keine "eierliegende Wollmilchsau" wie die GTX 1070 erhält, sondern eine schnelle, aber nur eingeschränkt zukunftstaugliche Grafikkarte. Gerade bei einer derart prallen Feature-Checkliste wie der von Ampere schmerzt es, wenn eine Grafikkarte eine Sollbruchstelle aufweist; die Haltbarkeit der RTX 3070 ist durch ihren Speicher begrenzt. Die lange Nutzungsdauer einer GTX 980 Ti oder GTX 1070 wird somit wahrscheinlich nicht erreicht,
das trifft dann auch auf die 3060 zu.

quelle https://www.pcgameshardware.de/Gefo...80-Ti-Release-Benchmark-Review-Preis-1359987/


wenn man bedenkt, dass die hier genannten Zahlen ja nur die vermuteten Preise der Founders Edition sind (die sowieso wohl kaum jemand je geliefert bekommt) und die Boardpartner Karten dann nochmal einiges teurer sind (siehe 3070,3080.3090), dann sag ich: nein danke und denke solche Preise sind sowieso nur Lockangebote für Ware, die man zu dem Preis nicht erhält bzw nur sehr schwer. (wie bei den 3080,3090).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stellarix
Colindo schrieb:
Das wundert mich aber jetzt.
Die Industrie war es doch die gejammert hatte das 14nm immer teurer wurde - weil man immer mehr Tricks brauchte um so kleine Strukturen zu ermöglichen. Und es hieß wenn EUV kommt bessert sich das. Ja EUV ist teurer - dafür kann man sich zig Produktionsschritte sparen... Ergo laut Industrie sollte unterm Strich eine Ersparnis bei rum kommen... Stand heute denke ich sind die 5nm noch sehr teuer - schließlich stellt es die Speerspitze in der Massenfertigung dar. Mit ein Grund vermute ich wieso z. B. AMD erst 1,5 bis 2 Jahre später in den neusten Node wechselt... Könnten theoretisch ja mit Apple mit der Produktion anfangen....
Aber rein von der Fertigung der GPU her ist das kein Argument für ein teures Produkt. AMD fertigt ja RDNA1 in 7nm.. Ich bleibe dabei AMD hat einiges getan um die Kosten zu senken...
Wenn Sie auf Marktshare aus sind könnte es eine Überraschung geben...
Aber ich sage auch eines - wenn AMD zur UVP NVs liefern kann - ist für so manchen der Trops gelutscht...
 
Bei 14nm war die Lithografie wegen der Zwischenschritte teuer, jetzt ist es die Entwicklung und der Aufbau der Produktionsstrecke. Es kann natürlich sein, dass N3 dann wieder etwas günstiger wird, aber vielleicht kommt da auch schon wieder Double Patterning und alles wird wieder komplizierter. Sieht langfristig auf jeden Fall nicht gut für monolithische Chips mit 500+ mm² aus. Die High-NA EUV-Geräte können auch keine 800 mm² mehr belichten, wie es beim GA100 zurzeit gemacht wird.

Wie die Preise heute Abend aussehen werden, wird spannend. Meine Theorie ist eben, dass die Fertigungskosten bereits bei RDNA1 verhindert haben, dass AMD einen deutlichen Preisrutsch anbietet. Bei CPUs 2017 war der ja enorm, und ich denke das liegt an der weiterhin durch Chiplets günstigen Fertigung.
 
Zurück
Oben