Test GeForce RTX 3070 Ti FE im Test: Das Mini-Upgrade, das nur 2021 funktioniert

Luxmanl525 schrieb:
Hallo zusammen,

völlig absurder, gar überflüssiger Neuer Aufguß.
Also ich finde, dass man mit dem Aufguss wohl die besseren GA104 GPUs verwurstet und die schlechteren als 3070 Modell verwertet. Von dieser Sichtweise, bringt die neue GPU wohl etwas mehr.
Absolute Crunch-Time für Jensen, wirtschaftlich ein sehr guter move.
Luxmanl525 schrieb:
Alleine schon wenn man sich die Relation der gestiegenen Performance zum deutlich gestiegenen Stromverbrauch anschaut, wird klar daß der Chip sowieso schon an der Grenze vorher schon beim normalen Modell war.
Aber es geht eben immer noch ein wenig mehr wie man gut sehen kann.
Die Leistung ist für den "kleinen" Nvidia Chip jedenfalls herausragend, verglichen mit der Radeon 6700XT.

Luxmanl525 schrieb:
Jetzt ist das Verhältnis völlig absurd. Das sind fast Verhältnisse wie sie früher bei Vega / Vega 64 vorherrschten.
Die Konkurrenzprodukte weisen eine bessere Effizienz von 11 bis 30% auf.
Die Effizienz der 1080 war gegenüber Vega 64 doppelt so hoch, also sind wir von solchen Verhältnissen noch weit entfernt.

Luxmanl525 schrieb:
Ich bin ja sowieso schon länger der Meinung, daß Nvidia sich da keinen Gefallen damit tut, die letzten Fitzelchen rauszuholen. Das war schon bei der Standard RTX 3080 arg grenzwertig.
Genau das muss man tun, wenn man sich hinsichtlich der Leistung behaupten will. WIchtig für die Psychologie.

Luxmanl525 schrieb:
Man muß schon deutlich Sagen, da fährt AMD den deutlich besseren Weg.
Da muss ich dir klar widersprechen, da 20 Watt den Kohl nun nicht fett machen.

Luxmanl525 schrieb:
Genauso haben sie die RT-Choose richtig eingeschätzt.
Und unterliegen mehr als deutlich.;)
Ergänzung ()

Luxmanl525 schrieb:
Es ändert aber nichts daran, daß die Ergebnisse dieser Seite schon seit Jahren keinen Seriösen Aussagewert haben. Ich nehme die schon länger in keinster Weise mehr Ernst.
Bitte den Beleg führen, danke.
Wenn man böse wäre, könnte man die 3070Ti auch als bessere Karte verkaufen, sofern man auf RT steht.
 
Einfach nur um abzukassieren auf 20% Effizienz verzichten.
Weil es geht kann man Nvidia eigentlich keinen Vorwurf machen. Beschissen ist die Situation aktuell trotzdem.
 
Marcel55 schrieb:
5% mehr FPS für 30% mehr Stromverbrauch.
Geil, ich nehm direkt 2.
Den Trick haben sie sich bestimmt bei Intel abgeguckt.:jumpin:
 
  • Gefällt mir
Reaktionen: McFritte und Öcher Tivoli
Zwiebelsoße schrieb:
Die Leistung ist für den "kleinen" Nvidia Chip jedenfalls herausragend, verglichen mit der Radeon 6700XT.
Findest du wirklich?
Navi 22: 336mm²
GA104: 393mm²
-> GA104 ist 17% größer

in WQHD (nehm ich jetzt einfach mal als sinnvollstes Einsatzgebiet für die Leistungsklasse) ist man 16% schneller bei 74w höherer Leistungsaufnahme.
Natürlich skaliert sowas nie komplett linear, aber das ist schon weit davon entfernt, mich vom Hocker zu hauen.
 
  • Gefällt mir
Reaktionen: DonL_
Luxmanl525 schrieb:
PCGH offeriert nicht nur bei Nvidia GPU`s schon seit Jahren teils absurde Rückschlüsse und "angebliche Ergebnisse". Wer die noch Ernst nimmt, der soll das halt tun. Es ändert aber nichts daran, daß die Ergebnisse dieser Seite schon seit Jahren keinen Seriösen Aussagewert haben. Ich nehme die schon länger in keinster Weise mehr Ernst.
Wie man auf Basis solcher letztlich geringer Unterschiede auf diese Schlüsse kommen kann, ist mir schleierhaft.

In keinster Weise...da kannst du ja keinen Reviewer mehr ernst nehmen. Auch CB hat teils "komische" CPU Ergebnisse, sogar Anandtech testet mitunter Quatsch mit Sauce. Wird ja am Ende auch akzeptiert von vielen...
 
Ich frage mich ja, was sich Nvidia sich mit so vielen Modellen verspricht, wenn sie gar nicht in den Mengen produzieren können. So verteilt man die verfügbaren Produktionskapazitäten doch nur unnötig auf viele verschiedene Modell und sorgt dafür dass noch weniger von jedem einzelnen Modell verfügbar sind. Wäre es da nicht sinnvoller, die Kapazitäten erstmal auf 3-4 Basis-Modelle wie 3060, 3070, 3080 und evtl 3090 zu konzentrieren, um deren Verfügbarkeit zu verbessern? Zwischenstufen kann man ja später immer noch bringen und verkaufen, wenn sich die Marktsituation gebessert hat.
 
guggi4 schrieb:
Findest du wirklich?
Navi 22: 336mm²
GA104: 393mm²
-> GA104 ist 17% größer
Ja, finde ich, denn GA104 wird in einem 8nm Verfahren von Samsung gefertigt, Navi in 7NP von TSMC.
Nvidia hat sich wegen der niedrigen Kapazitäten bei TSMC bewusst dafür entschieden.
7nm würde mehr Takt und einen etwas niedrigeren Verbrauch zulassen.
 
Ach du heilige Scheiße, jetzt verbraucht NVIDIA's Mittelklasse bereits 300W und ist dabei kaum schneller als die normale 3070.

Bei der 2070 super vs. 5700X wurde noch ein riesen Fass aufgemacht, weil sie effizenztechnisch in etwa 5% vor der 5700X rangierte.
Das Fass das man nun aufmachen könnte, wäre wohl nicht größer, hätte aber keinen Boden.
 
  • Gefällt mir
Reaktionen: ComputerJunge, DonL_, A.Xander und eine weitere Person
Kein Kommentar :D
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Zwiebelsoße schrieb:
Ja, finde ich, denn GA104 wird in einem 8nm Verfahren von Samsung gefertigt, Navi in 7NP von TSMC.
Nvidia hat sich wegen der niedrigen Kapazitäten bei TSMC bewusst dafür entschieden.
7nm würde mehr Takt und einen etwas niedrigeren Verbrauch zulassen.
Stimmt, das hab ich nicht beachtet, aber von "herausragend verglichen mit der RX6700XT" ist das mMn weit entfernt.
Fläche und Verbrauch ließen sich wohl einsparen, Takt ist aber reine Spekulation, auch die uArch muss für den Takt ausgelegt sein, siehe RDNA->RDNA2 im selben Node
 
Also das man die 3080 als Ti auflegt, und diese quasi ne 3090 mit weniger RAM is, ok. I get it.

Aber wenn man den Performanceunterschied der 3070 zur 3070 Ti sieht .... WHY ?
 
  • Gefällt mir
Reaktionen: Xes
naicorion schrieb:
Verstehe ich nicht ganz mit "usecase" ermöglichen: Man kann mit 470.05 mit ein paar Risern ein 3060er Rig mit voller Hashrate zusammenbauen. Kostet ein bisschen mehr und ist aufwendiger als mit PCI-1 Risern, klar. Alternativ kann man kann Karten bunt unter die Windowsrigs mischen und sich freuen als Miner. Die 3060 ist halt nicht sooo geil gewesen, dass es jetzt spezielle Mainboards mit 6 oder 8 geeigneten PCI-Slots gegeben hätte, aber doch auch nur, weil es so wie es ist für die "Hobbyminer" reicht und die "grossen" es nicht brauchen oder direkt auf ASIC gehen.
Das Problem ist nicht der mechanische Slot und die Boards, die Du meinst, haben keine elektrischen x16-Slots. Diese Boards können normalerweise genau einem Slot die 8 PCIe-Lanes zuteilen - alle anderen sind fest mit 1x angebunden. Das Problem sind im Kern die Prozessoren - und da gibt eben nur ein paar alte Xeons und die Streamripper, die genug PCIe-Lanes haben, um 4 PCIe-x16-Slots mit x8 zu versorgen. Also: Sockel-2011- oder TRX40-Board mit passendem Prozessor - und dann gehen genau 4 RTX3060 mit x16-Risern (und HDMI-Dongles) mit voller Hashrate. Das ist viel Aufwand für ein kleines Rig. Es gibt Leute, die machen das, weil's halt immerhin zwischendurch mal ein paar RTX3060 für unter 700 Euro gab - aber das sind Exoten.

Allerdings ist so eine RTX3060 mit 25 MH/s auch nicht so schlecht unterwegs, weil die Leistungsaufnahme ist dann auch schön niedrig. Die Karte war halt schnell zu teuer.. Für uns... Für chinesische Miner schürfen mit Kaffeemaschinen, wenn die genug Speicher haben... Effizienz ist denen (fast) egal.

naicorion schrieb:
Ob der Lolminer "Hack" oder was es immer auch ist (bin kein Profi für so etwas) als "Hack" zählt, kann ich nicht beurteilen. Aber auch so sind es 75% der Hashrate, mit dem "GLitch" (auch da weiss ich nicht, was das genau ist, vermute einfach ein Fehler in der Programmierung der Bremse?) sind es 100% auf einem reinen MiningOS - Damit ist die Wirkung der Bremse an aus meiner Sicht verfehlt.
Lolminer empfiehlt, das Overclocking nicht mehr anzufassen, wenn Lolminer gestartet wurde - da ist also irgendwas sehr Timing-sensitives. Ich nehme an, dass sie den ethash-Kernel für die Karte so modifiziert haben, dass der Algorithmus den nicht richtig erkennt - und dann straffen sie die Timings Stück für Stück, bis die Bremse wieder greift - und lassen den Code dann mit den entsprechenden "Verschlechterungen" laufen.

Ich hab' das selber auch nicht ausprobiert und weiß vor allem auch nicht, inwieweit die Effizienz da leidet - also ob die Karte dann 75% Hashleistung macht, aber doch 100% Strom zieht - weil dann wär's lausig.

Ich würde als Hack definieren, wenn's nicht ein bisschen doch geht, sondern wenn ich 12 RTX3060 in x1-Riser stecken kann und ein Rig mit 12 x 45 MH/s bekomme!

naicorion schrieb:
Wenn man dann noch in Betracht zieht, dass es (natürlich primär wegen der ETH-SChwäche) mittlerweile fast gleich attraktive Coins gibt, die NVIDIA nicht limitiert sondern mit einer nur im RAM massiv beschleunigten TI-Karte auch noch fördert, ist es doch am Ende nur ein Haufen BS was uns NV da erzählt. Für mich eben "For the Miners" und nicht "For the Players".
Das mit anderen Coins ist so eine Sache. Erstens sind das zum Teil echte Exoten und da musste Du dann zu eventuell den Schwiemel-Brokern in Taiwan oder so, um die dann in eine Zwischenwährung zu wechseln und die kannst Du dann bei deinem Euro-Broker zu Fiat-Geld machen. Es geht ja nicht nur um die theoretische Konversion, sondern ganz praktisch brauchst Du einen funktionsfähigen Miner, einen Pool, einen Broker mit dem passenden Payout-Pfad. Also für Dich passende Infrastruktur - die gibt's gerade mal für ZCash, Ravencoin und ein paar andere noch - und keiner von denen kommt an die Profitabilität von Ethereum ran. Weil da jetzt schon zu viele dran sind...

Zweitens sind die jetzt gerade einigermaßen profitabel, weil die ganze Welt Ethereum macht. Wenn PoS kommt bzw. EIP1559 den Ertrag nochmal senkt, wird diese Hashrate die Altcoins förmlich erdrücken und keiner von denen wird noch profitabel sein.

Aber: Glücklicherweise ist es alles nicht ganz so einfach, weil wenn es das wäre, würde das Chaos ausbrechen.. Ein bisschen Trägheit in den individuellen Entscheidungsprozessen ist gar nicht schlecht. Man muss nicht immer der ersten dummen Idee folgen, die man so hat... ;)
 
Mirdochegal schrieb:
@mibbio ich denke NV ist das ziemlich egal :(
Nunja, es ist halt auch für Nvidia bzw. deren Boardpartner ein gewisser Mehraufwand, viele verschiedene Modelle zu fertigen. Da denen aktuell eh jede Karte aus der Hand gerissen wird, kann man doch mit nur 3-4 Modelle den gleichen Reibach machen mit weniger Aufwand.
Auserdem verschießt man so ja schon fast sein ganzes Pulver und "nur" noch "Super"-Modelle für später in der Reserve, um neue Upgrade-Anreize bei den Kunden zu schaffen.
 
ZeroStrat schrieb:
Auch CB hat teils "komische" CPU Ergebnisse, sogar Anandtech testet mitunter Quatsch mit Sauce. Wird ja am Ende auch akzeptiert von vielen...
Die Liste von komischen Ergebnissen in diesem Test ist by the way ganz schön lange.

Borderlands Computerbase WQHD: 0%
Borderlands PCGH WQHD: 9%
Borderlands Hardware Unboxed WQHD: 17%

Watch Dogs Legion Computerbase WQHD: -2%
Watch Dogs Legion PCGH WQHD: 7%
Watch Dogs Legion Hardware Unboxed WQHD: 6%

Doom Eternal CB 4K: 2%
Doom Eternal PCGH 4K: 12%
Doom Eternal HWU 4K: 18%

Und das geht munter so weiter, es gibt bei CB in 4K kein einziges Spiel, welches mal nach oben ausschlägt,
Es sind allerhöchstens +9% in 4K.
Also entweder müssen die Taktraten der 3070Ti bei CB niedriger sein als in anderen Reviews, was ich so nicht sehe, oder einige der Ergebnisse sind warum auch immer zu langsam, aber Wolfgang beschwichtigt ja immer gleich. ^^
 
  • Gefällt mir
Reaktionen: ZeusTheGod und ZeroStrat
Auf anderen Seiten schneidet die 3070ti in den erwähnten Spielen noch viel schlechter ab:

border3.png
wd3.png


Hardware luxx
doom.png
 
Zuletzt bearbeitet:
Boandlgramer schrieb:
Das mit anderen Coins ist so eine Sache. Erstens sind das zum Teil echte Exoten und da musste Du dann zu eventuell den Schwiemel-Brokern in Taiwan oder so, um die dann in eine Zwischenwährung zu wechseln und die kannst Du dann bei deinem Euro-Broker zu Fiat-Geld machen.
Da gehe ich mit. Ich vermute abseits von ETH werden nur die wenigsten kleinen Miner auf Altcoins setzen, die vielleicht 1/1000 der Market CAP haben um dann über Ogre in USDT zu traden. Irgendwann ist es ja dann auch nicht mehr Technikspielerei sondern Hochrisikofinanzwesen, da fehlt mir dann auch die Lust.

Insgesamt finde ich Deinen Beitrag zu diesem Thema sehr informativ und ausgeglichen, das passiert dabei in letzter Zeit selten:schluck:
 
Also irgendwas ist da faul. Die 3070 Ti braucht über 50 Watt mehr obwohl die GPU mit einer niedrigeren Taktrate läuft? Ich kann mir kaum vorstellen, dass die 50 Watt alleine durch den RAM bzw. das Speicherinterface kommen.

Für mich sieht das so aus, als würde Nvidia hier Resteverwertung machen. Alle Chips, die die Taktraten der 3070 nicht schaffen aber 48 funktionierende SM haben, werden mit niedrigeren Taktraten bzw. höheren Spannungen ausgeliefert und dazu wird GDDR6X Speicher draufgepappt (der ja anscheinend schon ausreichend lieferbar ist) und das Ganze wird mit mehr TDP kaschiert. Derzeit kann man sich ja sowieso alles erlauben, da den Herstellern ja sowieso jede produzierte Karte sofort aus den Händen gerissen wird.
 
  • Gefällt mir
Reaktionen: A.Xander
Kampfkeefer schrieb:
Eigentlich vollkommen richtig aber naja was raus muss, muss raus.

Bisher war ich ja immer offen für die beste Karte egal ob von AMD oder Nvidia, aber das ist ja wohl das letzte was die hier abziehen. Einfach nur ein ekelhafter Mistverein, jetzt wird auch noch der letzte Rotz von ineffizienten Chips verwurstet einfach nur weil man es los wird, nur noch armselig.
Da reiht man sich in der Krise also ein als erfolgreiches Unternehmen, gleich hinter geldgeilen Billigherstellern ala Intenso, PNY oder Emtec. Schon traurig aber überraschend kommt das ja eigentlich nicht mehr.
 
Die Entscheidungen von nVidia versteht man immer weniger. Anstatt eine 3070 Ti mit 16GB Speicher und eventuell leicht höheren Taktraten für denselben Preis anzubieten verringert man lieber die Performance pro Watt und bringt somit eine völlig sinnfreie Grafikkarte auf den Markt. oO

Die einzige Erklärung, die ich dafür habe wäre, dass nVidia damit mehr Grafikkarten unters (Miner-)Volk bringen will, die ansonsten aufgrund von ineffizienten Chips für Notebooks nicht mehr verkauft werden könnten. Das würde dann auch die deutlich schlechtere Effizienz erklären.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: A.Xander
Zurück
Oben