News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen

DeltaPee schrieb:
Selbst wenn AMD um 5% -10% an der 3080 vorbei zieht, ändert das nichts. 4K untauglich und auch erstmal günstiger sein. Also auf was freust du dich da, dann haben wir beim Konkurrenten genauso wenig fortschritt...
Es wäre aber zum ersten Mal seit vielen Jahren eine GPU von AMD auf Augenhöhe. Die 980Ti, die 1080TI und die 2080er waren letztlich nicht gefährdet.


Für uns als Gamer/Konsumer wäre das prima.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Chismon
verschieben, dass hätten sie schon mit dem gesamten Launch machen müssen. Dann hätte es keine Verfügbarkeitsprobleme, Treiberprobleme und eilig zusammengeschusterte Kondensatoren gegeben.
Was läuft denen generell davon?
Das ein PC´ler überwandert zur Konsole?? die nur mal so auch erst in 2021 geregelt in den Regalen stehen wird.
Das Nvidia Fans oder "Abhängige" (extra teuren Gsync Monitor) zu AMD wandern?? die die Karten auch erst sehr spät Launchen und wo die Verfügbarkeit auch beschissen aussehen wird.

Wozu dieser eilig hingeklatschte Launch.
Vor 300-500 Jahren wurden die Bäcker ersoffen wenn das Brötchen nen Loch hatte. In der Nachkriegszeit war man verdammt Stolz auf deutsche Qualitätsgüter und heute rotzt man einfach alles unfertig hin und bessert im besten Fall nach...
 
Laphonso schrieb:
Es wäre aber zum ersten Mal seit vielen Jahren eine GPU von AMD auf Augenhöhe.
Siehst Du das positiv? Einfach mal eine Generation aussetzen und garnichts liefern, dann auf das gewohnte Leistungsniveau kommen und schon wird das gefeiert?

Halte ich auch für schwierig.....
Ergänzung ()

JahJah192 schrieb:
Vor 300-500 Jahren wurden die Bäcker ersoffen wenn das Brötchen nen Loch hatte. In der Nachkriegszeit war man verdammt Stolz auf deutsche Qualitätsgüter und heute rotzt man einfach alles unfertig hin und bessert im besten Fall nach...
Du vergleichst die Komplexität eines Brötchens mit einem Chip, der 28 Milliarden funktionierenden Minischaltungen auf seinem Chip unterbringt, mit Softwarepaketen, die ein halbes Gigabyte auf die Waage bringen und auf tausenden von unterschiedlichen Konfigurationen laufen muss?
 
  • Gefällt mir
Reaktionen: DDM_Reaper20, KlaraElfer, Neo772™ und eine weitere Person
Laphonso schrieb:
Es wäre aber zum ersten Mal seit vielen Jahren eine GPU von AMD auf Augenhöhe. Die 980Ti, die 1080TI und die 2080er waren letztlich nicht gefährdet.


Für uns als Gamer/Konsumer wäre das prima.
Schön, aber sind 100 FPS bei AMD besser als 100 FPS bei Nvidia (Wenn man mögliche Preisunterschiede ausklammert)?
Erst beschwerst du dich über den mangelnden Fortschritt, dann feierst du gleichzeitig, wenn AMD nur gleichziehen kann...
 
  • Gefällt mir
Reaktionen: KlaraElfer, foo_1337 und .Sentinel.
Ich weiß nicht was ihr habt im Sinne von 4k untauglich. Also das stimmt einfach nicht. Meine 390X schafft nahezu überall 30 FPS bei Max Texturen und einigen Einstellungen auf Hoch Bei AAA Games von 2015 bis 2018. Für mich ist das absolut spielbar. Ich brauch nichtmal 60 FPS. 30 find ich absolut flüssig und man kann ohne Probleme in jedem Game viel Spaß haben.


Klar kommt nun ein Monitor rann welcher 4k und 120/144 FPS vereint. Aber als störend empfinde ich die FPS welche meine aktuelle GPU liefern kann keinesfalls. Im Moment hänge ich bei satisfactory und habe mich schön festgesuchtet. Läuft flüssig auf maxed Out mit 3840x2160p

Ob nun die 3070 später kommt oder nicht ist mir egal. Erstmal müssen beide Hersteller ihr Lineup im wesentlichen vorgestellt haben bevor ich entscheide was rein kommt. Verfügbarkeit muss schließlich auch gegeben sein. Immerhin werden wohl ein paar mehr 3070 verfügbar sein als bei den großen Chips. Die 3070 liegt schon eher im Bereich von vielen und AMD wird hier auch ein Konkurrenzprodukt platzieren.

Die Hersteller werden das mid und Low end auch nicht Liegen lassen. Die Absätze sind hier signifikant. Hier werden Marktanteile generiert. Nur weil ich mir die größte RDNA2 oder eine 3090 kaufe ist den Herstellern wahrscheinlich wichtiger dass sich im selben zug 10.000 andere gamer für eine kleinere GPU entscheiden, aber sie kaufen eben eine. Viele günstige machen das Kraut auch irgendwann fett ;)

Zudem passen mehr Chips auf die Wafer bei den kleineren GPUs. Hier ist AMD mit TSMC wohl im Vorteil weil ihre Chips kleiner und die yields aller Voraussicht nach sogar besser sind als Samsung es Bieten kann.
 
t3chn0 schrieb:
Durch meinen Monitor ist AMD als GPU leider kein Thema. Ich würde mir wünschen, dass es ein Freesync/VRR Update gibt, immerhin kostet der Monitor 2800€ und es gibt Videos in denen dieser mit Freesync enabled läuft. Ich will aber keine Bastel-Lösung, von daher ist es zwangsläufig Nvidia.
Das wirklich fiese an solch einer Situation ist, dass im 2nd Hand Bereich (Ebay) für so ein Display kaum was zu bekommen ist, außer man findet den "Deppen des Tages". Ein jetzt neues Display ist erheblich günstiger, kann sehr wahrscheinlich mehr und besser (höhere Hz, Freesync + G-Sync, ...), kommt mit einer frischen Garantie daher...
Das hat Nvidia schon geschickt eingefädelt...

Wenn es wenigstens eine (dann auch noch bezahlbare) Adapter Lösung für Freesync Karte auf G-Sync Display geben würde (falls überhaupt dadurch abbildbar), aber daran dürften vor allem die Display Anbieter ein viel zu geringes Interesse haben, hält sich ein Display doch ohne weiteres bis zu 10 Jahre (und mehr), und wird im statistischem Mittel wahrscheinlich locker an die 5 Jahre genutzt. Da kann man sich schon über jeden zusätzlichen Verkauf freuen
 
DeltaPee schrieb:
Erst beschwerst du dich über den mangelnden Fortschritt, dann feierst du gleichzeitig, wenn AMD nur gleichziehen kann...

Ich feiere gar nichts, das hast Du komplett fehlinterpretiert.
So sieht es aus: Nvidia hat mit der 3080 als "FLAGGSCHIFF" nicht das abgeliefert, was AMD - wie bisher - quasi chancenlos zurücklässt.

Und wenn AMD genau hier Nvidia etwas gegen das etikettierte Flaggschiiff stellt, ist das gut.

Ich sagte direkt nach den 3080er Tests und 3090er Tests, dass man im AMD HQ sicher gaaaaanz laut ein entspannts Ausatmen hört. ;)

Abseits von DLSS sind die 3080 und 3090 meilenweit davon entfernt, 4K Ultra Gaming in wahnsinnige fps-Reservekorridore über dem 60 fps Meilenstein zu schieben oder eine Debatte um 4K-120 oder 144 Hz Monitore zu führen.

AMD wurde vor Ampere quasi als DOA tituliert.
Wäre super, wenn Nvidia Hybris hier einen Dämpfer erhält, ein Intel Deja Vu, denn Trottel wie ich bezahlen 800 Euro Aufpreise nur fürs Gaming und für eine lächerliche 3080+15 % = 3090 Performance, weil nichts anderes da ist. Von AMD z.B.

Nichts "feiere" ich hier, DeltaPee. Genau das Gegenteil kommt seit Ampere Release aus meinen Postings heraus.
Ich hatte mir etwas mehr erhofft, über alles.
Bin irritiert und amüsiert, wie oder warum man das anders "lesen" könnte.
Dass ich AMD "feiere" ist auch ein Mißverständis. Ich begrüße es, wenn sie das abliefern, was ich mir von Nvidia erhofft hatte, zumindest was das Nvidia "FLaggschiff" angeht.
 
  • Gefällt mir
Reaktionen: Chismon
PS828 schrieb:
Ich weiß nicht was ihr habt im Sinne von 4k untauglich. Also das stimmt einfach nicht. Meine 390X schafft nahezu überall 30 FPS bei Max Texturen und einigen Einstellungen auf Hoch Bei AAA Games von 2015 bis 2018. Für mich ist das absolut spielbar. Ich brauch nichtmal 60 FPS. 30 find ich absolut flüssig und man kann ohne Probleme in jedem Game viel Spaß haben.


Klar kommt nun ein Monitor rann welcher 4k und 120/144 FPS vereint. Aber als störend empfinde ich die FPS welche meine aktuelle GPU liefern kann keinesfalls. Im Moment hänge ich bei satisfactory und habe mich schön festgesuchtet. Läuft flüssig auf maxed Out mit 3840x2160p
Ich glaube du spielst recht alte Spiele :) und du hast Glück das deine Augen keine überschnelle Reaktionszeit besitzen, denn ich kam früher auch wunderbar mit 30fps klar, mittlerweile müssen es mindestens 50-60 sein, weil ich sonst ein stockendes Bild wahrnehme und das nervt.
144hz sind nötig um im Esport nicht langsamer als die Gegner zu reagieren , da gehts echt um Millisekunden. Ich spiele Anno auch bei 50-60fps und da reicht es , weil das bewegte Bild generell keine größeren Sprünge macht...

144hz alles Ultra 4K 2160p halte ich selbst mit einer 3080 für illusorisch, einige Regler muss man in neuen Games einfach nach links schieben.
Aber mal sehen was der Zen3 5950X mit meiner 3080 noch so leisten können wird. 144Hz in Cyberpunk sollten dank der Super-Engine zumindest nicht gänzlich realitätsfern sein.
 
  • Gefällt mir
Reaktionen: foo_1337, Laphonso und PS828
.Sentinel. schrieb:
Siehst Du das positiv? Einfach mal eine Generation aussetzen und garnichts liefern, dann auf das gewohnte Leistungsniveau kommen und schon wird das gefeiert?
Eine Generation "ausgesetzt" haben, wenn man das so sehen möchte, sowohl Nvidia und AMD für die gesamte Pascal Gruppe.

Ich sähe es positiv, im High End mal wieder eine Wahl zu haben, eben weil Nvidia hier keine uneinholbare Hürde aufgelegt hat. Nvidia hat bisher Marketinglügen geliefert, einen quasi Paperlaunch und eine Architektur, die mit Turings oc Szenarien nicht mithält.

Nvidias wahrer und letzter Trumpf ist DLSS, aber der muss dann auch genug "Stiche mitnehmen" können in den Releases 2021 ff.
Ergänzung ()

mylight schrieb:
144hz alles Ultra 4K 2160p halte ich selbst mit einer 3080 für illusorisch,
Ich kann Dir eine ganze Liste an Games bereits auf 1440p mit maxed Settings geben, da siehst Du deine 3080 fps Bluten als gäbe es kein Morgen mehr und "CPU Limits" sind da außer Haus ;)
 
Laphonso schrieb:
Eine Generation "ausgesetzt" haben, wenn man das so sehen möchte, sowohl Nvidia und AMD für die gesamte Pascal Gruppe.

Ich sähe es positiv, im High End mal wieder eine Wahl zu haben, eben weil Nvidia hier keine uneinholbare Hürde aufgelegt hat. Nvidia hat bisher Marketinglügen geliefert, einen quasi Paperlaunch und eine Architektur, die mit Turings oc Szenarien nicht mithält.

Nvidias wahrer und letzter Trumpf ist DLSS, aber der muss dann auch genug "Stiche mitnehmen" können in den Releases 2021 ff.
Ergänzung ()


Ich kann Dir eine ganze Liste an Games bereits auf 1440p mit maxed Settings geben, da siehst Du deine 3080 fps Bluten als gäbe es kein Morgen mehr und "CPU Limits" sind da außer Haus ;)
Du bestätigst meine These, allerdings blutet in 60fps die 3080 mit Sicherheit nicht :p 144hz ja^^

Und ich finde UHD mit middle Settings sogar ansehnlicher als QHD mit max Settings, jedenfalls wenn ich 30-40cm vor dem 32Zoll Monitor sitze 😂
 
Laphonso schrieb:
Eine Generation "ausgesetzt" haben, wenn man das so sehen möchte, sowohl Nvidia und AMD für die gesamte ...
Ich kann mir nicht helfen Laphonso, aber ich sehe hier einen sehr starken Bias, was Diene Ausführungen anbelangt.

Kann man alles so sehen und alles ins Negative ziehen und alle positiven Seiten ausblenden, aber das ist dann schon sehr speziell auf die persönliche Befindlichkeit gemünzt und hat mit einer objektiven Bewertung des Produkts nur mehr wenig gemein.

Schon allein der Vergleich irgendeines Cherrypicked OCs gegen Stock- Karten, bei welchen noch keine großen OC- Erfahrungen gesammelt werden konnten, signalisiert mir immer eine gewisse Hilflosigkeit und eine Argumenation, die mittels Brechstange versucht, etwas in einem gewünschten Licht erscheinen zu lassen.
Die neuen Treiber erweitern den OC Headroom der 30xxer.

Die Verärgerung der Leute, ob der großen Anzahl an Vorbestellungen und dass man sich da einfach irgendwo einreihen muss und nicht nur ein Knöpfchen drücken muss und am nächsten Tag ist alles da, hin oder her.
Ampere ist alles andere als ein Fail oder ein schlechtes Produkt.... ansonsten wäre der Anstrum nicht so hoch und erst recht nicht der Frust, das Ding nicht sofort haben zu können.
Wer fiebert schon einem mittelmäßigen Produkt entgegen?

Möchte mal wissen, was die Leute mit ihrem Anspruch anstellen, wenn nvidia einfach mal beschliessen würde, zwei bis 4 Jahre mal einfach nichts "neues" zu liefern, sondern einfach die alten Karten immer wieder zu refreshen und günstiger und mit weniger Energieverbrauch auf den Markt zu werfen.
Wär auch interessant zu sehen, wie AMD auf solch einen "Move" reagieren würde.
 
  • Gefällt mir
Reaktionen: KlaraElfer, foo_1337 und MrNejo
.Sentinel. schrieb:
Schon allein der Vergleich irgendeines Cherrypicked OCs gegen Stock- Karten, bei welchen noch keine großen OC- Erfahrungen gesammelt werden konnten, signalisiert mir immer eine gewisse Hilflosigkeit und eine Argumenation, die mittels Brechstange versucht, etwas in einem gewünschten Licht erscheinen zu lassen.
Die neuen Treiber erweitern den OC Headroom der 30xxer.

Zahlen lügen nicht, und wir hatten hier eine einkassierte 3090 in RTX off, 2 fps hinter einer 2080Ti. Selöbst mit Toleranzen ist die 3090 damit gestellt und zeigt das brachiale oc Potenzial, das Turing hat.
Zahlen lügen nicht, und Ampere geht in Metro oder auch in RDR2 in die Knie und präsentiert Gamern vielleicht 15, 20 oder 30 fps mehr. Wenn überhaupt, nach Settings+Res. Das wars. Mehr als 30 Zusatz-fps dann für 1500 Euro
"Biggest generational leap" lol 🤣

Zahlen lügen nicht, und der Doppel-Generations Jump von Maxwell auf Turin war größer als der von Pascal auf Ampere.
Zahlen lügen nicht, und die 3090 kostet 800+ Euro mehr für 15% max avg auf die 3080
Zahlen lügen nicht, und die 2080Ti kostete 500 Euro mehr für 25% auf die 2080.
Und steht dank der 3090 auf einmal nicht mehr alleine im most failed Price-performance Keller.

Zahlen lügen nicht, und "twice the performance as the 2080" war Quatsch, "8K Gaming" war Quatsch und die "3070 faster as 2080Ti" wird der nächste Luftballon, der platzt.

Das 3080 Flaggschiff und der biggest generational leap sind nett inszeniert, aber Marketinggewäsch.
Wir haben solide Sprünge, mehr nicht. Die 50-70% mehr fps Folien, die manche hier präsntieren sind durchweg bestcase Szenarien gegen stocklahme 2080 und 2080TI, und siehe da, genau das, was Du cherrypicked nennst. ;-)

Im übrigen wurde ich hier Jahre als Nvidia Fanboy tituliert, weil ich das lobe und toll finde, was Nvidia mir bisher präsentierte als Enthusiast, aber weil ich auch anspreche, was Ampere schlicht nicht erfüllt hat.

Aus diesem Grunde freue ich mich, dass ich einer der wenigen branding neutralen in diesem Forum bin, weil man mir pro und contra Nvidia Sichten andichten will. Dann bin ich ja optimal kritisch unterwegs :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zimmbo, Chismon, ebgnvc und eine weitere Person
.Sentinel. schrieb:
Aha- Weil der Treiber ein fehlerhaftes Boost- Verhalten hatte
Nicht dass es jemand anderes falsch aufnimmt...
Mit dem Treiber wird die anfällige Takt/Spannugskurve aus dem Bios überschrieben, so als Ersatzlösung.
Takt/Spannung ist doch im Bios der jeweiligen Karte hinterlegt, der Fix arbeitet wahrscheinlich wie ein MSI AB Profil.

Die Amperekarten sind stark, aber nicht in jedem Punkt gut.
Mich stören 2 Dinge. 1. Die erhöhte Leistung wird mit deutlich mehr Stromverbrauch erkauft, trotz neuer Architektur und besserer Fertigung. 2. Die 3070 und 3080 kommen leider mit knappen Speicher auf den Markt.
8 und 10GB bei der Leistung ist einfach nicht gut, vorallem die 3070 als 2080Ti Alternative ist banane mit 3GB weniger. (RTX kann deutlch mehr Speicher voll machen noch gar nicht mitbedacht).
 
  • Gefällt mir
Reaktionen: schkai und Laphonso
Thane schrieb:
Ich finde es jetzt nicht so dramatisch, dass man die Karten aktuell nicht bekommen kann. Man muss ja auch nicht alles immer sofort haben 🤷‍♂️
Außerdem wollte ich sowieso die AMD Karten abwarten und dann gibt es ja eventuell auch noch Preisanpassungen oder Preiskämpfe wegen einer guten Konkurrenzsituation.

Die 3070 könnte aber schon enttäuschen. Ganz toll mehr ALUs, dafür weniger Tensor Cores und weniger Textureinheiten und viel weniger Speicherbandbreite. Ich fürchte auch, dass das oft nicht reichen wird, um an 2080Ti Niveau zu kommen. Vor allem mit Bildverbesserung und Raytracing.


Sehe das mit dem "alles immer sofort" genauso wie Du. Selbstverständlich gönne ich jedem eine neue Grafikkarte, kann aber persönlich den Hype nicht so richtig nachvollziehen. Kann aber auch daran liegen, dass ich meine Grafikkarten sehr lange nutze.

Hab noch lange mit einer AMD HD 6850 gespielt (Neu für 112 EUR gekauft). Als ich dann dann was neues wollte waren die Preise mir zu hoch. Also hab ich mir für 50€ eine gebrauchte GTX 570 gekauft, diese ging leider nach 1-1,5 Jahren kaputt. Also wieder eine gebrauchte Karte, eine GTX 770 (wieder für 50 EUR). Leider hat sich diese Grafikkarte mit einer Stichflamme nach 1-1,5 Jahren verabschiedet und ich habe mich eine Zeit mit meiner alten Grafikkarte durchgeschlagen und dann eine AMD RX 580 mit 4 GB Ram für 130 EUR gekauft. Dazu gab es Devil May Cry 5 und Resident Evil 2 Remake. Die passt sehr gut zu meinem Intel 3570k (läuft auf 4,1 GHz auf allen Kernen). Kann immer noch alles auf Medium sehr gut spielen und höhe gehe ich eigentlich nie mit den Grafikeinstellungen. Spiele kaufe ich generell erst mehrere Jahre nach Relase, dann sind die zum Preis eines Mc Menues oder noch günstiger zu bekommen (ich glaube das letzte Spiel, welches ich zum Vollpreis gekauft habe war God of War 3 für die PS3).

Da sich mein Nutzungsprofil geändert hat, habe ich dann doch ende des Jahres 2019 einen neuen PC zusammengestellt. Basis bildet ein Ryzen 2700x (164 € + Borderlands 3) zusammen mit einer Powercolor Vega 56 Red Dragon (für 219 EUR (NEU)). Das war dann eher ein Impulskauf. Auf den neuem PC läuft jetzt Windows 10, der alte läuft noch immer mit Windows 7. Habe die Hoffnung, dass der neue PC für diese Dekade reicht, schauen wir mal^^.

Ich spiele zwar gerne und viel, möchte aber nicht Unsummen dafür ausgeben. Versuche eher möglichst viel Leistung für mein Geld zu bekommen. Wer immer das Beste und Neuste haben muss, der zahlt halt einen Aufpreis. Bin diesen Menschen aber dankbar, da sie den Fortschritt pushen und wir alle davon profitieren.
 
  • Gefällt mir
Reaktionen: russianinvasion
@.Sentinel. Bitte mitprotokollieren denn hier spreche ich jetzt wieder für Nvidia: (Ist natürlich augenzwinkernd gemeint 😉)
Die 3080 Ist vielleicht deswegen in dieser Preisregion, eben weil sie nur 10 GBVRAM hat.
Die Nvidia FAQ zu Ampere auf Reddit hatten andere User bisher bestätigt, unter 4K Ultra werden 4-6,5 GB VRAM benötigt bei den aktuellen Titeln, einziger Ausreißer ist der failport HZD.
Die VRAM Hysterie hat mit der Realität bisher noch nichts zu tun.
Der Durchsatz und Speicherbandbreite der 3080 müssten hier überhaupt erst mal als kritisch unter Beweis gestellt werden.
Das ist in keinem einzigen der hunderten Tests bisher geschehen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und mylight
Laphonso schrieb:
Zahlen lügen nicht, und wir hatten hier eine einkassierte 3090 in RTX off, 2 fps hinter einer 2080Ti.
Ich kann nachwievor keinen sauber dokumentierten Test dazu entdecken. Ein Link wäre hilfreich.

Selöbst mit Toleranzen ist die 3090 damit gestellt und zeigt das brachiale oc Potenzial, das Turing hat.
Das OC Potenzial von Turing ist nicht sonderlich höher, als bei Ampere auch.

Zahlen lügen nicht, und Ampere geht in Metro oder auch in RDR2 in die Knie und präsentiert Gamern vielleicht 15, 20 oder 30 fps mehr.
Zahlen lügen nicht. Die 3080 präsentiert bei Metro eine 33% höhere Performance als die 2080TI und in Red Dead Redemption noch 27% lt. CB Test.
Zahlen lügen nicht. Die FE ist für 699,- zu haben. Die vergleichbare Vorgängerkarte war für 1250,-€ verfügbar.
Deutlich mehr Performance und fast die Hälfte des Preises.

Zahlen lügen nicht, und die 3090 kostet 800+ Euro mehr für 15% max avg auf die 3080
Zahlen lügen nicht. Die 3090 bringt mir durch den VRAM Ausbau Szenen in die GPU Beschleunigung, die auf der 2080TI damals schlichtweg nicht mehr beschleunigbar waren.
0,5 FPS gegen 20FPS im Viewport des Unreal- Engine- Editors. 40- Fache Geschwindigkeit für den lächerlichen Aufpreis von 250,-€.

Zahlen lügen nicht, und "twice the performance as the 2080" war Quatsch,
Sowohl dieses Szenario wurde in Benchmarks in der Praxis nachgewiesen, als auch, dass
"8K Gaming" war Quatsch
möglich ist.

und die "3070 faster as 2080Ti" wird der nächste Luftballon, der platzt.
Darf ich mal den Benchmark Deiner 3070 sehen, die Du offensichtlich zu besitzen scheinst?

Das 3080 Flaggschiff und der biggest generational leap sind nett inszeniert, aber Marketinggewäsch.
Nicht wenn Du die schiere möglich Rechenleistung betrachtest, die das Ding zur Verfügung stellen kann.
Nur weil die Software diese im Augenblick nicht nutzt, heisst das nicht, dass die Karte dies nicht liefern könnte.

Im übrigen wurde ich hier Jahre als Nvidia Fanboy tituliert, weil ich das lobe und toll finde, was Nvidia mir bisher präsentierte als Enthusiast, aber weil ich auch anspreche, was Ampere schlicht nicht erfüllt hat.
Auf mich macht das den Eindruck, als ob Du eher Butthurt bist, weil Du Dir für einen 2080TI Nachfolger mehr erhofft hast.... den NVIDIA aber einfach schlichtweg nicht liefert.
Ja- Für die 2080 TI Besitzer ist das Feuerwerk tatsächlich am kleinsten.

Sie liefern ein halbgares Titan- Derivat und das Segment, welches auf die 700,-€ abziehlt. 800,-€ dazwischen für einen TI Performance- Chip sind quasi Niemandsland.

Aus diesem Grunde freue ich mich, dass ich einer der wenigen branding neutralen in diesem Forum bin, weil man mir pro und contra Nvidia Sichten andichten will. Dann bin ich ja optimal kritisch unterwegs :D
Ich weiss, dass Du zu den neutralen hier gehörst. Aber es ist ein Unterschied, ob man die Dinge kritisch sieht, oder eindimensional in ein schlechtes Licht rückt.
 
  • Gefällt mir
Reaktionen: Toni_himbeere, Oneplusfan und MrNejo
Diese Vram Geschichte ist ein Hypetrain den keiner mehr stoppt.
Da wird von Zukunft gesprochen....in zukunft wird es eine neue Generation RTX geben, die dann auch gleich mit mehr Vram kommt.
Als wenn jemand, der Wert auf das letzte bischen Grafik nicht eh alle 2-3 Jahre ne neue Karte kaufen würde.

Wenn die Leute die Preise für die 20GB 3080 sehen werden wir sehen wer Maulheld oder Ehrenmann ist :D

/EDIT: Vieles ist heutzutage halt einfach nur noch albernes Gelaber um den Preis für etwas klein zu reden.


@Setinel: du bist mitunter aber nicht besser. Forderst Beweis-Links und haust nicht belegte Behauptungen raus.
WO bitteschön steht, das Ampere auch nur ansatzweise mit Turing mithalten kann, was das OC angeht?
Aktuell hat da Laphonso für mich 100% recht. Kann sich aber vielleicht noch mit erwachsenen Treibern und Xperience der Ocler ändern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337 und .Sentinel.
Leute, ich kriege hier Kopfschmerzen. Immer die gleichen Argumente und Gegenargumente. Ich freu mich auf mehr als doppelte Performance der 3080 gegenüber meiner 1080 und die neuen Features.
 
  • Gefällt mir
Reaktionen: Hofpils und foo_1337
Da war kaum interessantes dabei...alles wo Leute draufschauen verliert die 3070.
Blender war klar...und etwas mehr RTX.....sonst nix.

Für mich also klar: Erneut hat Nvidia das Maul viel zu voll genommen...."die 3070 ist schneller als eine 2080ti".

Aktuelle Spiele, die man irgendwo anders gebenched sieht...Fehlanzeige.
 
Zurück
Oben