News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

Hardware_Hoshi schrieb:
Das Problem ist leider, dass die Konkurrenz nicht hüpft, sondern seit Jahren gnadenlos hinterher hechelt. Ob der ewige Zweite AMD endlich einen Coup landet, bleibt abzuwarten ... wenn auch unwahrscheinlich! Wären die Radeons wirklich stärkere Konkurrenz, hätten wir die ganze Preisdiskussion nicht!

Da liegt doch der Hund begraben!

Stimmt doch gar nicht es ist wie bei Intel und AMD nicht ganz sauber gelaufen. ;)

Des Weiteren war AMD schon manchmal vorne R9800 der X850 und der HD78er auch die HD40er waren klasse. ;)
 
  • Gefällt mir
Reaktionen: Benji18, .Sentinel. und Shrimpy
Hardware_Hoshi schrieb:
Angeblich ist die 3070 bereits so schnell wie eine 2080 Ti. Die größere 3080er dürfte dann locker 20-30% schneller sein. Für das Ultimo an Performance ohne Kompromisse gibts dann die 3090, eine quasi umgelabelte Titanklasse.

Ich habe von der RTX 3070 Ti gelesen (falls es den geben wird), welches eben ein RTX 2080 Ti schlagen soll.
Aber wenn man zurück denkt, ist auch ein RTX 2080 (ohne Super) schneller als der GTX 1080 Ti.
Deswegen würde ich auch mein Haus darauf Wetten (falls ich ein Haus habe :-P), dass eine RTX 3080 mit ca. 800€ ein RTX 2080 Ti schlägt, welches mehr kostet.

Deswegen sollte man sein RTX 2080 Ti so schnell wie möglichst los werden und dann für das gleiche Geld eine RTX 3080 holen.

Zu so einen Upgrade ohne kosten, sagt man doch nicht nein ;-)
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Verstehe die ganze Preisdiskussion hier nicht ganz. Ja, die Karten werden immer teurer. Je nach Generationswechsel kommt aber in der Regel ein dickes Plus an Zuwachs Fps/Euro. Keiner von uns kann sagen was der 'faire Preis' wäre.Chipausbeute bei den riesen Chips, Entwicklungskosten, RTX Einheiten, erhöhte Rams und nicht zuletzt die fehlende Konkurrenz lässt den Preis eben in die Höhe schiessen. Technologisch wird die 3090 ein Top Produkt und wäre sicher nicht für 600 euro darstellbar. Wenn so eine exorbitante Marge drauf wäre, wären schon früher andere Hersteller auf dem GPU Markt aufgrsprungen. Ja, die marge ist 👍, schaut man sich nvidias Bilanz an, aber wucher würde ich das nicht nennen. Die Herstellungskosten von so einem Viech sind nicht gering, akzeptiert das einfach und greift zur mid range Karte, wenn ihr nicht bereit seid das zu zahlen. Wer die letzten % will, muss zahlen, es gibt nirgends lineare Funktionen. Ich liebäuge eher mit der 3080, da mir 4k mit 60 fps reichen. Ich freue mich jedenfalls auf die neuen Karten und hoffe auch dass AMD ähnliche Performance liefern kann.
 
  • Gefällt mir
Reaktionen: Toni_himbeere und CrustiCroc
Mcr-King schrieb:
Des Weiteren war AMD schon manchmal vorne R9800 der X850 und der HD78er auch die HD40er waren klasse. ;)

Und haben trotzdem immer weniger GPUs verkauft bis auf die 9000er.
Der Kunde hat sich immer selber gefickt.
Am härtesten das der Kepler testbalong titan gelandet ist, wobei die 680 auch schon gut dabei war. :rolleyes:

Mich wundert es garnicht das AMD da mit macht soweit es geht. Wäre auch als firma dämlich wenn nicht.

@Gehirnzelle
Schau dir einfach mal NVs quartalszahlen der letzten 15 Jahre an, das ist wie immer ein BS argument... :freak:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Benji18 und Mcr-King
Shrimpy schrieb:
Schau dir einfach mal NVs quartalszahlen an....

Ja aber die rechen halt alles auf Gaming obwohl viele die ich kenne die RTX nur wegen NVC4k gekauft haben.

Wie gesagt NV weiß wie sie Money machen.
 
Mcr-King schrieb:
Wie gesagt NV weiß wie sie Money machen.

Apple auch. :rolleyes:
Ich sehe auch wie gesagt nicht die schuld bei NV oder AMD bei diesen Preisen.
Ich bin mir recht sicher das die 3080 sich gut verkaufen wird obwohl alle heulen. xD
 
  • Gefällt mir
Reaktionen: Ben81 und Mcr-King
Deswegen kann nur dass Imperium dass Imperium besiegen also defacto Intel.

Genau dass werden sie auch machen zumindest was ich bis jetzt so gehört habe merkt euch den November mal vor.
 
Ja, die Marge ist schon gut, aber wie gesagt auch keine Hexerei. Schaut euch mal die Posten für Entwicklung an, die hauen viel mehr raus als AMD für Cpu und GPU. Nicht falsch verstehen, Nvidia lässt sich seine Marktposition schon schön ausbezahlen, aber es ist nicht so, als könnten die eine 3090 für 700 anbieten, wo vermutlich immer noch gemeckert würde.Das ist einfach ein geiles Teil! Es fehlt ganz klar der Wettbewerb, dann werden wir erst wirklich sehen, wie weit Nvidia runter gehen kann. Aber ehrlich die radeon VII hat gezeigt dass AMD bei vergleichbarer Leistung 1080ti nicht günstiger anbieten kann oder wollte. NVIDIA ist ein sehr gut geführtes Unternehmen muss man so attestieren. Cloud KI, Gaming, sensoring, alles Zukumftsthemen, AMD wird es schwer haben im Enthusiasten Bereich ranzukommen.
 
Mal eine andere Frage. Wenn man ein NH-D15 hat wie ich, und z.B die 3090 in den ersten PCIe Slot reindonnern möchte, geht das dann überhaupt?
 
Wie soll man das wissen ohne offiziellen specs ?
 
  • Gefällt mir
Reaktionen: iceshield
Gehirnzelle schrieb:
Je nach Generationswechsel kommt aber in der Regel ein dickes Plus an Zuwachs Fps/Euro.

Sehe ich nicht so, 2080Ti vs. 1080Ti = 35% mehr Leistung bei 50% Aufpreis, also weniger FPS pro Euro.
Bei der 3090 müsste man abwarten was die an Leistung abliefert.
 
Die 1080Ti ist auch aus NV üblichen preisrahmen gefallen.
Ich hab mich noch damals gewundert was die so günstig war bei erscheinen, fast wie vor Titan wucher.
 
  • Gefällt mir
Reaktionen: Mcr-King
Project-X schrieb:
Zu so einen Upgrade ohne kosten, sagt man doch nicht nein ;-)

Genau aber nicht dass NT vergessen 12Pin auch die RTX3080 erst die RTX3070 hat ein 8 Pin plus 6 Pin die Ti nicht die hat wider ein 12Pin. ;)
 
Project-X schrieb:
Deswegen sollte man sein RTX 2080 Ti so schnell wie möglichst los werden und dann für das gleiche Geld eine RTX 3080 holen.
Aber 10GB anstatt 11 GB für die paar % Mehrleistung.. ich würds wohl nicht machen ^^
 
  • Gefällt mir
Reaktionen: Mcr-King
cookie_dent schrieb:
Sehe ich nicht so, 2080Ti vs. 1080Ti = 35% mehr Leistung bei 50% Aufpreis, also weniger FPS pro Euro.
Bei der 3090 müsste man abwarten was die an Leistung abliefert.
Gut gewähtes Beispiel, wo du recht hast. Nimmst du die 2080super vs 1080 ti hast du gleichen Preis plus 10 bis 15 prozent mit zusätzlichen rtx Einheiten(ja, darüber lässt sich streiten, aber ich habe auf einer 2080 super Control durchgezockt mit raytracing und dlss2.0 und es war mega). Aber rtx war halt eine Innovation, die Geld kostet. Die 2080ti war preislich wirklich unantraktiv und überteuert, da gibts nichts zu beschönigen.
 
  • Gefällt mir
Reaktionen: Mcr-King
cookie_dent schrieb:
Sehe ich nicht so, 2080Ti vs. 1080Ti = 35% mehr Leistung bei 50% Aufpreis, also weniger FPS pro Euro.
Bei der 3090 müsste man abwarten was die an Leistung abliefert.

Die Frage ist eher wie man die neuen Features mit einberechnet. Pure Rasterisierungsleistung wird nicht mehr so stark steigen wie in der Vergangenheit. Wenn ich aber sehe wie viel Einfluss plötzlich Techniken wie Mesh Shader oder DLSS haben, wird die Bewertung schwierig.

In der Vergangenheit hat sich jedoch gezeigt, wie viel besser die neuere Architektur sich im Laufe der Zeit mit moderneren Spielen klarkommt.

iceshield schrieb:
Mal eine andere Frage. Wenn man ein NH-D15 hat wie ich, und z.B die 3090 in den ersten PCIe Slot reindonnern möchte, geht das dann überhaupt?

Nach innen zur CPU hin wird die 3090 nicht viel breiter werden. Das dürfte ähnliche Dimensionen haben wie die dicken custom ASUS Klopper zuvor auch. Einzig die breite über die PCIe-Slots könnte je nach Gehäuse und Ausstattung etwas problematisch werden.

Die Rede war da von etwas 2,5 bis 3 Slot Breite. Die Tiefe / Länge hingegen geht evtl. bis 30 oder 31 Centimeter. Das muss man vorher im Gehäuse ausmessen, weshalb Tests und Erfahrungsberichte extrem wichtig werden.

Gehirnzelle schrieb:
Chipausbeute bei den riesen Chips, Entwicklungskosten, RTX Einheiten, erhöhte Rams und nicht zuletzt die fehlende Konkurrenz lässt den Preis eben in die Höhe schiessen.

Richtig, aber erzähl das bloß nicht der "Geiz-ist-geil"-Fraktion. Denen ist as alles egal und sie wollen die neueste Technik prinzipiell für umme. Bei einem Kaufpreis von sicher über 1000€ ist das ein bißchen Schizophren.

Außer ePenis und haben-will-Faktor zwingt einen Spieler nichts umbedingt genau die 3090 zu nehmen.

Gehirnzelle schrieb:
Technologisch wird die 3090 ein Top Produkt und wäre sicher nicht für 600 euro darstellbar.

Ebenfalls richtig!
Falls Nvidia das trotzdem machen würde, wäre das eine Verlustkarte wie die Radeon VII von AMD. Die wurde nach 6 Monaten vom Markt genommen, weil sie unrentabel und zu teuer in der Produktion war. Bei einem Flagschiff ist so etwas unvorstellbar!

Gehirnzelle schrieb:
Ich liebäuge eher mit der 3080, da mir 4k mit 60 fps reichen. Ich freue mich jedenfalls auf die neuen Karten und hoffe auch dass AMD ähnliche Performance liefern kann.

Ich gehe davon aus die 3080 wird eine der beliebtesten Karten für Aufrüster. Das könnte für jeden Käufer interessant werden, denen die 2080 Ti zu teuer war. Dasselbe bei der 3070 und 3060, die jeweils die 2080 Ti und die 2080/Super ersetzen. Damit wäre dann in der Theorie die 1080p und 1440p in 145 bis 165 FPS sehr gut abgedeckt.

Bei AMD kann ich es nur schwe reinschätzen. Über BigNavi und die Navi refreshs existieren so gut wie keine Informationen. Entweder sind es die aboluten Renner oder wieder ein enttäuschender Flop wie Vega oder Fiji.

Natürlich wäre erneutes Mittelmaß ebenfalls möglich, wobei das AMD bei Grafikkarten das Genick brechen würde.
 
snickii schrieb:
Aber 10GB anstatt 11 GB für die paar % Mehrleistung.. ich würds wohl nicht machen ^^

Leider reden sich dass viele immer noch schön, sage nur PS5 eine GPU mit integrierter Super SSD was machn die Entwickler wohl damit. ;)

Mal sehen was die RTX3090 kann und kostet und ob PCIe 4.0 hier was reißt. ;)
Ergänzung ()

Hardware_Hoshi schrieb:
Bei AMD kann ich es nur schwe reinschätzen. Über BigNavi und die Navi refreshs existieren so gut wie keine Informationen. Entweder sind es die aboluten Renner oder wieder ein enttäuschender Flop wie Vega oder Fiji.

Weil sie zurzeit gut dicht halten was bei NV nicht der fall ist.
 
2x12Pin wäre lustig. Dann sind wirklich 4x8Pin dran. :daumen::freak:💥
 
  • Gefällt mir
Reaktionen: Mcr-King
830 Kommentare über einen potenziellen Kühler für Ampere. Beim Release sind es dann > 3.000 Kommentare, wobei 90% der Kommentare verlauten lassen, dass die Karten zu teuer, zu stromhungrig und zu warm sein werden. 2% setzen sich mit den technischen Änderungen auseinander und die restlichen 8% sagen ist mir alles egal, ich kauf das Ding.
 
  • Gefällt mir
Reaktionen: Project-X, Kalsarikännit, Benji18 und 7 andere
Sollten sie wirklich zu teuer, zu laut und du langsam sein wird man das ja auch schreiben können :D

Aber das weiß man ja heute noch nicht.
 
Zurück
Oben