News Radeon RX 7900 XTX: AMDs Topmodell fällt im MindStar auf 899 Euro

Weil es tatsächlich Menschen gibt, die sich persönlich angegriffen fühlen, wenn sie sehen, daß andere Menschen auch eine durchaus rationale, aber andere Entscheidung getroffen haben. Ist ja nicht so als würde der mündige Käufer vor seinem Kauf würfeln, um zu einer Entscheidung zu kommen. Scheint irgendeine Art Komplex hervorzurufen, seinen Standpunkt unbedingt mitteilen und anderen ihre Gründe absprechen zu müssen.
 
  • Gefällt mir
Reaktionen: Schattenspender, LuxSkywalker, SweetOhm und 5 andere
Mr. Vega schrieb:
Nicht von Nvidia. Nvidia hat Frame Generation für Spiele adaptiert und erweitert, die zugrunde liegende Technik und das Konzept stammt nicht von Ihnen.
Konnte ich es vorher in Spielen nutzen? Nein.
Nvidia hat auch RT nicht erfunden, aber es ging auch nicht darum, wer es erfunden hat, sondern wer es zuerst in Spielen nutzbar machte bzw. für uns zugänglich.

daknoll schrieb:
Heisi, warum bist du eigentlich nicht Pfarrer geworden?
Da könntest du den ganzen Tag Missionieren und alle wären begeistert. Aber hier nervst du extrem.
Dann müsste ich abstinent leben und das ist nicht so meins ;)
Wenns dich nervt, ignoriere mich. Ist mir egal, was du über meine Aussagen denkst. Ich werde mich auch weiterhin am Forum beteiligen.
Eure persönlichen Angriffe könnt ihr euch klemmen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: halbtuer2, Tornavida und Shinigami1
F4711 schrieb:
Weil es tatsächlich Menschen gibt, die sich persönlich angegriffen fühlen, wenn sie sehen, daß andere Menschen auch eine durchaus rationale, aber andere Entscheidung getroffen haben. Ist ja nicht so als würde der mündige Käufer vor seinem Kauf würfeln, um zu einer Entscheidung zu kommen. Scheint irgendeine Art Komplex hervorzurufen, seinen Standpunkt unbedingt mitteilen und anderen ihre Gründe absprechen zu müssen.

Stimme zu, aber deshalb diskutieren wir ja hier und generell, weil wir eben alle in unserem Horizont limitiert sind: https://de.wikipedia.org/wiki/Begrenzte_Rationalität
Und deshalb darf man auch "rationale" Entscheidungen anderer Menschen in Frage stellen. Geht ja auch freundlich :)
 
  • Gefällt mir
Reaktionen: MrHeisenberg
DefconDev schrieb:
Achso und bei einer 4080 kann man selbiges nicht tun? Beim simplen YouTube schauen ist der Verbrauch trotzdem zu hoch.
Ihr schaut youtube auf eurem Gaming- Rechner? Selbst schuld, vielleicht reicht dafür dann auch ein sparsamer Nuc?
Setzt doch mal die grüne Brille ab, wegen ein paar Watt mehr wird ein Faß aufgerissen, aber der Kaufpreis interessiert nicht wirklich, oder?
Ich habe schon Intel gehabt, ich habe schon AMD gehabt, ich habe schon rote Karten gehabt, und auch Grüne.
Und ja, ich achte eigentlich auch immer auf die Effizienz, zB. den Stromzählerausschlag.
Aber worauf achtet ihr?
Ganz ehrlich, egal ob nun Grün oder Rot, bei beiden Herstellern ist der Verbrauch zu hoch.
Höchstleistungen werden nur über enorme Leistungsaufnahmen erreicht.
Das es auch anders funktioniert, hat AMD ja zumindest bei den CPU's bewiesen.
Irgendwie sollte es doch möglich sein, daß auch irgendwie auf Grafikkarten zu übertragen?
Dann, und nur genau dann, wäre ich bereit, mir eine neue Graka anzuschaffen, aber auch nicht um jeden Preis.
Gibt immer noch genug ältere Spiele, die ich mir vornehmen kann und die aktuellen Triple-A- Titel interessieren mich auch nicht wirklich so.
 
  • Gefällt mir
Reaktionen: SweetOhm
Wie ist denn die Thematik mit dem „Hardware-Bug“ der 7900XTX heute zu bewerten? Spielt das überhaupt noch eine Rolle, oder nimmt man das mittlerweile einfach in Kauf?
 
TheHille schrieb:
Wie ist denn die Thematik mit dem „Hardware-Bug“ der 7900XTX heute zu bewerten?
welchen genauen Bug meinst du?
 
Ursprünglich war seitens AMD mehr geplant, dann ging was schief. Die beiden Großen hätten besser sein müssen, als sie letzten Endes waren. Diese wurden dann beschnitten/gedrosselt (?). Haben die anfangs nicht irgendwie zicken gemacht, was dann durch die Treiber kaschiert wurde?

https://www.hardwaretimes.com/amd-a...-for-uarch-flaws-with-3ghz-clocks-report/amp/

Das hat zumindest bei mir noch ein „G‘schmäckle“.
 
TheHille schrieb:
Wie ist denn die Thematik mit dem „Hardware-Bug“ der 7900XTX heute zu bewerten?
Der "Hardwarebug" ist für dich als Käufer irrelevant. Die Grafikkarte liefert das, was sie liefert und ist so auch gemessen worden.
Northstar2710 schrieb:
welchen genauen Bug meinst du?
Es geht an der Stelle darum, dass RDNA 3 Karten nicht den Takt schaffen, für den sie gedacht waren und für den Takt, den sie schaffen, mehr Energie benötigen.

Daraus resultiert, dass die damaligen Folien von AMD bei der Präsentation besser waren, als am Ende das Produkt.

Viele Redaktionen auch @Wolfgang haben sich die Problematik angesehen und ich hab im Juli letzten Jahres auch mit Spielen mal nachgemessen: RDNA 3 Karten können in reinen Compute-Loads teilweise bei deutlich geringeren Stromverbrauch auf die Shader ohne Probleme 2,9 und auch teilweise über 3 GHz takten und sind entsprechend schnell.

Sobald aber die ROP dazu kommen, steigt der Energiebedarf draßtisch an und die Karte fällt im Takt massiv runter und wir sprechen hier nicht bon Dimensionen wie bei RDNA 2, RDNA 1 oder Vega davor, wo das mal 100 MHz aus machte, sondern in so einem Fall reden wir von Differenzen von 10 % und mehr beim Takt bei gleichzeitig bis zu 50 % weniger Verbrauch.

Mals als "Selbstwerbung": https://www.computerbase.de/forum/t...rgate-devpandis-hin-und-her.2151961/#text-a14
 
  • Gefällt mir
Reaktionen: SweetOhm, coxon, danyundsahne und 3 andere
Northstar2710 schrieb:
seid Kernel 6.7 ist auch OC von RDNA3 möglich
Danke für den Hinweis, dann kann ich ja tatsächlich ruhigen Gewissens upgraden.
 
  • Gefällt mir
Reaktionen: SweetOhm und TheHille
darthbermel schrieb:
Aber da kostete sie noch 800€ und nicht unter 600 ;-)
1706372552606.png

Ich habe damals meine Inno3D für 606,90 EUR gekauft und zwar am 27.09.2016.

Ja, da gab es auf GPUs einen Extra-Rabatt von 100 EUR.
Aber die iChill X4 war zu dem Zeitpunkt eines der teureren GTX1080 Modelle. Ich hätte damals auch eine günstigere Karte bekommen können.

Es ist mir als Endkunde völlig egal, was der UVP für die Founders Edition zu dem Zeitpunkt war.
Die Straßenpreise zählen und die waren eben zu jener Zeit in einem erträglichen Rahmen.
Heute liegen die Straßenpreise der Custom-Modelle eher über der UVP des Referenzmodells.

Die GTX1080Ti hatte ihren Launch erst am 10.03.2017.
Aber selbst die war ja nicht viel teurer.
pacifico schrieb:
Ja lol.

In bester CB manier saugst dir was aus den Fingern
Die Launch-Termine der GTX1080 und GTX1080Ti kann man nachschlagen.
Oder was möchtest du mir mit deiner Antwort sagen?

819 Euro will Nvidia für die GeForce GTX 1080 Ti Founders Edition haben, was zwar viel Geld ist, aber nicht zu viel in Anbetracht der gezeigten, absolut konkurrenzlosen Leistungen. Zumal der Preisaufschlaug auf die ursprüngliche UVP der GeForce GTX 1080 Founders Edition überraschend klein ausfällt.
Quelle: Computerbase

Und das war der UVP der Founders Edition!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und DefconDev
TheHille schrieb:
Ursprünglich war seitens AMD mehr geplant, dann ging was schief. Die beiden Großen hätten besser sein müssen, als sie letzten Endes waren. Diese wurden dann beschnitten/gedrosselt (?). Haben die anfangs nicht irgendwie zicken gemacht, was dann durch die Treiber kaschiert wurde?

https://www.hardwaretimes.com/amd-a...-for-uarch-flaws-with-3ghz-clocks-report/amp/

Das hat zumindest bei mir noch ein „G‘schmäckle“.
Nein, das waren nur Gerüchte.
War aber immer schon Unsinn.
 
halbtuer2 schrieb:
Ihr schaut youtube auf eurem Gaming- Rechner? Selbst schuld, vielleicht reicht dafür dann auch ein sparsamer Nuc?
Setzt doch mal die grüne Brille ab, wegen ein paar Watt mehr wird ein Faß aufgerissen, aber der Kaufpreis interessiert nicht wirklich, oder?
Ich habe schon Intel gehabt, ich habe schon AMD gehabt, ich habe schon rote Karten gehabt, und auch Grüne.
Und ja, ich achte eigentlich auch immer auf die Effizienz, zB. den Stromzählerausschlag.
Aber worauf achtet ihr?
Ganz ehrlich, egal ob nun Grün oder Rot, bei beiden Herstellern ist der Verbrauch zu hoch.
Höchstleistungen werden nur über enorme Leistungsaufnahmen erreicht.
Das es auch anders funktioniert, hat AMD ja zumindest bei den CPU's bewiesen.
Irgendwie sollte es doch möglich sein, daß auch irgendwie auf Grafikkarten zu übertragen?
Dann, und nur genau dann, wäre ich bereit, mir eine neue Graka anzuschaffen, aber auch nicht um jeden Preis.
Gibt immer noch genug ältere Spiele, die ich mir vornehmen kann und die aktuellen Triple-A- Titel interessieren mich auch nicht wirklich so.
Jedes Mal dasselbe Spiel. Hier zu diskutieren ist wirklich verschwendete Zeit.

Ich habe immer noch keine grüne Brille auf. Es geht um das Argument, dass man bei AMD alles einstellen kann, um Strom zu sparen aber es wird so getan, als wäre das mit NV nicht möglich. Bedeutet, der Idleverbrauch oder Teillastverbrauch ist verglichen mit NV einfach schlechter. Das ist Fakt. Das bedeutet aber nicht, dass das eine klare Kaufempfehlung für NV ist.

Und ich kaufe mir am besten für jedes denkbare Szenario einen speziellen PC.:rolleyes:
 
  • Gefällt mir
Reaktionen: Apocalypse
Apocalypse schrieb:
Und in dem Bereich hatte AMD im RDNA 3 Lineup genau was? Die RX7600, eine wirklich fürchterlich schlechte Karte. Die 7700xt und 7800xt liegen oberhalb und das Segment hat bisher bei AMD eigentlich komplett der RDNA 2 abverkauf gemacht. Und wie lange ist die RDNA2 nicht mehr in Produktion? Ein Jahr? Und die Bestände sind immer noch nicht aus.
Bis 400 € reicht auch noch RDNA 2 mit der 6750XT (unter 400 €) für die 4060Ti 8 GB (400 €) und 16 GB (450 €).
Und ab 450 € ist die RDNA 3 mit 7700XT 20 % schneller als eine 4060Ti. Was NV dort abliefert ist einfach ein Witz !
 

Anhänge

  • GPU Bench.jpg
    GPU Bench.jpg
    268,7 KB · Aufrufe: 35
DefconDev schrieb:
als wäre das mit NV nicht möglich
Vielleicht geht es aber auch einfach nicht darum das sowas mit NV auch möglich ist oder Nvidia trotzdem effizienter ist, sondern einfach nur darum das man auch eine RX7000 Karte noch optimieren kann, wenn man es möchte.
 
  • Gefällt mir
Reaktionen: SweetOhm und DefconDev
SweetOhm schrieb:
unter 400 €) für die 4060Ti 8 GB (400 €) und 16 GB (450 €).
Das Problem hier sind zwei Dinge
Für um die 400€ gibt es noch 6800er, obwohl die wohl iirc seit einem Jahr gar nicht mehr produziert werden, also auch hier noch RDNA2 Trumpf und zum anderen war der Launch Preis der 8Gb 4060ti wie schon mal erwähnt 439€.

Das jetzt Kurz vorm Generationenwechsel die Preise fallen sollte ja normal sein, sonst haben wir nächste Generation wieder das gleiche Problem mit dem alten Lagerbestand.

Auf jeden Fall hast du recht das es heute viel besser bei Nvidia bei den Preisen aussieht als letztes Jahr und trotzdem nicht wirklich reicht. Aber immerhin gibt es die 4060ti jetzt für unter 500€🤡 mit 16gb.
Die Karte wollte Nvidia glaube ich gar nicht verkaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
TheHille schrieb:
Das hat zumindest bei mir noch ein „G‘schmäckle“.
Was aber doch nix an der jetzigen Leistung ändert. Hätte sie nicht diesen Bug gehabt und währe sie Leistungstechnisch näher an der RTX 4090, dann währe sie auch teurer, genauso die 7900xt und 7900GRE.

Das kann soviel Geschmäkle haben wie du möchtest, aber am Produkt ändert sich dadurch doch nix. Du weisst garnicht welche GPU chips in der Entwicklung Hardware Bugs aufwiesen und diese durch treiber gefixt oder vertuscht worden. Das hat nix mit dem Produkt selbst mehr zutun, wie es hätte Performen sollen. Die Perfomance ist so wie sie ist, und diese ist passend zu der Konkurrenz bepreisst. Fertig.
 
  • Gefällt mir
Reaktionen: SweetOhm und Apocalypse
DevPandi schrieb:
Deine weiteren Ausführubgen sind auch falsch. Beim RayTracer trifft der Sttahl auf das Polygob und erneut kommt der Texel mit dem Farbwert ins Spiel!
Die Deinigen allerdings auch ... ;)
 
Zuletzt bearbeitet:
Shinigami1 schrieb:
Was ist denn jetzt mit Mantle und HBM? Mir ist klar das Vulkan noch existiert aber auch das findet man nicht gerade in vielen Spielen. … Open Source ist schön und gut aber es hat Gründe wieso NV auf proprietäre Lösungen setzt. Man sieht es alleine an der Qualität.
Du lebst irgendwie in Deiner eigenen Blase, oder?

Mantle ist maßgeblich in die Entwicklung von Vulkan eingeflossen. Das war eigentlich die größte Revolution der letzten Jahre vor der Raytracing-Entwicklung. Und Vulkan war zudem so enorm wichtig. Einerseits wurde damit eine gleichwertige Konkurrenz zu DirectX12 geschaffen und damit ein Monopol gebrochen. Vulkan ist dazu noch überaus erfolgreich. Das Steam Deck würde es ohne Vulkan nicht geben. Die DirectX-Aufrufe für Windows-Spiele werden direkt in Vulkan-Aufrufe umgewandelt. Und nicht jede Spielkonsole hat einen Windows-Unterbau.

Und Nvidia setzt nur auf Closed Source, weil sie im PC-Markt ein Quasi-Monopol haben und es sich da leisten können. Auf Plattformen, auf denen Nvidia keine nennenswerte Marktanteile hat, sieht sich auch Nvidia gezwungen, Open-Source-Treiber zu veröffentlichen.
 
  • Gefällt mir
Reaktionen: SweetOhm, eXe777, coxon und eine weitere Person
Verbrauch ist wichtig, keine Frage.
Ich hab mit gerade einen 2m Kühlschrank gegönnt, der seinen 10 Jahre alten Vorgänger ersetzt. 65% weniger Verbrauch, 104kWh pro Jahr angegeben.
Wie viel kann ich im Jahr aktiv mit 100% der XTX Leistung spielen? Vermutlich irgendwas um die 8-10h pro Woche, 470h. Bei etwa 120W Differenz macht das pro Jahr etwa 20€ an Energiekosten Unterschied.
Selbst bei doppelt so viel immer noch das bessere Angebot.
 
  • Gefällt mir
Reaktionen: SweetOhm und coxon
Zurück
Oben