Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Innosilicon Fantasy I & II: 10 TFLOPS+ für Desktop, Server, Cloud und Metaverse
- Registriert
- Jan. 2018
- Beiträge
- 19.032
Ja, das wird spannend. Die Fantasy II dürfte dann ja auf Mobil Technik basieren?!konkretor schrieb:Mal sehen ob es wirklich mal auf den Markt kommt und wenn ja, wie es sich so schlägt.
Die zweite nutzt Imagination Technologie, sind ja nicht ganz unbekannte, wenn auch seit Ewigkeiten nichts mehr für Windows Rechner abgeliefert wurdeMatthias80 schrieb:Laufen die mit NV oder AMD Treibern?
Ergänzung ()
Haben ist besser als brauchen. Sprich, du hast die Karten und kannst nach und nach dein Know-how aufbauenlazsniper schrieb:10 tflops, während sich nvidia und amd um die 100er marke streiten...
Zuletzt bearbeitet:
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
konkretor schrieb:Mal sehen ob es wirklich mal auf den Markt kommt
Wenn du deine Quellen in Asien wieder anzapfen würdest, würde ich auch eine nehmen.
Und die von CB, würde auf meine Rechnung gehen.
Mal so ganz (in)offiziell gesprochen.
Wenn ich mein eigenes Süppchen koche, esse ich auch alleine.
mfg
p.s.
Ach ja,
Die Fantasy I B, brauche ich nicht. Die muss man nicht haben. Der 128 bit Bus ist mies und Dual Chip auf einem Board, rockt auch nicht. Asiatische Microruckler, kenne ich schon von anderen Herstellern.
Fantasy II mit 5nm hätte ich gerne.
3.8.
Abwarten und Tee trinken. Jedenfalls bauen die Chinesen nicht ganz so sehr im Geheimen, wie immer gemunkelt wurde. Die machen sogar große Pressekonferenzen. ^^
p.s.s.
Und du weißt ja, wo du mich findest
Im Zweifel, schick mir eine PM, dann bekommst du eine meiner Telefonnummern, mit der du mich erreichst.
Das meine ich ernst.
Zuletzt bearbeitet:
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Hm das eskaliert schneller als ich dachte.
Ob die USA angesichts solcher Entwicklungen in 10 Jahren noch relevant sind, muss man angesichts solcher Entwicklungen schon hinterfragen.
Ob die USA angesichts solcher Entwicklungen in 10 Jahren noch relevant sind, muss man angesichts solcher Entwicklungen schon hinterfragen.
Ratterkiste
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.831
16GB GDDR6X und dann 20 Watt für die gesamte Karte? Wer soll das denn glauben…
Splatter0815
Lt. Junior Grade
- Registriert
- Juli 2006
- Beiträge
- 348
Ich hab zwar nur eine RX6600 aber in GTA V Online hab ich z.B. 25-27 Watt verbrauch.
Warum könnten dann 20W nicht stimmen?
Du weißt doch garnicht was und mit welche Einstellungen die getestet haben.
Meine Güte, es ist ein Aussage von einer Firma die es so jeden Tag gibt.
Warum manche das sofort als falsch und unglaubwürdig und somit das Produkt schlecht machen, verstehe ich einfach nicht.
Ihr wisst garnichts, bildet aber eure Meinung. Stark.
Warum könnten dann 20W nicht stimmen?
Du weißt doch garnicht was und mit welche Einstellungen die getestet haben.
Meine Güte, es ist ein Aussage von einer Firma die es so jeden Tag gibt.
Warum manche das sofort als falsch und unglaubwürdig und somit das Produkt schlecht machen, verstehe ich einfach nicht.
Ihr wisst garnichts, bildet aber eure Meinung. Stark.
TheDarkness
Commander
- Registriert
- Sep. 2013
- Beiträge
- 2.584
Vtl. weil ein einzelner 1GB GDDR6X Speicher 3,4W braucht.
Selbst wenn wir von den neuen 2GB Speichersteinen ausgehen, sind das immer noch 8 Stück a 3,4W. Selbst stark untertaktet, sodass sie zbs. nur noch 2W verbrauchen, sind das immer noch 16W für den Speicher. 4W für den Chip+Verluste passt nicht.
Auch ein 20W Chip mit 20W Speicher zu verbinden ist eher irrsinning.
Das einzige was halbwegs Sinn (für mich) macht ist die Verlustleisung der restlichen Komponenten abseits des Speichers und Chips.
Teillast ist übrigens nicht Volllast und Software Readings sind nicht zuverlässig. Falls du es doch hinkriegst die RX6600 voll auszulasten, während sie nicht mal 30W braucht, dann hast du nicht nur ein Gold- oder Platin-Sample, sondern eher ein legendäres Exemplar.
Selbst wenn wir von den neuen 2GB Speichersteinen ausgehen, sind das immer noch 8 Stück a 3,4W. Selbst stark untertaktet, sodass sie zbs. nur noch 2W verbrauchen, sind das immer noch 16W für den Speicher. 4W für den Chip+Verluste passt nicht.
Auch ein 20W Chip mit 20W Speicher zu verbinden ist eher irrsinning.
Das einzige was halbwegs Sinn (für mich) macht ist die Verlustleisung der restlichen Komponenten abseits des Speichers und Chips.
Teillast ist übrigens nicht Volllast und Software Readings sind nicht zuverlässig. Falls du es doch hinkriegst die RX6600 voll auszulasten, während sie nicht mal 30W braucht, dann hast du nicht nur ein Gold- oder Platin-Sample, sondern eher ein legendäres Exemplar.
F
flappes
Gast
Schon die Lüfter dürften 3 - 6 Watt verbrauchen.theGucky schrieb:Und bei 20W braucht man keine 2-3 Lüfter...da stimmt was gewaltig nicht.
b|ank0r
Lt. Commander
- Registriert
- Nov. 2006
- Beiträge
- 1.204
Das mit den 20 und 50 W würde ich mit Vorsicht genießen und so auch nicht kommunizieren.
Wie andere schon angemerkt haben ergibt das wenig Sinn. Dagegen spricht eindeutig das verwendete Kühlkonstrukt und die 8 Pin bzw. 2x 8 Pin Stromversorgung sogar bei der B Variante. Wenn die wirklich nur maximal 50 W benötigen, dann würden auch die 75 W des PCIe Slots reichen.
Von dem was ich so gelesen habe bezieht sich der Stromverbrauch auf das Enkodieren von 4K Videos. Und ob das dann die Variante mit 16 GB ist weiß auch keiner. Es soll die Karten auch mit 4 & 8 GB geben.
Wie andere schon angemerkt haben ergibt das wenig Sinn. Dagegen spricht eindeutig das verwendete Kühlkonstrukt und die 8 Pin bzw. 2x 8 Pin Stromversorgung sogar bei der B Variante. Wenn die wirklich nur maximal 50 W benötigen, dann würden auch die 75 W des PCIe Slots reichen.
Von dem was ich so gelesen habe bezieht sich der Stromverbrauch auf das Enkodieren von 4K Videos. Und ob das dann die Variante mit 16 GB ist weiß auch keiner. Es soll die Karten auch mit 4 & 8 GB geben.
24784ds
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 588
24784ds
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 588
@konkretor @SVΞN
Weiteres Update:
https://twitter.com/Loeschzwerg_3DC/status/1555166298505625600
Quelle:
https://www.ithome.com/0/633/304.htm
Weiteres Update:
https://twitter.com/Loeschzwerg_3DC/status/1555166298505625600
- GLmark2 benchmark test score exceeds 6500
Quelle:
https://www.ithome.com/0/633/304.htm
- Registriert
- Juni 2007
- Beiträge
- 22.984
Danke für die vielen Hinweise und den tollen Support @24784ds und @konkretor.
Ich sitze schon an einer entsprechenden Meldung!
Liebe Grüße
Sven
Ich sitze schon an einer entsprechenden Meldung!
Liebe Grüße
Sven
24784ds
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 588
ImgTec feiert 30 Jahre PowerVR und zeigt in einem Blog-Post eine Innosilicon Fantasy 1 A:
https://blog.imaginationtech.com/cel...moving-forward
So wie es aussieht steckt die Karte auf einem ASRock Z690 PRO RS d.h. läuft auf einem aktuellen x86 System.
Edit:
Bei 12:07 sieht man die Karte für einen kurzen Moment.
https://blog.imaginationtech.com/cel...moving-forward
So wie es aussieht steckt die Karte auf einem ASRock Z690 PRO RS d.h. läuft auf einem aktuellen x86 System.
Edit:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Bei 12:07 sieht man die Karte für einen kurzen Moment.
Zuletzt bearbeitet:
RealRadeonator
Cadet 2nd Year
- Registriert
- März 2005
- Beiträge
- 26
Gibt es irgendwelche News, ich finde nichts aktuelles zu dieser GPU ?!
24784ds
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 588
Fantasy 1 habe ich leider immer noch nirgends in der Wildnis entdeckt. Zu Fantasy 2 gab es erst kürzlich ein paar Infos, siehe hier: https://www.tomshardware.com/news/i...fantasy-2-gpu-at-china-chip-excellence-awards
Bezüglich PowerVR Architektur Laberei schaust am besten ins 3DC.
Bezüglich PowerVR Architektur Laberei schaust am besten ins 3DC.
Ähnliche Themen
- Antworten
- 67
- Aufrufe
- 9.793
- Antworten
- 93
- Aufrufe
- 21.712