What's new

Welcome!

By registering with us, you'll be able to discuss, share and private message with other members of our community.

SignUp Now!

nVidia GPU - Το επίσημο νήμα συζήτησης.

nitro912gr

Ancient Red Dragon
Approval of the Admiral PCMaster Veteran Klika Member
Joined
Nov 26, 2012
Messages
14,265
φαντάσου τι ετοιμάζει η Red Team
 

Hank

Mind-flayer
Sign me up! Approval of the Admiral The Ultimate Sacrifice Fighting stocism with stoicism
Joined
Jan 22, 2020
Messages
1,889
Γιατί αυτό; Σε τι την βολεύει; Είναι ένδειξη αυτοπεποίθησης ότι θα είναι πιο δυνατή από την AMD ή θέλει να δει τι θα βγάλουν οι απέναντι; Και αν ναι, τι μπορεί να διορθώσει σε μία μέρα;
 

Great0ldOne

Lich
Staff member
Joined
Dec 1, 2012
Messages
7,418
Σε τι την βολεύει;

Ίσως σε τίποτα και απλά να ισχύει αυτό που είπαν, πως θέλουν να προλάβουν να μαζέψουν stock για να μην επαναληφθούν τα ευτράπελα με την διαθεσιμότητα της 3080. Αν όμως κάτι παίζεται με τον ανταγωνισμό...

Και αν ναι, τι μπορεί να διορθώσει σε μία μέρα;

...την τιμή.
 

Hank

Mind-flayer
Sign me up! Approval of the Admiral The Ultimate Sacrifice Fighting stocism with stoicism
Joined
Jan 22, 2020
Messages
1,889
Πιστεύετε ότι το αν η AMD εμφανιστεί ανταγωνιστική θα επηρεαστεί από τις επιδόσεις της στο Ray Tracing ή όχι;

Αν, δηλαδή, βγάλει κάρτες πλήρως ανταγωνιστικές προς την NVidia ή ακόμη και καλύτερες αλλά οι επιδόσεις τους στο Ray Tracing (συμπεριλαμβανομένου του αντίστοιχου DLSS) είναι σημαντικά υποδεέστερες από αυτέ των RTX, ποιός από τους δύο θα είναι ο κερδισμένος;
 
Last edited:

Northlander

Tarrasque
Staff member
Approval of the Admiral PCMaster Veteran RQ Elite Beta Tester
Joined
Nov 26, 2012
Messages
18,628
Για μένα η AMD.

Ακόμη και τώρα το Ray Tracing θέλει πολλή δουλειά για να αναδειχτεί. Όταν θα είμαστε στα μέσα του κύκλου ζωής των PS5 και Xbox Series FX GLA, τότε θα έχουν κυκλοφορήσει αρκετοί τίτλοι που ίσως ενσωματώνουν την τεχνολογία καλύτερα, αλλά αντίστοιχα θα έχουμε και νέες κάρτες, πιθανώς και νέα γενιά, από τις ανταγωνίστριες.
 

kuivamaa

Death Knight
Staff member
Joined
Nov 26, 2012
Messages
3,207
Περιμένουν να μάθουν τιμή και ισως επιδόσεις της αντίστοιχης κοκκινης για να αλλάξουν τα δικά τους αν χρειαστεί. Παντως αν η μεγάλη είναι πανω-κατω στις επιδόσεις της 3090 θα παραγγείλω άμεσα. Αν παίζει σε επιπεδα 3080 θα περιμένω να δω 20GB απο πράσινη και aftermarket από radeon.
 

Epitaph

Death Knight
Joined
Nov 30, 2012
Messages
4,488
Συμφωνώ με Νορθ.
H 80CU Navi σε Rasterization (no Ray-Tracing) θα ναι καλύτερη από 3080. 25 μέρες υπομονή ακόμη, αλλά θεωρώ το performance/watt θα ναι καλύτερο της 3080 άνετα. Λογικά Την Παρασκευή (ξημερώματα) θα δούμε και κάνα sneak peek για τις κάρτες.

Btw αυτό που λέγαμε από τα πρώτα reviews των 3000.


tl;dr : Συγκρίνει τις Flagships της κάθε γενιάς και βγαίνει το πόρισμα ότι η NVIDIA πίνει και λέει ψέματα για "biggest performance leap".


*Θα πει κάποιος τώρα «Ναι , αλλά ο Jensen δήλωσε ΡΗΤΑ πως η 3080 είναι η Flagship». E, θα του πω και γω πως αν συγκρίνεις Flagship (2080Ti) με flagship (3080) η διαφορά στο performance βγαίνει ακόμα μικρότερη (34% καλύτερη η 3080 από 2080Ti) και άρα μιλάμε για το χαμηλότερο performance leap ever. Price/performance βέβαια παραμένει καλή επιλογή η 3080, ειδικά αν συγκρίνεις με το βδέλυγμα που είναι η 3090.
 

vtheofilis

Death Knight
Joined
Dec 11, 2012
Messages
4,420
Η μεγάλη άνοδος είναι στο path tracing, το οποιο δουλεύει μόνο σε 2 παιχνίδια αυτή την στιγμή, το Quake II και το Minecraft. Σύμφωνα με τον Adored, είναι η απόλυτη μέθοδος rendering, αλλά είναι σίγουρα πολύ δαπανηρό, για παιχνίδια με ΑΑΑ assets αιχμής (το Quake II είναι 20ετίας+, το Minecraft έχει λίγα πολύγωνα). Εκεί όντως μπορεί να ρίξει και 80% παραπάνω FPS, σε σχέση με την 2080. Αλλά και πάλι, όπως είπαμε σε προηγούμενα post, η 3080 φοράει "μεγάλο" chip, ενώ η 2080 μεσαίο, οπότε η πιο σωστή σύγκριση θα ήταν με την 2080Ti.
Στην ουσία, έχει γίνει μια σύγκλιση των φιλοσοφιών σχεδίασης. Η Nvidia είχε κομμένο το Compute στις Geforce, και έδινε έμφαση στο rasterization μετά τις Fermi [Kepler/Maxwell/Pascal(?)]. Η AMD, το είχε λιγότερο περιορισμένο, αλλά ήταν λιγότερο αποδοτική στο rasterization, όσον αφορά τις GCN. Πιθανώς γιατί δεν τράβαγε η raster-focused Terrascale σε compute, και το CUDA είχε κυριαρχήσει, σε σχέση με το OpenCL, στο GPGPU κομμάτι. Δεν κατάφερε να τραβήξει αρκετούς developers ώστε να εκμεταλλευθούν τα δυνατά σημεία της GCN, για να κλείσει η ψαλίδα.
Το Ray και το Path Tracing όμως θέλουν Compute... οπότε γι αυτό η Ampere και η Turing είναι πιο compute heavy, άρα λιγότερο αποδοτικές σε rasterization...
 
Last edited:

kuivamaa

Death Knight
Staff member
Joined
Nov 26, 2012
Messages
3,207
Η nvidia πήρε λάθος RT δρόμο κατά τη γνώμη μου. Θα μου πειτε "ξέρεις εσύ και όχι οι αρχιτέκτονες GPU;" . Όμως δε λέω ότι δεν ξέρουν τι κάνουν, απλά λέω ότι οδηγήθηκαν προς τα εκεί εν μέρει λόγω στρατηγικής μάρκετινγκ, εν μέρει λόγω άλλων τομέων που η nvidia είναι δυνατή και αλλά και των διαθεσίμων λιθογραφικών. Τι εννοώ:

To πρώτο δεδομένο είναι το εξής: Η nvidia έχει απόλυτη ανάγκη να φέρνει νέα μοντέλα Geforce σε ετήσια βάση γιατί αυτή είναι η κυριότερη αγορά της- σχεδόν τα μισά της έσοδα έρχονται από εκεί. Οπότε θα φρεσκάρει τη γκάμα της με κάθε τρόπο, κάθε χρόνο βρέξει χιονίσει. Το φρεσκάρισμα αυτό του 2018 ήταν η σειρά καρτών Turing.

Αυτή ήταν μια πολύ ιδιαίτερη γενιά καρτών. Για δεύτερη φορά μέσα στη δεκαετία η nvidia αναγκάστηκε να χρησιμοποιήσει την ίδια λιθογραφία μεταξύ γενιών. Oι οικογένειες kepler και Maxwell ηταν και οι δύο βασισμένες στα 28nm της TSMC και οι Pascal και Turing στα 16nm επίσης της TSMC (η ονομασία 12nm είναι απλό μάρκετινγκ, μια απλή βελτιστοποιημένη στα σημεία έκδοση των 16nm είναι). Στην πρώτη περίπτωση η nvidia ανέμενε πως θα είχε περάσει στα 20nm της tsmc αλλά η συγκεκριμένη λιθογραφική δεν ηταν κατάλληλη για GPU τελικά. Η nvidia λοιπόν έκανε backport την σχεδιασμένη για τα 20nm γενιά maxwell στα 28nm. Οι maxwell σε αντίθεση με τις kepler είχαν περιοορισμένο compute και ηταν επικεντρωμένες στο gaming, με πιο εστιασμένο πυρήνα και έτσι μπόρεσαν να ανεβάσουν τα ρολόγια ψηλά και να προσφέρουν μεγάλη βελτίωση τόσο σε επιδόσεις όσο και σε power/perf ratio σε σχέση με τις προηγούμενες χωρίς να χρειαστούν μεγάλα τσιπ.

Οι Turing όμως δεν είχαν τέτοια περιθώρια. Οι Pascal ήταν μετεξέλιξη των maxwell, επίσης εστιασμένες και με ακόμα υψηλότερες συχνότητες. Οπότε η nvidia έπρεπε να κοιτάξει στα μεγάλα τσιπ της και να βγάλει μια έκδοση geforce ανάλογη των Tesla που είχε. Έλα μου όμως που μετά τις κεπλερ, η nvidia ειχε διαχωρίσει πολύ τα μεγάλα τσιπ από τα Geforce. Η maxwell tesla μάλιστα είχε εστιάσει από το 2015 σε Machine Learning (αν θυμάμαι καλά η nvidia ακόμα πούλαγε την Κ80 κέπλερ σε όσους ήθελαν παραδοσιακό compute). Η Volta που ήταν η βάση της Turing δεν ήταν και ό,τι πιο κατάλληλο για παιχνίδια αφού κουβάλαγε tensor cores τα οποία εξειδικεύονται σε πολλαπλασιασμό πινάκων (hello πανελλήνιες 1997) και μέχρι τότε ήταν εντελώς άχρηστα για gaming. Μιλάμε για μεγάλο τμήμα του τσιπ εντελώς σβηστό στα παιχνίδια που παρολα αυτά επιβάρυνε το κοστος παραγωγής.
Η nvidia έπρεπε να βρει κάποιον τρόπο να συνδυάσει το machine learning με αυτές τις κάρτες για να τις κάνει εμπορεύσιμες. Και σκέφτηκε δύο τρόπους. Πρώτα-πρώτα οι tensor cores μπορούσαν να κάνουν denoising εικόνας οπότε θεωρητικά θα μπορούσαν να λειιτουργήσουν ως upscaler. Παράλληλα θα μπορούσαν με τον ίδιο τρόπο θεωρητικά να βοηθήσουν την απόδοση σε RT. Μιας και το Ray tracing σκοτώνει το framerate, ο upscaler θα μπορούσε να βοηθήσει ρίχνοντας την ανάλυση αλλά κρατώντας την ποιότητα εικόνας θεωρητικά σε καλό επίπεδο. Απλά θα χρειαζόταν στο tensor τσιπ να μπει και άλλη μια εστιασμένη ομάδα τρανζίστορ, οι RT. Οπότε η nvidia βρήκε την στρατηγική της. RT και DLSS κύριοι, το άγιο δισκοπότηρο. Όχι γιατί σχεδίασαν από την αρχή να πάνε προς τα εκεί αλλά γιατί έπρεπε να βρουν εναν marketable τρόπο να πουλήσουν.
Δυστυχώς οι RT cores είναι εντελώς άχρηστοι σε κλασικό rendering, πράγμα που εξηγεί γιατί η 2080, που χρησιμοποιεί μεγαλύτερο και νεώτερο τσιπ από την 1080Τι (TU104 vs GP102) έχει αντίστοιχες επιδόσεις. Αυτό κάνει επιτακτική την ανάγκη τόσο της εξάπλωσης των RT τίτλων όσο και του DLSS - "Κοιτάχτε πόσο γαμάουα γρήγορα πάει το γκέιμ με DLSS ε;" και ας είναι η σύγκριση μήλα-πορτοκάλια.

Οπότε η nvidia είναι πια αναγκασμένη να σερβίρει κάρτες με έξτρα τρανζίστορ εκτός του μπάτζετ που πάει στους παραδοσιακούς Shaders που κάνουν τη δουλειά στα γραφικά. Τέτοιες καταστάσεις επικρατούσαν πριν εμφανιστούν οι unfied shader GPU με το Xbox 360 και κατάλοιπά τους υπάρχουν μέχρι τις μέρες μας- για παράδειγμα οι ROP είναι μια αντίστοιχη εξειδικευμένη μονάδα η οποία δεν γίνεται εκμεταλλεύσιμη από τους compute shaders. Δηλαδή παιχνίδι κάργα στο compute που δεν υποστηρίζει RT/DLSS (τα περισσότερα δηλαδή) μπορεί να αφήνει το ενα τριτο των nvidia καρτών να κοιμάται κατα διαστήματα.

Ο αντίλογος σε αυτήν την προσέγγιση έρχεται από την AMD με τις RDNA2 GPU (σειρά 6000/Xbox Series X/PS5 το οποίο είναι υβρίδιο RDNA1-2) οι οποίες έχουν ανανεωμένο Shader array για να τρέχουν RT εσωτερικά, χωρίς εξειδικευμένες μονάδες που κάνουν μόνο αυτή τη δουλειά. Οπότε θα δούμε ποιος θα επικρατήσει. Η Nvidia έχει ήδη κάνει γερό ξεκίνημα στην αγορά εδώ και 2 χρόνια αλλά η AMD έχει τις κονσόλες οπότε περίπου όλοι οι ΑΑΑ παραγωγοί θα παίξουν έτσι. Θα δείξει.
 

Admiral

Ancient Red Dragon
Staff member
Joined
Nov 27, 2012
Messages
12,256
Πολύ ενδιαφέρουσα συζήτηση. Το ray tracing θα είναι δεδομένα στάνταρ από εδώ και εμπρός στα games, έστω με τον περιορισμένο τρόπο που βλέπουμε μέχρι σήμερα, οπότε η προσέγγιση της Nvidia πιθανώς να κερδίσει τις εντυπώσεις σε αυτή τη φάση. Η λογική λέει ότι η προσέγγιση της AMD κάνει καλύτερη χρήση των διαθέσιμων πόρων, με την έννοια ότι αφιερώνεις περισσότερο χώρο στην πλακέτα της κάρτας για hardware που μπορεί να κάνει περισσότερες δουλειές, όμως πολλά θα κριθούν από την αποτελεσματικότητα του hardware σε αυτές τις δουλειές.
 

nitro912gr

Ancient Red Dragon
Approval of the Admiral PCMaster Veteran Klika Member
Joined
Nov 26, 2012
Messages
14,265
Η nvidia πήρε λάθος RT δρόμο κατά τη γνώμη μου. Θα μου πειτε "ξέρεις εσύ και όχι οι αρχιτέκτονες GPU;" . Όμως δε λέω ότι δεν ξέρουν τι κάνουν, απλά λέω ότι οδηγήθηκαν προς τα εκεί εν μέρει λόγω στρατηγικής μάρκετινγκ, εν μέρει λόγω άλλων τομέων που η nvidia είναι δυνατή και αλλά και των διαθεσίμων λιθογραφικών. Τι εννοώ:

To πρώτο δεδομένο είναι το εξής: Η nvidia έχει απόλυτη ανάγκη να φέρνει νέα μοντέλα Geforce σε ετήσια βάση γιατί αυτή είναι η κυριότερη αγορά της- σχεδόν τα μισά της έσοδα έρχονται από εκεί. Οπότε θα φρεσκάρει τη γκάμα της με κάθε τρόπο, κάθε χρόνο βρέξει χιονίσει. Το φρεσκάρισμα αυτό του 2018 ήταν η σειρά καρτών Turing.

Αυτή ήταν μια πολύ ιδιαίτερη γενιά καρτών. Για δεύτερη φορά μέσα στη δεκαετία η nvidia αναγκάστηκε να χρησιμοποιήσει την ίδια λιθογραφία μεταξύ γενιών. Oι οικογένειες kepler και Maxwell ηταν και οι δύο βασισμένες στα 28nm της TSMC και οι Pascal και Turing στα 16nm επίσης της TSMC (η ονομασία 12nm είναι απλό μάρκετινγκ, μια απλή βελτιστοποιημένη στα σημεία έκδοση των 16nm είναι). Στην πρώτη περίπτωση η nvidia ανέμενε πως θα είχε περάσει στα 20nm της tsmc αλλά η συγκεκριμένη λιθογραφική δεν ηταν κατάλληλη για GPU τελικά. Η nvidia λοιπόν έκανε backport την σχεδιασμένη για τα 20nm γενιά maxwell στα 28nm. Οι maxwell σε αντίθεση με τις kepler είχαν περιοορισμένο compute και ηταν επικεντρωμένες στο gaming, με πιο εστιασμένο πυρήνα και έτσι μπόρεσαν να ανεβάσουν τα ρολόγια ψηλά και να προσφέρουν μεγάλη βελτίωση τόσο σε επιδόσεις όσο και σε power/perf ratio σε σχέση με τις προηγούμενες χωρίς να χρειαστούν μεγάλα τσιπ.

Οι Turing όμως δεν είχαν τέτοια περιθώρια. Οι Pascal ήταν μετεξέλιξη των maxwell, επίσης εστιασμένες και με ακόμα υψηλότερες συχνότητες. Οπότε η nvidia έπρεπε να κοιτάξει στα μεγάλα τσιπ της και να βγάλει μια έκδοση geforce ανάλογη των Tesla που είχε. Έλα μου όμως που μετά τις κεπλερ, η nvidia ειχε διαχωρίσει πολύ τα μεγάλα τσιπ από τα Geforce. Η maxwell tesla μάλιστα είχε εστιάσει από το 2015 σε Machine Learning (αν θυμάμαι καλά η nvidia ακόμα πούλαγε την Κ80 κέπλερ σε όσους ήθελαν παραδοσιακό compute). Η Volta που ήταν η βάση της Turing δεν ήταν και ό,τι πιο κατάλληλο για παιχνίδια αφού κουβάλαγε tensor cores τα οποία εξειδικεύονται σε πολλαπλασιασμό πινάκων (hello πανελλήνιες 1997) και μέχρι τότε ήταν εντελώς άχρηστα για gaming. Μιλάμε για μεγάλο τμήμα του τσιπ εντελώς σβηστό στα παιχνίδια που παρολα αυτά επιβάρυνε το κοστος παραγωγής.
Η nvidia έπρεπε να βρει κάποιον τρόπο να συνδυάσει το machine learning με αυτές τις κάρτες για να τις κάνει εμπορεύσιμες. Και σκέφτηκε δύο τρόπους. Πρώτα-πρώτα οι tensor cores μπορούσαν να κάνουν denoising εικόνας οπότε θεωρητικά θα μπορούσαν να λειιτουργήσουν ως upscaler. Παράλληλα θα μπορούσαν με τον ίδιο τρόπο θεωρητικά να βοηθήσουν την απόδοση σε RT. Μιας και το Ray tracing σκοτώνει το framerate, ο upscaler θα μπορούσε να βοηθήσει ρίχνοντας την ανάλυση αλλά κρατώντας την ποιότητα εικόνας θεωρητικά σε καλό επίπεδο. Απλά θα χρειαζόταν στο tensor τσιπ να μπει και άλλη μια εστιασμένη ομάδα τρανζίστορ, οι RT. Οπότε η nvidia βρήκε την στρατηγική της. RT και DLSS κύριοι, το άγιο δισκοπότηρο. Όχι γιατί σχεδίασαν από την αρχή να πάνε προς τα εκεί αλλά γιατί έπρεπε να βρουν εναν marketable τρόπο να πουλήσουν.
Δυστυχώς οι RT cores είναι εντελώς άχρηστοι σε κλασικό rendering, πράγμα που εξηγεί γιατί η 2080, που χρησιμοποιεί μεγαλύτερο και νεώτερο τσιπ από την 1080Τι (TU104 vs GP102) έχει αντίστοιχες επιδόσεις. Αυτό κάνει επιτακτική την ανάγκη τόσο της εξάπλωσης των RT τίτλων όσο και του DLSS - "Κοιτάχτε πόσο γαμάουα γρήγορα πάει το γκέιμ με DLSS ε;" και ας είναι η σύγκριση μήλα-πορτοκάλια.

Οπότε η nvidia είναι πια αναγκασμένη να σερβίρει κάρτες με έξτρα τρανζίστορ εκτός του μπάτζετ που πάει στους παραδοσιακούς Shaders που κάνουν τη δουλειά στα γραφικά. Τέτοιες καταστάσεις επικρατούσαν πριν εμφανιστούν οι unfied shader GPU με το Xbox 360 και κατάλοιπά τους υπάρχουν μέχρι τις μέρες μας- για παράδειγμα οι ROP είναι μια αντίστοιχη εξειδικευμένη μονάδα η οποία δεν γίνεται εκμεταλλεύσιμη από τους compute shaders. Δηλαδή παιχνίδι κάργα στο compute που δεν υποστηρίζει RT/DLSS (τα περισσότερα δηλαδή) μπορεί να αφήνει το ενα τριτο των nvidia καρτών να κοιμάται κατα διαστήματα.

Ο αντίλογος σε αυτήν την προσέγγιση έρχεται από την AMD με τις RDNA2 GPU (σειρά 6000/Xbox Series X/PS5 το οποίο είναι υβρίδιο RDNA1-2) οι οποίες έχουν ανανεωμένο Shader array για να τρέχουν RT εσωτερικά, χωρίς εξειδικευμένες μονάδες που κάνουν μόνο αυτή τη δουλειά. Οπότε θα δούμε ποιος θα επικρατήσει. Η Nvidia έχει ήδη κάνει γερό ξεκίνημα στην αγορά εδώ και 2 χρόνια αλλά η AMD έχει τις κονσόλες οπότε περίπου όλοι οι ΑΑΑ παραγωγοί θα παίξουν έτσι. Θα δείξει.
Ενδιαφέρον ανάλυση, δηλαδή για αυτό κόστιζαν και τόσα λεφτά οι 2ΧΧΧ? Αναρωτιέμαι τι περιθώρια κέρδους έχει με τις 3ΧΧΧ τότε, θα το δούμε στα επόμενα οικονομικά φαντάζομαι.
Αλλά το πιο ενδιαφέρον είναι το τεχνολογικό κομμάτι όπου η nvidia έχει κάνει μερεμέτι και η AMD το περνάει σωστά στο chip εξαρχής το RT.
Πραγματικά θα είναι πολύ ενδιαφέρον αυτή η γενιά GPU.
 

nitro912gr

Ancient Red Dragon
Approval of the Admiral PCMaster Veteran Klika Member
Joined
Nov 26, 2012
Messages
14,265
Παίζει ρόλο και τι θα μπορέσει να εξασφαλίσει υποστήριξη από τους developers.
Θα μου φανεί εντελώς ηλίθιο όταν έτσι και αλλιώς θα υποστηρίξουν το RT για κονσόλες, να μην δουλεύει καλά και για PC με κάρτες AMD.
Το αν θα υποστηρίξουν και nvidia RT είναι άλλο θέμα, αλλά είναι σίγουρο ότι κάποια στούντιο με πιο περιορισμένο budget θα αναγκαστούν να διαλέξουν μόνο την λύση της AMD και εκεί ίσως πάρει λίγο τα πάνω της η AMD.

Στους ΑΑΑ τίτλους απίθανο να δούμε διαφορά ότι κάρτα και να δούμε, από την μια θα έχουν καλή υποστήριξη για AMD λόγο κονσόλας και από την άλλη δεν θα θέλουν να βγάλουν παιχνίδι για pc χωρίς nvidia RT την στιγμή που έχει τεράστιο μερίδιο της αγοράς GPU η nvidia (αν και όχι τόσο τεράστιο σε RT, αλλά με τις νορμάλ τιμές που βγήκαν οι κάρτες φέτος λογικά θα πάει πολύ κόσμος σε nvidia RT)
 

vtheofilis

Death Knight
Joined
Dec 11, 2012
Messages
4,420
Αν δεν απατώμαι, το RT των Volta, Turing και Ampere είναι ήδη συμβατό με το DXR (DirectXRaytracing). Το DLSS είναι που απαιτεί επιπλέον ενσωμάτωση από τον developer.
 

nitro912gr

Ancient Red Dragon
Approval of the Admiral PCMaster Veteran Klika Member
Joined
Nov 26, 2012
Messages
14,265
άρα όλα πόπα; ο dev απλά κοιτάζει να το φέρει να είναι ΟΚ με το DX και από εκεί και πέρα ο κάθε καρτάς ας φτιάξει τους drivers?
 

shredder

Death Knight
Joined
Sep 17, 2013
Messages
4,393
Μολις αγορασα την RTX 3080 Eagle oc 1049 ευρω απο Σκρουτχ. Αλλα αν οταν μου την φερουν δεν εχει πεσει η τιμη στα 700 ευρω που ειναι και η κανονικη της τοτε θα ητν επιστρεψω. Δεν ξερουν ουτε οι ιδιοι ποτε θα την μου την φερουν.
 

vtheofilis

Death Knight
Joined
Dec 11, 2012
Messages
4,420
άρα όλα πόπα; ο dev απλά κοιτάζει να το φέρει να είναι ΟΚ με το DX και από εκεί και πέρα ο κάθε καρτάς ας φτιάξει τους drivers?

Θεωρητικά ναι. Αν το Xbox Series X έχει RDNA 2 GPU, και υποστηρίζει DXR, τότε και στο PC θα υποσυηρίζεται από την AMD. Μένει να το δούμε και στην πράξη. To DLSS θεωρείται το καλύτερο scaling αυτή την στιγμή, αλλά αυτό μπορεί να αλλάξει. Σημειωτέων ότι η AMD είχε near real time απόδοση σε rendering σε κάποιους renderers, χωρίς Tensor Cores, scaling, κ.α.

Το ζήτημα είναι ότι θέλουν ΠΟΛΥ ισχύ όλα αυτά. To Compute ζορίζει πολύ, και ζητάει ισχύ. Δεν είναι τυχαίο το ότι οι νέες κονσόλες έχουν τα μεγέθη που έχουν...
 
Top Bottom