nVidia GPU - Το επίσημο νήμα συζήτησης.

Welcome!

By registering with us, you'll be able to discuss, share and private message with other members of our community.

SignUp Now!
Ποσοτικοποίηση της εικόνας μπορείς να κάνεις όσον αφορά την απόδοσή της σε ηλεκτρονικά μέσα. Εκεί στηρίζονται και όλα τα συγκριτικά test που κάνουν για να βγάλουν συμπεράσματα για αισθητήρες και φακούς φωτογραφικών μηχανών (βέβαια αυτό μπαίνει από την ανάποδη). Όταν η εικόνα έχει γίνει ψηφιακή, σημαίνει ότι έχει πεπερασμένο αριθμό ιδιοτήτων που μπορείς να κρίνεις αναλόγως. Αλλά σε αυτά σημαντικό ρόλο παίζει και η παράμετρος του monitor και όχι μόνο η κάρτα γραφικών. Το ίδιο συμβαίνει φυσικά και για τις ρυθμίσεις στο panel της εκάστοτε κάρτας (πχ. άλλαξα καλώδιο που ένωνε την οθόνη με την κάρτα και μόνο αυτό επανέφερε όλα τα Dynamic Contrast προβλήματα).

Για να μπορέσεις να κρίνεις μία κάρτα γραφικών, πρέπει να δεις όλες τις δυνατότητες που έχει ως τέτοια.Και φυσικά τα frames-per-second παίζουν καθοριστικό ρόλο. Έχουν καταλήξει να χρησιμοποιούν παιχνίδια ως benchmarks, μιας και είναι το συμβατικό και ευρέως διαδεδομένο μέσο αναφοράς. Φυσικά με τα παρασκηνιακά τριχό-deals που παίζονται, δεν μπορείς να έχεις και πλήρως αντικειμενικό κριτήριο για την απόδοση της εκάστοτε κάρτας. Πάντα όμως θα έχεις ένα συγκρίσιμο και σχετικό μέτρο αναφοράς (όχι απόλυτο, επομένως όχι και αντικειμενικό). Σκέτη εικόνα μπορούσε να αποδόσει και η Riva TNT2 σε CTR monitor μια χαρά. Το ζήτημα είναι τι μπορείς να κάνεις με τον renderer της κάρτας από εκεί και πέρα. Είναι ένας από τους λόγους άλλωστε για τους οποίους έγινε και ο χαμός με τα 3.5 GB VRAM της 970 (κατά τα άλλα η κάρτα τρέχει άψογα, έστω και λίγο ακριβότερα από την προγενέστερη 290 της AMD).

Πάντως στο ιδιαίτερα εξελιγμένο πρόγραμμα ανάλυσης εικόνας που χρησιμοποιώ στη δουλειά η μνήμη της κάρτας γραφικών παίζει καθοριστικότατο ρόλο ειδικά όταν έχεις να κάνεις και με 4D-rendering γιατί και το κάθε pixel μετράει. Από την άλλη δεν υπήρχε λόγος να πάω στην Workstation υλοποίηση της AMD (ή στην Titan που την έχει διπλανό group), γιατί ακόμη και σε τόσο απαιτητικά προγράμματα (για τη δική μου δουλειά) το κόστος δεν δικαιολογεί την επιλογή (και πάλι 295Χ2 Sapphire με 8GB τσιμπήσαμε).

EDIT: Στο Techpowerup review που έδωσε ο Sith_Ari, η R9 295X2 φαίνεται ότι πατάει στα περισσότερα σημεία ακόμη και την Titan σε nVidia τίτλους σε 4K gaming. Στα ίδια λεφτά με την 980Ti. Δηλαδή και re-brand να κάνει η AMD.....
 


northlander wrote:
Ποσοτικοποίηση της εικόνας μπορείς να κάνεις όσον αφορά την απόδοσή της σε ηλεκτρονικά μέσα. Εκεί στηρίζονται και όλα τα συγκριτικά test που κάνουν για να βγάλουν συμπεράσματα για αισθητήρες και φακούς φωτογραφικών μηχανών (βέβαια αυτό μπαίνει από την ανάποδη). Όταν η εικόνα έχει γίνει ψηφιακή, σημαίνει ότι έχει πεπερασμένο αριθμό ιδιοτήτων που μπορείς να κρίνεις αναλόγως.
</blockquote>

οκ συμφωνούμε. Ο λόγος απόδοσης τιμής πολύ εύκολα δεν δίνει ΚΑΜΙΑ σημασία στους διάφορους παράγοντες και μετράει ΜΟΝΟ τον αριθμό των frames per second και την τιμή. Όταν μιλάμε για ποσοτικοποίηση της εικόνας, εννοούμε τον μαθηματικό συνδυασμό όλων τον παραγόντων που συνθέτουν την ψηφιακή εικόνα και την εξαγωγή ενός αντιπροσωπευτικού δείκτη. Αλλιώς δεν μπορούμε να πούμε για τίμιο συγκριτικό μέσο. Επίσης χωρίς να είμαι ειδικός δεν νομίζω πως είναι εφικτό το παραπάνω, λόγο ανομοιογένειας των παραγόντων και της υποκειμενικής τους φύσης.
Φυσικά τα fp/s έχουν καθοριστικό ρόλο αλλά με ένα max, όταν συζητάμε για διαφορές απο τα 60 στα 62 για την μεγάλη πλειονότητα των χρηστών δεν έχει καμία σημασία μιας και η πλειοψηφία χρησιμοποιεί 60Hz monitors ή δεν νοιάζεται αν θα τρέχει στα 60.


manos wrote:
Να δώσει δηλαδή πολλά λεφτά για κάποια χαρακτηριστικά και frames παραπάνω, την ίδια στιγμή που μ' αισθητά λιγότερα χρήματα θα μπορούσε να έχει το 85%-90% της απόλυτης οπτικής απόδοσης.</blockquote>

Το πρόβλημα είναι ότι αυτό το 85% που λες είναι καθαρά εντύπωση και είναι αδύνατον να αξιολογηθεί αντικειμενικά. Είναι εν ολίγης θέμα γούστου. Εγώ μπορεί να αξιολογώ τις τρίχες του gerald ως το 50% της πραγματικής οπτικής αξίας, είμαι ανώμαλος; ναι. Δώσε μου εσύ όμως κάποια βάση αμφισβήτησης...


vtheofilis wrote:
Παραθέτεις υποθέτω το επιχείρημα ότι τα εφέ του Gameworks κάνουν πιο ρεαλιστική την εμπειρία. Έχει λογική, αλλά τότε να το ρίξουμε στα prerendered, που πάντα θα υπερέχουν. Άλλωστε, αν είναι απλά διακοσμητικά, και δεν συνεισφέρουν στο gameplay ( όπως πχ κάνανε τα physics της Havok στο HL2), εμένα δεν με απαχολούν και τόσο. Υπ' όψην ότι και οι 900άρες ακόμα υποφέρουν από το Gameworks, καθώς και οι Kepler. Καλές οι τρίχες, αλλά αν βλέπω σπασίματα στην εικόνα, και έχω σκάσει ένα κάρο λεφτά, να πάνε στον αγύριστο.
Τα FPS, όταν μετριούνται σε μέγιστες ρυθμίσεις (Ultra) δεν είναι καλός δείκτης για την ποιότητα της εικόνας;</blockquote>

Δεν με αφορά τώρα αν το gameworks είναι καλύτερο ως προς το τελικό αποτέλεσμα. Ξέρω πως είναι θέμα γούστου, κάποιου μπορεί να του φαίνεται ανούσιο, κάποιου άλλου καθοριστικό κριτήριο. Το θέμα είναι ότι ΔΕΝ μπορείς να αξιολογήσεις την εικόνα με οποιοδήποτε νούμερο.

Δεν είναι τυχαίο που στις κάρτες βλέπουμε πχ την vram για να αξιολογήσουμε χοντρικά την ποσότητα των settings ταχύτητα πυρήνα και bus μνήμης. Εν ολίγης μια σειρά από νούμερα που μας δίνουν μια γενική εντύπωση των επιδόσεων. Το θέμα είναι τόσο πολυπαραγοντικό που δεν γίνεται να εκφραστεί εύκολα ούτε από πολλές εξισώσεις όχι από ένα νούμερο. Drivers, Api, λειτουργικό, αυτοματοποίηση, λογισμικά, βελτιστοποίηση κτλ.





 
Εγώ θέλω να σταθώ στον παράγοντα κόστος / απόδοση, που οι περισσότεροι καταλογίζουν στα υπέρ των GPU της AMD.
Πρέπει να μην ξεχνάμε την διαφορά κατανάλωσης ενέργειας που χωρίζουν τις 2 εταιρείες.
Τα +60 watt που έχει max κατανάλωση η R9 290X από την GTX 980Ti ( http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/29.html ) , και πολύ περισσότερο τα +250 watt :eek:hmy: κατανάλωση που έχει η R9 295 x2, -μιας και την ανέφερε ο Παύλος-, συνεπάγονται πρόσθετο κόστος για αγορά ισχυρότερου τροφοδοτικού, συνεπώς το κόστος των GPU της AMD, αυξάνεται με έμμεσο τρόπο <img src="/wink.gif" width="" height="" alt=";)" title=";)" class="bbcode_smiley" />
 
Το τροφοδοτικό για εμένα είναι επένδυση που βγάζει τα λεφτά της σε μεγαλύτερο χρονικό διάστημα από ότι μία κάρτα γραφικών/επεξεργαστής και οφείλει κάποιος να το δει σοβαρά. http://ragequit.gr/hardware/item/psu-efficiency-psu-info" class="bbcode_url">Παραπέμπω και στον άρθρο του Βασίλη.

Είναι το ίδιο ακριβώς με το πληκτρολόγιο/ποντίκι/case. Προτιμώ να τα σκάσω ανεξαρτήτως κόστους (δεδομένων των απαιτήσεων που υποκειμενικά έχω βάλει ως ταβάνι, για να μην παραπονιέται και ο αδερφός ccwr <img src="/wink.gif" width="" height="" alt=";)" title=";)" class="bbcode_smiley" />), και να με βγάλουν για τουλάχιστον την επόμενη πενταετία. Οπότε δεν είναι εκεί από όπου χάνω/κερδίζω χρήματα. Στην τελευταία αγορά που έκανα, τα λεφτά που κέρδισα αγοράζοντας την 290 Tri-X (η οποία πάλι στο ίδιο test δείχνει ότι είναι η 2η καλύτερη λύση σε bang-for-buck για 1440p) αντί της νέας τότε 970 τα επένδυσα σε υδρόψυξη.
 
Το να μην επενδύεις σε κουτί, τροφοδοτικό και περιφερεικά είναι σα να κάνεις παιδιά και να τα βάζεις σε χαρτόκουτο, να τα ταίιιες χοτ ντογκ με 0,70 και να τα ντύνεις με κουρέλι ή ρούχα 10 νούμερα μεγαλύτερα επειδή τη δουλειά τους την κάνουν.
Πέραν της επένδυσης εντός του συστήματος, γιατί να δώσεις 50Ε παραπάνω στην καλύτερη για ένα ισάξιο ή και καλύτερο προϊόν σε μια ΑΕ που σε πιάνει συστηματικά κότσο και να μην τα φας στα σουβλατζίδικα της γειτονιάς σου;
 


Northlander wrote:
Το τροφοδοτικό για εμένα είναι επένδυση που βγάζει τα λεφτά της σε μεγαλύτερο χρονικό διάστημα από ότι μία κάρτα γραφικών/επεξεργαστής και οφείλει κάποιος να το δει σοβαρά. http://ragequit.gr/hardware/item/psu-efficiency-psu-info" class="bbcode_url">Παραπέμπω και στον άρθρο του Βασίλη.

Είναι το ίδιο ακριβώς με το πληκτρολόγιο/ποντίκι/case. Προτιμώ να τα σκάσω ανεξαρτήτως κόστους (δεδομένων των απαιτήσεων που υποκειμενικά έχω βάλει ως ταβάνι, για να μην παραπονιέται και ο αδερφός ccwr <img src="/wink.gif" width="" height="" alt=";)" title=";)" class="bbcode_smiley" />), και να με βγάλουν για τουλάχιστον την επόμενη πενταετία. Οπότε δεν είναι εκεί από όπου χάνω/κερδίζω χρήματα. Στην τελευταία αγορά που έκανα, τα λεφτά που κέρδισα αγοράζοντας την 290 Tri-X (η οποία πάλι στο ίδιο test δείχνει ότι είναι η 2η καλύτερη λύση σε bang-for-buck για 1440p) αντί της νέας τότε 970 τα επένδυσα σε υδρόψυξη.</blockquote>

Όπως είπες : "οφείλει κάποιος να το δει σοβαρά".
Nαι, μόνο που αν κρίνω από τις απαντήσεις που βλέπω από τους περισσότερους εδώ μέσα, σχετικά με τα τροφοδοτικά που έχουν, πρέπει να αποτελείς την εξαίρεση και όχι τον κανόνα, οπότε δεν αποτελείς σταθερά / μέτρο σύγκρισης στο σχόλιό μου :lol:
<b><span style="color:#ff0000">ΕDIT:</span></b> Και μιας και το ανέφερες, τι τροφοδοτικό έχεις;

 


ccwr wrote:
Το πρόβλημα είναι ότι αυτό το 85% που λες είναι καθαρά εντύπωση και είναι αδύνατον να αξιολογηθεί αντικειμενικά. Είναι εν ολίγης θέμα γούστου. Εγώ μπορεί να αξιολογώ τις τρίχες του gerald ως το 50% της πραγματικής οπτικής αξίας, είμαι ανώμαλος; ναι. Δώσε μου εσύ όμως κάποια βάση αμφισβήτησης...</blockquote>

Δεκτό το επιχείρημα, εγώ μ' αυτό το 85% προφανώς αναφέρομαι σ' αριθμούς που είναι κάτι αντικειμενικά μετρήσιμο.

 


Sith_Ari wrote:
Και μιας και το ανέφερες, τι τροφοδοτικό έχεις;</blockquote>

http://www.evga.com/Products/Product.aspx?pn=220-G2-0850-XR" class="bbcode_url">Αυτό. Τη δουλειά του την κάνει. :lol:

 


Northlander wrote:


Sith_Ari wrote:
Και μιας και το ανέφερες, τι τροφοδοτικό έχεις;</blockquote>

http://www.evga.com/Products/Product.aspx?pn=220-G2-0850-XR" class="bbcode_url">Αυτό. Τη δουλειά του την κάνει. :lol:</blockquote>

Όντως έχεις κάνει άψογη επένδυση στον τομέα του τροφοδοτικού! :thumbsup:



 
Εστω όπως λες Σιθάρη, ότι με την Nvidia πχ βολεύεσαι με 450W, οριακά, και για την Radeon θες 500W. Πόσο παραπάνω κοστίζει ένα 500 σε σχέση με ένα 450W; Και να αναβάθμιζα ακόμη, οπότε πες ότι είχα ήδη το 450άρι και θα πήγαινε χαμένο, θα το άλλαζα για να μην είμαι οριακά, ακόμα και αν έβαζα Nvidia.
Α, και για να σε προλάβω, για βάλε κάτω, με δεδομένο ότι η ΔΕΗ χρεώνει 0,61 την Kwh, πόσο καιρό θέλει μια 970 για να αποσβέσει την διαφορά στην τιμή σε σχέση με μια 290. Και σκέψου μετά, ότι θα είναι για αντικατάσταση σε 2 με 3 χρόνια.
 


Sith_Ari wrote:


ccwr wrote:
Πόσο σχετικός είναι αυτός ο λόγος τιμής απόδοσης και κατα πόσο είναι όντως νηφάλιο συγκριτικό κριτήριο; Χωρίς ίχνος πρόθεσης αντιπαράθεσης...
Κατα πόσο μπορεί να ποσοτικοποιηθεί η απόδοση τελικά στις κάρτες γραφικών;
Στα γραφικά η πραγματική απόδοση δεν είναι ο αριθμός των frames είναι η ίδια η εικόνα. Και η εικόνα ΔΕΝ ποσοτικοποιήται. Δεν λέω τι είναι καλύτερο, περισσότερα μικρο-εφέ ή μεγαλύτερο frame rate. Αλλά μήπως τελικά και αυτός ο δείχτης είναι μια εξαπλούστευση χάριν marketing και όχι "αντικειμενικός" τρόπος σύγκρισης;
just food for thought</blockquote>

Σημαντικό το θέμα που θέτεις.
Ακόμα είναι χαραγμένο στην μνήμη μου, η επίθεση που είχαν δεχτεί παλιά οι GeForce 4, από τους συντάκτες του PCM (*νομίζω ο Κλάδης πρέπει να είχε κάνει το εν λόγω άρθρο), ότι ενώ εμφάνιζε πολύ υψηλά frames, δεν είχε αντίστοιχης ποιότητας οπτική απόδοση με τις τότε Radeon (*δεν θυμάμαι μοντέλο). Είχε παραθέσει ενδεικτικά εικόνες από τις λίμνες/βάλτους στο Gothic για να ενισχύσει τα γραφόμενά του.
Πλέον όμως που το πλεονέκτημα στην γραφική απόδοση το έχουν οι GPU της NVidia (*με το PhysX και διάφορα άλλα), δεν βλέπω κανέναν να λέει τα αντίστοιχα που είχε πει ο Χάρης τότε :huh:
Όλοι κοιτάζουν τα frames per second πλέον !! <img src="/tongue.gif" width="" height="" alt=":p" title=":p" class="bbcode_smiley" />

( <b><span style="color:#00ff00">ΕDIT:</span></b> http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/1.html
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-ti,4164.html
http://www.anandtech.com/show/9306/the-nvidia-geforce-gtx-980-ti-review )</blockquote>

Το ΙQ (image quality) είναι εντελώς διαφορετική εννοια από το physx το οποίο ειναι μια μηχανή φυσικής. To να λες ότι η nvidia λογω physx υπερέχει σε iq είναι σα να λες οτι το Battlefield 4 έχει καλύτερη ποιότητα εικόνας στα γραφικά του από το crysis 3 επειδή τα κτήρια ειναι καταστρέψιμα και γεμίζει ο τόπος σκόνη και θρύψαλα. Δεν είναι έτσι. Στον καθαρό τομέα της ποιότητας εικόνας, τόσο η Nvidia οσο και η AMD δημιουργούν ΑΑ φίλτρα και αλγόριθμους που επηρεάζουν το οπτικό αποτέλεσμα και τα προωθούν σε παιχνίδια. FXAA, MLAA, TXAA,CHS και δεν συμμαζεύεται. Υπάρχουν κατά καιρούς διάφορα άρθρα στον τεχνικό τύπο που αναλύουν τις διάφορες καινοτομίες και τι αντίκτυπο έχουν. Σε γενικές γραμμές αν εξαιρέσεις ενα παλιό και τρανταχτό bug στους drivers της nvidia σχετικά με τα χρώματα που διορθώθηκε πρόσφατα, δεν υπάρχουν πραγματικά μετρήσιμες διαφορές μεταξύ των 2 σε IQ στα παραδοσιακά settings. Διαφορές υπάρχουν στις νεες τεχνολογίες, πχ στις σκιές.

http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-PC-219948/News/Nvidia-PCSS-AMD-CHS-Schatten-Screenshot-Vergleich-1156610/



 


vtheofilis wrote:
Εστω όπως λες Σιθάρη, ότι με την Nvidia πχ βολεύεσαι με 450W, οριακά, και για την Radeon θες 500W. Πόσο παραπάνω κοστίζει ένα 500 σε σχέση με ένα 450W; Και να αναβάθμιζα ακόμη, οπότε πες ότι είχα ήδη το 450άρι και θα πήγαινε χαμένο, θα το άλλαζα για να μην είμαι οριακά, ακόμα και αν έβαζα Nvidia.
Α, και για να σε προλάβω, για βάλε κάτω, με δεδομένο ότι η ΔΕΗ χρεώνει 0,61 την Kwh, πόσο καιρό θέλει μια 970 για να αποσβέσει την διαφορά στην τιμή σε σχέση με μια 290. Και σκέψου μετά, ότι θα είναι για αντικατάσταση σε 2 με 3 χρόνια.</blockquote>

-Το σκεπτικό μου ειπώθηκε έχοντας κατά νου το πρόσφατο thread του Obelix3, ( http://www.ragequit.gr/forum/hardware-forum/2975-tower-850 ), στο οποίο, εξαιτίας της GPU που επέλεξε, αναγκαστήκαμε να αυξήσουμε το τροφοδοτικό, από ποιοτικό 550άρι σε ποιοτικό 650άρι, αυξάνοντας το κόστος κατά 20 ευρώ. Τα 20 επιλέον ευρώ λοιπόν πρέπει να λογιστούν στην επιλογή της 290, αφού αν επέλεγε την 970 θα είχε ίδιες επιδόσεις με φθηνότερο PSU.
-Όσο για την χρέωση της ΔΕΗ, μπορεί οι διαφορές κατανάλωσης να οδηγήσουν σε μακροπρόθεσμη αύξηση κόστους στην περίπτωση της 290, αλλά στην περίπτωση της 295 x2, το έμμεσο κόστος από την κατανάλωση θα ανέβει βραχυπρόθεσμα. (*430 watt <b><span style="color:#ff0000">average</span></b> καταναλώνει !!) <img src="/wink.gif" width="" height="" alt=";)" title=";)" class="bbcode_smiley" />

<b><span style="color:#ff0000">ΕDIT: </span></b>AN έκανα σωστά έναν πρόχειρο (*μπακαλίστικο) υπολογισμό, τα 60watt διαφοράς της 290 και της 970, αυξάνουν τον μηνιαίο λογαριασμό της ΔΕΗ περίπου 5 - 6 ευρώ / μήνα με μια μέση χρήση 5 ώρες την ημέρα. Οπότε 5 * 12 = 60 ευρώ το χρόνο παραπάνω σε λογαριασμό της ΔΕΗ. Δεν μου φαίνεται καθόλου λίγο να σου πω την αλήθεια

 


Kuivamaa wrote:
Το ΙQ (image quality) είναι εντελώς διαφορετική εννοια από το physx το οποίο ειναι μια μηχανή φυσικής. To να λες ότι η nvidia λογω physx υπερέχει σε iq είναι σα να λες οτι το Battlefield 4 έχει καλύτερη ποιότητα εικόνας στα γραφικά του από το crysis 3 επειδή τα κτήρια ειναι καταστρέψιμα και γεμίζει ο τόπος σκόνη και θρύψαλα. Δεν είναι έτσι. .....................................
</blockquote>

ΟΚ, ίσως να είναι όπως το λες, δεν είμαι προγραμματιστής video game, για να ισχυριστώ ότι κάνω ορθή χρήση τεχνικών όρων.
Όμως παίζουμε με τις λέξεις μου φαίνεται. :blink:
Αυτό διότι σαφέστατα (*κατά την υποκειμενική μου άποψη πάντα), όταν στην φωτό με το PHYSX βλέπεις ένα κτίριο να γίνεται κομμάτια, και στην αντίστοιχη εικόνα, με AMD gpu, βλέπεις ένα ποσοστό μόνο της προαναφερθείσας καταστροφής, δεν ξέρω τεχνικά αν θεωρείται Image Quality, αλλά παραπέμπει σε ρεαλιστικότερο - συνεπώς ανώτερο οπτικό αποτέλεσμα.

 


Sith_Ari wrote:


Kuivamaa wrote:
Το ΙQ (image quality) είναι εντελώς διαφορετική εννοια από το physx το οποίο ειναι μια μηχανή φυσικής. To να λες ότι η nvidia λογω physx υπερέχει σε iq είναι σα να λες οτι το Battlefield 4 έχει καλύτερη ποιότητα εικόνας στα γραφικά του από το crysis 3 επειδή τα κτήρια ειναι καταστρέψιμα και γεμίζει ο τόπος σκόνη και θρύψαλα. Δεν είναι έτσι. .....................................
</blockquote>

ΟΚ, ίσως να είναι όπως το λες, δεν είμαι προγραμματιστής video game, για να ισχυριστώ ότι κάνω ορθή χρήση τεχνικών όρων.
Όμως παίζουμε με τις λέξεις μου φαίνεται. :blink:
Αυτό διότι σαφέστατα (*κατά την υποκειμενική μου άποψη πάντα), όταν στην φωτό με το PHYSX βλέπεις ένα κτίριο να γίνεται κομμάτια, και στην αντίστοιχη εικόνα, με AMD gpu, βλέπεις ένα ποσοστό μόνο της προαναφερθείσας καταστροφής, δεν ξέρω τεχνικά αν θεωρείται Image Quality, αλλά παραπέμπει σε ρεαλιστικότερο - συνεπώς ανώτερο οπτικό αποτέλεσμα.</blockquote>

Δεν παίζουμε καθόλου με τις λέξεις. Το IQ είναι σαφώς καθορισμένος όρος και έχει να κάνει με την απόδοση των assets στην οθόνη, την χρωματική παλέτα, τα φίλτρα, το post processing , πως γίνεται το shadow mapping κλπ To physx είναι άλλο πράγμα, ουσιαστικά όσες εταιρείες χρησιμοποιούν το hardware accelerated Physx (αυτό που θέλει geforce κάρτα για να τρέξει καλα και το βρίσκεις στα Borderlands, Mafia ,Batman ,Metro κλπ οχι το βασικό που τρέχει στις CPU) ετοιμάζουν επιπλέον assets ,είτε με τη μορφή σωματιδίων (σκόνη, αποκαϊδια κλπ) είτε με τη μορφή κομματιών ολόκληρων, decals κλπ. Δεν είναι ότι συγκρίνεις την τάδε συγκεκριμένη υφή στις πράσινες και είναι καλύτερη από τις κόκκινες, είναι κάτι επιπλέον. To οποίο μην ξεχνάμε, μπορεί να τρέξει και με κάρτα AMD ,απλά φορτώνεται στην CPU επίτηδες και σκοτώνει το framerate.



 
η απορία που μου δημιουργήθηκε με όλα αυτά που λέτε πάντως είναι, έστω ότι κάνω ένα παιχνίδι review και χάνω κάτι στον οπτικό τομέα γιατί δεν έχω την αντίστοιχη κάρτα, πχ αυτό με το Nvidia works ή ακόμα και αν έχω nvidia και το παιχνίδι έχει κάτι σαν το tressfx για τα μαλλιά.

Φταίω εγώ να κόψω βαθμολογία στα γραφικά λόγο αυτού; Αν κάποιος παίξει το ίδιο παιχνίδι με την "σωστή" κάρτα, φταίει αν βάλει μεγαλύτερη βαθμολογία στα γραφικά που δεν θα μπορούν να δουν όλοι;

Όπως το βλέπω αυτές οι παπαριές (από όποια εταιρία και αν έρχονται) βλάπτουν πρωτίστως τους developers και έπειτα εμάς τους gamers.
 
Επιλογή των developers είναι να τα βάλουν εκεί ευθύς εξαρχής, με το αζημίωτο φυσικά. Άρα βλάπτουν τελικά μόνο εμάς τους gamers.
 
http://eu.evga.com/products/moreInfo.asp?pn=06G-P4-4990-KR&family=GeForce%20900%20Series%20Family&uc=EUR
 


Sith_Ari wrote:


vtheofilis wrote:
Εστω όπως λες Σιθάρη, ότι με την Nvidia πχ βολεύεσαι με 450W, οριακά, και για την Radeon θες 500W. Πόσο παραπάνω κοστίζει ένα 500 σε σχέση με ένα 450W; Και να αναβάθμιζα ακόμη, οπότε πες ότι είχα ήδη το 450άρι και θα πήγαινε χαμένο, θα το άλλαζα για να μην είμαι οριακά, ακόμα και αν έβαζα Nvidia.
Α, και για να σε προλάβω, για βάλε κάτω, με δεδομένο ότι η ΔΕΗ χρεώνει 0,61 την Kwh, πόσο καιρό θέλει μια 970 για να αποσβέσει την διαφορά στην τιμή σε σχέση με μια 290. Και σκέψου μετά, ότι θα είναι για αντικατάσταση σε 2 με 3 χρόνια.</blockquote>

-Το σκεπτικό μου ειπώθηκε έχοντας κατά νου το πρόσφατο thread του Obelix3, ( http://www.ragequit.gr/forum/hardware-forum/2975-tower-850 ), στο οποίο, εξαιτίας της GPU που επέλεξε, αναγκαστήκαμε να αυξήσουμε το τροφοδοτικό, από ποιοτικό 550άρι σε ποιοτικό 650άρι, αυξάνοντας το κόστος κατά 20 ευρώ. Τα 20 επιλέον ευρώ λοιπόν πρέπει να λογιστούν στην επιλογή της 290, αφού αν επέλεγε την 970 θα είχε ίδιες επιδόσεις με φθηνότερο PSU.
-Όσο για την χρέωση της ΔΕΗ, μπορεί οι διαφορές κατανάλωσης να οδηγήσουν σε μακροπρόθεσμη αύξηση κόστους στην περίπτωση της 290, αλλά στην περίπτωση της 295 x2, το έμμεσο κόστος από την κατανάλωση θα ανέβει βραχυπρόθεσμα. (*430 watt <b><span style="color:#ff0000">average</span></b> καταναλώνει !!) <img src="/wink.gif" width="" height="" alt=";)" title=";)" class="bbcode_smiley" />

<b><span style="color:#ff0000">ΕDIT: </span></b>AN έκανα σωστά έναν πρόχειρο (*μπακαλίστικο) υπολογισμό, τα 60watt διαφοράς της 290 και της 970, αυξάνουν τον μηνιαίο λογαριασμό της ΔΕΗ περίπου 5 - 6 ευρώ / μήνα με μια μέση χρήση 5 ώρες την ημέρα. Οπότε 5 * 12 = 60 ευρώ το χρόνο παραπάνω σε λογαριασμό της ΔΕΗ. Δεν μου φαίνεται καθόλου λίγο να σου πω την αλήθεια</blockquote>
Πρώτα απ όλα, μιλάμε για κάρτες που παίζουν ίδια κατηγορία. Η 295Χ2 είναι me διπλή GPU, οπότε είναι άτοπο να την συγκρίνεις με κάρτες μιας GPU.
Έπειτα, θες 8 μήνες, αν πάρεις την πιο φτηνή 970, για να αποσβέσει την διαφορά σε σχέση με την πιο φτηνή 290... η οποία έχει και 4 GB ΠΛΗΡΟΥΣ ταχύτητας μνήμη. όχι 3,5+0,5. Σε 8 μήνες φίλτατε, θα έχει βγει ήδη βρώμα για νέα σειρά καρτών από την Nvidia, και δεν ξέρουμε ακόμα τι θα κάνει η AMD.



 
δεν ηξερα που να το βαλω το λινκ.
στο θρεντ του γουιτσε εχουν αρχισει τα πλειθρου και τα σπόιλε κι εξαλλου αφου μπορουν και το τρεχουν τα παιδια, μαλλον δεν τους αφορα.
οπότε λεω να το βαλω εδω. θεοφίλη, πως τα βλεπεις? θα περιμενουμε το 2016??

http://www.eurogamer.net/articles/digitalfoundry-2015-the-best-pc-hardware-for-the-witcher-3
 
Το είχε ποστάρει ο kuiv στο Witcher 3 thread αυτό το βίντεο Αδερφέ.
 
Back
Top