LG G3, prestazioni e autonomia a confronto con display Quad HD e Full HD

17 Febbraio 2015108 commenti
Come ben sappiamo, una delle novità che LG ha portato sul suo flagship device 2014, G3, è stato l'utilizzo di un display a risoluzione Quad HD. Molti hanno seri dubbi riguardo l'effettiva utilità di una risoluzione tanto elevata su un display dalle dimensioni relativamente ridotte. Come si comporterebbe il device con un display Full HD? Scopriamolo dando un'occhiata ad alcuni benchmark.

[ad#ad-tubiello]

Phonearena ha infatti messo a confronto prestazioni e autonomia di LG G3 dapprima in condizioni standard, e successivamente con la risoluzione del display abbassata a 1920×1080.

Secondo quanto riportato, il test è stato condotto su un modello coreano F400S, con 3 GB di RAM. Sul device è stato installato il firmware ufficiale LG di Giugno 2014 e successivamente effettuati tutti gli update OTA  a disposizione (senza arrivare a Lollipop).

Dopo aver effettuato i test con AnTuTu e GFXBench e messo alla prova l’autonomia del device con un test proprietario, sul device è stato effettuato il root e installato Nomone Resolution Changer, portando la risoluzione a 1920×1080. I test sono stato quindi rieseguiti, ed ecco i risultati.

LG G3

Come lecito aspettarsi, l’abbassamento della risoluzione video giova notevolmente alle prestazioni del device, specialmente nel test 3D. L’autonomia non sembra invece trarre particolari benefici dall’operazione: la differenza tra Quad HD e Full HD è di poco meno di 8 minuti.

 

108 risposte a “LG G3, prestazioni e autonomia a confronto con display Quad HD e Full HD”

  1. italba ha detto:

    E che vi avevo detto?

    • Pignolatore ha detto:

      Ti stavi fregando le mani da mesi, aspettando il momento di scriverlo… ammettilo!
      ;-)

    • Ciao ha detto:

      Però il decremento prestazionale ce. Il soc e talmente potente da non risentirne in condizioni di uso normale ma secondo me con la gpu perennemente sotto stress diminuisce anche l autonomia. Diciamo che ad esempio asphalt 7 utilizzi la gpu al 80% per girare al massimo delle prestazioni. Con qHD invece la usa al 100%. Mi sembra possibile che quindi consumi di più ma sono casi estremi.

      • italba ha detto:

        Consuma di più nel 3D, e SOLO in quello! I risultati (Total) di Antutu riportati nella tabella COMPRENDONO anche il 3D!

    • Matteo ha detto:

      Ma non eri quello che diceva che il qhd causava un decadimento dell’autonomia della batteria? Perché mi sembra che sia stato dimostrato il contrario, per quanto riguarda i frame ben vengano qualche frame in meno per avere in cambio una qualità video impagabile

      • forest ha detto:

        il G3 ha uno schermo orribile rovinato dall’oversharpening inoltre

        • Matteo ha detto:

          chiara uscita di chi non l’ha mai avuto, non per difendere il g3 ma l’oversharpening non “sta di casa” mi spiace deluderti.

        • Sniper ha detto:

          Magari fossero tutti così “orribili”…..

        • Alessandro ha detto:

          Il tuo S5 ha uno schermo orribile

        • Frank ha detto:

          il G3 uno schermo orribile??? Ahahahahahhahahahahahahahahahahahahhahahahahahahahahahhahahahahahahahahahahhahahahahahahahahahahahahhahahaha (fatemi prender fiato…) Ahahahahahhahahahahahahahahahahahahhahahahahahahahahahhahahahahahahahahahahhahahahahahahahahahahahahhahahaha!!!!
          Attualmente è il device con lo schermo dalla risoluzione più elevata e dalla resa cromatica più vicina ai valori ideale. Se proprio vogliamo trovargli un difetto, è leggermente meno luminoso rispoetto alle soluzioni fullhd, e questo è dovuto alla densità di pixel maggiore. Tuttavia, la visibilità anche sotto il sole è ottima, quindi la minor luminosità non è un problema. Per classificarlo come “orribile” significa che non sai di cosa stai parlando.

          • Mattev ha detto:

            Ti correggo solo sulla storia dello schermo dalla risoluzione più elevata :P
            Per il resto, quoto :D

          • M-Redstone ha detto:

            Ottimo display ma il SuperAmoled FHD del Note 4 è ancora superiore… come si evince dai test di diversi siti specializzati, a partire da DisplayMate

      • italba ha detto:

        Assolutamente NO! Io ho sempre detto che l’aumento della risoluzione, ai fini del consumo di corrente, conta poco e niente.

        • Mattev ha detto:

          Infatti, dato che fisicamente i pixel da alimentare non cambiano, modificando la risoluzione di uno schermo :P

          • italba ha detto:

            I pixel non vengono nemmeno “alimentati”, su un display di questo tipo. Funzionano come dei rubinetti per la luce, quella che viene dal pannello led sottostante.

          • Mattev ha detto:

            Beh oddio, retroilluminazione o meno (sappiamo tutti che nn é un amoled), parliamo sempre di piccole lampadine che si accendono e spengono xD

          • italba ha detto:

            NO! I pixel NON EMETTONO LUCE, cambiano solo il piano di polarizzazione. Che siano accesi o spenti consumano uguale!

          • Mattev ha detto:

            E come cambiano polarizzazione? Da soli senza alcuna richiesta di energia? LoL
            San tutti che non emettono luce, ma ogni singolo pixel ha bisogno di una sua alimentazione. Tra FHD e QHD ci sono piú di 1milione di pixel di differenza

          • italba ha detto:

            Cambiano polarizzazione COMUNQUE, 50 volte al secondo o giù di lì, qualunque cosa appaia sullo schermo. INFORMATI! ed, in ogni caso, rispetto ai LED retrostanti che emettono la luce consumano poco e niente!

          • Mattev ha detto:

            Evidentemente non hai capito cosa intendo.
            Te lo semplifico: avere 1milione e passa di Pixel in più, consuma maggiore batteria del non averli. Punto.

          • italba ha detto:

            Evidentemente non hai letto l’articolo, o non sei in grado di capirlo. NON È VERO! Se non in piccolissima percentuale! Il consumo maggiore è dato dalla GPU che, SOLO PER IL 3D, deve calcolare molti più dettagli.

          • Mattev ha detto:

            E allora spiegami come mai un G2 (che differenzia (in HW) da G3 solo per una CPU praticamente uguale ma leggermente più lenta e lo schermo in FHD) a consumare mooolto meno di G3? E parlo di uso normale/quotidiano, non di giochi pesanti

          • italba ha detto:

            EVIDENTEMENTE il G3 non è proprio uguale al G2, non pensi? Anche perché è uscito quasi un anno dopo!

          • Mattev ha detto:

            Stessa batteria, stesso sistema (con qualche differenza e UI diversa) portabile su G2 (senza cambi di durata), SoC molto simile (tra Snap 800 2.3Ghz e Snap 801 2.5Ghz non credo ci siano tutte ste differenze), stessa GPU (che su G3 lavora di più ed è sotto maggior sforzo nel 3D). Le altre differenze derivano di più da un’antenna leggermente migliore su G3 (in quanto ricezione), stabilizzatore migliorato, laser (attivo solo in fotocamera) e poco altro. Effettivamente è da considerare un G2.5, dato che le uniche differenze sostanziali stanno appunto nel laser (che, tra l’altro, consuma na cippa), CPU un pochetto più potente e uno schermo molto più definito e grande. Sono dell’idea che almeno il 50% dei consumi maggiori che ha rispetto al G2 siano appunto dati dallo schermo, sia per il bisogno di illuminazione maggiore, sia per l’alto numero di Pixel in più. Parliamo di un buon 33%.

            P.S.: non sto denigrando G3 xD anzi, ce l’ho e mi ci ritrovo moooolto bene

          • italba ha detto:

            Non è che se tra 800 ed 801 c’è solo 1 di differenza vuol dire che siano molto simili, eh… Inoltre potrebbe esserci una diversa ottimizzazione del software tra i due telefoni, e NON mi sto riferendo alla versione di Android, una diversa luminosità, sezione radio, ci sono moltissime cose che potrebbero essere cambiate “sotto il cofano” e potrebbero avere la loro influenza sui consumi. Imputare allo schermo il 50% o il 33% del maggior consumo, scusa, ma vuol dire proprio dare i numeri.

          • Mattev ha detto:

            Tra telefoni diversi ti do ragione, ma tra G2 e G3 non cambia molto. Lo dimostra anche il fatto che su G2 puoi installare la rom G3 senza risentire in nulla :P
            E ho solo detto che il 50% (ipotesi mia, ovcio che nn siano dati scientifici) dei consumi in piú rispetto al G2 é dettato dalla risoluzione maggiore O: mi stai dicendo che due telefoni quasi identici hanno tante differenze in batteria solo per la radio e poco altro? Pleaze :P

          • italba ha detto:

            Hai mai installato un sistema operativo su un PC? Per caso c’è la versione per Intel Celeron ed un’altra per Intel I7? OVVIO che LG abbia fatto la nuova ROM compatibile sia per il G3 che per il G2, ma non vuol dire che sono uguali!

          • Mattev ha detto:

            Wat lol
            Chi ha mai detto questo? Evidentemente scindi le parti senza comprendere ol discorso :P inoltre non mi va di continuare un discorso OT che cerchi inutilmente di “vincere”

          • italba ha detto:

            Vabbè, vai a dormire che è meglio.

            p.s. Si scrive “what”

          • Mattev ha detto:

            P.P.S.: Scrivere what senza H é un modo di fare ma, va beh lol

          • italba ha detto:

            p.p.p.s Un modo di dire, semmai.

          • Mattev ha detto:

            1) Qual’é il tuo problema con il mondo?
            2) É anche un modo di fare, un atteggiamento, come lol, asd e via discorrendo
            3) Ripeto: qual’é il tuo problema con il mondo?

          • italba ha detto:

            1) Un modo di fare è quando fai qualcosa, un modo di dire è quando dici qualcosa, se proprio ci tieni scrivere “wat” anziché “what” potrebbe essere un modo di esprimersi.
            2) Io non ho nessun problema col mondo in generale, il mio unico problema è che mi ostino a rispondere a dei co##ioni come te.

            3) Ripeto: CO##IONI.

          • Mattev ha detto:

            Un modo di dire é, appunto, dire o scrivere un detto. Wat é sia un modo di dire che un modo di fare, dato che imito un atteggiamento.
            La cosa piú buffa é che fai il pignolo su un argomento di cui non frega nulla a nessuno e che non c’entra niente con il resto e sei anche capace di insultare gratuitamente lol
            Gg amico :P

          • italba ha detto:

            Giusto, è un modo di fare a parole. Geniale!

          • ivan ha detto:

            secondo me invece,la maggiore durata della batteria è plausibile,
            non tanto per il discorso pixel accesi pixel spenti,che è una cazzata,ma per il minore carico della gpu,poiché lavora con meno pixel,quindi frequenze e tensioni piu basse,che alla lunga possono giovare sulla batteria.

          • italba ha detto:

            Ma se ti ho appena detto che la GPU si passa tutti i pixel 50 volte al secondo! Per la GPU le operazioni 2D sono ACQUA FRESCA, LEGGI LA TABELLA nell’articolo qui sopra! Quello che pesa, perché i pixel se li deve calcolare, è SOLO IL 3D! Ma quante volte lo devo ripetere!

      • Stefano ha detto:

        il mio 38334…

      • Mattev ha detto:

        A parte che i Benchmark differiscono tanto tra più telefoni “uguali” perché sono le condizioni che variano, l’autonomia del G3 non migliora in FHD perché, risoluzione più bassa o no, i pixel sono sempre quelli. Fisicamente il G3 deve alimentare quel numero di Pixel. La differenza è che la GPU deve gestire “meno dati” per quanto riguarda texture e quant’altro.
        Se un PC portatile, ad esempio, cambiare la risoluzione dello schermo può influire sull’autonomia se quest’azione influisce tanto sulla GPU. Questo perché lo schermo è alimentato dal PC stesso; per lo smartphone vale la medesima cosa :P

        • Matteo ha detto:

          non capisco perchè vieni a raccontare a me questa storia, è italba che devi convincere. In questo forum sono stato aggredito svariate volte perchè sostenevo che il qhd non influiva sulla durata della batteria ma piuttosto è la dimensione del display che lo fa. Per quanto riguarda il consumo della gpu derivante dalla risoluzione piu elevata direi che il consumo maggiore è irrilevante se non nel momento che si vada ad utilizzare un videogioco che sfrutta una notevole capacità di calcolo (come se fossimo tutti li, tutto il giorno a giocare….ma dai..), tornando al consumo della cpu in una risoluzione piu elevata il fatto che l’autonomia sia calata di una manciata di minuti in un contesto di svariate ore dimostra che rimane ampiamente in una tolleranza molto probabilmente non imputabile nemmeno alla risoluzione ma alle condizioni che variano. Conclusione: risoluzione+elevata NON EQUIVALE maggior consumo.

          • Mattev ha detto:

            Tra, credevo, nel tuo commento precedente, che intendessi dire la cosa del consumo in un ambito più generale e non legato all’effettivo schermo xP

          • italba ha detto:

            O tu non hai proprio letto i miei post o mi confondi con qualcun altro. Io ho sempre detto quello che sostieni tu riguardo al consumo, in più ti dirò anche che la risoluzione più elevata NON RALLENTA un bel niente. Nel caso della grafica 3D, e SOLO in quello, la GPU deve lavorare di più per calcolare più dettagli, ma un telefono non lo si usa solo per giocare!

    • ivann ha detto:

      Era risaputo!!! Ma tanto il qhd lo hanno messo perchè fa figo agli occhi delle persone che non ne sanno una mazza (90% della popolazione mondiale) e le spinge a comprare tutto quà!!! Invece a persone che come noi una briciola ne sanno fa inca***re!!!

      • italba ha detto:

        Spiacente, io ho sempre detto che il Qhd, sugli schermi superiori a 5″, può migliorare la qualità dell’immagine percepita, anche se non si riescono a distinguere i singoli pixel. Ad ogni modo, visto che male non fa (neanche alla batteria) non c’è proprio motivo di demonizzarlo.

        • Alessandro ha detto:

          Già

        • viktorius ha detto:

          Forse, è dico forse, un motivo c’è. Il prezzo, magari full HD costa meno

          • italba ha detto:

            Probabile, ma non è la differenza reale di costo, quella sarà di poche decine di euro. È possibile, tuttavia, che i produttori se ne approfittino per alzare il prezzo più del dovuto, vista la novità, ma è una differenza destinata a ridursi nel tempo.

          • Motoralbi ha detto:

            Però si deve dire che il G3 attualmente costa meno rispetto a tutti gli altri top di gamma FullHd,benché offra uno schermo migliore.

        • Mattev ha detto:

          Beh oddio, ok che non cambia in termini di consumo il cambio di res su uno schermo QHD che riproduce l’FHD, ad esempio, ma, fisicamente, tra uno schermo reale in FHD e uno reale in QHD cambia molto. I consumi maggiori sul 2k sono dati da una maggiore richiesta di alimentazione e dallo sforzo maggiore della gpu

        • ivann ha detto:

          Bè che non faccia male non credo proprio dato che è stato appena dimostrato… fa male sopratutto alle prestazioni e alla fluidità se il processore non è abbastanza potente! E g3 ne è la conferma dato che ha micro lag per viola del processore che non suppalorta il qhd… (qualcom stessa lo dichiara) poi per la batteria non credo non cambi proprio nulla, può essere che hairagione l immagine percepita migliore ma di pochissimo se non nulla… basta guardare il full hd di s5!! Sicuramente sono più i contro che i pro ad avere un qhd poi vabbe ognuno la pensa a modo suo

          • italba ha detto:

            Ma tu lo hai letto l’articolo? Sei ben sicuro di aver capito quello che dice? IL G3 avrà pure dei micro lag ma NON SONO CAUSATI dalla risoluzione QHD! L’unica cosa, rispetto al fullhd, che rallenta e consuma di più (forse) è la GRAFICA 3D!

          • ivann ha detto:

            Si l ho letto bene l articolo e i micro lag dipendono amche dal qhd perchè il processore non lo supporta!!! Non me lo sto inventando basta andare sul sito della qualcom e informarsi anche genericamente!! L ho letto su vari articoli che il g3 lagga per il qhd perchè il processore non lo supporta…. son per nulla samsung con s5 e htc con m8 sono restati sul full hd pur montando lo stesso processore di g3…

          • italba ha detto:

            Se non lo supportasse non funzionerebbe…

          • ivann ha detto:

            Non necessariamente… l la qualcom afferma che la risoluzione massima che supporto l 801 per lavorare al meglio e il full hd…. il qhd lo tiene ma non nei migliori dei modi(e si vede)!! Come hai detto tu in un commento che ho letto ce lo hanno messo per avere una scusa buona per aumentare il prezzo del telefono al momento del lancio nel mercato… ma di certo non giova al telefono, tanto come ho detto io già in precedenza la stragrande maggioranza delle persone non lo nota nemmeno

          • italba ha detto:

            I lag e microlag sono una cosa opinabile e soggettiva. I numeri, dei benchmark e del consumo, dicono tutt’altro. Inoltre, i “core” dell’801 neanche lo sanno, nella maggior parte dei casi, se lo schermo è fullhd o qhd. Si limitano ad inviare istruzioni del tipo “scrivimi questo in questa posizione dello schermo”, “disegnami un rettangolo da qui a lì”, cose del genere. Poi la GPU si preoccupa di disegnare queste cose sullo schermo ed a ridisegnarle diverse decine di volte al secondo.

          • ivann ha detto:

            Nonfunziona esattamente così la cpu ne risente eccome ed e vero che i lag nella maggior parte dei casi sono soggettivi e opinabili ma non in questo caso… che il g3 lagghi per via della risoluzione troppo alta è un dato di fatto!! Ti lascio con questo articolo dove afferma che il qhd e responsabile dei lag del g3 e il primo che ho trovato ma ce ne sono un sacco dove ti spiegano bene nel dettaglio il perchè accade…http://www.keyforweb.it/lg-g3-incrementare-le-prestazioni-abbassando-la-risoluzione/ poi ognuno la pensa a suo modo

          • italba ha detto:

            Bravo, apri il link che hai postato, e poi leggi qui in cima. È LO STESSO ARTICOLO! Il 27% di incremento Antutu che riporta è causato in massima parte (E LEGGILA LA TABELLA!) dal 49% di incremento nel 3D, COMPRESO nel totale!

          • ivann ha detto:

            E lo stesso articolo con la differenza che li specifica che il qhd gli da problemi al telefono!!! Io la tabella l ho letta benissimo e tu ancora non capisci che vale zero!! Solo per il fatto (ed è stato spiegato e credo anche dimostrto… E INFORMATI) che il test e stato condotto da un diplay qhd!! Mi spiego meglio…. se abbassi la risoluzione in uno schermo che ha 100 pixel ad una risoluzione che ne ha 80 la cpu deve lavorare per allungare questi pixel e rinsanare lo spazio perso (dato che è uno schermo che ne tiene 100) diversissima la faccenda se lo schermo nasce full hd e quindi non ha bisogno la cpu di lavorare per allungare i pixel e quindi i numeri cambierebbero rispetto a questi riportati nella tabella!! Prova a prendere un g3 che esce di fabbrica già con un diplay full hd e uno con il qhd ripeti il test e ti assicuro che non ritroverai questi numeri!!
            Ps: non è una mia teoria ma è di chi ne sa molto più di me

          • italba ha detto:

            Ecco, IO per esempio ne so molto più di te, fidati. Vatti a leggere qualche minima nozione di computer grafica, windows e viewport, interpolazione, matrici di trasformazione e poi ti convincerai che queste operazioni grafiche di base, nelle quali tra parentesi la CPU non si sporca neanche le mani, contano ZERO o quasi. La GPU non si stanca proprio a farle, neanche 24 ore al giorno. Il confronto di due telefoni uguali con schermi di risoluzione diversa è già stato fatto con i Samsung S5, vedi http://www.androidauthority.com/galaxy-s5-lte-a-battery-benchmark-414550/ , leggitelo e guarda come è andato a finire. Con questo chiudo questo argomento, per il futuro impara ad informarti invece di sostenere delle idee preconcette per partito preso.

          • ivann ha detto:

            Ho visto la tabella e ho letto l articolo che mi hai postato la differenza tra i 2 device è pressochè nulla ma questobe dovuto dalla diversità dei 2 adreno montati su i 2 device nell articolo viene specificato che l adreno 420 offre un 40/60% di prestaxioni in più è PIÙ EFFICENZA ENERGETICA…. comunque sia detto questo magari è vero che ne sai più di me come di tutti quanti in questo blog dato che sei l unico di parte con quello che affermi o quasi… magari se come dici tu la cpu e la gpu non vengono nemmeno sfiorate dal discorso risoluzione qualcom specifica per nulla la massima risoluzione supportata per ogni processore che produce… ma va bene ognuno poi la vede modo suo e ripeto magari puoi avere anche ragione dato che ti credi esperto in materia ed io di certo non lo sono e mi baso su quello che leggo da appassionato su vari forum e recensioni…

          • italba ha detto:

            La GPU altro che se viene sfiorata dal discorso risoluzione, fa tutto lei! E comunque per le gpu sono compiti all’acqua di rose. Se L’Adreno 420 ha il 40% di prestazioni in più e più efficienza non vuol dire che la sua efficienza sia del 40% migliore, o che possa fare il 40% in più di lavoro consumando lo stesso. La Qualcomm specifica la massima risoluzione per i suoi SOC (non processori) perché dentro i SOC ci sono i processori veri e propri (core), la sezione radio e la GPU, oltre a vari chip di contorno. Non è questione di vedere le cose ognuno a modo suo, è questione di SAPERLE.

          • ivann ha detto:

            So bene chebi processori sono i core del soc stesso ma non stiamo a puntualizzare… se qualcom lo specifica vuol dire che un perchè c è e sia la gpu che la cpu ne risentono eccome almeno quà si afferma totalmente il contrario di ciò che dici (discorso batteria a parte che magari hai anche ragione avendo fatto una ricerca oggi ma per il resto proprio no) http://lg.hdblog.it/2015/02/17/LG-G3-migliora-molto-abbassandolo-a-fullHD/

          • italba ha detto:

            Un’altra volta? Ma che, sei andato in loop? È SEMPRE LA STESSA TABELLA! SVEGLIAAA!
            Rileggi quello che ti ho risposto ieri.

          • rexandrex ha detto:

            Mah,io ho un g3 e non lagga per nulla… Sarà miracolato?

          • ivann ha detto:

            Sono micro lag e ci sono… quasi impercettibili ma che su un telefono top gamma almeno nel momento in viene commercializzato a parer mio non dovrebbero assolutamente esserci daato che lo paghi fior di quattrini

      • Mattev ha detto:

        Effettivamente, quello che importa è riuscire a nascondere al meglio i Pixel e persino un 280DPI ci riesce, se non li vogliamo cercare :)

  2. Latttina ha detto:

    Mah…9000 punti di differenza su antutu solo per i test 2d/3d mi sembrano un po tanti…secondo me la reale differenza è di 3/4000 punti.

    • Alessandro di Fidio ha detto:

      In base a quale studio scientifico affermi ciò????

      • Latttina ha detto:

        In base al fatto che il mio s5 con la stessa gpu realizza 13400 punti sul 3d e 1600 sul 2d . Ora… siccome questi sono gli unici test influenzati dalla risoluzione e ci sono 15000 punti in gioco ti sembra possibile che aumentando la risoluzione a Qhd ci sia un calo di 9000 punti su 15000? Francamente a me no. Spero di avere soddisfatto la tua sete di conoscenza e anche quella di tutti i personaggi che ti hanno pure dato il like.

        • Alessandro di Fidio ha detto:

          Comunque le tue sono supposizioni, quindi quando potrai dimostrare (non solo a me ma anche a persone ben più importanti di me in questo campo) che ciò che dici corrisponde a realtà allora ti darò ragione

          • Latttina ha detto:

            E infatti se tu avessi letto il mio primo post avresti visto che c’era scritto un bel “secondo me” e non “asserisco con prove di fatto”… ma evidentemente non l’hai letto.

          • Matteo ha detto:

            Comunque hai ragione, difatti il mio G3 con Antuntu fa quasi 41000… (11300-1640)

          • Latttina ha detto:

            Come volevasi dimostrare ;)

          • Motoralbi ha detto:

            Quoto Matteo,il G3 in Quad Hd fa 12000 punti,quindi lo scarto si riduce a 2-3000 punti in 3D.

          • Machete ha detto:

            Il concetto espresso da lattina è chiarissimo, secondo il suo personale parere la differenza è troppa, e ti ha pure dato la motivazione. L’unica cosa immotivata qua è la tus critica. Inoltre parlavi di dati scientifici, ma scusa, cosa c’è di scientifico nel test eseguito?? Conosciamo tutti l’affidabilità dei benchmark

        • Mattev ha detto:

          S5 è un terminale diverso, con un Android diverso, gestito da un’interfaccia diversa, creata da un’azienda diversa che ha venduto, a te, un telefono che tu usi in maniera diversa da altri. Sono piuttosto sicuro che se fai il test con altri 10 S5, solo alcuni faranno un punteggio SIMILE al tuo.

          • Latttina ha detto:

            Ma visto che non si parla di 100 punti ma di 9000 su 40000 la mia osservazione mi sembra più che lecita.

          • Mattev ha detto:

            Il punto è solo che i benchmark sono tanto (troppo) variabili :) io con G3 faccio punteggi simili ai tuoi (11k 3D 1.6k 2D), eppure ho il loro stesso telefono :P dipende dall’uso da troppi fattori xD

          • Latttina ha detto:

            Ma infatti il mio appunto era per ribadire che quei punteggi per me sono assurdi ma non quelli alti bensì quelli bassi ! Anche mio fratello ha il g3 e realizza punteggi intorno ai 40/41000 ( circa 3/4000 punti in meno del mio s5 e per me questo è un punteggio ragionevole mon i 32000 riportati dalla tabella.

          • Mattev ha detto:

            Boh : ti dirò, ho visto bench di g3 anche a 27/29k xD

  3. […] (…)Continua a leggere LG G3, prestazioni e autonomia a confronto con display Quad HD e Full HD su Andro… […]

  4. fuf ha detto:

    Ma ci sono tool, magari di xda che permettono di abbassare la risoluzione per app e giochi?

  5. […] (…)Continua a leggere LG G3, prestazioni e autonomia a confronto con display Quad HD e Full HD su Andro… […]

  6. LoSbronzo ha detto:

    Perché sul G3 le prestazioni aumentano e sul N6 invece addirittura diminuiscono del ~20%?

    • Ivan C. ha detto:

      Perché Nexus 6 si sta rivelando una fagghia in tutto (parlo da NON possessore di N6)

  7. […] (…)Continua a leggere LG G3, prestazioni e autonomia a confronto con display Quad HD e Full HD su Andro… […]

  8. eric ha detto:

    …meno di 8 min di differenza tra Quad HD e Full HD? …. alla faccia di tutti quelli che …. “lo schermo QHD è una porcata perchè prosciuga subito la batteria”

    • Mattev ha detto:

      Ti copio e incollo una risposta che ho dato poco fa più sopra

      “L’autonomia del G3 non migliora in FHD perché, risoluzione più bassa o
      no, i pixel sono sempre quelli. Fisicamente il G3 deve alimentare quel
      numero di Pixel. La differenza è che la GPU deve gestire “meno dati” per
      quanto riguarda texture e quant’altro.
      Su un PC portatile, ad
      esempio, cambiare la risoluzione dello schermo può influire
      sull’autonomia se quest’azione influisce tanto sulla GPU. Questo perché
      lo schermo è alimentato dal PC stesso; per lo smartphone vale la
      medesima cosa :P”

  9. cekkoloco ha detto:

    Non capisco perche’ cercare sempre una critica .di decice me ne sono passato parecchi dalle mani ora ho un g3 con prestazioni di turto rispetto nel normale utilizzo la tripla risoluzione la si nota specie nel micro(piccole lettere o immagini)il display sembra piu lucido e vivido della media .
    Un difetto lo si puo trovare nella durata della batteria ma nel mio caso da quando ho aggiornato a lollipop

  10. […] (…)Continua a leggere LG G3, prestazioni e autonomia a confronto con display Quad HD e Full HD su Andro… […]

  11. Andrea Piombarolo ha detto:

    Io ho un g3 e devo dire che con qhd le prestaziomi mi soddisfano a pieno e provandolo con la Risoluzione abbassata non ho visto tutte queste difderenze, più un lieve miglioramento ma nnt di eccessivo, più che altro io ho uno schermo qhd (ma vale anche se compro un televisore con questa risoluzione), poi ci metto sopra un film blu ray, 1080 p che è il massimo della risoluzione e vedo che non riesco a sfruttare la potenza dello schermo. Se io ho un dispositivo qualsiasi, anche tv con una risoluzione altissima devono esserci i film/giochi con tale risoluzione, senno nn riesco a sfruttarlo.

  12. AbufinzioGargiulo ha detto:

    Io su Antutu ho avuto circa 39k con qhd e 41k con 1080p. Fantastico.

  13. Ciao ha detto:

    Il consumo del displai del G3 non varierà mai semplicemente diminuendo la definizione in output. L’hardware non cambia quindi i consumi sono gli stessi, i pixel vengono semplicemente usati in downsampling. Quindi questa prova si può a mio avviso considerare attendibile soltanto dal punto di vista prestazionale

    • KilgoreT ha detto:

      Esatto!! Non è che una risoluzione minore (interpolata via software) “spenga” i pixel. Il fatto che la durata sia praticamente uguale sta a dimostrarlo. Altra cosa è mettere a confronto stesso hardware e schermi di risoluzione differente nativa.. tipo Oppo Find 7/Find 7a. Li si vede quanto pesa uno schermo 2k in termini di consumi.

    • Baronz ha detto:

      Esatto

  14. Emanuele ha detto:

    Il display del G3 settato il quhd è un idrovora per la batteria, non apporta nessun tangibile miglioramento delle immagini rispetto al fullhd… Provate a settare il g3 in fulhd e confrontate immagini e consumi… Solo un falco nota la differenza abissale…e perdippiu quasi si dimezzano i consumi. Inutile e didpendioso, per il resto il G3 è un gran telefono!

    • Mattev ha detto:

      Non è possibile che i consumi si dimezzino O: solo in game o app particolarmente esose di GPU i consumi potrebbero migliorare :P

  15. Andrea Martini ha detto:

    Da possessore di G3 posso dirvi che installando una Custom ROM basata
    sulla Stock (io uso ChupaChups 4.2) i problemi di Lag o drenaggio di
    batteria si risolvono in un lampo senza dover diminuire la risoluzione
    del Display….cosa inutile perchè cmq tutti i pixel devono essere
    illuminati e refreshati :)

    Se volete aumentare la batteria è
    possibile effettuare un undervolt del processore così da ottimizzare i
    consumi del propio terminale.

    Ad oggi poi con il rilascio di 2 settimana fa dela versione Lollpop 20H del SW hanno ulteriormente migliorato la rom stock

  16. max ha detto:

    Ancora non mi è arrivato aggiornamento a Lollipop g3 della tre,qualcuno di voi ha aggiornato con altro firm e quale?

    • Alessandro ha detto:

      Dovrebbe essere arrivato per i brand 3! Già da molto tempo… Vai su Aggiornamento software e controlla (lo avrai già fatto sicuramente

  17. Motoralbi ha detto:

    Fatemi commentare dato che lo possiedo…
    Innanzitutto le grafiche 3D non registrano mai meno di 10000 punti su antutu,infatti siamo sui 12000 in Quad Hd. FullHd invece é sopra i 14000(quindi il valore misurato é corretto)
    Poi,con il Quad Hd l’unica cosa penalizzata é la grafica 3D,affaticando principalmente la gpu,mentre per il resto le prestazioni sono solo leggermente inferiori.
    Anch’io tengo il G3 in FullHd,per avere migliori performance nel gaming.
    Vorrei sottokineare però che la scelta di uno schermo QuadHd non é una cosa insensata. Le differenze ci sono,e si vedono,nella maggior nitidezza dei contorni delle figure. Parlo io che da vicino vedo molto,riesco quasi a distinguere i pixel degli schermi fullHd nei contorni delle figure “tonde” (lo so,vi sembrerà strano,ma é così,vedo molto da vicino e poco da lontano XD),mentre col QuadHd é tutto migliore e piú definito.

  18. DanLegend98 ha detto:

    Abbassando la risoluzione cosi diventa un g2

  19. Jacopo Tartarini ha detto:

    Consigliate di fare la stessa cosa con s4? Potrei aumentare l’autonomia se lo setto a quanto?

  20. Baronz ha detto:

    il “test sulla batteria” non ha significato… la risoluzione da renderizzare è minore quindi la cpu consuma leggermente meno, ma i pixel da accendere restano sempre 1440×2560, ergo il diplay consuma uguale… potrebbero anche renderizzare a 640×480 ma il display rimane un QHD e accende tutti i pixel comunque.

  21. DarKilleR ha detto:

    Scusate ma a me questo test sembra una cavolata.
    Ok ridurre la risoluzione va a vantaggio delle prestazioni grafiche (il SoC a parità di potenza di elaborazione deve elaborare meno immagini).
    Però il monitor ha sempre la sua risoluzione, ci sarà uno scaler che converte la risoluzione da Full HD a QHD…come avviene per il digitale terrestre sulle nostre TV!

    Sarebbe stato interessante se fosse possibile trapiantare un monitor full-hd come quello del G2 sul G3 e notare la differenza!

    Altrimenti è un test inutile! Lo sanno anche le capre che su un PC normale un giochino che ti va a scatti, va più fluido se riduci la risoluzione!

  22. Sil ha detto:

    Seghe mentali (e fisiche) su uno schermo, ed io che spreco tempo su Brazzers.

Social Media Auto Publish Powered By : XYZScripts.com