Announcement

Collapse
No announcement yet.

Announcement

Collapse
No announcement yet.

cascate

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • Font Size
    #46
    Originally posted by andreafitta View Post
    eppure con mia grande sopresa l'8mp preso da 5d II era pi? nitido e dettagliato del 18 della 7d.

    il discorso diffrazione pu? ANCHE esssere corretto.. MA.. forse in presenza di una elevata densit?, si ha semplicemente un'inversione del limite di dettaglio. prima era il sensore, ora ? la lente. semplice no? si pu? dire che un sensore denso come quello della 7d sfrutta MAGGIORMENTE le lenti.. le spreme.. secondo me sarebbe ora che le case dessero le specifiche di risolvenza delle lenti.. io immagino che sappiano almeno teoricamente quale risoluzione massima possono supportare per mm2, no? o comunque penso possano arrivarci.

    mettiamo caso che canon dica che il 300 2.8 risolve al massimo 40.000 pixel per mm2.. ok, la 7d ha circa 55.000 pixel per mm2.. quindi se vedo un'immagine al 100% la vedr? impastata.. ma se la vedo all'80% (40.000/55.000) dovrei vederla nitidissima.. giusto? in tal caso, ipoteticamente, la 7d avrebbe una risoluzione teorica di 14,4 mp (18 x 0,8)..

    ovviamente questa era pura teoria.. ma se davvero sapessimo la risolvenza teorica di ogni lente sapremmo anche quale sarebbe il 100% reale di ogni foto che facciamo.. FERMO RESTANDO CHE A 18 mp il 100% serve proprio a pochi...
    troppe variabili in gioco..chiss? in che condizioni sono state fatte le prove..

    l'unica cosa che si pu? dire ? che, per come dici tu, l'ottica montata sulal 7d era gi? abbondantamente alle corde (LPM e diffrazione) mentre quella che lavorava sulla 5d2 era abbondantemente "sotto copertura"

    altra cosa: se gli 8 mpixel della 5d2 erano un resampling..allora posso anche credere che fossero pi? "dettagliati" dei 18 della 7d..per il semplice motivo che in quegli 8 ne sono stati "concentrati" 25

    Comment


    • Font Size
      #47
      A me però , sarà perchè sono neofita, ste guerre ai pixel mi fanno sbellicare

      Uno compra una Reflex ... fa le foto e bona ! Che c'entrnao pixel giusti o meno Se Canon ha commercializzato una macchina a 18mpx è perchè si può fare

      A me non pare che faccia foto cosi schifose

      Comment


      • Font Size
        #48
        Originally posted by TarTaRo View Post
        Be' perfetto, se conosci l'algoritmo di Bayer allora ti faccio un esempio pratico:
        1 pixel corrisponde a un quadrato con due sensori verdi, 1 rosso e 1 blu, il verde del pixel e' quindi ottenuto dalla media dei due valori di verde.

        Gia' questa operazione e' una perdita di informazione.. (seppur piccola).
        Infatti se i due sensori del verde hanno come somma un numero dispari, cio' si perde. Teoricamente, facendo il riscalamento del 50% in questo momento, si tirerebbe fuori un pixel da 4 rossi 4 blu e 8 verdi.
        Inutile dire che l'errore che viene fuori in questo modo e' minore che facendo il riscalamento in un secondo tempo.. se volete vi posso dimostrare tutto cio' con dei numeri.

        Detto questo, mi risulta anche che l'algoritmo in questa versione non e' praticamente mai usato, viene usata una variante che fa diverse interpolazioni con i pixel vicini per avere risultati migliori, e piu' si fanno operazioni di quel tipo, piu' si commette errori di precisione. Errori che sarebbero di entita' minore se fatti come ho ipotizzato faccia sRaw. In altre parole, non penso che scattare una foto in sRaw al 50% delle dimensioni sia la stessa cosa di fare una foto al 100% e poi riscalarla dopo del 50%. Senza contare che gli algoritmi di riscalamento non e' detto che facciano banalmente la media (in questo caso dei 4 pixel).
        Posso dire che il risultato e' simile, quasi uguale, indistinguibile.. ma non uguale.

        Ti dico per esempio che si puo' fare un algoritmo di resize (sempre priferendoci al caso del resize del 50%) che invece che interpolare, prende il pixel con la varianza maggiore (ad esempio per aumentare il piu' possibile il contrasto) e questo tipo di riscalamento farebbe venir fuori quasi solo il rumore..
        il discorso della matrice bayer a prevalenza verde ha anche un'altra spiegazione:

        c'? in tutte le reflex un profilo colore a gamma dinamica estesa e prevalenza di "verdi" per sfruttare questa cosa

        se vuoi entriamo anche nel discorso foveon ma vedrai che il discorso non cambia..in quel caso facevano il ragionamento inverso e cio?:

        ho 3 strati di 4 mpixel, ho un file finale di 4 mpixel con il dettaglio equivalente di un 12 mpixel con matrice bayer

        ingrandendo il primo a 12 o riscalando il secondo a 4 si otteneva praticamente lo stesso dettaglio

        per il resto, non possiamo fare dei paragoni perch? un algoritmo dedicato ma pur sempre esterno e che si deve "adattare" a diverse tipologie di applicazioni (vedi gli algoritmi di resampling di photoshop..che sono pi? di uno proprio in base alla tipologia di resampling da effettuare)

        noi cosa ne sappiamo quanto ? evoluto l'algoritmo (dedicato) di resampling del sensore rispetto a quello (universale) del software?

        Comment


        • Font Size
          #49
          Originally posted by bastich View Post
          troppe variabili in gioco..chiss? in che condizioni sono state fatte le prove..

          l'unica cosa che si pu? dire ? che, per come dici tu, l'ottica montata sulal 7d era gi? abbondantamente alle corde (LPM e diffrazione) mentre quella che lavorava sulla 5d2 era abbondantemente "sotto copertura"

          altra cosa: se gli 8 mpixel della 5d2 erano un resampling..allora posso anche credere che fossero pi? "dettagliati" dei 18 della 7d..per il semplice motivo che in quegli 8 ne sono stati "concentrati" 25
          no no non era un resampling.. era una foto da 21 mp e ne era stata presa la parte centrale (pari alla parte che ne sarebbe uscita scattando con un sensore apsc della stessa densit?), quindi era un ritaglio a 8 mp, non un resampling di un'immagine da 21 mp.

          ad ogni modo hai ragione tu sul fatto che ci siano tante, troppe variabili. la pi? importante: si tratta di jpeg prodotti da lenti sconosciute.

          Comment


          • Font Size
            #50
            Originally posted by andreafitta View Post
            no no non era un resampling.. era una foto da 21 mp e ne era stata presa la parte centrale (pari alla parte che ne sarebbe uscita scattando con un sensore apsc della stessa densit?), quindi era un ritaglio a 8 mp, non un resampling di un'immagine da 21 mp.

            ad ogni modo hai ragione tu sul fatto che ci siano tante, troppe variabili. la pi? importante: si tratta di jpeg prodotti da lenti sconosciute.
            mi sembra MOLTO strano

            per logica..non potrebbe essere cos?..l'unica spiegazione ? da ricercare in lenti ed impostazioni del jpeg

            Comment


            • Font Size
              #51
              Originally posted by Lele-R1-Crash View Post
              A me per? , sar? perch? sono neofita, ste guerre ai pixel mi fanno sbellicare

              Uno compra una Reflex ... fa le foto e bona ! Che c'entrnao pixel giusti o meno Se Canon ha commercializzato una macchina a 18mpx ? perch? si pu? fare

              A me non pare che faccia foto cosi schifose
              si beh lele infatti non fa foto schifose, se no mica me la compravo

              Comment


              • Font Size
                #52
                Originally posted by bastich View Post
                il discorso della matrice bayer a prevalenza verde ha anche un'altra spiegazione:

                c'? in tutte le reflex un profilo colore a gamma dinamica estesa e prevalenza di "verdi" per sfruttare questa cosa

                se vuoi entriamo anche nel discorso foveon ma vedrai che il discorso non cambia..in quel caso facevano il ragionamento inverso e cio?:

                ho 3 strati di 4 mpixel, ho un file finale di 4 mpixel con il dettaglio equivalente di un 12 mpixel con matrice bayer

                ingrandendo il primo a 12 o riscalando il secondo a 4 si otteneva praticamente lo stesso dettaglio

                per il resto, non possiamo fare dei paragoni perch? un algoritmo dedicato ma pur sempre esterno e che si deve "adattare" a diverse tipologie di applicazioni (vedi gli algoritmi di resampling di photoshop..che sono pi? di uno proprio in base alla tipologia di resampling da effettuare)

                noi cosa ne sappiamo quanto ? evoluto l'algoritmo (dedicato) di resampling del sensore rispetto a quello (universale) del software?

                Il fatto che un piccolo errore si propaghi gi? con la versione pi? semplice dell'algoritmo significa che nella versione effettiva, dove i calcoli e le varie interpolazioni sono molte di pi?, la situazione non pu? altro che peggiorare, nel senso che l'errore si propaga sempre di pi?.

                Il fatto di applicare questi algoritmi (bayer ecc) DOPO avendo come input pi? valori direttamente letti dal sensore, ? meglio, sempre per quanto riguarda la precisione e la propagazione dell'errore.

                Detto questo, sono perfettamente daccordo con te che i risultati facendo il resize dopo o usando sRaw sono molto simili, ma non sono uguali.
                E cmq mi riservo qualche prova perch? sono molto curioso..

                Comment


                • Font Size
                  #53
                  Originally posted by TarTaRo View Post
                  Il fatto che un piccolo errore si propaghi gi? con la versione pi? semplice dell'algoritmo significa che nella versione effettiva, dove i calcoli e le varie interpolazioni sono molte di pi?, la situazione non pu? altro che peggiorare, nel senso che l'errore si propaga sempre di pi?.

                  Il fatto di applicare questi algoritmi (bayer ecc) DOPO avendo come input pi? valori direttamente letti dal sensore, ? meglio, sempre per quanto riguarda la precisione e la propagazione dell'errore.

                  Detto questo, sono perfettamente daccordo con te che i risultati facendo il resize dopo o usando sRaw sono molto simili, ma non sono uguali.
                  E cmq mi riservo qualche prova perch? sono molto curioso..
                  mi sa che c'? una piccola incomprensione di fondo:

                  quando parlo di bayer, io parlo di sensore con matrice bayer (RED-GREEN-BLU-GREEN), mentre tu parli di algoritmo..non vorrei che fosse la chiave di lettura di tutto

                  o se l'uno e l'altro sono strettamente correlati..ma non c'ho testa di fare ragionamento matematici che gi? sto sbroccando di mio

                  Comment


                  • Font Size
                    #54
                    Originally posted by TarTaRo View Post
                    Detto questo, sono perfettamente daccordo con te che i risultati facendo il resize dopo o usando sRaw sono molto simili, ma non sono uguali.
                    E cmq mi riservo qualche prova perch? sono molto curioso..

                    guarda che il mio esempio di resampling era generico, non era correlato alla storia di sraw

                    Comment


                    • Font Size
                      #55
                      Pensando al discorso di Andrea, il fatto che il formato sia JPEG vanifica tutta la prova, ma non ci giurerei che ripetendolo in raw il risultato cambi

                      Comment


                      • Font Size
                        #56
                        Originally posted by bastich View Post
                        mi sa che c'è una piccola incomprensione di fondo:

                        quando parlo di bayer, io parlo di sensore con matrice bayer (RED-GREEN-BLU-GREEN), mentre tu parli di algoritmo..non vorrei che fosse la chiave di lettura di tutto

                        o se l'uno e l'altro sono strettamente correlati..ma non c'ho testa di fare ragionamento matematici che già sto sbroccando di mio
                        Parlo di algoritmo riferendomi a come vengono create le componenti RGB del pixel dell'immagine raw dalla matrice di bayer..
                        L'algoritmo base prende r e b cosi come sono, ma dei due verdi fa la media...
                        E gia qui quel /2 causa un piccolo errore..
                        Quello che succede realmente è molto più complesso però e più calcoli si fanno più ci si porta dietro il piccolo errore..

                        Ciò che potrei ipotizzare riguardo l'sRaw è che le componenti RGB del pixel da creare vengano calcolate non dai 4 valori RGBG che si usano nell'algoritmo normale (quadrato 2x2), ma da una matrice di 4x4 ad esempio o 6x6 centrata sul punto in uscita e che faccia medie pesate con certi particolari criteri (per esempio i punti della matrice lontani dal centro peserebbero meno dando minor contributo al valore finale).
                        E' per certi versi analogo a quello che succede nei filtri a matrice che si applicano alle immagini nei software di fotoritocco.. non so se mi sono spiegato bene..
                        Last edited by TarTaRo; 11-02-10, 18:19.

                        Comment


                        • Font Size
                          #57
                          Qui ad esempio spiega il concetto applicato alle immagini

                          Portando il concetto sopra applicato al sensore CMOS si può dire che l'algoritmo base significa applicare una matrice 2x2 di convoluzione con valori:
                          R G _ 1.0 0.5
                          G B _ 0.5 1.0

                          infatti R finale sarà dato direttamente da se stesso (R*1) cosi come B, mentre G sarà uguale a G1 *0.5 + G2 * 0.5.

                          L'sRaw1 divide la risoluzione per due, significa che il pixel di uscita non equivale più ad una matrice di 2x2 sensori, ma ad una matrice di 3x3 sensori..
                          basterebbe avere una matrice di convoluzione ad esempio di 5x5 con coeficienti studiati per ottenere correttamente il pixel di output
                          Last edited by TarTaRo; 11-02-10, 18:38.

                          Comment


                          • Font Size
                            #58
                            fikka la domanda mi sorge spontanea... quali cavolo di cascate vuoi andare a fotografare??? andiamo insieme??

                            mo come minimo mi dici un posto dall'altra parte del mondo

                            Comment


                            • Font Size
                              #59
                              Originally posted by ladyduke View Post
                              fikka la domanda mi sorge spontanea... quali cavolo di cascate vuoi andare a fotografare??? andiamo insieme??

                              mo come minimo mi dici un posto dall'altra parte del mondo
                              ahahah mamma non ascoltare tuo marito!! cascate intendevo dire in generale.. non saprei per? dove! tu hai in mente qualcosa qua in zona? (altrimenti valtellina)

                              Comment


                              • Font Size
                                #60
                                Originally posted by TarTaRo View Post
                                Parlo di algoritmo riferendomi a come vengono create le componenti RGB del pixel dell'immagine raw dalla matrice di bayer..
                                L'algoritmo base prende r e b cosi come sono, ma dei due verdi fa la media...
                                E gia qui quel /2 causa un piccolo errore..
                                Quello che succede realmente ? molto pi? complesso per? e pi? calcoli si fanno pi? ci si porta dietro il piccolo errore..

                                Ci? che potrei ipotizzare riguardo l'sRaw ? che le componenti RGB del pixel da creare vengano calcolate non dai 4 valori RGBG che si usano nell'algoritmo normale (quadrato 2x2), ma da una matrice di 4x4 ad esempio o 6x6 centrata sul punto in uscita e che faccia medie pesate con certi particolari criteri (per esempio i punti della matrice lontani dal centro peserebbero meno dando minor contributo al valore finale).
                                E' per certi versi analogo a quello che succede nei filtri a matrice che si applicano alle immagini nei software di fotoritocco.. non so se mi sono spiegato bene..

                                Originally posted by TarTaRo View Post
                                Qui ad esempio spiega il concetto applicato alle immagini

                                Portando il concetto sopra applicato al sensore CMOS si pu? dire che l'algoritmo base significa applicare una matrice 2x2 di convoluzione con valori:
                                R G _ 1.0 0.5
                                G B _ 0.5 1.0

                                infatti R finale sar? dato direttamente da se stesso (R*1) cosi come B, mentre G sar? uguale a G1 *0.5 + G2 * 0.5.

                                L'sRaw1 divide la risoluzione per due, significa che il pixel di uscita non equivale pi? ad una matrice di 2x2 sensori, ma ad una matrice di 3x3 sensori..
                                basterebbe avere una matrice di convoluzione ad esempio di 5x5 con coeficienti studiati per ottenere correttamente il pixel di output
                                ma ti aspetti una risposta?

                                tu non stai bene, eh

                                Comment

                                X
                                Working...
                                X