Når det kommer til smartphone kameraer, handler det ikke om hardware længere. Moderne smartphones bruger automatisk "Computational Photography" teknikker til at forbedre hvert enkelt foto, du tager.
Brug software til at forbedre dit smartphone kamera
Computational fotografering er et bredt begreb for masser af forskellige teknikker der bruger software til at forbedre eller udvide kapaciteten i et digitalkamera . Comperial fotografering starter med et foto og ender med noget, der stadig ligner et billede (selvom det aldrig kunne tages med et almindeligt kamera.)
Hvor traditionelle fotografering virker
Før du går dybere, lad os hurtigt gå over, hvad der sker, når du tager et billede med et gammelt filmkamera. Noget som SLR, du (eller dine forældre) brugte tilbage i 80'erne.
Når du klikker på udløserknappen, åbnes lukkeren for en brøkdel af et sekund og lader lys ramme filmen. Alt lyset er fokuseret af en fysisk linse, der bestemmer, hvordan alt på billedet vil se ud. For at zoome ind på fjerne fugle, bruger du en telefotobjektiv med en lang brændvidde, mens du for vidvinkelskud af et helt landskab, du går med noget med en meget kortere brændvidde. Tilsvarende styrer linsens åbning dybden af feltet, eller hvor meget af billedet er i fokus. Da lyset rammer filmen, udsætter den de lysfølsomme forbindelser, der ændrer deres kemiske sammensætning. Billedet er stort set ætset på filmbeholdningen.
Hvad alt det betyder, er, de fysiske egenskaber ved det udstyr, du bruger, styrer alt om det billede, du tager. Når det er gjort, kan et billede ikke opdateres eller ændres.
Computational Photography tilføjer nogle ekstra trin til processen, og som sådan fungerer kun med digitale kameraer. Samt indfangning af den optisk bestemte scene kan digitale sensorer optage yderligere data, som om, hvad farven og intensiteten af lyset, der rammer sensoren, var. Flere billeder kan tages på samme tid, med forskellige eksponeringsniveauer for at fange mere information fra scenen. Yderligere sensorer kan optage, hvor langt fra emnet og baggrunden var. Og en computer kan bruge alle de ekstra oplysninger til at gøre noget til billedet.
Mens nogle DSLR'er og Mirrorless kameraer har grundlæggende computerfotograferingsfunktioner indbygget, er de rigtige stjerner af showet smartphones. Google og Apple har især brugt software til at udvide kapaciteten hos de små, fysisk begrænsede kameraer i deres enheder. Se for eksempel et kig på iPhone's dybe fusion kamera funktion .
Hvilke slags ting kan Computational Photography gøre?
Hidtil har vi talt om evner og generaliteter. Lad os dog se på nogle konkrete eksempler på den slags ting Computational Photography muliggør.
Portrættilstand.
Portrættilstand er en af de store succeser af beregningsfotografering. De små linser i smartphone kameraer er fysisk ude af stand til at tage klassiske portrætter med en sløret baggrund . Ved at bruge en dybdeføler (eller maskinindlæringsalgoritmer) kan de identificere emnet og baggrunden for dit billede og selektivt sløre baggrunden, hvilket giver dig noget, der ser meget ud som et klassisk portræt.
Det er et perfekt eksempel på, hvordan beregningsfotografering starter med et foto og ender med noget, der ligner et foto, men ved at bruge software skaber det noget, som det fysiske kamera ikke kunne.
Tag bedre billeder i mørket
At tage billeder i mørket er svært med et traditionelt digitalkamera ; Der er bare ikke meget lys at arbejde med, så du skal lave kompromiser. Smartphones kan dog gøre det bedre med beregningsfotografering.
Ved at tage flere billeder med forskellige eksponeringsniveauer og blande dem sammen, er smartphones i stand til at trække flere detaljer ud af skyggerne og få et bedre endeligt resultat end et enkelt billede ville give - især med de små sensorer i smartphones.
Denne teknik, der hedder nattesyn af Google, Night Mode af Apple, og noget, der ligner andre producenter, er ikke uden afgang. Det kan tage et par sekunder at fange de flere eksponeringer. For de bedste resultater skal du holde din smartphone stabile mellem dem - men det gør det muligt at tage billeder i mørket.
Bedre udsætte fotos i vanskelige belysningssituationer
Blending flere billeder gør ikke bare for bedre billeder, når det er mørkt ud; det kan fungere i en masse af andre udfordrende situationer såvel. HDR eller High Dynamic Range Photography har eksisteret i et stykke tid og kan gøres manuelt med DSLR-billeder, men det er nu standard og automatisk i de nyeste iPhones og Google Pixel-telefoner. (Apple kalder det Smart HDR, mens Google kalder det HDR +.)
HDR, men det hedder, fungerer ved at kombinere billeder, der prioriterer højdepunkterne med billeder, der prioriterer skyggerne, og derefter aften ud af eventuelle uoverensstemmelser. HDR-billeder, der bruges til at være over-mættede og næsten tegneserieagtige, men processerne er blevet meget bedre. De kan stadig se lidt ud, men for det meste har smartphones et godt stykke arbejde med at bruge HDR til at overvinde deres digitale sensors begrænset dynamiske område.
Og meget mere
Det er blot nogle få af de mere krævende beregningsmæssige egenskaber indbygget i moderne smartphones. Der er belastninger flere funktioner, de har at tilbyde, ligesom Indsættelse af forstørrede virkelighedselementer i dine kompositioner , automatisk redigering af billeder til dig, tager Lang eksponeringsbilleder Vi kombinere flere rammer for at forbedre dybden af feltet i det sidste billede , og endda tilbyder den ydmyge panorama-tilstand, der også er afhængig af nogle software-hjælper med at arbejde.
Computational Photography: Du kan ikke undgå det
Normalt, med en artikel som denne, ville vi ende med ting ved at foreslå måder at du kunne tage computational fotografier, eller ved at anbefale, at du spiller rundt med ideerne selv. Men som det burde være temmelig klart af eksemplerne ovenfor, hvis du ejer en smartphone, kan du ikke undgå beregningsfotografering. Hvert enkelt foto, som du tager med en moderne smartphone, gennemgår en slags computerproces automatisk.
Og beregningsfotograferings teknikker bliver kun mere almindelige. Der har været en afmatning i hardwareudviklingen i kameraet i løbet af det sidste halvår, da producenterne har ramt fysiske og praktiske grænser og skal arbejde omkring dem . Software forbedringer har ikke de samme hårde grænser. (For eksempel har iPhone haft lignende 12 megapixel kameraer siden iPhone 6. Det er ikke, at de nyere kameraer ikke er bedre, men springet i kvaliteten af sensoren mellem iPhone 6 og iPhone 11 er meget mindre Dramatisk end det mellem iPhone 6 og iPhone 4.)
I løbet af de næste par år vil smartphone-kameraer fortsætte med at blive mere i stand til maskinlæring algoritmer Få bedre og ideer flytter fra forskningslaboratorier til forbrugerteknologi.