Når det gjelder smarttelefonkameraer, handler det ikke om maskinvaren lenger. Moderne smarttelefoner bruker automatisk "Computational Photography" -teknikker for å forbedre hvert eneste bilde du tar. [1. 3]
Bruke programvare for å forbedre smarttelefonen kameraet
Computational Photography er et bredt begrep for massevis av forskjellige teknikker som bruker programvare for å forbedre eller utvide evnen til et digitalkamera . Crucially, Computational Photography starter med et bilde og slutter med noe som fortsatt ser ut som et bilde (selv om det aldri kunne tas med et vanlig kamera.) [1. 3]
Hvordan tradisjonell fotografering fungerer
Før du går dypere, la oss raskt gå over hva som skjer når du tar et bilde med et gammelt filmkamera. Noe som SLR du (eller dine foreldre) brukt tilbake på 80-tallet.
[1. 3]
Når du klikker på utløserknappen, åpner lukkeren for en brøkdel av et sekund og lar lyset slå filmen. Alt lyset er fokusert av en fysisk linse som bestemmer hvordan alt i bildet vil se ut. For å zoome inn på fjerne fugler, bruker du en telefoto-linse med en lang brennvidde, mens for vidvinkelskudd av et hele landskap, går du med noe med en mye kortere brennvidde. På samme måte styrer blenderåpningen av linsen dybden på feltet, eller hvor mye av bildet er i fokus. Når lyset treffer filmen, utsetter den de lysfølsomme forbindelsene, endrer sin kjemiske sammensetning. Bildet er i utgangspunktet etset på filmbeholdningen. [1. 3]
Hva alt som betyr er, de fysiske egenskapene til utstyret du bruker kontrollere alt om bildet du tar. Når det er laget, kan et bilde ikke oppdateres eller endres. [1. 3]
Beregningsfotografering legger til noen ekstra trinn til prosessen, og som sådan fungerer bare med digitale kameraer. I tillegg til å fange den optisk bestemte scenen, kan digitale sensorer registrere ytterligere data, som hvilken farge og intensitet av lyset som rammer sensoren var. Flere bilder kan tas samtidig, med forskjellige eksponeringsnivåer for å fange mer informasjon fra scenen. Ytterligere sensorer kan registrere hvor langt motivet og bakgrunnen var. Og en datamaskin kan bruke all den ekstra informasjonen til å gjøre noe for bildet. [1. 3]
Mens noen DSLRS og Mirrorless-kameraer har grunnleggende Computational Photography-funksjoner innebygd, er de virkelige stjernene i showet smarttelefoner. Google og Apple har særlig brukt programvare for å forlenge mulighetene til de små, fysisk begrensede kameraene i sine enheter. For eksempel, ta en titt på iPhone's Deep Fusion Camera-funksjonen . [1. 3]
Hva slags ting kan Computational Photography gjøre?
Så langt har vi snakket om evner og generaliteter. Nå, skjønt, la oss se på noen konkrete eksempler på den typen ting Computational Photography Aktiverer. [1. 3]
Portrettmodus
Portrettmodus er en av de store suksessene til beregningsfotografering. De små linsene i smarttelefonkameraer er fysisk ute av stand til å ta klassiske portretter med en uklart bakgrunn . Men ved å bruke en dybdesensor (eller maskin-læringsalgoritmer), kan de imidlertid identifisere emnet og bakgrunnen til bildet ditt og selektivt uskarpe bakgrunnen, noe som gir deg noe som ser mye ut som et klassisk portrett. [1. 3]
Det er et perfekt eksempel på hvordan beregningsfotografering starter med et bilde og slutter med noe som ser ut som et bilde, men ved å bruke programvare, skaper det noe som det fysiske kameraet ikke kunne. [1. 3]
Ta bedre bilder i mørket
Å ta bilder i mørket er vanskelig med et tradisjonelt digitalkamera ; Det er bare ikke mye lys å jobbe med, så du må gjøre kompromisser. Smarttelefoner kan imidlertid gjøre det bedre med beregningsfotografering. [1. 3]
Ved å ta flere bilder med forskjellige eksponeringsnivåer og blande dem sammen, er smarttelefoner i stand til å trekke flere detaljer ut av skyggene og få et bedre sluttresultat enn et enkelt bilde vil gi - spesielt med de små sensorene i smarttelefoner. [1. 3]
Denne teknikken, kalt nattsynet av Google, nattmodus av Apple, og noe som ligner på andre produsenter, er ikke uten avvik. Det kan ta noen sekunder å fange de flere eksponeringene. For de beste resultatene må du holde smarttelefonen stabil mellom dem - men det gjør det mulig å ta bilder i mørket. [1. 3]
Bedre utsette bilder i vanskelige lys situasjoner
Blending flere bilder gjør ikke bare for bedre bilder når det er mørkt ut; det kan fungere i mye andre utfordrende situasjoner også. HDR eller High Dynamic Range Photography Har vært rundt en stund og kan gjøres manuelt med DSLR-bilder, men det er nå standard og automatisk i de nyeste iPhones og Google Pixel-telefonene. (Apple kaller det smart HDR, mens Google kaller det HDR +.) [1. 3]
HDR, men det kalles, fungerer ved å kombinere bilder som prioriterer høydepunktene med bilder som prioriterer skyggene, og deretter kvelden ut eventuelle uoverensstemmelser. HDR-bilder pleide å være overmettet og nesten tegneserieaktig, men prosessene har fått mye bedre. De kan fortsatt se litt ut, men for det meste gjør smarttelefonene en god jobb med å bruke HDR for å overvinne deres digitale sensorer 'Limited Dynamic Range. [1. 3]
Og mye mer
Det er bare noen få av de mer krevende beregningsfagene som er innebygd i moderne smarttelefoner. Det er masse flere funksjoner de har å tilby, som Sette inn forsterkede virkelighetselementer i dine sammensetninger , automatisk redigering av bilder for deg, tar Langeksponeringsbilder , kombinere flere rammer for å forbedre dybden på feltet av det endelige bildet , og til og med tilby den ydmyke panorama-modusen som også er avhengig av noen programvare som hjelper til med å jobbe. [1. 3]
Computational Photography: Du kan ikke unngå det
Normalt, med en artikkel som dette, ville vi ende sammen med å foreslå hvordan du kan ta beregningsmessige fotografier, eller ved å anbefale at du spiller rundt med ideene selv. Men som det burde være ganske klart fra eksemplene ovenfor, hvis du eier en smarttelefon, kan du ikke unngå beregningsfotografering. Hvert eneste bilde du tar med en moderne smarttelefon, gjennomgår en slags beregningsprosess automatisk. [1. 3]
Og beregningsmessig fotograferings teknikker blir bare mer vanlige. Det har vært en nedgang i kameraets maskinvareutviklinger i løpet av det siste halv-tiåret, da produsenter har rammet fysiske og praktiske grenser og trenger å måtte jobbe rundt dem . Programvareforbedringer har ikke de samme harde grensene. (IPhone, for eksempel, har hatt lignende 12 megapikselkameraer siden iPhone 6. Det er ikke at de nyere kameraene ikke er bedre, men hoppet i kvaliteten på sensoren mellom iPhone 6 og iPhone 11 er mye mindre dramatisk enn det mellom iPhone 6 og iPhone 4.) [1. 3]
I løpet av de neste årene kommer smarttelefonkameraer å fortsette å bli mer i stand som Maskinlæringsalgoritmer Få bedre og ideer flytte fra forskningslaboratorier til forbrukerteknologi. [1. 3]