Innehållsförteckning:
- Så här fungerar Googles algoritm
- Automatisk korrigering med hänsyn till sammanhanget
- Kanske kommer vi att se den här tekniken i Pixel
Forskare från Google och MIT utvecklade en algoritm som syftar till att korrigera brister i vidvinkelbilder.
Du kanske har sett att ansikten på vissa människor ser utsträckta, något klämda eller med viss förvrängning i bilder. Även om det kan bero på fotografens få färdigheter, är sanningen att bilder med vidvinkelobjektivet från mobila enheter vanligtvis orsakar förvrängning hos föremål eller människor som ligger vid bildkanten.
Det finns olika metoder som försöker lösa detta problem, men hittills har ingen varit lika effektiva som Googles nya förslag. Även om det kan verka enkelt att fixa det är det inte, eftersom det kräver komplex lokal redigering som inte påverkar resten av objekten på fotot.
Så här fungerar Googles algoritm
Som forskarna förklarar upptäcker denna algoritm ansikten och skapar ett nät som gör det möjligt att automatiskt vända denna typ av förvrängning när man tar ett skott med vidvinkel som illustrerat i bilden:
Vi kan se skillnaden när vi använder denna algoritm i följande bilder. Det är en selfie som togs med en vidvinkelobjektiv med ett 97 ° synfält.
Den första bilden visar förvrängningarna i ansikten och den andra visar hur algoritmen återställde ansiktsformerna till sitt ursprungliga tillstånd.
Det vill säga, denna process aktiveras automatiskt när du använder vidvinkelobjektivet, vilket ger denna speciella hjälp till ansikten, men utan att orsaka förändringar i resten av bilden. Och naturligtvis gör hastigheten för den här automatiska korrigeringen (cirka 920 millisekunder) det omöjligt för användare att upptäcka.
Enligt deras tester fungerar denna algoritm framgångsrikt inom intervallet 70 ° till 120 ° i synfält, vilket täcker nästan alla möjligheter från en mobil enhet.
För att dra nytta av potentialen i denna algoritm behöver användaren inte vidta några åtgärder eller aktivera något speciellt kameraläge. Denna funktion implementeras endast automatiskt när den upptäcker att vidvinkelobjektivet används.
Automatisk korrigering med hänsyn till sammanhanget
Vi kan se dynamiken i denna algoritm i följande video:
Algoritmen automatiskt korrigerar med hänsyn till resten av de objekt som visas på scenen och se till att hela ramen för fotografi matcher. Resultaten är naturliga utan detaljer som visar att fotografiet alls har modifierats.
Teamet bakom detta projekt har delat ett fotogalleri på Flickr som visar hur olika metoder hanterar detta problem jämfört med dynamiken i deras algoritm. Det finns mer än 160 fotografier (som den du ser i början av artikeln) som hjälper oss att utvärdera resultaten.
Kanske kommer vi att se den här tekniken i Pixel
Vi kan hoppas att denna algoritm eller någon härledd teknik kommer att tillämpas i nästa generation av Pixel, eftersom teamet som deltar i detta projekt är Google-anställda.
Men i dokumentet de har delat har de inte nämnt något om det. Dessa första tester av algoritmen i aktion har varit framgångsrika och visar återigen hur potentialen för artificiell intelligens kan förbättra dynamiken i mobila enheter och göra livet enklare för användarna.
Eftersom det utan tvekan skulle ha en liknande dynamik i vår mobila enhet skulle det spara mycket huvudvärk och tid att försöka redigera dessa snedvridningar på fotografierna.
