diepe fusie

Apple zal vandaag de eerste bèta uitbrengen van een aankomende iOS 13-update, vermoedelijk iOS 13.2, die een functie introduceert die Apple beloofde op zijn iPhone 11 en ‌iPhone 11‌ Pro-evenement: Deep Fusion.

Volgens De randis de update van vandaag gericht op het toevoegen van Deep Fusion aan de nieuwste iPhones van Apple.


Deep Fusion is een nieuw beeldverwerkingssysteem dat gebruik maakt van de A13 Bionic en de Neural Engine. Deep Fusion maakt gebruik van machine learning-technieken om foto’s pixel-voor-pixel te verwerken, waarbij de textuur, details en ruis in elk deel van de afbeelding worden geoptimaliseerd.

De functie is gericht op het verbeteren van foto’s binnenshuis en foto’s gemaakt bij gemiddelde verlichting, en het is een functie die automatisch wordt geactiveerd op basis van de gebruikte lens en het lichtniveau in de kamer. De groothoeklens gebruikt standaard Smart HDR voor heldere scènes, waarbij Deep Fusion wordt geactiveerd bij gemiddeld of weinig licht en de nachtmodus wordt geactiveerd voor donkere scènes.

De telelens zal voornamelijk Deep Fusion gebruiken, maar Smart HDR wordt in plaats daarvan geactiveerd wanneer de verlichting erg helder is. De donkere modus wordt geactiveerd wanneer de verlichting donker is. De ultragroothoeklens gebruikt alleen Smart HDR en ondersteunt geen Deep Fusion (of nachtmodus).

De rand heeft een overzicht van hoe Deep Fusion werkt, met informatie afkomstig van Apple. Deep Fusion draait volledig op de achtergrond en in tegenstelling tot de nachtmodus is er geen optie om deze in of uit te schakelen.

Deep Fusion is een complex proces, waarbij de hardware in de iPhone verschillende acties uitvoert wanneer een foto wordt gemaakt. Voordat de ontspanknop wordt ingedrukt, legt de camera drie beelden vast met een korte sluitertijd om beweging te bevriezen. Wanneer de sluiter wordt ingedrukt, worden nog eens drie foto’s gemaakt en vervolgens wordt nog een foto gemaakt om details te behouden.

De drie gewone foto’s en de opname met lange belichtingstijd zijn samengevoegd tot wat Apple een “synthetische lange” noemt, wat anders is dan Smart HDR. Deep Fusion kiest de afbeelding met korte belichtingstijd met de meeste details en voegt deze vervolgens samen met de synthetische lange belichting (het zijn slechts twee frames die worden samengevoegd).

De afbeeldingen worden vervolgens pixel voor pixel in vier stappen verwerkt, gericht op het vergroten van de details en het geven van instructies aan de A13-chip over hoe de twee afbeeldingen (detail, toon, kleur, luminantie en meer) met elkaar moeten worden gemengd.

Het maken van een Deep Fusion-opname duurt net iets langer dan het nemen van een normale Smart HDR-afbeelding, ongeveer een seconde, dus Apple zal in eerste instantie een proxy-afbeelding tonen als u direct na het maken van een Deep Fusion-opname naar Foto’s tikt, hoewel het snel zal zijn vervangen door de volledige afbeelding van Deep Fusion.

Bijwerken: Volgens TechCrunchMatthew Panzarino, de ontwikkelaarsbèta met de Deep Fusion-update, is vertraagd en zal vandaag niet beschikbaar zijn. Er is geen officieel woord over wanneer het wordt gelanceerd, maar John Gruber van Gedurfde vuurbal zegt dat het morgen komt.

SharePlay, ProRes video, Auto Macro toggle, Lossless en Dolby Atmos Spatial Audio voor 孒omePod? en meer.

Met SharePlay kunt u uw scherm met anderen delen. Zo deel je je scherm via FaceTime.

Nieuw high-end model zal van Intel naar Apple silicium gaan.

Er wordt gezegd dat Apple Augmented Reality-brillen in de komende jaren zullen verschijnen. Dit is wat we tot nu toe weten.

By Admin

Leave a Reply

Your email address will not be published. Required fields are marked *