AirPods met camera's voor visuele intelligentie: Apple's revolutie in persoonlijke beveiliging?

Dit is waarom het een goed idee zou kunnen zijn als Apple camera's in AirPods zou plaatsen

Samenvatting:

  • Volgens berichten werkt Apple nog steeds aan de integratie van camera's in de AirPods.
  • De visuele intelligentie van iOS 18 staat centraal in de plannen van Apple.
  • Functies zijn nog ‘generaties verwijderd’.

We wisten het 'wat' al een tijdje — Apple experimenteert met het integreren van camera's in AirPods — en nu weten we misschien ook het 'waarom'. Een nieuw rapport werpt licht op Apple's plannen voor toekomstige AirPods. Als de technologie de beloofde resultaten oplevert, kan het een echt belangrijke persoonlijke beveiligingsfunctie zijn. Apple ontwikkelt AirPods met ingebouwde camera's, waardoor ze slimmer en veelzijdiger worden.

Er is echter een belangrijke kanttekening: het zal nog ‘minstens generaties duren voordat deze functies op de markt komen’.

Het rapport komt van de goed geconnecteerde Mark Gorman van Bloomberg, die zegt dat “Apple’s ultieme plan voor visuele intelligentie veel verder gaat dan de iPhone.” En AirPods zijn een belangrijk onderdeel van dat plan. Lekken geven aan dat het bedrijf bezig is met het integreren van camera's in AirPods om de persoonlijke veiligheid te verbeteren.

Volgens Gorman is visuele intelligentie – het herkennen van de wereld om je heen en het bieden van nuttige informatie of assistentie – erg belangrijk binnen Apple. Het bedrijf is van plan om camera's in zowel de Apple Watch als de Apple Watch Ultra te plaatsen. Net als bij AirPods “helpt het het apparaat de buitenwereld te zien en kunstmatige intelligentie te gebruiken om relevante informatie te verstrekken.” Volgens berichten overweegt Apple om camera's aan zijn smartwatches toe te voegen om de visuele intelligentie te verbeteren.

Hoe werken AirPods met visuele intelligentie?

Met Visuele Intelligentie, geïntroduceerd in iOS 18 voor de iPhone 16, kunt u uw camera op iets richten en er meer over te weten komen: de soort plant, het ras van de hond (zoals afgebeeld bovenaan dit artikel), de openingstijden van het café dat u net hebt gevonden, enzovoort. Deze technologie staat ook bekend als 'visuele intelligentie' en is een van de belangrijkste functies van de update.

Visuele intelligentie op een iPhone 16

Visuele intelligentie kan ook teksten vertalen en kan in de toekomst wellicht mensen helpen die namen en gezichten niet goed kunnen onthouden. Deze technologie kan het dagelijks leven voor veel mensen gemakkelijker maken.

Maar het grote probleem met visuele intelligentie is dat je je telefoon erbij moet pakken om het te kunnen gebruiken. Er zijn omstandigheden waarin je dat niet wilt doen. Ik herinner me nog dat Apple Kaarten beschikbaar stelde op de Apple Watch: het mogelijk maken om Kaarten te gebruiken zonder dat iedereen in de buurt te zien krijgt: "Ik kom hier niet vandaan en ik ben helemaal verdwaald. Ik heb ook een dure telefoon." Dat was een belangrijke persoonlijke beveiligingsfunctie.

Dit zou het ook kunnen zijn. Als Apple het mogelijk zou maken om Visuele Intelligentie aan te roepen met een knikje en een tikje op de steel van de AirPods, zou je belangrijke informatie kunnen opvragen (bijvoorbeeld om een ​​routebeschrijving naar een ander land te vertalen) zonder dat je daarvoor je telefoon hoeft te zwaaien.

We zijn nog ver verwijderd van de daadwerkelijke beschikbaarheid van deze functies; verwacht ze niet in de AirPods Pro 3, die waarschijnlijk pas later in 2025 op de markt komen. Maar ik ben wel enthousiast over dit vooruitzicht: stel je Apple Intelligence voor, maar dan beter.

Reacties zijn gesloten.