Hvad du behøver at vide om Apples beskyttelse af børnesikkerhed

Hvad du behøver at vide om Apples beskyttelse af børnesikkerhed

Apple har for nylig annonceret nye børnesikkerhedsbeskyttelser, der kommer til efteråret med introduktionen af ​​iOS 15, iPadOS 15 og macOS Monterey.





Vi vil se nærmere på disse udvidede funktioner til børnesikkerhed og teknologien bag dem nedenfor.





Materiale scanning af seksuelt misbrug af børn

Den mest bemærkelsesværdige ændring er, at Apple vil begynde at bruge ny teknologi til at registrere billeder, der viser billeder af misbrug af børn, der er gemt i iCloud -fotos.





Disse billeder er kendt som seksuelt misbrug af børn eller CSAM, og Apple vil rapportere tilfælde af dem til National Center for Missing and Exploited Children. NCMEC er et rapporteringscenter for CSAM og arbejder med retshåndhævende myndigheder.

Apples CSAM -scanning vil være begrænset til USA ved lanceringen.



sjove ting at lave med en hindbærpi

Apple siger, at systemet bruger kryptografi og er designet med fortrolighed for øje. Billeder scannes på enheden, før de uploades til iCloud-fotos.

Ifølge Apple er der ingen grund til at bekymre sig om, at Apple -medarbejdere ser dine faktiske fotos. I stedet giver NCMEC Apple billedhashes af CSAM -billeder. En hash tager et billede og returnerer en lang, unik række bogstaver og tal.





Apple tager disse hash og omdanner dataene til et ulæseligt sæt hash, der er gemt sikkert på en enhed.

Relateret: Sådan beskytter iOS 15 dit iPhone -privatliv bedre end nogensinde før





Inden billedet synkroniseres til iCloud -fotos, kontrolleres det mod CSAM -billederne. Med en særlig kryptografisk teknologi - privat sæt -skæringspunkt - afgør systemet, om der er et match uden at afsløre et resultat.

Hvis der er et match, opretter en enhed en kryptografisk sikkerhedskupon, der koder kampen sammen med flere krypterede data om billedet. Denne værdikupon uploades til iCloud -fotos med billedet.

Medmindre en iCloud Photos -konto krydser en bestemt tærskel for CSAM -indhold, sikrer systemet, at sikkerhedskuponerne ikke kan læses af Apple. Det er takket være en kryptografisk teknologi kaldet hemmelig deling.

Ifølge Apple giver den ukendte tærskel en høj grad af nøjagtighed og sikrer mindre end en i en billion billighed til forkert at markere en konto.

Når tærsklen overskrides, giver teknologien Apple mulighed for at fortolke bilagene og matchende CSAM -billeder. Apple vil derefter manuelt gennemgå hver rapport for at bekræfte et match. Hvis det bekræftes, deaktiverer Apple en brugers konto og sender derefter en rapport til NCMEC.

Der vil være en appelproces for genindførelse, hvis en bruger føler, at deres konto fejlagtigt er blevet markeret af teknologien.

Hvis du har bekymringer om privatlivets fred med det nye system, har Apple bekræftet, at der ikke scannes fotos med kryptografiteknologien, hvis du deaktiverer iCloud -fotos. Det kan du gøre ved at gå til Indstillinger> [Dit navn]> iCloud> Fotos .

Der er et par ulemper ved slukning af iCloud -fotos. Alle fotos og videoer gemmes på din enhed. Det kan forårsage problemer, hvis du har mange billeder og videoer og en ældre iPhone med begrænset lagerplads.

Fotos og videoer, der er taget på enheden, er heller ikke tilgængelige på andre Apple -enheder ved hjælp af iCloud -kontoen.

Relaterede: Sådan får du adgang til iCloud -fotos

Apple forklarer mere om den teknologi, der bruges til CSAM -detektering i en hvidbog PDF . Du kan også læse en Ofte stillede spørgsmål om Apple med yderligere oplysninger om systemet.

I FAQ'en bemærker Apple, at CSAM -detektionssystemet ikke kan bruges til at registrere andet end CSAM. Virksomheden siger også, at besiddelse af CSAM -billederne i USA og mange andre lande er en forbrydelse, og at Apple er forpligtet til at informere myndighederne.

Virksomheden siger også, at det vil afvise regeringens krav om at tilføje et ikke-CSAM-billede til hashlisten. Det forklarer også, hvorfor ikke-CSAM-billeder ikke kunne tilføjes til systemet af en tredjepart.

På grund af menneskelig gennemgang og det faktum, at de anvendte hash er fra kendte og eksisterende CSAM -billeder, siger Apple, at systemet var designet til at være præcist og undgå, at problemer med andre billeder eller uskyldige brugere blev rapporteret til NCMEC.

hvordan man tager et screenshot på snapchat uden at personen ved det

Yderligere kommunikationssikkerhedsprotokol i meddelelser

En anden ny funktion vil blive tilføjet sikkerhedsprotokoller i appen Beskeder. Dette tilbyder værktøjer, der vil advare børn og deres forældre, når de sender eller modtager beskeder med seksuelt eksplicitte fotos.

Når en af ​​disse meddelelser er modtaget, bliver billedet sløret, og barnet vil også blive advaret. De kan se nyttige ressourcer og får at vide, at det er okay, hvis de ikke ser billedet.

Funktionen er kun til konti, der er oprettet som familier i iCloud. Forældre eller værger skal tilmelde sig for at aktivere kommunikationssikkerhedsfunktionen. De kan også vælge at få besked, når et barn på 12 år eller yngre sender eller modtager et seksuelt eksplicit billede.

For børn i alderen 13 til 17 år får forældrene ikke besked. Men barnet vil blive advaret og spurgt, om det vil se eller dele et seksuelt eksplicit billede.

Relateret: Hvordan iOS 15 bruger intelligens til at gøre din iPhone smartere end nogensinde

Messages bruger maskinlæring på enheden til at afgøre, om en vedhæftet fil eller et billede er seksuelt eksplicit. Apple modtager ikke adgang til beskederne eller billedindholdet.

Funktionen fungerer både til almindelige SMS- og iMessage -beskeder og er ikke knyttet til den CSAM -scanningsfunktion, vi har beskrevet ovenfor.

Endelig vil Apple udvide vejledningen til både Siri og søgefunktioner for at hjælpe børn og forældre med at være sikre online og modtage hjælp i usikre situationer. Apple pegede på et eksempel, hvor brugere, der spørger Siri, hvordan de kan rapportere CSAM eller udnyttelse af børn, får ressourcer til, hvordan de indsender en rapport til myndigheder.

Opdateringer kommer til Siri og Søg efter, når nogen udfører søgeforespørgsler relateret til CSAM. En intervention vil forklare brugerne, at interessen for emnet er skadelig og problematisk. De vil også vise ressourcer og partnere til at hjælpe med at få hjælp til problemet.

Flere ændringer kommer med Apples nyeste software

De tre nye funktioner fra Apple er udviklet i samarbejde med sikkerhedseksperter og er designet til at hjælpe børn med at være sikre online. Selvom funktionerne kan give anledning til bekymring i nogle kredser med fokus på privatlivets fred, har Apple været på vej med hensyn til teknologien, og hvordan den vil afbalancere hensynet til privatliv med børnebeskyttelse.

Del Del Tweet E -mail 15 skjulte funktioner i iOS 15 og iPadOS 15, som Apple ikke nævnte på WWDC

Du har allerede hørt om de store ændringer til iOS 15, men her er alle de skjulte ændringer, Apple undlod fra WWDC.

Læs Næste
Relaterede emner
  • IPhone
  • Mac
  • Æble
  • Beskyttelse af personlige oplysninger for smartphones
  • Forældre og teknologi
Om forfatteren Brent Dirks(193 artikler udgivet)

Brent er født og opvokset i det solrige vestlige Texas og tog eksamen fra Texas Tech University med en BA i journalistik. Han har skrevet om teknologi i mere end 5 år og nyder alt Apple, tilbehør og sikkerhed.

Mere fra Brent Dirks

Abonner på vores nyhedsbrev

Tilmeld dig vores nyhedsbrev for at få tekniske tips, anmeldelser, gratis e -bøger og eksklusive tilbud!

Klik her for at abonnere