Apple anunció el jueves nuevas funciones que escanearán las fotos de los usuarios de iPhone y iPad para detectar e informar grandes colecciones de imágenes de abuso sexual infantil almacenadas en sus servidores en la nube.
«Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de material de abuso sexual infantil (CSAM)», dijo Apple en un comunicado.
«Este programa es ambicioso y proteger a los niños es una responsabilidad importante», dijo. «Nuestros esfuerzos evolucionarán y expandirán con el tiempo».
Apple dijo que el trabajo de detección ocurre en el dispositivo e insistió en que solo las personas que tengan grandes colecciones de imágenes cargadas en iCloud que coincidan con una base de datos de material conocido de abuso sexual infantil cruzarían un umbral que permite que Apple descifre y analice algunas de sus fotos. .
Al señalar que poseer CSAM «es un acto ilegal», el director de privacidad de Apple, Erik Neuenschwander, dijo en una llamada a los medios el jueves que «el sistema fue diseñado y entrenado» para detectar imágenes de la base de datos CSAM del Centro Nacional para Niños Desaparecidos y Explotados.
Neuenschwander dijo que las personas cuyas imágenes están marcadas por la policía no serán notificadas y que sus cuentas se desactivarán.
«El hecho de que su cuenta esté deshabilitada es un acto notable para usted», dijo Neuenschwander.
Apple dijo que su conjunto de sistemas operativos de dispositivos móviles se actualizará con la nueva función de seguridad infantil «a finales de este año».
John Clark, presidente y director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados, dijo: «La protección ampliada de Apple para los niños cambia las reglas del juego. Con tanta gente que usa los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo atraídos en línea y cuyas horribles imágenes están circulando en material de abuso sexual infantil «.
Algunos expertos en privacidad expresaron su preocupación.
«Hay algunos problemas con estos sistemas», dijo Matthew D. Green, profesor asociado de criptografía en la Universidad John Hopkins. “La primera es que tienes que confiar en que Apple solo está escaneando contenido legítimamente malo. Si el FBI o el gobierno chino se apoyan en Apple y les piden que agreguen imágenes específicas a su base de datos, no habrá forma de que usted (el usuario) lo detecte. Te reportarán por tener esas fotos. De hecho, el diseño del sistema hace que sea casi imposible saber qué hay en esa base de datos si no confías en Apple «.
Como parte de la actualización, la aplicación Mensajes de Apple también utilizará «aprendizaje automático en el dispositivo para analizar archivos adjuntos de imágenes y determinar si una foto es sexualmente explícita» para menores cuyos dispositivos utilizan funciones de control parental.
La aplicación Mensajes intervendrá si la computadora cree que el menor puede estar enviando o recibiendo una imagen o un video que muestra «las partes privadas del cuerpo que cubre con trajes de baño», según las diapositivas proporcionadas por Apple.
«Cuando un niño recibe este tipo de contenido, la foto se ve borrosa y se le advierte, se le presentan recursos útiles y se le asegura que está bien si no quiere ver esta foto», dijo Apple en un comunicado de prensa.
Las capturas de pantalla informativas muestran un iPhone que impide que los niños envíen imágenes sensibles con una advertencia de que «se pueden usar fotos y videos sensibles para lastimarte» y advirtiendo que «la persona en esto podría no querer que se vea».
«Como precaución adicional, también se le puede decir al niño que, para asegurarse de que está a salvo, sus padres recibirán un mensaje si lo ven. Existen protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. advertido antes de que se envíe la foto y los padres pueden recibir un mensaje si el niño decide enviarlo «.
Noticia por: NBC.com