• Un nuevo informe alega que Apple planea subvertir la privacidad del iPhone en nombre de detener el abuso infantil.
  • Según se informa, la compañía planea escanear las fotos de los usuarios en busca de evidencia de abuso infantil. Si se encuentra, el algoritmo enviaría esa foto a un revisor humano.
  • La idea de que los empleados de Apple controlen accidentalmente fotos legales de los hijos de un usuario es ciertamente preocupante.

Actualización, 5 de agosto de 2021 (04:10 p.m. ET): No mucho después de que publicamos el artículo a continuación, Apple confirmó la existencia de su software que busca el abuso infantil. En una publicación de blog titulada «Protecciones ampliadas para niños, ”La compañía presentó planes para ayudar a frenar el material de abuso sexual infantil (MASI).

Como parte de estos planes, Apple implementará una nueva tecnología en iOS y iPadOS que «permitirá a Apple detectar imágenes CSAM conocidas almacenadas en iCloud Photos». Esencialmente, el escaneo en el dispositivo ocurrirá para todos los medios almacenados en Fotos de iCloud. Si el software encuentra que una imagen es sospechosa, la enviará a Apple, que la descifrará y la verá. Si encuentra que el contenido es, de hecho, ilegal, lo notificará a las autoridades.

Apple afirma que existe una «posibilidad entre un billón de probabilidades por año de marcar incorrectamente una cuenta determinada».

Artículo original, 5 de agosto de 2021 (03:55 p.m. ET): En los últimos años, Apple se ha esforzado mucho para consolidar su reputación como empresa centrada en la privacidad. Con frecuencia cita su enfoque de «jardín amurallado» como una bendición para la privacidad y la seguridad.

Sin embargo, un nuevo informe de Tiempos financieros pone en duda esa reputación. Según el informe, Apple planea lanzar un nuevo sistema que revisará fotos y videos creados por usuarios en productos Apple, incluido el iPhone. La razón por la que Apple sacrificaría la privacidad del iPhone de esta manera es para buscar a los abusadores de niños.

El sistema se conoce supuestamente como «neuralMatch». Básicamente, el sistema usaría software para escanear imágenes creadas por el usuario en productos Apple. Si el software encuentra algún medio que pueda presentar abuso infantil, incluida la pornografía infantil, se notificará a un empleado humano. Luego, el humano evaluaría la foto para decidir qué acción se debe tomar.

Apple se negó a comentar sobre las acusaciones.

¿La privacidad del iPhone está llegando a su fin?

Obviamente, la explotación de los niños es un gran problema y cualquier ser humano con un corazón sabe que debe tratarse con rapidez y vigor. Sin embargo, la idea de que alguien en Apple vea fotos inocuas de sus hijos que neuralMatch marcó accidentalmente como ilegales parece un problema demasiado real a la espera de suceder.

También existe la idea de que el software diseñado para detectar el abuso infantil ahora podría entrenarse para detectar algo más más adelante. ¿Y si en lugar de abuso infantil fuera el uso de drogas, por ejemplo? ¿Hasta dónde está Apple dispuesta a llegar para ayudar a los gobiernos y las fuerzas del orden a atrapar a los delincuentes?

Es posible que Apple pueda hacer público este sistema en cuestión de días. Tendremos que esperar y ver cómo reacciona el público, si sucede y cuándo.

Leave A Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.