IPhone 12.
APPLE
  (Foto de ARCHIVO)
22/10/2020
Su iPhone ahora revisará si tiene material relacionado con abuso infantil IPhone 12. APPLE (Foto de ARCHIVO) 22/10/2020 | Foto: APPLE

tecnología

Su iPhone revisará si tiene material relacionado con abuso infantil

Muchos respaldan esta herramienta como una forma de obtener información valiosa en contra de los pedófilos; sin embargo, otros señalan que cruza el límite que protege la privacidad.

5 de agosto de 2021

Polémica ha generado la decisión de Apple de incluir nuevas herramientas en sus más recientes sistemas operativos (iOS 15, iPadOS 15, watchOS 8 y macOS Monterey) con las que busca contribuir en la lucha en contra del abuso infantil.

Inicialmente, estas herramientas comenzarán a funcionar en Estados Unidos, advirtió la compañía.

“En Apple, nuestro objetivo es crear tecnología que empodere a las personas y enriquezca sus vidas, al tiempo que las ayuda a mantenerse seguras. Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del material de abuso sexual infantil (MASI)”, señaló la empresa por medio de un comunicado oficial.

De acuerdo con esta compañía, este proyecto se enfocará en tres frentes: prevención, seguridad e investigación, en relación con los casos de abuso sexual contra menores de edad.

Sobre la prevención, Apple anunció la opción de que Siri y Search puedan cuidar a los menores de edad, mediante información a los padres en caso de que sus hijos se encuentren en peligro.

“Estas intervenciones explicarán a los usuarios que el interés en este tema (MASI) es dañino y problemático, y proporcionarán recursos de los socios para obtener ayuda con este tema”, añadió Apple en el documento.

Frente al tema de seguridad, la compañía reveló que la aplicación de iMessage “utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible, al tiempo que mantiene las comunicaciones privadas ilegibles para Apple”.

“Al recibir este tipo de contenido, la foto se verá borrosa y se advertirá al niño, se le presentarán recursos útiles y se le asegurará que está bien si no quiere ver esta foto. Como precaución adicional, se le puede decir al niño que, para verificar de que está seguro, sus padres recibirán un mensaje si la ve”, explicó.

Agregó que “existen protecciones similares disponibles si un niño intenta enviar fotos sexualmente explícitas. El niño será advertido antes de que se envíe la foto y los padres pueden recibir un mensaje si el niño decide enviarlo”.

Finalmente, en materia de investigación se trata de una herramienta que promete trabajar de la mano con las autoridades, en busca de información alojada en los iPhone (fotos, audios, videos) que pueda ser considerada material de abuso sexual infantil.

“Para ayudar a abordar esto, la nueva tecnología en iOS y iPadOS permitirá a Apple detectar imágenes MASI conocidas almacenadas en iCloud Photos. Esto le permitirá a Apple reportar estos casos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés). El NCMEC actúa como un centro de información integral para MASI y trabaja en colaboración con las agencias de aplicación de la ley en los Estados Unidos”, explicó la compañía.

Esta herramienta es la que más polémica ha generado, ya que para algunas personas representa ir un paso más allá del límite que protege la privacidad de los usuarios.

El profesor y criptógrafo de la Universidad John Hopkins Matthew Green indicó en su cuenta de Twitter que “este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas, ¿pero imagina lo que podría hacer en manos de un gobierno autoritario?”.

“Incluso, si crees que Apple no permitirá que estas herramientas se utilicen incorrectamente, todavía hay mucho de qué preocuparse”, agregó.

Sin embargo, la compañía norteamericana respondió que, a pesar de los miedos de las personas, su método está construido con base en el respeto a la privacidad del usuario, pues “antes de que una imagen se almacene en Fotos de iCloud se realiza un proceso de comparación en el dispositivo para esa imagen con los hashes MASI conocidos”.

Eso significa que la empresa no estaría revisando información almacenada en la nube de los usuarios, sino que instantes antes compara los datos con información de MASI, para saber de primera mano si se debe o no prestar atención a alguna foto o video antes de finalizar el guardado.