<link rel="stylesheet" id="wp-block-library-css" href="https://c0.wp.com/c/6.1.1/wp-includes/css/dist/block-library/style.min.css" type="text/css" media="all">
Mundo Noticias Tecnologia

Analizará Apple fotos en iPhones e iCloud en busca de abuso infantil

Comparte:

Uno de los temas más delicados en los medios digitales es la seguridad y la privacidad, conforme pasa el tiempo nuestra información está a la mano de empresas inmensas, y, precisamente hace unos días, se reveló que Apple va a revisar todas tus fotografías en búsqueda de cuentas que muestren abuso a menores.

Con base a un reporte de The Financial Times, Apple acaba de poner en marcha un sistema llamado neuralMatch en los EE.UU., el cual analizará todas y cada una de las fotografía que los usuarios tengan en su aplicación de Fotos o iCloud. El objetivo es encontrar imágenes de abuso infantil para poder reportar esas cuentas a las autoridades.

«Según fuentes, cada foto que se suba a iCloud en Estados Unidos recibirá un ‘vale de seguridad’, que indica si es sospechosa o no», aseguró The Financial Times.

«Una vez que un cierto número de fotos se marcan como sospechosas, Apple permitirá que todas las fotos sospechosas se descifren y, si aparentemente son ilegales, se transmitirán a las autoridades pertinentes».

De acuerdo a The Verge, cualquier compañía que tenga infraestructura en la nube ya analiza todos los contenidos en busca de imágenes de abuso infantil. No obstante, Apple estaría cruzando más la línea, al permitir a su sistema analizar archivos locales en los smartphones de sus usuarios.

La compañía dice que neuralMatch solo se utilizará para buscar imágenes de abuso infantil, en cualquier momento podría cambiar de parecer y darle más permisos o indicaciones. Y llegado a ese punto, ¿en dónde queda la privacidad del usuario?

Sin duda, el tema privacidad versus seguridad en lo digital se convertirá en algo más y más incómodo paralelo al avance de la tecnología.

Fuente/Información: Eugenio Moto/ Qore