Escanear lemas

¿Se trata de un caso especial de justicia o de la apertura de la caja de Pandora? Aunque lleva medio mes anunciado, es como una piedra que levanta mil olas, y la polémica y especulación que provoca no se puede calmar. Es probable que las verdaderas consecuencias se sientan con el tiempo.

Lo que pasa en el iPhone se queda en el iPhone. ¿Recuerdas este anuncio gigante que cubría todo el edificio? En la feria CES de 2019 en Las Vegas, Apple, que no participó en la feria, hizo la mejor publicidad. En los últimos años, Apple ha mantenido en alto la bandera de proteger la privacidad del usuario en la industria tecnológica, convirtiéndola en uno de los puntos de venta de sus productos más importantes, y ha utilizado el lema "el iPhone es para proteger la privacidad del usuario".

No sólo eso, Apple también se dirigirá a las empresas de Internet que se benefician del big data de los usuarios. Cook ha criticado repetidamente a empresas de Internet como Facebook por vender la privacidad de los usuarios con fines de lucro, enfatizando que Apple nunca tocará los datos de los usuarios. Incluso actualizó el sistema iOS este año para permitir a los usuarios decidir si permiten el seguimiento de datos, lo que ha creado un gran desafío. Para empresas de Internet como Facebook, el modelo de publicidad dirigida ha tenido un gran impacto.

Para garantizar la seguridad de los datos de los usuarios, Apple también ha resistido la presión del gobierno de EE. UU. en los últimos años y rechazó resueltamente la solicitud del gobierno de EE. UU. de establecer una puerta trasera de lectura de datos en el iPhone en el nombre de la lucha contra el terrorismo. Además, en 2016 y 2020, Apple rechazó públicamente la solicitud del gobierno de Estados Unidos de desbloquear iPhones terroristas al menos dos veces, e incluso demandó al gobierno ante los tribunales.

El trasfondo de estos dos incidentes fue el tiroteo en San Bernardino, California, y el tiroteo en la Base Naval de Florida. Detrás de los pistoleros están fuerzas religiosas extremistas islámicas. El FBI espera investigar los motivos y contactos de los terroristas a partir de los registros de comunicaciones de teléfonos móviles. Debido a la firme resistencia de Apple, el gobierno de Estados Unidos finalmente buscó la ayuda de un tercero para piratear la empresa y obtener datos de los teléfonos de los terroristas.

Sin embargo, Apple, que protege incondicionalmente la privacidad de los usuarios, se disparará a sí misma al anunciar públicamente que escaneará los archivos de los usuarios y las fotos locales de los iPhone. Incluso si el punto de partida es salvaguardar la justicia, este asunto no es del estilo de Apple y ha provocado muchas discusiones acaloradas sobre la privacidad de los usuarios. ¿Qué diablos está pasando?

A principios de este mes, Apple anunció públicamente que lanzaría una nueva función en actualizaciones posteriores de los sistemas iOS y iPadOS para escanear localmente los dispositivos de los usuarios en busca de fotografías relacionadas con el abuso sexual infantil y comparar imágenes con la explotación sexual infantil oficial de EE. UU. base de datos. Si se descubre una gran cantidad de imágenes ilegales, Apple notificará a los funcionarios encargados de hacer cumplir la ley.

Esta función forma parte del programa general de Apple para combatir el abuso sexual infantil. Además, el servicio de mensajería de texto iMessage también agregará funciones de control parental. Si menores de 12 años envían o ven fotos de desnudos a través de iMessage, sus padres recibirán una alerta del sistema.

Incluso si la prevención de la explotación infantil y la trata de personas es por el bien de la justicia, la función de escanear las imágenes locales de los usuarios sigue siendo demasiado sensible, lo que genera mucha controversia y preocupación. Diez días después de conocerse la noticia, ante muchas especulaciones y críticas, el vicepresidente senior de iOS de Apple, Craig Federighi, finalmente tuvo que salir a aclarar de nuevo.

Federich explicó esta característica en detalle: Cuando los usuarios de iPad y iPhone suben imágenes locales a iCloud, Apple escaneará estas imágenes en el dispositivo local y los contactará con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). para comparación. Si se encuentra una gran cantidad de coincidencias de imágenes, significa que el usuario tiene imágenes de niños desaparecidos y abusados ​​sexualmente. Apple los enviará al departamento de auditoría, los reconfirmará y notificará a las autoridades, pero los propios usuarios no serán alertados. Sin embargo, Apple también bloqueará las cuentas de iCloud de los usuarios, lo que equivale a notificar a los usuarios disfrazados.

Sin embargo, vale la pena señalar que el sistema solo activará una alarma cuando se encuentre una gran cantidad de imágenes ilegales mediante la comparación, y no generará problemas con una sola imagen. Obviamente, esto es para evitar errores de reconocimiento. Además, Apple contratará revisores externos para confirmar si el contenido identificado por el sistema es ilegal y notificarán a la policía. Sin embargo, Apple no reveló el umbral para determinar la cantidad de contenido ilegal. El mundo exterior no sabe cuántas imágenes ilegales se activarán automáticamente.

Apple declaró anteriormente que esta función de escaneo solo se lanzará primero en los Estados Unidos y en el futuro se lanzará en otros países dependiendo de la situación. Federich explicó además que esta base de datos CSAM está incluida en las actualizaciones del sistema de iOS y iPadOS y solo se activa en el mercado estadounidense. "Todos nuestros dispositivos en China, Europa y Estados Unidos utilizan el mismo software, incluida la misma base de datos". /p>

¿Por qué Apple, que presta más atención a la privacidad del usuario, anuncia públicamente que escaneará las fotos locales de los usuarios? ¿Las fotos que los usuarios poseen en sus iPhones y iPads son completamente privadas? ¿Son las empresas de Internet responsables de dicho contenido ilegal?

La Sección 230 de la Ley Federal de Regulación de Comunicaciones de EE. UU. de 1996 estipula que “Ningún proveedor o usuario de un servicio informático interactivo será considerado el editor de cualquier información proporcionada por otro proveedor de contenido de información y portavoz. Esta cláusula también se considera un paraguas para que las empresas de Internet se protejan de responsabilidad.

Esta cláusula en realidad contiene dos significados: las empresas de Internet no son responsables de la información de terceros en la plataforma, y ​​el contenido publicado por los usuarios en la plataforma no tiene nada que ver con la eliminación del contenido de la plataforma por parte de las empresas de Internet; de buena fe no asume ninguna responsabilidad y se reserva el derecho de eliminar el contenido publicado por los usuarios según los estándares de revisión.

Pero este paraguas no está exento de límites. 2065438+ En 2008, el Congreso de los Estados Unidos aprobó la Ley contra el tráfico sexual, que estipula claramente que las empresas de Internet tienen la responsabilidad de denunciar y eliminar dicho contenido ilegal en las plataformas en línea; de lo contrario, enfrentarán sanciones según las leyes pertinentes. Claramente incluye la pornografía infantil; . Esta es la primera laguna en la cláusula de exención 230.

De acuerdo con esta ley, si un usuario activa la carga de imágenes en iCloud y las imágenes con dispositivos locales están conectados a Internet, entonces Apple, como plataforma de Internet, tiene la responsabilidad y el poder de informar y tratar dicho contenido ilegal. Para la mayoría de los usuarios de iPhone, la función de carga de iCloud está activada de forma predeterminada.

De hecho, las principales empresas de Internet de Estados Unidos llevan mucho tiempo escaneando bibliotecas de fotografías de usuarios para identificar contenido relacionado con la pornografía infantil. Facebook, Twitter y Reddit compararán y escanearán el contenido de los usuarios en sus plataformas, independientemente de si se publica o no. Al igual que Apple, también realizan comparaciones a través de la base de datos del NCMEC y llaman a la policía tras descubrir infracciones.

Más importante aún, la pornografía infantil no entra dentro de la protección del derecho a la libertad de expresión bajo la Primera Enmienda de la Constitución de los Estados Unidos. Es ilegal que los usuarios posean imágenes de pornografía infantil, independientemente de si se distribuyen o no. La Ley contra la explotación sexual infantil y la Ley contra la trata de niños de los Estados Unidos estipulan claramente que la producción, difusión, aceptación y posesión de dicho contenido es un delito federal y se enfrentará a penas severas de al menos 5 años y hasta 30 años en prisión.

En Europa las medidas regulatorias de Internet en este ámbito son aún más tempranas. Ya en 2013, el Reino Unido estableció normas regulatorias que exigían que el contenido pornográfico fuera bloqueado de los proveedores de servicios de Internet (ISP), y los usuarios debían desactivar manualmente el contenido filtrado antes de acceder a sitios web pornográficos. Durante el mismo período, el gobierno británico también pidió a proveedores de búsqueda como Google y Microsoft que eliminaran los resultados de búsqueda de pornografía infantil. Sin embargo, las imágenes de pornografía infantil rara vez aparecen en los resultados de búsqueda.

Aunque las empresas de Internet estadounidenses llevan mucho tiempo tomando medidas enérgicas contra la pornografía infantil, el anuncio de Apple de escanear imágenes de usuarios todavía plantea muchas preguntas. Apple confirmó a los medios estadounidenses que había escaneado previamente el contenido de los correos electrónicos de iCloud, pero nunca había escaneado los datos de imágenes de Fotos de iCloud de los usuarios. El experto en ciberseguridad Matt Tait señaló que las imágenes de pornografía infantil eran originalmente una línea de alto voltaje que las agencias policiales estadounidenses debían reprimir. Las agencias policiales podrían obtener fácilmente una citación y pedirle a Apple que escanee la biblioteca de fotos de iCloud de un usuario, y Apple estaría dispuesta a cooperar con la solicitud.

¿Cuál es la diferencia entre lo que hace Apple y otras empresas de Internet? Otras empresas de Internet escanean el contenido subido por los usuarios a servidores en la nube, pero esta vez Apple lo escanea localmente (siempre que la sincronización con iCloud esté activada). ¿Por qué Apple eligió el escaneo local?

El vicepresidente senior de Apple, Federich, enfatizó que este mecanismo de escaneo se realizará localmente en el dispositivo en lugar de una comparación en línea, y actualmente es solo para el mercado estadounidense. "Si alguien escanea una imagen en la nube, quién sabe qué escaneará (lo que significa que podría salirse de control). En nuestra función, la base de datos del NCMEC se transfiere localmente".

En iOS y en En el nuevo sistema iPad, habrá una herramienta llamada NeuralHash, que dividirá la imagen en muchos fragmentos para etiquetarla e identificarla, y comparará millones de datos del NCMEC. Después de encontrar contenido ilegal coincidente, se generará un "archivo de almacenamiento" que contiene contenido ilegal en iOS o iPadOS. Hasta que dicho contenido ilegal se acumule hasta un cierto umbral, se enviará a los auditores de Apple.

El director de privacidad de Apple, Newenshwander, enfatizó específicamente que si el usuario desactiva la función de sincronización de imágenes de iCloud, la herramienta NeuralHash no se ejecutará y Apple no escaneará ni podrá escanear imágenes de pornografía infantil.

Aunque Apple ha anunciado esta función de escaneo de la manera más abierta y transparente posible, todavía ha causado insatisfacción y preocupación entre algunas agencias de protección de la privacidad en Internet. Después de todo, esta es la primera vez que Apple escanea y monitorea los archivos locales de los usuarios. Si esta vez se trata de la lucha contra la pornografía infantil, ¿la próxima vez será la lucha contra el terrorismo?

El vicepresidente senior de Apple, Federich, enfatizó una vez más que Apple no ampliará el alcance actual del escaneo de datos, excepto para la pornografía infantil CSAM ilegal. Enfatizó: "Si un gobierno nos pide que escaneemos datos distintos del contenido CSAM, nos negaremos directamente. Si no confía en esto y no cree que Apple se atreva a negarse, entonces también hemos establecido una protección de múltiples capas. Esperamos tranquilizar a los usuarios: no es necesario confiar en ninguna empresa ni en ningún país cuando se trata de qué archivos escanear”.

De hecho, Apple ha rechazado públicamente la solicitud antiterrorista del gobierno de Estados Unidos. puertas traseras y teléfonos desbloqueados, y no tiene miedo de luchar contra las demandas del gobierno de Estados Unidos y resistirse a las órdenes ejecutivas. Sin embargo, si se enfrenta a citaciones legales y órdenes del departamento judicial, Apple sólo puede aceptar y obedecer, a lo que no puede resistirse.

Hace apenas dos meses, Apple admitió que en febrero de 2018 proporcionó una serie de códigos de identificación de usuario para confirmar las direcciones de correo electrónico y números de teléfono de algunos usuarios a petición del Departamento de Justicia de la administración Trump. La administración Trump, que en ese momento estaba en medio de la investigación sobre Rusia, estaba investigando en secreto quién filtró secretos gubernamentales al congresista demócrata.

Apple está dispuesta a cooperar con la investigación de la administración Trump porque ha recibido una citación de un gran jurado federal, y la citación viene con requisitos de confidencialidad. Esto significa que Apple no sólo debe obedecer la orden de entregar los datos al gobierno, sino también mantenerlos en secreto hasta que finalice el período de confidencialidad en mayo de este año. Además de Apple, Microsoft también ha recibido citaciones de este tipo con requisitos de confidencialidad.

La Electronic Frontier Foundation dijo que el gobierno de Estados Unidos nunca ha rehuido pedir a los usuarios que accedan a comunicaciones cifradas y ha presionado a las empresas de tecnología para que les ayuden a obtener datos mediante órdenes de registro y órdenes judiciales. Aunque Apple siempre ha prometido resistir las órdenes gubernamentales de reducir la protección de la privacidad del usuario, después del lanzamiento de este mecanismo de escaneo, Apple tuvo que continuar resistiendo la presión del gobierno para ampliar el alcance del escaneo.

Este no es sólo el caso de Estados Unidos. En 2018, la "Alianza de los Cinco Ojos" (Estados Unidos, Reino Unido, Canadá, Nueva Zelanda y Australia) dejó claro que si las empresas de tecnología se niegan a proporcionar datos cifrados, los obtendrán legalmente a través de la tecnología, según las autoridades. , legislación y otros medios. Posteriormente, el Reino Unido aprobó la Ley de Poderes de Investigación (IPA), que exige a los operadores de telecomunicaciones brindar asistencia cuando el gobierno emite órdenes de recopilación de datos a través de medios técnicos.

Aunque esta vez Apple ha establecido un mecanismo de escaneo en los sistemas iOS y iPadOS con el justo propósito de combatir la pornografía infantil y la explotación sexual, también se ha colocado una peligrosa "mina terrestre". En 2016, cuando Apple se negó a permitir que el Departamento de Justicia de Estados Unidos desbloqueara iPhones terroristas en San Bernardino, declaró públicamente que no había instalado ninguna puerta trasera en iOS. ¿Pero qué pasa esta vez? "Si configuras (una puerta trasera), te seguirán. La medida de Apple abre una puerta trasera para que países de todo el mundo fortalezcan el seguimiento y la auditoría", concluyó la Electronic Frontier Foundation.

“Lo que sucede en el iPhone se queda en el iPhone”, la icónica promesa de Apple ahora debe ir acompañada de un descargo de responsabilidad: si no se trata de pornografía infantil, ¿habrá más excepciones en el futuro?