Red de conocimientos turísticos - Problemas de alquiler - Apple escanea fotografías de usuarios: ¿un caso especial de justicia o la apertura de una caja mágica?

Apple escanea fotografías de usuarios: ¿un caso especial de justicia o la apertura de una caja mágica?

¿Se trata de un caso especial de la justicia o de la apertura de la caja de Pandora? Aunque el asunto lleva medio mes anunciado, es como una piedra que levanta miles de olas, y la polémica y especulación provocada no ha amainado. El verdadero impacto posterior puede hacerse evidente gradualmente en el futuro.

"Lo que pasa en el iPhone, se queda en el iPhone." ¿Recuerdas este anuncio gigante que cubría todo el edificio? En la feria CES de 2019 en Las Vegas, Apple, que no participó en la feria, hizo la mejor publicidad. En los últimos años, Apple ha mantenido en alto la bandera de proteger la privacidad del usuario en la industria tecnológica, tratándola como uno de los puntos de venta de sus productos más importantes y utilizando el lema "el iPhone está diseñado para proteger la privacidad del usuario".

No sólo eso, Apple también se dirigirá a las empresas de Internet que ganan dinero con los big data de los usuarios. Cook ha criticado públicamente en repetidas ocasiones a Facebook y otras empresas de Internet por vender la privacidad de los usuarios con fines de lucro, enfatizando que Apple nunca tocará los datos de los usuarios. Incluso actualizó el sistema iOS este año para permitir a los usuarios decidir si permiten el seguimiento de datos, dándole a Facebook y otros. Las empresas de Internet una mejor posición. El modelo publicitario ha tenido un gran impacto.

Para garantizar la seguridad de los datos de los usuarios, Apple ha resistido la presión del gobierno de EE. UU. en los últimos años y rechazó resueltamente la solicitud del gobierno de EE. UU. de establecer una puerta trasera de lectura de datos en el iPhone con el nombre de contraterrorismo. Además, en 2016 y 2020, Apple rechazó públicamente la solicitud del gobierno de Estados Unidos de desbloquear iPhones terroristas al menos dos veces, e incluso peleó con el gobierno en los tribunales.

El trasfondo de estos dos incidentes es el tiroteo en San Bernardino en California y el tiroteo en la Base Naval de Florida respectivamente. Detrás de los pistoleros se encontraba la infiltración de fuerzas religiosas extremistas islámicas. El FBI espera obtener información de los móviles. registros de comunicaciones telefónicas. Investigar motivos terroristas y agencias de enlace. Debido a la firme resistencia de Apple, el gobierno de EE. UU. finalmente buscó la ayuda de una empresa de craqueo externa y obtuvo datos de los teléfonos móviles de los terroristas.

Sin embargo, Apple, que protege incondicionalmente la privacidad del usuario, en realidad se disparó en el pie y anunció públicamente que escanearía los archivos de los usuarios y aún tendría fotos locales en el iPhone. Incluso si el punto de partida es salvaguardar la justicia, este asunto es muy inconsistente con el estilo de Apple y ha provocado muchas discusiones acaloradas sobre la privacidad de los usuarios. ¿Qué está pasando?

A principios de este mes, Apple anunció públicamente que lanzaría una nueva función en las actualizaciones de los sistemas iOS y iPadOS que se lanzarán más adelante para escanear localmente los dispositivos de los usuarios en busca de fotografías relacionadas con el abuso sexual infantil, lo cual está en línea con Imágenes de la base de datos oficial de explotación sexual infantil de EE. UU. para comparar. Si se descubre una gran cantidad de imágenes ilegales, Apple notificará a las autoridades.

Esta función forma parte del programa general de Apple para combatir el abuso sexual infantil. Además, el servicio de mensajería de texto iMessage también agregará una función de control parental. Si menores de 12 años o menos envían o ven imágenes de desnudos a través de iMessage, sus padres recibirán una alerta del sistema.

Aunque defiende la justicia para prevenir la explotación infantil y la trata de personas, la función de escanear las imágenes locales de los usuarios sigue siendo demasiado sensible y ha causado mucha controversia y preocupación. Diez días después de que se publicara la noticia, frente a muchas especulaciones y críticas del mundo exterior, el vicepresidente senior de iOS de Apple, Craig Federighi, finalmente tuvo que salir y aclarar nuevamente.

Federici explicó esta característica en detalle: Cuando los usuarios de iPad y iPhone suben imágenes locales a iCloud, Apple escaneará estas imágenes en el dispositivo local y el cuadro de datos del Centro Nacional de Niños Desaparecidos y Explotados de Estados Unidos (NCMEC). para comparación. Si se encuentra una gran cantidad de imágenes que coinciden, lo que significa que el usuario tiene imágenes de niños desaparecidos o explotados sexualmente, Apple las enviará al departamento de revisión para su reconfirmación y luego notificará a las autoridades, pero el usuario no será alertado. Sin embargo, Apple también bloqueará la cuenta de iCloud del usuario más adelante, lo que equivale a informar al usuario disfrazado.

Sin embargo, vale la pena señalar que el sistema solo activará una advertencia cuando se encuentre una gran cantidad de imágenes ilegales en la comparación, no cuando haya un problema con una sola imagen. Esto obviamente se debe evitar. errores de reconocimiento. Además, Apple contratará revisores externos para confirmar si el contenido identificado por el sistema es ilegal y notificarán a la policía.

Sin embargo, Apple no reveló el umbral numérico para identificar contenido ilegal y el mundo exterior no sabe cuántas imágenes ilegales se encuentran antes de que se active automáticamente la comparación.

Apple ha declarado anteriormente que esta función de escaneo solo se lanzará primero en los Estados Unidos y en el futuro se lanzará en otros países dependiendo de la situación. Federici explicó además que esta base de datos CSAM está incluida en las actualizaciones del sistema de iOS y iPadOS y solo se activa en el mercado estadounidense. "Todos nuestros dispositivos en China, Europa y Estados Unidos utilizan el mismo software, incluida la misma base de datos". / p>

¿Por qué Apple, que presta más atención a la privacidad del usuario, anuncia públicamente que escaneará las fotos locales de los usuarios? ¿Las fotografías que los usuarios tienen en sus iPhone y iPad pertenecen a su privacidad? ¿Son las empresas de Internet responsables de dicho contenido ilegal?

La Sección 230 de la Ley Federal de Decencia en las Comunicaciones de EE. UU. de 1996 estipula que "cualquier proveedor o usuario de un servicio informático interactivo no será considerado el editor ni editor de ninguna información proporcionada por otro proveedor de contenido de información. "Portavoz." Esta cláusula también se considera un paraguas de protección de inmunidad para las empresas de Internet.

Esta cláusula en realidad incluye dos significados: las empresas de Internet no necesitan ser responsables de la información de terceros en la plataforma, y ​​el contenido publicado por los usuarios en la plataforma no tiene nada que ver con la plataforma de Internet; no necesitan ser responsables de sus acciones de buena fe al eliminar contenido de la plataforma, tienen derecho a eliminar el contenido publicado por los usuarios según los estándares de moderación.

Pero este paraguas protector no está exento de límites. En 2018, el Congreso de los Estados Unidos aprobó la Ley contra el tráfico sexual, que estipula claramente que las empresas de Internet tienen la responsabilidad de denunciar y eliminar dicho contenido ilegal en las plataformas en línea; de lo contrario, enfrentarán sanciones según las leyes pertinentes, lo que claramente incluye la pornografía infantil; Esta es la primera laguna en la cláusula de exención 230.

Según esta ley, si un usuario ha habilitado la carga de imágenes en iCloud y las imágenes almacenadas en el dispositivo local están conectadas a Internet, entonces Apple, como plataforma de Internet, tiene la responsabilidad y el poder de informar y abordar dichos contenidos ilegales. Para la mayoría de los usuarios de iPhone, la función de carga de iCloud está activada de forma predeterminada.

De hecho, las principales empresas de Internet de Estados Unidos llevan mucho tiempo escaneando bibliotecas de fotografías de usuarios para identificar contenido relacionado con la pornografía infantil. Facebook, Twitter y Reddit compararán y escanearán el contenido de los usuarios en sus propias plataformas, independientemente de si se publica o no. Al igual que Apple, también realizan comparaciones a través de la base de datos del NCMEC y llaman a la policía tras descubrir infracciones.

Más importante aún, la pornografía infantil no entra dentro de la protección del derecho a la libertad de expresión bajo la Primera Enmienda de la Constitución de los Estados Unidos. Es ilegal que los usuarios posean imágenes de pornografía infantil, independientemente de si se distribuyen o no. La Ley contra la explotación sexual infantil y la Ley contra la trata de niños de EE. UU. estipulan claramente que generar, distribuir, recibir y poseer dicho contenido son delitos federales y se enfrentarán a penas severas de al menos 5 años y hasta 30 años de prisión.

En Europa, las medidas regulatorias de Internet en este ámbito son aún más antiguas. Ya en 2013, el Reino Unido había formulado normas reglamentarias que exigían bloquear el contenido pornográfico de los proveedores de servicios de Internet (ISP). Los usuarios deben desactivar manualmente el filtrado de contenido antes de poder acceder a sitios web pornográficos. Durante el mismo período, el gobierno británico también exigió a los proveedores de servicios de búsqueda como Google y Microsoft que eliminaran los resultados de búsqueda de pornografía infantil. Sin embargo, la pornografía infantil rara vez aparece en los resultados de búsqueda.

Aunque las empresas de Internet estadounidenses hace tiempo que comenzaron a tomar medidas enérgicas contra la pornografía infantil, el anuncio de Apple de escanear imágenes de usuarios todavía planteó muchas preguntas. Apple confirmó a los medios estadounidenses que había escaneado previamente el contenido de iCloud Mail en busca de dicho contenido, pero nunca había escaneado los datos de imagen de Fotos de iCloud de los usuarios. El experto en ciberseguridad Matt Tait señaló que las imágenes de pornografía infantil siempre han sido una línea de alto voltaje para que las agencias policiales estadounidenses tomen medidas enérgicas. Las agencias policiales pueden obtener fácilmente citaciones y exigir que Apple escanee las bibliotecas de fotos de iCloud de los usuarios, y Apple lo hará. dispuesto a cooperar con esta solicitud.

¿En qué se diferencia lo que hace Apple de otras empresas de Internet? Otras empresas de Internet escanean el contenido subido por los usuarios a servidores en la nube, pero esta vez Apple lo escanea localmente (siempre que la sincronización con iCloud esté activada). ¿Por qué Apple decidió escanear localmente?

El vicepresidente senior de Apple, Federici, enfatizó que este mecanismo de escaneo se realizará localmente en el dispositivo, en lugar de en línea para comparar, y actualmente es solo para el mercado estadounidense.

"Si alguien escanea imágenes en la nube, quién sabe qué contenido se escaneará (lo que significa que puede salirse de control). En nuestra función, la base de datos NCMEC se transfiere al local".

En iOS y La nueva versión del sistema iPad vendrá con una herramienta llamada NeuralHash, que puede descomponer imágenes en muchos fragmentos para etiquetarlas e identificarlas, y compararlas con los millones de datos de fragmentos del NCMEC. Después de encontrar una coincidencia con el contenido ilegal, se genera un "archivo de bóveda" que contiene el contenido ilegal en iOS o iPadOS. Solo después de que dicho contenido ilegal se acumule hasta un cierto umbral se enviará a los revisores de Apple.

El director de privacidad de Apple, Neuen Schwander, enfatizó específicamente que si el usuario desactiva la función de sincronización de imágenes de iCloud, la herramienta NeuralHash no se puede ejecutar y Apple no escaneará ni podrá escanear imágenes de pornografía infantil.

Aunque Apple ha anunciado esta función de escaneo de la manera más abierta y transparente posible, todavía ha causado insatisfacción y preocupación entre algunas agencias de protección de la privacidad en Internet. Después de todo, esta es la primera vez que Apple escanea y monitorea los archivos locales de los usuarios. Si esta vez es para combatir la pornografía infantil, ¿qué será la próxima, antiterrorismo?

El vicepresidente senior de Apple, Federici, enfatizó una vez más que Apple no ampliará el alcance actual del escaneo de datos, excepto para la pornografía infantil CSAM ilegal. Enfatizó: “Si un gobierno de un determinado país nos pide que escaneemos datos distintos al contenido CSAM, lo rechazaremos directamente. Si no tienes confianza en esto y no crees que Apple se atreverá a negarse, entonces lo haremos. También he establecido un mecanismo de protección de múltiples capas. Espero asegurarles a los usuarios que no necesitan confiar en ninguna empresa o país cuando se trata de qué archivos escanear”.

Apple lo ha hecho públicamente. Apple no tiene miedo de presentar demandas ante el gobierno de los EE. UU. para resistir las órdenes ejecutivas, pero si se enfrenta a citaciones legales y órdenes del poder judicial, Apple solo puede aceptar y obedecer. al que no pueden resistir.

Hace apenas dos meses, Apple admitió que había proporcionado una serie de códigos de identificación de usuarios en febrero de 2018 a petición del Departamento de Justicia de la administración Trump para confirmar los datos electrónicos de algunos usuarios. . La administración Trump, que en ese momento estaba en medio de la investigación sobre Rusia, estaba investigando en secreto quién filtró secretos gubernamentales a los congresistas demócratas.

La razón por la que Apple está dispuesta a cooperar con la investigación de la administración Trump es porque recibió una citación de un gran jurado federal, y esta citación también viene con requisitos de confidencialidad. Esto significa que Apple no sólo debe cumplir con la orden de entregar los datos al gobierno, sino que también debe guardar silencio sobre el asunto. Apple no notificó a los usuarios relevantes hasta que expiró el período de confidencialidad en mayo de este año. Además de Apple, Microsoft también ha recibido citaciones de este tipo con requisitos de confidencialidad.

La Electronic Frontier Foundation dijo que el gobierno de Estados Unidos nunca ha rehuido solicitar las comunicaciones cifradas de los usuarios y ha utilizado órdenes de registro y órdenes judiciales para presionar a las empresas de tecnología para que les ayuden a obtener datos. Aunque Apple siempre ha prometido resistir las órdenes gubernamentales de reducir la protección de la privacidad del usuario, después de lanzar este mecanismo de escaneo, Apple tuvo que continuar resistiendo la presión del gobierno para ampliar el alcance del escaneo.

Esta situación no se limita a Estados Unidos. En 2018, la "Alianza de los Cinco Ojos" (Estados Unidos, Reino Unido, Canadá, Nueva Zelanda y Australia) dejó claro que si las empresas de tecnología se niegan a proporcionar datos cifrados, los obtendrán legalmente a través de la tecnología, la aplicación de la ley, legislación y otros medios. Posteriormente, el Reino Unido aprobó la Ley de Poderes de Investigación (IPA), que exige a los operadores de telecomunicaciones utilizar medios técnicos para brindar asistencia cuando el gobierno emite órdenes de adquisición de datos.

Aunque Apple ha establecido un mecanismo de escaneo en los sistemas iOS y iPadOS esta vez con el justo propósito de combatir la pornografía infantil y la explotación sexual, también ha enterrado una peligrosa "mina terrestre" para sí misma. En 2016, cuando Apple se negó a permitir que el Departamento de Justicia de Estados Unidos desbloqueara el iPhone del terrorista de San Bernardino, declaró públicamente que no había instalado ninguna puerta trasera en iOS. ¿Pero qué pasa esta vez? "Si configura una (puerta trasera), harán un seguimiento. La medida de Apple abre una puerta trasera para que países de todo el mundo fortalezcan el seguimiento y la revisión".

"Lo que pasa en el iPhone, se queda en el iPhone", la icónica promesa de Apple ahora necesita agregar una cláusula de exención: si no involucra pornografía infantil, ¿habrá más excepciones en el futuro?