En el mundo hay varios países que han delineado normas que buscan dar sentido a los límites y tratamiento de tecnologías como la inteligencia artificial a través de la cual puede ejercerse la vigilancia tecnológica. 

El 21 de abril, la Comisión Europea enfocada en el tratamiento de datos y privacidad presentó un documento que propone la política bajo la que los países de la Unión Europea podrán implementar tecnologías que permitan, de algún modo, la vigilancia masiva. 

Esta iniciativa, enfocada en poner límites al uso de la inteligencia artificial aplicada a varios aspectos de la vida y los negocios, divide a estas tecnologías según su nivel de riesgo y prohíbe el uso de sistemas de inteligencia como reconocimiento facial masivo o uso indiscriminado de biométricos para el otorgamiento de servicios como créditos, como ocurre en países como China. 

En el nivel de riesgo alto, por ejemplo, se ubican aplicaciones de inteligencia artificial en automóviles para que se manejen sin asistencia humana o aquellos análisis de datos que puedan suponer un riesgo de racismo o discriminación. 

De acuerdo con la Comisión Europea liderada por Ursula Von der Leyen, esta iniciativa debe aún llevarse ante la Eurocámara y su proceso de decisión puede tardar alrededor de un año. 

En cuanto a las sanciones que plantea se busca que en caso de que estas medidas no se cumplan, las autoridades europeas puedan asignar sanciones monetarias hasta del 6% de los ingresos de una empresa que cometa una infracción de este tipo o bien se impongan multas por hasta 30 millones de euros. 

En otros países, como Estados Unidos, el uso de programas de vigilancia masiva fue descubierto por filtraciones como las de Edward Snowden en 2013 y desde entonces se ha puesto especial atención en el uso de estas tecnologías, aunque siguen aplicándose algunas de ellas como el reconocimiento facial, pero con mayores controles y más visibles que antes.