Cuando se trata de orientarse, Google Maps es una de las mejores aplicaciones del mundo para hacerlo. A excepción de Apple Maps, realmente no tiene competencia. Su posicionamiento destacado en los dispositivos Android, así como las constantes adiciones de funciones, han jugado un papel importante en la longevidad de Maps. Pero lo que mantiene los datos en la aplicación tan precisos son las contribuciones de los usuarios que llegan todo el tiempo, ya sean reseñas, fotos o detectores de trampas de velocidad. Pero, al igual que con cualquier campo de contenido enviado por el usuario, puede ser un patio de recreo para estafadores lleno de enlaces dudosos, negocios inexistentes o algo peor. El equipo de Google Maps ahora ofrece algunos detalles sobre lo que sucede detrás de escena para detectar contenido fraudulento, generalmente incluso antes de que suba.
ANDROIDPOLICE VÍDEO DEL DÍADESPLAZAR PARA CONTINUAR CON EL CONTENIDO
Con todos los datos que fluyen hacia los servidores de Google, tiene sentido que los modelos de aprendizaje automático estén en el centro de la defensa de Maps contra los estafadores. El gigante de las búsquedas dijo que presentó una nueva actualización en 2022 para estos modelos que, en última instancia, los ayudó a detectar las estafas más rápido que antes.
Citando un ejemplo de identificación de estafas, Google dijo en una publicación de blog que sus sistemas automatizados encontraron un aumento en los perfiles comerciales con dominios .design o .top. Luego, los analistas intervinieron para confirmar que se trataba de sitios web falsos, lo que llevó al equipo a deshabilitar rápidamente las cuentas de Google asociadas con los dominios. Google mencionó además que detuvo 20 millones de intentos de generar un perfil comercial fraudulento el año pasado, un aumento de 8 millones desde 2021, al tiempo que implementó nuevas protecciones para más de 185,000 empresas que fueron objeto de estafas o abusos.
En total, Maps eliminó o bloqueó más de 115 millones de reseñas que se consideró que violaban sus políticas. Esto representa un aumento del 20 % en la eliminación de reseñas fraudulentas en 2022 en comparación con el año anterior.
Otra área que toca el equipo de Maps es la eliminación de imágenes modificadas o fraudulentas. La compañía descubrió que algunos estafadores pegaron números de teléfono falsos en las imágenes de los escaparates para engañar y atraer a los usuarios de Maps desprevenidos.
Google implementó otro modelo novedoso de aprendizaje automático para contrarrestar estos nuevos vectores de ataque con la capacidad de identificar números colocados encima de una imagen existente «mediante el análisis de detalles visuales específicos y los diseños de las fotos», dijo la compañía. Estos métodos de detección temprana supuestamente ayudaron a Google a bloquear una gran parte de las imágenes modificadas antes de que los estafadores tuvieran la oportunidad de publicarlas. Se eliminó un total de 200 millones de fotos y 7 millones de videos al aprovechar estos modelos de ML revisados. Sin embargo, el número también incluye contenido que se consideró de baja calidad o borroso además de los atribuidos a los estafadores.
La empresa también promovió una victoria contra una red de estafadores que se hacían pasar por vendedores telefónicos en Google e incluso intentaban vender reseñas en línea. Google también dijo que está compartiendo datos relevantes con la Comisión Federal de Comercio (FTC) y otras agencias gubernamentales fuera de los EE. UU. para ayudar a erradicar la práctica generalizada de las reseñas falsas.
Los algoritmos impulsados por máquinas han ayudado a Google a gestionar petabytes de datos entrantes y salientes a través de sus diversos servicios, pero no siempre son perfectos, como muestran las recientes políticas de aplicación de Play Store. La compañía también está intensificando sus esfuerzos en el campo de la IA generativa, como lo demuestran los recientes pasos de bebé de Bard, para competir con el llamativo ChatGPT de OpenAI. Google fue acusado recientemente de usar los datos de ChatGPT para entrenar su propio chatbot, una acusación que la empresa ha negado.