Usar la aplicación APKPure
Obtener AI Benchmark versión histórica en Android
¿Tu teléfono está listo para la IA? ¡Ejecute AI Benchmark para comprobar su rendimiento!
Generación de imágenes neuronales, reconocimiento facial, clasificación de imágenes, respuesta a preguntas...
¿Su teléfono inteligente es capaz de ejecutar las últimas redes neuronales profundas para realizar estas y muchas otras tareas basadas en inteligencia artificial? ¿Tiene un chip AI dedicado? ¿Es lo suficientemente rápido? ¡Ejecute AI Benchmark para evaluar profesionalmente su rendimiento de IA!
Clasificación de teléfonos actual: http://ai-benchmark.com/ranking
AI Benchmark mide la velocidad, la precisión, el consumo de energía y los requisitos de memoria para varios modelos clave de IA, visión por computadora y PNL. Entre las soluciones probadas se encuentran métodos de clasificación de imágenes y reconocimiento facial, modelos de IA que realizan generación de texto e imágenes neuronales, redes neuronales utilizadas para superresolución de imágenes/vídeo y mejora de fotografías, así como soluciones de IA utilizadas en sistemas de conducción autónoma y teléfonos inteligentes para uso real. Estimación de profundidad de tiempo y segmentación de imágenes semánticas. La visualización de los resultados de los algoritmos permite evaluar sus resultados gráficamente y conocer el estado actual del arte en varios campos de la IA.
En total, AI Benchmark consta de 83 pruebas y 30 secciones que se enumeran a continuación:
Sección 1. Clasificación, MobileNet-V3
Sección 2. Clasificación, Inicio-V3
Sección 3. Reconocimiento facial, transformador Swin
Sección 4. Clasificación, EfficientNet-B4
Sección 5. Clasificación, MobileViT-V2
Secciones 6/7. Ejecución de modelo paralelo, 8 x Inception-V3
Sección 8. Seguimiento de objetos, YOLO-V8
Sección 9. Reconocimiento óptico de caracteres, transformador ViT
Sección 10. Segmentación semántica, DeepLabV3+
Sección 11. Segmentación paralela, 2 x DeepLabV3+
Sección 12. Segmentación semántica, segmentar cualquier cosa
Sección 13. Desenfoque de fotografías, IMDN
Sección 14. Imagen de superresolución, ESRGAN
Sección 15. Imagen de superresolución, SRGAN
Sección 16. Eliminación de ruido de imágenes, U-Net
Sección 17. Estimación de profundidad, MV3-Profundidad
Sección 18. Estimación de profundidad, MiDaS 3.1
Artículo 19/20. Mejora de imagen, DPED
Sección 21. ISP de cámara aprendida, MicroISP
Sección 22. Representación del efecto Bokeh, PyNET-V2 Mobile
Sección 23. Superresolución de vídeo FullHD, XLSR
Sección 24/25. Superresolución de vídeo 4K, VideoSR
Sección 26. Respuesta a preguntas, MobileBERT
Sección 27. Generación de Texto Neuronal, Llama2
Sección 28. Generación de texto neuronal, GPT2
Sección 29. Generación de imágenes neuronales, difusión estable V1.5
Sección 30. Límites de memoria, ResNet
Además de eso, uno puede cargar y probar sus propios modelos de aprendizaje profundo de TensorFlow Lite en el modo PRO.
Puede encontrar una descripción detallada de las pruebas aquí: http://ai-benchmark.com/tests.html
Nota: La aceleración de hardware es compatible con todos los SoC móviles con NPU dedicadas y aceleradores de IA, incluidos los conjuntos de chips Qualcomm Snapdragon, MediaTek Dimensity/Helio, Google Tensor, HiSilicon Kirin, Samsung Exynos y UNISOC Tiger. A partir de AI Benchmark v4, también se puede habilitar la aceleración de IA basada en GPU en dispositivos más antiguos en la configuración ("Acelerar" -> "Habilitar aceleración de GPU" / "Arm NN", se requiere OpenGL ES-3.0+).
Last updated on 26/09/2024
1. New tasks and models: Vision Transformer (ViT) architectures, Large Language Models (LLMs), Stable Diffusion network, etc.
2. Added tests checking the performance of quantized INT16 inference.
3. LiteRT (TFLite) runtime updated to version 2.17.
4. Updated Qualcomm QNN, MediaTek Neuron, TFLite NNAPI, GPU and Hexagon NN delegates.
5. Added Arm NN delegate for AI inference acceleration on Mali GPUs.
6. The total number of tests increased to 83.
Presentado por
Carlos Oliveira
Requisitos
Android 5.0+
Categoría
Reportar