사용자 환경을 개선하기 위해 이 웹 사이트의 쿠키 및 기타 기술을 사용합니다.
이 페이지의 링크를 클릭하면 당사의 개인 정보 보호 정책쿠키 정책에 동의하는 것입니다.
동의함 더 알아보기

AI Benchmark 스크린 샷

AI Benchmark 정보

당신의 휴대전화는 AI를 사용할 준비가 되었나요? AI Benchmark를 실행하여 성능을 확인하세요!

신경 이미지 생성, 얼굴 인식, 이미지 분류, 질문 응답...

귀하의 스마트폰은 이러한 작업과 기타 다양한 AI 기반 작업을 수행하기 위해 최신 심층 신경망을 실행할 수 있습니까? 전용 AI 칩이 있나요? 충분히 빠른가요? AI 벤치마크를 실행하여 AI 성능을 전문적으로 평가해보세요!

현재 휴대폰 순위: http://ai-benchmark.com/ranking

AI 벤치마크는 여러 주요 AI, 컴퓨터 비전 및 NLP 모델에 대한 속도, 정확성, 전력 소비 및 메모리 요구 사항을 측정합니다. 테스트된 솔루션 중에는 이미지 분류 및 얼굴 인식 방법, 신경 이미지 및 텍스트 생성을 수행하는 AI 모델, 이미지/비디오 초해상도 및 사진 향상에 사용되는 신경망, 자율주행 시스템 및 실제 스마트폰에 사용되는 AI 솔루션이 있습니다. 시간 깊이 추정 및 의미론적 이미지 분할. 알고리즘 출력의 시각화를 통해 결과를 그래픽으로 평가하고 다양한 AI 분야의 최신 기술을 알 수 있습니다.

전체적으로 AI 벤치마크는 아래 나열된 83개의 테스트와 30개의 섹션으로 구성됩니다.

섹션 1. 분류, MobileNet-V3

섹션 2. 분류, 개시-V3

섹션 3. 얼굴 인식, Swin Transformer

섹션 4. 분류, EfficientNet-B4

섹션 5. 분류, MobileViT-V2

섹션 6/7. 병렬 모델 실행, 8 x Inception-V3

섹션 8. 객체 추적, YOLO-V8

섹션 9. 광학 문자 인식, ViT 변환기

섹션 10. 의미론적 분할, DeepLabV3+

섹션 11. 병렬 분할, 2 x DeepLabV3+

섹션 12. 의미론적 분할, 무엇이든 분할

섹션 13. 사진 디블러링, IMDN

섹션 14. 이미지 초해상도, ESRGAN

섹션 15. 이미지 초해상도, SRGAN

섹션 16. 이미지 노이즈 제거, U-Net

섹션 17. 깊이 추정, MV3-깊이

섹션 18. 깊이 추정, MiDaS 3.1

섹션 19/20. 이미지 향상, DPED

섹션 21. 학습된 카메라 ISP, MicroISP

섹션 22. Bokeh 효과 렌더링, PyNET-V2 모바일

섹션 23. FullHD 비디오 초해상도, XLSR

섹션 24/25. 4K 비디오 초해상도, VideoSR

섹션 26. 질문 답변, MobileBERT

섹션 27. 신경 텍스트 생성, Llama2

섹션 28. 신경 텍스트 생성, GPT2

섹션 29. 신경 영상 생성, 안정 확산 V1.5

섹션 30. 메모리 제한, ResNet

그 외에도 PRO 모드에서 자체 TensorFlow Lite 딥 러닝 모델을 로드하고 테스트할 수 있습니다.

테스트에 대한 자세한 설명은 여기(http://ai-benchmark.com/tests.html)에서 확인할 수 있습니다.

참고: 하드웨어 가속은 Qualcomm Snapdragon, MediaTek Dimensity/Helio, Google Tensor, HiSilicon Kirin, Samsung Exynos 및 UNISOC Tiger 칩셋을 포함하여 전용 NPU 및 AI 가속기를 갖춘 모든 모바일 SoC에서 지원됩니다. AI Benchmark v4부터 설정("가속" -> "GPU 가속 활성화" / "Arm NN", OpenGL ES-3.0+ 필요)에서 이전 장치의 GPU 기반 AI 가속을 활성화할 수도 있습니다.

최신 버전 6.0.0의 새로운 기능

Last updated on Sep 26, 2024

1. New tasks and models: Vision Transformer (ViT) architectures, Large Language Models (LLMs), Stable Diffusion network, etc.
2. Added tests checking the performance of quantized INT16 inference.
3. LiteRT (TFLite) runtime updated to version 2.17.
4. Updated Qualcomm QNN, MediaTek Neuron, TFLite NNAPI, GPU and Hexagon NN delegates.
5. Added Arm NN delegate for AI inference acceleration on Mali GPUs.
6. The total number of tests increased to 83.

번역 로드 중...

추가 앱 정보

최신 버전

AI Benchmark 업데이트 요청 6.0.0

업로드한 사람

Carlos Oliveira

필요한 Android 버전

Android 5.0+

Available on

Google Play에서 AI Benchmark 얻기

카테고리

무료 도구 앱

더 보기
APKPure를 구독하십시오
최고의 Android 게임 및 앱의 초기 릴리스, 뉴스 및 가이드에 액세스하는 첫 번째 사람이 되십시오.
고맙지 만 사양 할게
가입하기
성공적으로 구독!
당신은 이제 APKPure에 가입되었습니다.
APKPure를 구독하십시오
최고의 Android 게임 및 앱의 초기 릴리스, 뉴스 및 가이드에 액세스하는 첫 번째 사람이 되십시오.
고맙지 만 사양 할게
가입하기
성공!
당신은 이제 우리의 뉴스 레터를 구독하고 있습니다.