Working with under-resourced languages like Mooré is both exciting and challenging. In this tutorial, I’ll walk you through the full pipeline I used to collect and prepare Mooré speech data scraped from the Bible-ready to be pushed to the Hugging Face Hub.
Travailler avec des langues sous-dotées comme le mooré est à la fois passionnant et exigeant. Dans ce tutoriel, je vous présente le pipeline complet que j’ai utilisé pour collecter et préparer des données de parole mooré extraites de la Bible, prêtes à être publiées sur le Hugging Face Hub.
We present YOLO, a new approach to object detection. Prior work on object detection repurposes classifiers to perform detection. Instead, we frame object detection as a regression problem to spatially separated bounding boxes and associated class probabilities. A single neural network predicts bounding boxes and class probabilities directly from full images in one evaluation. Since the whole detection pipeline is a single network, it can be optimized end-to-end directly on detection performance. Our unified architecture is extremely fast. Our base YOLO model processes images in real-time at 45 frames per second. A smaller version of the network, Fast YOLO, processes an astounding 155 frames per second while still achieving double the mAP of other real-time detectors. Compared to state-of-the-art detection systems, YOLO makes more localization errors but is less likely to predict false positives on background. Finally, YOLO learns very general representations of objects. It outperforms other detection methods, including DPM and R-CNN, when generalizing from natural images to other domains like artwork.
Nous présentons YOLO, une nouvelle approche de la détection d’objets. Les travaux antérieurs réutilisent des classifieurs pour la détection. Nous formulons plutôt la détection comme un problème de régression : boîtes englobantes et probabilités de classe en une seule évaluation. Un seul réseau prédit boîtes et classes directement à partir de l’image entière. Comme tout le pipeline est un seul réseau, il peut être optimisé de bout en bout.
Deeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. We explicitly reformulate the layers as learning residual functions with reference to the layer inputs, instead of learning unreferenced functions.
Les réseaux de neurones plus profonds sont plus difficiles à entraîner. Nous présentons un cadre d’apprentissage résiduel pour faciliter l’entraînement de réseaux nettement plus profonds qu’auparavant. Nous reformulons explicitement les couches comme l’apprentissage de fonctions résiduelles par rapport aux entrées, au lieu de fonctions non référencées.