29,99 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 6-10 Tagen
payback
15 °P sammeln
  • Broschiertes Buch

Les méthodes ensemblistes sont basées sur l'idée de combiner les prédictions de plusieurs classifieurs pour une meilleure généralisation et pour compenser les défauts éventuels de prédicteurs individuels.On distingue deux familles de méthodes : Méthodes parallèles (Bagging, Forêts aléatoires) dans lesquelles le principe est de faire la moyenne de plusieurs prédictions en espérant un meilleur résultat suite à la réduction de la variance de l'estimateur moyen. Méthodes séquentiels (Boosting) dans lesquelles les paramètres sont itérativement adaptés pour produire un meilleur mélange.Dans cet…mehr

Produktbeschreibung
Les méthodes ensemblistes sont basées sur l'idée de combiner les prédictions de plusieurs classifieurs pour une meilleure généralisation et pour compenser les défauts éventuels de prédicteurs individuels.On distingue deux familles de méthodes : Méthodes parallèles (Bagging, Forêts aléatoires) dans lesquelles le principe est de faire la moyenne de plusieurs prédictions en espérant un meilleur résultat suite à la réduction de la variance de l'estimateur moyen. Méthodes séquentiels (Boosting) dans lesquelles les paramètres sont itérativement adaptés pour produire un meilleur mélange.Dans cet ouvrage nous affirmons que lorsque les membres d'un prédicteur commettent des erreurs différentes il est possible de réduire les exemples mal classés comparativement à un prédicteur unique. Les performances obtenues seront comparées en utilisant des critères comme le taux de classification, la sensibilité, la spécificité, le rappel, etc.
Autorenporträt
Marcel KATULUMBA MBIYA NGANDU è laureato in Ingegneria Informatica all'Università di Mbujimayi. Dal 2018, è assistente presso il Dipartimento di Informatica dell'Università di Mbujimayi. È un ricercatore in ingegneria del software e costruzione di programmi, sistemi informativi e intelligenza artificiale.