_id
stringlengths 40
40
| text
stringlengths 30
11.8k
⌀ |
---|---|
2f991be8d35e4c1a45bfb0d646673b1ef5239a1f
|
Comprendre pourquoi les modèles d'apprentissage automatique se comportent comme ils le font permet aux concepteurs de systèmes et aux utilisateurs finaux de bien des façons : dans la sélection des modèles, l'ingénierie des fonctionnalités, afin de faire confiance aux prédictions et d'agir en conséquence, et dans des interfaces utilisateur plus intuitives. Ainsi, l'intelligibilité est devenue une préoccupation vitale dans l'apprentissage automatique, et les travaux dans le domaine des modèles interprétables ont suscité un regain d'intérêt. Dans certaines applications, ces modèles sont aussi précis que les modèles non interprétables, et sont donc préférés pour leur transparence. Même lorsqu'ils ne sont pas exacts, ils peuvent être préférés lorsque l'intelligibilité est d'une importance capitale. Cependant, limiter l'apprentissage automatique à des modèles interprétables est souvent une limitation sévère. Dans cet article, nous plaidons en faveur de l'explication des prédictions d'apprentissage automatique à l'aide d'approches indépendantes du modèle. En traitant les modèles d'apprentissage automatique comme des fonctions de boîte noire, ces approches offrent une flexibilité cruciale dans le choix des modèles, des explications et des représentations, améliorant ainsi le débogage, la comparaison et les interfaces pour une variété d'utilisateurs et de modèles. Nous décrivons également les principaux défis de ces méthodes et examinons une approche d'explication indépendante du modèle (LIME) récemment introduite qui répond à ces défis.
|
546add32740ac350dda44bab06f56d4e206622ab
|
Les réseaux neuronaux profonds ont obtenu des résultats expérimentaux impressionnants en matière de classification d'images, mais peuvent être étonnamment instables en ce qui concerne les perturbations adverses, c'est-à-dire des modifications minimes de l'image d'entrée qui amènent le réseau à mal la classer. Avec des applications potentielles comprenant des modules de perception et des contrôleurs de bout en bout pour les voitures autonomes, cela soulève des inquiétudes quant à leur sécurité. Nous développons un nouveau cadre de vérification automatisé pour les réseaux neuronaux multicouches basés sur la théorie de la satisfiabilité modulo (SMT). Nous nous concentrons sur les manipulations d'images, telles que les rayures ou les changements d'angle de caméra ou de conditions d'éclairage, et définissons la sécurité d'une décision de classification d'image en termes d'invariance de la classification par rapport aux manipulations de l'image d'origine dans une région d'images qui lui sont proches. Nous permettons une recherche exhaustive de la région en utilisant la discrétisation, et propageons l'analyse couche par couche. Notre méthode travaille directement avec le code du réseau et, contrairement aux méthodes existantes, peut garantir que des exemples contradictoires, s'ils existent, sont trouvés pour la région et la famille de manipulations données. S'ils sont trouvés, des exemples contradictoires peuvent être montrés à des testeurs humains et/ou utilisés pour affiner le réseau. Nous mettons en œuvre les techniques à l'aide de Z3 et les évaluons sur des réseaux de pointe, y compris des réseaux régularisés et d'apprentissage profond. Nous comparons également avec les techniques existantes pour rechercher des exemples contradictoires et estimer la robustesse du réseau.
|
8db9df2eadea654f128c1887722c677c708e8a47
|
L'apprentissage par renforcement est considéré comme un paradigme d'IA fort qui peut être utilisé pour enseigner aux machines par l'interaction avec l'environnement et l'apprentissage de leurs erreurs. Malgré son utilité perçue, il n'a pas encore été appliqué avec succès dans les applications automobiles. Motivés par les démonstrations réussies d'apprentissage des jeux Atari et de Go by Google DeepMind, nous proposons un cadre pour la conduite autonome utilisant l'apprentissage par renforcement profond. Cela est particulièrement pertinent car il est difficile de poser la conduite autonome comme un problème d'apprentissage supervisé en raison des fortes interactions avec l'environnement, y compris les autres véhicules, les piétons et les travaux routiers. Comme il s'agit d'un domaine de recherche relativement nouveau pour la conduite autonome, nous donnons un bref aperçu de l'apprentissage par renforcement profond, puis décrivons le cadre que nous proposons. Il intègre des réseaux neuronaux récurrents pour l'intégration des informations, permettant à la voiture de gérer des scénarios partiellement observables. Il intègre également les travaux récents sur les modèles d'attention pour se concentrer sur les informations pertinentes, réduisant ainsi la complexité de calcul pour le déploiement sur du matériel embarqué. Le cadre a été testé dans un simulateur de course automobile 3D open source appelé TORCS. Les résultats de notre simulation démontrent l'apprentissage des manœuvres autonomes dans un scénario de courbures de route complexes et d'interaction simple d'autres véhicules. INTRODUCTION Une voiture robot qui roule de manière autonome est un objectif de longue date de l'intelligence artificielle. La conduite d'un véhicule est une tâche qui nécessite un haut niveau de compétence, d'attention et d'expérience de la part d'un conducteur humain. Bien que les ordinateurs soient plus capables d'une attention et d'une concentration soutenues que les humains, la conduite entièrement autonome nécessite un niveau d'intelligence qui dépasse celui atteint jusqu'à présent par les agents d'IA. Les tâches impliquées dans la création d'un agent de conduite autonome peuvent être divisées en 3 catégories, comme le montre la figure 1 : 1) Reconnaissance : Identifier les composants de l'environnement environnant. Des exemples de cela sont la détection des piétons, la reconnaissance des panneaux de signalisation, etc. Bien que loin d'être triviale, la reconnaissance est une tâche relativement facile de nos jours grâce aux progrès des algorithmes d'apprentissage profond (DL), qui ont atteint le niveau de reconnaissance humain ou supérieur à plusieurs problèmes de détection et de classification d'objets [8] [2]. Les modèles d'apprentissage profond sont capables d'apprendre des représentations de caractéristiques complexes à partir de données d'entrée brutes, omettant ainsi le besoin de fonctionnalités artisanales [15] [2] [7]. À cet égard, les réseaux de neurones convolutifs (CNN) sont probablement le modèle d'apprentissage profond le plus réussi et ont constitué la base de chaque participation gagnante au défi ImageNet depuis AlexNet [8]. Ce succès a été reproduit dans la détection de voies et de véhicules pour la conduite autonome [6]. 2) Prédiction : Il ne suffit pas qu'un agent de conduite autonome reconnaisse son environnement ; Il doit également être capable de construire des modèles internes qui prédisent les états futurs de l'environnement. Des exemples de cette classe de problèmes incluent la construction d'une carte de l'environnement ou le suivi d'un objet. Pour être en mesure de prédire l'avenir, il est important d'intégrer les informations passées. En tant que tels, les réseaux neuronaux récurrents (RNN) sont essentiels à cette classe de problèmes. Les réseaux de mémoire à long-court terme (LSTM) [5] sont l'une de ces catégories de RNN qui ont été utilisés dans les systèmes d'étiquetage de scènes de bout en bout [14]. Plus récemment, les RNN ont également été utilisés pour améliorer les performances de suivi d'objets dans le modèle DeepTracking [13]. 3) Planification : La génération d'un modèle efficace qui intègre la reconnaissance et la prédiction pour planifier la séquence future d'actions de conduite qui permettra au véhicule de naviguer avec succès. La planification est la tâche la plus difficile des trois. La difficulté réside dans l'intégration de la capacité du modèle à comprendre l'environnement (reconnaissance) et sa dynamique (prédiction) de manière à ce qu'il puisse planifier les actions futures de manière à éviter les situations indésirables (pénalités) et à conduire en toute sécurité vers sa destination (récompenses). Figure 1 : Tâches de conduite autonome de haut niveau Le cadre d'apprentissage par renforcement (RL) [17] [20] est utilisé depuis longtemps dans les tâches de contrôle. Le mélange de RL et de DL a été souligné comme l'une des approches les plus prometteuses pour obtenir un contrôle au niveau humain dans [9]. Dans [12] et [11], ce contrôle au niveau humain a été démontré sur des jeux Atari en utilisant le modèle Deep Q Networks (DQN), dans lequel RL est responsable de la partie planification tandis que DL est responsable de la partie apprentissage de la représentation. Plus tard, des RNN ont été intégrés dans le mélange pour tenir compte des scénarios observables partiels [4]. La conduite autonome nécessite l'intégration d'informations ar X iv :1 70 4. 02 53 2v 1 [ st à . M L ] 8 A pr 2 01 7 à partir de plusieurs capteurs. Certains d'entre eux sont de faible dimension, comme le LIDAR, tandis que d'autres sont de haute dimension, comme les caméras. Il convient toutefois de noter dans cet exemple particulier que, bien que les images brutes de la caméra soient de grande dimension, les informations utiles nécessaires à la réalisation de la tâche de conduite autonome sont de dimension beaucoup plus faible. Par exemple, les parties importantes de la scène qui affectent les décisions de conduite se limitent au véhicule en mouvement, à l'espace libre sur la route devant vous, à la position des trottoirs, etc. Même les détails les plus fins des véhicules ne sont pas importants, car seule leur position spatiale est vraiment nécessaire au problème. Par conséquent, la bande passante mémoire pour les informations pertinentes est beaucoup plus faible. Si ces informations pertinentes pouvaient être extraites, tandis que les autres parties non pertinentes étaient filtrées, cela améliorerait à la fois la précision et l'efficacité des systèmes de conduite autonome. De plus, cela réduirait les besoins en calcul et en mémoire du système, qui sont des contraintes critiques sur les systèmes embarqués qui contiendront l'unité de contrôle de conduite autonome. Les modèles d'attention sont un choix naturel pour un tel processus de filtrage de l'information. Récemment, ces modèles ont été déployés avec succès pour la reconnaissance d'images dans [23] et [10], où RL a été mélangé avec des RNN pour obtenir les parties de l'image à prendre en compte. De tels modèles sont facilement étendus et intégrés aux modèles DQN [11] et Deep Recurrent Q Networks (DRQN) [4]. Cette intégration a été réalisée en [16]. Le succès des modèles d'attention nous pousse à les proposer pour l'extraction d'informations de bas niveau à partir de l'information sensorielle brute pour effectuer une conduite autonome. Dans cet article, nous proposons un cadre pour un modèle de conduite autonome final qui prend en compte les entrées et sorties brutes des capteurs et les actions de conduite. Le modèle est capable de gérer des scénarios partiellement observables. De plus, nous proposons d'intégrer les avancées récentes des modèles d'attention afin de n'extraire que des informations pertinentes des données des capteurs reçus, le rendant ainsi adapté aux systèmes embarqués en temps réel. Les principales contributions de cet article : 1) présenter une enquête sur les avancées récentes de l'apprentissage par renforcement profond et 2) présenter un cadre pour la conduite autonome à l'aide de l'apprentissage par renforcement profond à la communauté automobile. Le reste du document est divisé en deux parties. La première partie fournit une étude des algorithmes d'apprentissage par renforcement profond, en commençant par le cadre MDP traditionnel et le Q-learning, suivis par les réseaux DQN, DRQN et Deep Attention Recurrent Q Networks (DARQN). La deuxième partie de l'article décrit le cadre proposé qui intègre les avancées récentes en apprentissage par renforcement profond. Enfin, nous concluons et suggérons des orientations pour les travaux futurs. Pour un aperçu complet de l'apprentissage par renforcement, veuillez vous référer à la deuxième édition du manuel de Rich Sutton [18]. Nous vous proposons un bref aperçu des sujets importants dans cette section. Le cadre d'apprentissage par renforcement a été formulé en [17] comme un modèle pour fournir la meilleure politique qu'un agent puisse suivre (la meilleure action à entreprendre dans un état donné), de sorte que les récompenses totales accumulées sont maximisées lorsque l'agent suit cette politique à partir du moment actuel et jusqu'à ce qu'un état final soit atteint. La conduite paradigmatique RL est un problème d'interaction multi-agents. En tant que conducteur humain, il est beaucoup plus facile de rester dans une voie sans aucune interaction avec d'autres voitures que de changer de voie dans un trafic dense. Ce dernier est plus difficile en raison de l'incertitude inhérente au comportement des autres conducteurs. Le nombre de véhicules en interaction, leur configuration géométrique et le comportement des conducteurs peuvent présenter une grande variabilité et il est difficile de concevoir un ensemble de données d'apprentissage supervisé avec une couverture exhaustive de tous les scénarios. Les conducteurs humains utilisent une sorte d'apprentissage par renforcement en ligne pour comprendre le comportement des autres conducteurs, par exemple s'ils sont défensifs ou agressifs, expérimentés ou inexpérimentés, etc. Ceci est particulièrement utile dans les scénarios qui nécessitent une négociation, à savoir l'entrée d'un rond-point, la navigation dans des carrefours sans feux de circulation, les changements de voie lors d'un trafic dense, etc. Le principal défi de la conduite autonome est de faire face à des cas particuliers qui sont inattendus même pour un conducteur humain, comme se remettre d'une perte dans une zone inconnue sans GPS ou faire face à des situations de catastrophe comme une inondation ou l'apparition d'un gouffre au sol. Le paradigme de l'apprentissage par renforcement modélise un territoire inexploré et apprend de sa propre expérience en prenant des mesures. De plus, l'apprentissage par renforcement peut être en mesure de gérer des fonctions de coût non différenciables, ce qui peut créer des défis pour les problèmes d'apprentissage supervisé. Actuellement, l'approche standard pour la conduite autonome consiste à découpler le système en sous-problèmes isolés, généralement de type apprentissage supervisé, détection d'objets, odométrie visuelle, etc., puis à disposer d'une couche de post-traitement pour combiner tous les résultats des étapes précédentes. Cette approche pose deux problèmes principaux : premièrement, les sous-problèmes qui sont résolus peuvent être plus difficiles que la conduite autonome. Par exemple, on peut résoudre la détection d'objets par segmentation sémantique, ce qui est à la fois difficile et inutile. Les conducteurs humains ne détectent pas et ne classifient pas tous les objets visibles pendant la conduite, mais seulement les plus pertinents. Deuxièmement, les sous-problèmes isolés peuvent ne pas se combiner de manière cohérente pour atteindre
|
a4d513cfc9d4902ef1a80198582f29b8ba46ac28
|
Ce rapport examine le paysage des menaces de sécurité potentielles résultant d'utilisations malveillantes de l'IA et propose des moyens de mieux prévoir, prévenir et atténuer ces menaces. Après avoir analysé les façons dont l'IA peut influencer le paysage des menaces dans les domaines numérique, physique et politique, nous formulons quatre recommandations de haut niveau pour les chercheurs en IA et les autres parties prenantes. Nous suggérons également plusieurs domaines prometteurs pour des recherches plus approfondies qui pourraient élargir le portefeuille de défenses ou rendre les attaques moins efficaces ou plus difficiles à exécuter. Enfin, nous discutons, mais ne résolvons pas de manière concluante, l'équilibre à long terme des attaquants et des défenseurs.
|
b5a047dffc3d70dce19de61257605dfc8c69535c
|
Les réseaux neuronaux profonds sont devenus un moyen largement utilisé et efficace de s'attaquer à des problèmes complexes du monde réel. Cependant, un obstacle majeur à leur application aux systèmes critiques pour la sécurité est la grande difficulté à fournir des garanties formelles sur leur comportement. Nous présentons une technique nouvelle, évolutive et efficace pour vérifier les propriétés des réseaux de neurones profonds (ou fournir des contre-exemples). La technique est basée sur la méthode simplexe, étendue pour gérer la fonction d'activation non convexe de l'unité linéaire rectifiée (ReLU), qui est un ingrédient crucial dans de nombreux réseaux neuronaux modernes. La procédure de vérification s'attaque aux réseaux de neurones dans leur ensemble, sans faire d'hypothèses simplificatrices. Nous avons évalué notre technique sur un prototype de mise en œuvre par réseau neuronal profond du système d'évitement de collision aéroporté de nouvelle génération pour les aéronefs sans pilote (ACAS Xu). Les résultats montrent que notre technique peut prouver avec succès les propriétés de réseaux qui sont d'un ordre de grandeur plus grand que les plus grands réseaux vérifiés à l'aide de méthodes existantes.
|
b4bd9fab8439da4939a980a950838d1299a9b030
|
Conditions générales d'utilisation complètes : http://pubsonline.informs.org/page/terms-and-conditions Cet article ne peut être utilisé qu'à des fins de recherche, d'enseignement et/ou d'étude privée. L'utilisation commerciale ou le téléchargement systématique (par des robots ou d'autres procédés automatiques) est interdit sans l'approbation explicite de l'éditeur, sauf indication contraire. Pour plus d'informations, contactez [email protected]. L'Editeur ne garantit pas l'exactitude, l'exhaustivité, la qualité marchande, l'adéquation à un usage particulier ou l'absence de contrefaçon de l'article. Les descriptions ou les références à des produits ou publications, ou l'inclusion d'une publicité dans cet article, ne constituent ni n'impliquent une garantie, une approbation ou un soutien des affirmations faites à propos de ce produit, publication ou service. © 1990 INFORMATIONS
|
5288d14f6a3937df5e10109d4e23d79b7ddf080f
| null |
c9946fedf333df0c6404765ba6ccbf8006779753
|
La conduite autonome a montré sa capacité à offrir un confort de conduite et à améliorer la sécurité. Tout en introduisant la conduite autonome dans notre système de circulation actuel, un enjeu important est de faire en sorte que le véhicule autonome soit capable de réagir de la même manière que les vrais conducteurs humains. Afin de s'assurer qu'un véhicule autonome du futur se comportera comme des conducteurs humains, cet article propose un modèle de planification du mouvement du véhicule, qui peut représenter la façon dont les conducteurs contrôlent les véhicules sur la base de l'évaluation des environnements de circulation dans l'intersection signalisée réelle. Le modèle de planification du mouvement proposé comprend des fonctions de détection de l'intention du piéton, de détection des espaces et de contrôle dynamique du véhicule. Les trois fonctions sont construites sur la base de l'analyse de données réelles collectées dans des environnements de trafic réels. Enfin, cet article démontre les performances de la méthode proposée en comparant les comportements de notre modèle avec les comportements de piétons réels et de conducteurs humains. Les résultats expérimentaux montrent que le modèle que nous proposons peut atteindre un taux de reconnaissance de 85 % pour l'intention de passage piéton. De plus, le véhicule contrôlé par le modèle de planification de mouvement proposé et le véhicule conduit par l'homme sont très similaires en ce qui concerne l'acceptation de l'écart aux intersections.
|
061356704ec86334dbbc073985375fe13cd39088
|
Dans ce travail, nous étudions l'effet de la profondeur convolutive du réseau sur sa précision dans le cadre de la reconnaissance d'images à grande échelle. Notre principale contribution est une évaluation approfondie des réseaux de profondeur croissante, qui montre qu'une amélioration significative par rapport aux configurations de l'état de la technique peut être obtenue en poussant la profondeur à 16-19 couches de poids. Ces résultats ont servi de base à notre soumission à l'ImageNet Challenge 2014, où notre équipe a remporté la première et la deuxième place dans les domaines de la localisation et de la classification. Nous montrons également que nos représentations se généralisent bien à d'autres ensembles de données, ce qui permet d'obtenir des résultats de l'état de l'art. Il est important de noter que nous avons rendu publics nos deux meilleurs modèles ConvNet pour faciliter la poursuite des recherches sur l'utilisation de représentations visuelles profondes dans la vision par ordinateur.
|
14318685b5959b51d0f1e3db34643eb2855dc6d9
|
Nous proposons une architecture de réseau neuronal convolutif profond, dont le nom de code est Inception, qui atteint le nouvel état de l'art en matière de classification et de détection dans le cadre du ImageNet Large-Scale Visual Recognition Challenge 2014 (ILSVRC14). La principale caractéristique de cette architecture est l'amélioration de l'utilisation des ressources informatiques à l'intérieur du réseau. Grâce à une conception soigneusement conçue, nous avons augmenté la profondeur et la largeur du réseau tout en maintenant le budget de calcul constant. Pour optimiser la qualité, les décisions architecturales ont été basées sur le principe Hebbian et l'intuition du traitement multi-échelle. L'une des incarnations utilisées dans notre soumission pour ILSVRC14 est appelée GoogLeNet, un réseau de 22 couches de profondeur, dont la qualité est évaluée dans le contexte de la classification et de la détection.
|
1827de6fa9c9c1b3d647a9d707042e89cf94abf0
|
L'entraînement des réseaux neuronaux profonds est compliqué par le fait que la distribution des entrées de chaque couche change pendant l'entraînement, à mesure que les paramètres des couches précédentes changent. Cela ralentit l'entraînement en nécessitant des taux d'apprentissage plus faibles et une initialisation minutieuse des paramètres, et rend notoirement difficile l'entraînement de modèles avec des non-linéarités saturées. Nous appelons ce phénomène le décalage interne des covariables et résolvons le problème en normalisant les entrées de couche. Notre méthode tire sa force de l'intégration de la normalisation dans l'architecture du modèle et de la réalisation de la normalisation pour chaque mini-lot d'entraînement. La normalisation par lots nous permet d'utiliser des taux d'apprentissage beaucoup plus élevés et d'être moins prudents lors de l'initialisation, et dans certains cas, élimine le besoin de Dropout. Appliquée à un modèle de classification d'images de pointe, la normalisation par lots atteint la même précision avec 14 fois moins d'étapes d'entraînement et bat le modèle d'origine de loin. En utilisant un ensemble de réseaux normalisés par lots, nous améliorons le meilleur résultat publié sur la classification ImageNet : atteignant 4,82 % d'erreurs de test dans le top 5, dépassant la précision des évaluateurs humains.
|
6e80768219b2ab5a3247444cfb280e8d33d369f0
|
Un diviseur de puissance à bande ultra-large (UWB) est conçu dans ce document. Les performances UWB de ce diviseur de puissance sont obtenues en utilisant une ligne de microbande conique composée de sections exponentielles et elliptiques. L'algorithme de microgénétique parallèle à grain grossier (PMGA) et CST Microwave Studio sont combinés pour réaliser un processus de conception parallèle automatisé. La méthode est appliquée pour optimiser le diviseur de puissance UWB. Le diviseur de puissance optimisé est fabriqué et mesuré. Les résultats mesurés montrent une perte d'insertion relativement faible, une bonne perte de retour et une isolation élevée entre les ports de sortie sur l'ensemble de l'UWB (3,1-10,6 GHz).
|
2532d0567c8334e4cadf282a73ffe399c1c32476
|
Cette présentation propose une « architecture de base » très simple pour un agent d'apprentissage capable de gérer des environnements stochastiques et partiellement observables. L'architecture utilise l'apprentissage par renforcement ainsi qu'une méthode de représentation des processus temporels sous forme de modèles graphiques. Je discuterai des méthodes pour déterminer les paramètres et la structure de telles représentations à partir d'entrées sensorielles, et pour calculer les probabilités a posteriori. Quelques problèmes en suspens subsistent avant que nous puissions essayer l'agent complet ; D'autres se manifestent lorsque nous envisageons de passer à l'échelle. Un deuxième thème de la conférence sera de savoir si l'apprentissage par renforcement peut fournir un bon modèle d'apprentissage animal et humain. Pour répondre à cette question, il faut faire de l'apprentissage par renforcement inverse : compte tenu du comportement observé, quel signal de récompense, le cas échéant, est optimisé ? Cela semble être un problème très intéressant pour les communautés COLT, UAI et ML, et a été abordé en économétrie sous la rubrique de l'estimation structurelle des processus de décision de Markov. 1 Apprentissage dans des environnements incertains L'IA concerne la construction d'agents intelligents, c'est-à-dire de systèmes qui perçoivent et agissent efficacement (selon une mesure de performance) dans un environnement. J'ai soutenu ailleurs dans Russell et Norvig (1995) que la plupart des recherches sur l'IA se sont concentrées sur des environnements statiques, déterministes, discrets et entièrement observables. Que faire lorsque, comme dans le monde réel, l'environnement est dynamique, stochastique, continu et partiellement observable ? « Cet article s'appuie sur une variété d'efforts de recherche soutenus par NSF @I-9634215), ONR (N00014-97-l-0941) et AR0 (DAAH04-96-1-0341). L'autorisation de faire des copies numériques ou papier de tout ou p.art de cette œuvre pour un usage personnel ou en classe est accordée gratuitement, à condition que des copies ne soient pas faites ou distribuées à des fins publicitaires ou commerciales et que les copies portent cet avis et la citation complète sur la première page. A copier autrement. Pour republier, publier sur des serveurs ou redistribuer à des listes, nécessite une autorisation spécifique préalable et/ou des frais. COLT 98 Madison WI IJSA Copyright ACM 1998 1-5X1 13-057--0/9X/ 7...$5.00 Au cours des dernières années, l'apprentissage par renforcement (également appelé programmation neurodynamique) a fait des progrès rapides en tant qu'approche pour les agents de construction automatiquement (Sutton, 1988 ; Kaelbling et al., 1996 ; Bertsekas et Tsitsiklis, 1996). L'idée de base est que la mesure de performance est mise à la disposition de l'agent sous la forme d'une fonction de récompense spécifiant la récompense pour chaque état par lequel l'agent passe. La mesure de la performance est alors la somme des récompenses obtenues. Par exemple, lorsqu'un bourdon butine, la fonction de récompense à chaque pas de temps peut être une combinaison de la distance parcourue (pondérée négativement) et du nectar ingéré. Les méthodes d'apprentissage par renforcement (RL) sont essentiellement des algorithmes en ligne pour résoudre les processus de décision de Markov (MDP). Un MDP est défini par la fonction de récompense et un modèle, c'est-à-dire les probabilités de transition d'état conditionnées par chaque action possible. Les algorithmes RL peuvent être basés sur un modèle, où l'agent apprend un modèle, ou sans modèle, par exemple, Q-learning citeWatkins : 1989, qui n'apprend qu'une fonction Q(s, a) spécifiant la valeur à long terme de l'action a dans l'état s et d'agir de manière optimale par la suite. Malgré leurs succès, les méthodes d'apprentissage par renforcement ont été largement limitées à des MDP entièrement observables, dans lesquels l'entrée sensorielle à chaque état est suffisante pour identifier l'état. De toute évidence, dans le monde réel, nous devons souvent faire face à des MDP partiellement observables (POMDP). Astrom (1965) a prouvé que les décisions optimales dans les POMDP dépendent de l'état de croyance b à chaque moment dans le temps, c'est-à-dire de la distribution de probabilité a posteriori sur tous les états réels possibles, compte tenu de toutes les preuves à ce jour. Les fonctions V et Q deviennent alors des fonctions de b au lieu de s. Parr et Russell (1995) décrivent un algorithme POMDP RL très simple utilisant une représentation explicite de b comme vecteur de probabilités, et McCallum (1993) montre un moyen d'approximer l'état de croyance en utilisant des séquences de perception récentes. Aucune des deux approches n'est susceptible de s'adapter à des situations avec un grand nombre de variables d'état et des dépendances temporelles à long terme. Ce qu'il faut, c'est un moyen de représenter le modèle de manière compacte et de mettre à jour efficacement l'état de croyance en fonction du modèle et de chaque nouvelle observation. Les réseaux bayésiens dynamiques (Dean et Kanazawa, 1989) semblent avoir certaines des propriétés requises ; en particulier, ils présentent des avantages significatifs par rapport à d'autres approches telles que les filtres de Kalman et les modèles de Markov cachés. Notre architecture de base, illustrée à la figure 1, utilise des DBN pour représenter et mettre à jour l'état de croyance à mesure que de nouvelles informations de capteur arrivent. Étant donné une représentation de b, le signal de récompense est utilisé pour apprendre une fonction Q représentée par un approximateur de fonction « boîte noire » tel qu'un réseau neuronal. À condition que nous puissions gérer des systèmes hybrides (dis-
|
6f20506ce955b7f82f587a14301213c08e79463b
| null |
d14ddc01cff72066c6655aa39f3e207e34fb8591
|
Cet article traite d'un domaine relativement nouveau de la technologie des radiofréquences (RF) basée sur les systèmes microélectromécaniques (MEMS). Les MEMS RF fournissent une classe de nouveaux dispositifs et composants qui affichent des performances haute fréquence supérieures à celles des dispositifs conventionnels (généralement à semi-conducteurs) et qui permettent de nouvelles capacités du système. De plus, les dispositifs MEMS sont conçus et fabriqués à l'aide de techniques similaires à celles de l'intégration à très grande échelle, et peuvent être fabriqués par des méthodes traditionnelles de traitement par lots. Dans cet article, le seul dispositif abordé est le micro-interrupteur électrostatique, peut-être le paradigme des dispositifs RF-MEMS. Grâce à ses caractéristiques de performance supérieures, le micro-interrupteur est développé dans un certain nombre de circuits et de systèmes existants, y compris les frontaux radio, les batteries de condensateurs et les réseaux à retardement. Les performances supérieures combinées à une dissipation de puissance ultra-faible et à une intégration à grande échelle devraient également permettre de nouvelles fonctionnalités du système. Deux possibilités abordées ici sont l'orientation quasi optique du faisceau et les antennes reconfigurables électriquement.
|
9d5f36b92ac155fccdae6730660ab44d46ad501a
|
La parité des risques est une méthode d'allocation utilisée pour construire des portefeuilles diversifiés qui ne repose sur aucune hypothèse de rendements attendus, plaçant ainsi la gestion du risque au cœur de la stratégie. Cela explique pourquoi la parité des risques est devenue un modèle d'investissement populaire après la crise financière mondiale de 2008. Cependant, la parité des risques a également été critiquée parce qu'elle se concentre sur la gestion de la concentration des risques plutôt que sur la performance du portefeuille, et est donc considérée comme étant plus proche de la gestion passive que de la gestion active. Dans cet article, nous montrons comment introduire des hypothèses de rendements attendus dans les portefeuilles de parité des risques. Pour ce faire, nous considérons une mesure de risque généralisée qui prend en compte à la fois le rendement et la volatilité du portefeuille. Cependant, l'arbitrage entre la performance et les contributions à la volatilité pose quelques difficultés, tandis que le problème de la budgétisation des risques doit être clairement défini. Après avoir dérivé les propriétés théoriques de ces portefeuilles de budgétisation des risques, nous appliquons ce nouveau modèle à l'allocation d'actifs. Tout d'abord, nous considérons la politique d'investissement à long terme et la détermination de l'allocation stratégique d'actifs. Nous considérons ensuite l'allocation dynamique et montrons comment construire des fonds à parité des risques qui dépendent des rendements attendus.
|
006df3db364f2a6d7cc23f46d22cc63081dd70db
|
Un réseau ad hoc est un ensemble d'hôtes mobiles sans fil formant un réseau temporaire sans l'aide d'une infrastructure établie ou d'une administration centralisée. Dans un tel environnement, il peut être nécessaire pour un hôte mobile de demander l'aide d'autres hôtes pour transmettre un paquet à sa destination, en raison de la portée limitée des transmissions sans fil de chaque hôte mobile. Cet article présente un protocole de routage dans les réseaux ad hoc qui utilise le routage dynamique des sources. Le protocole s'adapte rapidement aux changements de routage lorsque les mouvements d'hôtes sont fréquents, mais nécessite peu ou pas de surcharge pendant les périodes où les hôtes se déplacent moins fréquemment. D'après les résultats d'une simulation au niveau des paquets d'hôtes mobiles fonctionnant dans un réseau ad hoc, le protocole fonctionne bien dans diverses conditions environnementales telles que la densité d'hôte et les taux de mouvement. Pour tous les taux de mouvement d'hôte simulés, sauf les plus élevés, la surcharge du protocole est assez faible, tombant à seulement 1 % du total des paquets de données transmis pour des taux de mouvement modérés dans un réseau de 24 hôtes mobiles. Dans tous les cas, la différence de longueur entre les itinéraires utilisés et les longueurs de parcours optimales est négligeable, et dans la plupart des cas, les longueurs de parcours sont en moyenne dans un facteur de 1,01 par rapport à l'optimal.
|
25a26b86f4a2ebca2b154effbaf894aef690c03c
|
Récemment, on a constaté un intérêt significatif pour les algorithmes d'apprentissage supervisé qui combinent des données étiquetées et non étiquetées pour des tâches d'apprentissage de texte. Le paramètre de co-entraînement [1] s'applique aux ensembles de données dont les caractéristiques sont naturellement séparées en deux ensembles disjoints. Nous démontrons que lors de l'apprentissage à partir de données étiquetées et non étiquetées, les algorithmes qui exploitent explicitement une division indépendante naturelle des caractéristiques surpassent les algorithmes qui ne le font pas. Lorsqu'il n'existe pas de fractionnement naturel, les algorithmes de co-entraînement qui fabriquent un fractionnement de caractéristique peuvent surpasser les algorithmes qui n'utilisent pas de fractionnement. Ces résultats aident à expliquer pourquoi les algorithmes de co-entraînement sont à la fois de nature discriminante et robustes aux hypothèses de leurs classi ers intégrés.
|
78beead3a05f7e8f2dc812298f813c5bacdc3061
| null |
1d6889c44e11141cc82ef28bba1afe07f3c0a2b4
|
Au cours des dernières années, l'Internet des objets (IoT) a été largement utilisé et peut être trouvé dans chaque domaine. L'authentification et le contrôle d'accès sont des fonctionnalités importantes et critiques dans le contexte de l'IoT pour permettre une communication sécurisée entre les appareils. La mobilité, la topologie dynamique du réseau et la faible sécurité physique des appareils à faible consommation d'énergie dans les réseaux IoT sont des sources possibles de vulnérabilités de sécurité. Il est prometteur de rendre une authentification et un contrôle d'accès résistants aux attaques et légers dans un environnement IoT distribué et aux ressources limitées. Ce document présente le modèle IACAC (Identity Authentication and Capability based Access Control) avec évaluation du protocole et analyse des performances. Pour protéger l'IoT contre les attaques de type man-in-the-middle, par rejeu et par déni de service (Dos), le concept de capacité de contrôle d'accès est introduit. La nouveauté de ce modèle est qu'il présente une approche intégrée de l'authentification et du contrôle d'accès pour les appareils IoT. Les résultats d'autres études connexes ont également été analysés pour valider et étayer nos conclusions. Enfin, le protocole proposé est évalué à l'aide d'un outil de vérification du protocole de sécurité et les résultats de la vérification montrent que l'IACAC est à l'abri des attaques susmentionnées. Cet article traite également de l'analyse des performances du protocole en termes de temps de calcul par rapport à d'autres Journal of Cyber Security and Mobility, Vol. 1, 309-348. c © 2013 River Publishers. Tous droits réservés. 310 P.N. Mahalle et al. solutions existantes. En outre, ce document aborde les défis de l'IoT et les attaques de sécurité sont modélisées avec les cas d'utilisation pour donner une vue réelle des réseaux IoT.
|
310b72fbc3d384ca88ca994b33476b8a2be2e27f
|
Nous présentons Sentiment Analyzer (SA) qui extrait le sentiment (ou l'opinion) sur un sujet à partir de documents texte en ligne. Au lieu de classifier le sentiment d'un document entier sur un sujet, SA détecte toutes les références à un sujet donné et détermine le sentiment dans chacune des références à l'aide de techniques de traitement du langage naturel (NLP). Notre analyse des sentiments consiste en 1) l'extraction d'un terme de caractéristique spécifique à un sujet, 2) l'extraction des sentiments et 3) l'association (sujet, sentiment) par analyse des relations. SA utilise deux ressources linguistiques pour l'analyse : le lexique des sentiments et la base de données des modèles de sentiments. Les performances des algorithmes ont été vérifiées sur des articles d'évaluation de produits en ligne (critiques d'appareils photo numériques et de musique), et sur des documents plus généraux, y compris des pages Web générales et des articles de presse.
|
59d9160780bf3eac8c621983a36ff332a3497219
|
De nombreuses approches de l'analyse automatique des sentiments commencent par un grand lexique de mots marqués par leur polarité préalable (également appelée orientation sémantique). Cependant, la polarité contextuelle de la phrase dans laquelle une occurrence particulière d'un mot apparaît peut être très différente de la polarité précédente du mot. Les mots positifs sont utilisés dans des phrases exprimant des sentiments négatifs, ou vice versa. De plus, très souvent, les mots qui sont positifs ou négatifs hors contexte sont neutres dans leur contexte, ce qui signifie qu'ils ne sont même pas utilisés pour exprimer un sentiment. L'objectif de ce travail est de faire automatiquement la distinction entre la polarité a priori et la polarité contextuelle, en mettant l'accent sur la compréhension des caractéristiques importantes pour cette tâche. Parce qu'un aspect important du problème est d'identifier quand les termes polaires sont utilisés dans des contextes neutres, les caractéristiques permettant de distinguer les instances neutres et polaires sont évaluées, ainsi que les caractéristiques permettant de distinguer la polarité contextuelle positive et négative. L'évaluation comprend l'évaluation des performances des fonctionnalités sur plusieurs algorithmes d'apprentissage automatique. Pour tous les algorithmes d'apprentissage sauf un, la combinaison de toutes les fonctionnalités donne les meilleures performances. Une autre facette de l'évaluation examine comment la présence d'instances neutres affecte la performance des caractéristiques de distinction entre la polarité positive et négative. Ces expériences montrent que la présence d'instances neutres dégrade considérablement les performances de ces caractéristiques, et que la meilleure façon d'améliorer les performances dans toutes les classes de polarité est peut-être d'améliorer la capacité du système à identifier quand une instance est neutre.
|
7c89cbf5d860819c9b5e5217d079dc8aafcba336
|
Dans cet article, nous décrivons une étude de cas d'une catégorisation au niveau de la phrase dans laquelle des instructions de marquage sont élaborées et utilisées par quatre juges pour classer les clauses du Wall Street Journal comme subjectives ou objectives. L'accord entre les quatre juges est analysé et, sur la base de cette analyse, chaque clause est classée dans un ordre nal. Pour fournir un soutien empirique aux classifications, les corrélations sont évaluées dans les données entre la catégorie subjective et une classe sémantique de base postulée par Quirk et al. (1985).
|
9141d85998eadb1bca5cca027ae07670cfafb015
|
L'identification des sentiments (les parties affectives des opinions) est un problème difficile. Nous présentons un système qui, à partir d'un sujet, trouve automatiquement les personnes qui ont des opinions sur ce sujet et le sentiment de chaque opinion. Le système contient un module pour déterminer le sentiment des mots et un autre pour combiner les sentiments au sein d'une phrase. Nous expérimentons divers modèles de classification et de combinaison des sentiments au niveau des mots et des phrases, avec des résultats prometteurs.
|
c2ac213982e189e4ad4c7f60608914a489ec9051
|
De notre expérience de trois ans dans le développement d'un corpus à grande échelle de textes arabes annotés, notre article abordera les points suivants : (a) examiner les questions pertinentes de la langue arabe en ce qui concerne les choix méthodologiques, (b) expliquer notre choix d'utiliser le style de directives Penn English Treebank, (exigeant que les annotateurs arabophones s'occupent d'un nouveau système grammatical) plutôt que de faire l'annotation dans un style de grammaire arabe plus traditionnel (obligeant les chercheurs NLP à gérer une nouveau système) ; (c) montrer plusieurs façons dont l'annotation humaine est importante et l'analyse automatique difficile, y compris la gestion de l'ambiguïté orthographique par l'analyseur morphologique et les annotateurs humains ; (d) donner un exemple illustratif de la méthodologie de l'Arabic Treebank, en se concentrant sur une construction particulière à la fois dans l'analyse morphologique et le marquage et l'analyse syntaxique et en la suivant en détail tout au long du processus d'annotation, et enfin, (e) conclure avec ce qui a été réalisé jusqu'à présent et ce qui reste à faire.
|
e33a3487f9b656631159186db4b2aebaed230b36
|
Alors que les plateformes numériques transforment aujourd'hui presque tous les secteurs d'activité, elles trouvent lentement leur place dans la littérature grand public sur les systèmes d'information (SI). Les plateformes numériques constituent un objet de recherche difficile en raison de leur nature distribuée et de leur imbrication avec les institutions, les marchés et les technologies. De nouveaux défis de recherche se posent en raison de la croissance exponentielle de l'innovation des plateformes, de la complexité croissante des architectures de plateformes et de la diffusion des plateformes numériques dans de nombreux secteurs différents. Cet article développe un programme de recherche pour la recherche sur les plateformes numériques dans les SI. Nous recommandons aux chercheurs de chercher à (1) faire progresser la clarté conceptuelle en fournissant des définitions claires qui précisent l'unité d'analyse, le degré de numérisation et la nature sociotechnique des plateformes numériques ; (2) définir la portée appropriée des concepts de plateformes numériques en étudiant les plateformes à différents niveaux architecturaux et dans différents contextes industriels ; et (3) faire progresser la rigueur méthodologique en utilisant des études de cas intégrées, des études longitudinales, de la recherche en conception, de la modélisation axée sur les données et des techniques de visualisation. Compte tenu des développements actuels dans le domaine des affaires, nous suggérons six questions pour des recherches plus approfondies : (1) Les plateformes sont-elles là pour rester ? ; (2) Comment les plateformes doivent-elles être conçues ? (3) Comment les plateformes numériques transforment-elles les industries ? (4) Comment les approches axées sur les données peuvent-elles éclairer la recherche sur les plateformes numériques ? (5) Comment les chercheurs devraient-ils développer une théorie pour les plateformes numériques ? et (6) Comment les plateformes numériques affectent-elles la vie quotidienne ?
|
1be8cab8701586e751d6ed6d186ca0b6f58a54e7
|
L'utilité d'une spécification de système dépend en partie de l'exhaustivité des exigences. Cependant, il est difficile d'énumérer toutes les exigences nécessaires, en particulier lorsque les exigences interagissent avec un environnement imprévisible. Une spécification construite avec une vision environnementale idéalisée est incomplète si elle n'inclut pas d'exigences pour gérer un comportement non idéalisé. Souvent, les exigences incomplètes ne sont détectées qu'après la mise en œuvre, les tests ou, pire, après le déploiement. Même lorsqu'elle est effectuée lors de l'analyse des exigences, la détection des exigences incomplètes est généralement une tâche manuelle, fastidieuse et sujette aux erreurs. Cet article présente Ares, une approche au moment du design pour détecter la décomposition incomplète des exigences à l'aide de l'analyse symbolique de modèles d'exigences hiérarchiques. Nous illustrons notre approche en appliquant Ares à un modèle d'exigences d'un système de régulateur de vitesse adaptatif automobile basé sur l'industrie. Ares est capable de détecter automatiquement des cas spécifiques de décompositions d'exigences incomplètes au moment de la conception, dont beaucoup sont subtiles et seraient difficiles à détecter, que ce soit manuellement ou avec des tests.
|
155ed7834a8a44a195b80719985a8b4ca11e6fdc
|
Le radar MIMO (Multiple Input Multi-Output) peut atteindre des performances supérieures grâce à la diversité de forme d'onde par rapport aux systèmes radar à réseau phasé conventionnels. Lorsqu'un radar MIMO transmet des formes d'onde orthogonales, les signaux réfléchis par les diffuseurs sont linéairement indépendants les uns des autres. Par conséquent, les filtres de réception adaptatifs, tels que les filtres Capon et les filtres d'estimation d'amplitude et de phase (APES), peuvent être directement utilisés dans les applications radar MIMO. Cependant, des niveaux élevés de bruit et un fort encombrement détériorent considérablement les performances de détection des formateurs de faisceaux dépendants des données en raison d'une pénurie d'instantanés. Il a récemment été démontré que l'approche adaptative itérative (IAA), un algorithme des moindres carrés pondéré non paramétrique et sans paramètre de l'utilisateur, offre une résolution améliorée et des performances de rejet des interférences dans plusieurs applications de détection passive et active. Dans cet article, nous montrons comment l'IAA peut être étendu à l'imagerie radar MIMO, à la fois dans les cas Doppler intrapulsés négligeables et non négligeables, et nous établissons également certaines propriétés de convergence théoriques de l'IAA. De plus, nous proposons un algorithme IAA régularisé, appelé IAA-R, qui peut être plus performant que l'IAA en tenant compte des termes de bruit additif non représentés dans le modèle de signal. Des exemples numériques sont présentés pour démontrer les performances supérieures du radar MIMO par rapport aux radars à entrée unique et à sorties multiples (SIMO), et mettre en évidence les performances améliorées obtenues avec la méthode IAA-R proposée pour l'imagerie des cibles.
|
0cfe588996f1bc319f87c6f75160d1cf1542d9a9
| null |
20efcba63a0d9f12251a5e5dda745ac75a6a84a9
| null |
ccaab0cee02fe1e5ffde33b79274b66aedeccc65
|
En tant qu'avenir envisagé du transport, les voitures autonomes sont discutées sous divers angles, notamment sociaux, économiques, techniques, informatiques, design et éthique. D'une part, les voitures autonomes posent de nouveaux problèmes d'ingénierie qui sont progressivement résolus avec succès. D'autre part, les problèmes sociaux et éthiques sont généralement présentés sous la forme d'un problème de prise de décision idéalisé et insoluble, le soi-disant problème du chariot, qui est grossièrement trompeur. Nous soutenons qu'une approche éthique de l'ingénierie appliquée pour le développement de nouvelles technologies est ce qui est nécessaire ; L'approche doit être appliquée, c'est-à-dire qu'elle doit se concentrer sur l'analyse de problèmes d'ingénierie complexes du monde réel. Les logiciels jouent un rôle crucial pour le contrôle des voitures autonomes ; Par conséquent, les solutions d'ingénierie logicielle doivent prendre au sérieux les considérations éthiques et sociales. Dans cet article, nous examinons de plus près les instruments réglementaires, les normes, la conception et la mise en œuvre des composants, des systèmes et des services, et nous présentons les défis sociaux et éthiques pratiques qui doivent être relevés, ainsi que les nouvelles attentes en matière d'ingénierie logicielle.
|
288c67457f09c0c30cadd7439040114e9c377bc3
|
Les règles d'association, introduites par Agrawal, Imielinski et Swami, sont des règles de la forme « pour 90 % des lignes de la relation, si la ligne a la valeur 1 dans les colonnes de l'ensemble W, alors elle a 1 également dans la colonne B ». Il existe des méthodes efficaces pour découvrir les règles d'association à partir de grandes collections de données. Le nombre de règles découvertes peut toutefois être si important qu'il peut être assez difficile pour l'utilisateur de parcourir l'ensemble de règles et d'y trouver des règles intéressantes. Nous montrons comment un formalisme simple de modèles de règles permet de décrire facilement la structure de règles intéressantes. Nous donnons également des exemples de visualisation de règles et montrons comment un outil de visualisation s'interface avec les modèles de règles.
|
384bb3944abe9441dcd2cede5e7cd7353e9ee5f7
| null |
47f0f6a2fd518932734cc90936292775cc95aa5d
| null |
b336f946d34cb427452517f503ada4bbe0181d3c
|
Malgré les progrès récents dans la compréhension de la vidéo et le taux d'amélioration continue de la localisation de l'action temporelle au fil des ans, il n'est toujours pas clair à quel point nous sommes (ou près ?) de la résolution du problème. À cette fin, nous introduisons un nouvel outil de diagnostic pour analyser les performances des détecteurs d'action temporelle dans des vidéos et comparer différentes méthodes au-delà d'une seule métrique scalaire. Nous illustrons l'utilisation de notre outil en analysant les performances des participations les mieux récompensées dans le dernier défi de localisation d'actions ActivityNet. Notre analyse montre que les domaines les plus impactants sur lesquels travailler sont : les stratégies pour mieux gérer le contexte temporel autour des instances, l'amélioration de la robustesse avec la taille absolue et relative de l'instance, et les stratégies pour réduire les erreurs de localisation. De plus, notre analyse expérimentale révèle que l'absence d'accord entre les annotateurs n'est pas un obstacle majeur à la réalisation de progrès dans le domaine. Notre outil de diagnostic est accessible au public pour continuer à alimenter l'esprit d'autres chercheurs avec des informations supplémentaires sur leurs algorithmes.
|
160404fb0d05a1a2efa593c448fcb8796c24b873
|
La théorie de l'émulation de la représentation est développée et explorée comme un cadre qui peut synthétiser de manière révélatrice une grande variété de fonctions représentationnelles du cerveau. Le cadre est basé sur des constructions de la théorie du contrôle (modèles directs) et du traitement du signal (filtres de Kalman). L'idée est qu'en plus de simplement s'engager avec le corps et l'environnement, le cerveau construit des circuits neuronaux qui agissent comme des modèles du corps et de l'environnement. Au cours de l'engagement sensorimoteur manifeste, ces modèles sont pilotés par des copies d'efférence en parallèle avec le corps et l'environnement, afin de fournir des attentes de la rétroaction sensorielle, et d'améliorer et de traiter les informations sensorielles. Ces modèles peuvent également être exécutés hors ligne afin de produire des images, d'estimer les résultats de différentes actions, et d'évaluer et de développer des plans moteurs. Le cadre est initialement développé dans le contexte du contrôle moteur, où il a été démontré que les modèles internes fonctionnant en parallèle avec le corps peuvent réduire les effets des problèmes de retard de rétroaction. Les mêmes mécanismes peuvent rendre compte de l'imagerie motrice que le pilotage hors ligne de l'émulateur via des copies d'efférence. Le cadre est étendu pour tenir compte de l'imagerie visuelle en tant que conduite hors ligne d'un émulateur de la boucle motrice-visuelle. Je montre également comment de tels systèmes peuvent fournir une imagerie spatiale amodale. La perception, y compris la perception visuelle, résulte de l'utilisation de ces modèles pour former des attentes et pour interpréter des informations sensorielles. Je termine en décrivant brièvement d'autres fonctions cognitives qui pourraient également être synthétisées dans ce cadre, notamment le raisonnement, les phénomènes de la théorie de l'esprit et le langage.
|
65c85498be307ee940976db668dae4546943a4c8
| null |
761f2288b1b0cea385b0b9a89bb068593d94d6bd
|
La reconnaissance faciale 3D est devenue une tendance de la recherche, tant dans l'industrie que dans le monde universitaire. Il hérite des avantages de la reconnaissance faciale 2D traditionnelle, tels que le processus de reconnaissance naturelle et un large éventail d'applications. De plus, les systèmes de reconnaissance faciale 3D pourraient reconnaître avec précision les visages humains, même sous des lumières tamisées et avec des positions et des expressions faciales différentes, dans de telles conditions, les systèmes de reconnaissance faciale 2D auraient d'immenses difficultés à fonctionner. Cet article résume l'histoire et les progrès les plus récents dans le domaine de la recherche sur la reconnaissance faciale 3D. Les résultats de la recherche exploratoire sont présentés en trois catégories : la reconnaissance invariante de pose, la reconnaissance invariante d'expression et la reconnaissance invariante d'occlusion. Pour promouvoir les recherches futures, cet article rassemble des informations sur les bases de données de visages 3D accessibles au public. Cet article énumère également les problèmes ouverts importants.
|
2d2b1f9446e9b4cdb46327cda32a8d9621944e29
|
La participation aux sites de réseautage social a considérablement augmenté ces dernières années. Des services tels que Friendster, Tribe ou Facebook permettent à des millions d'individus de créer des profils en ligne et de partager des informations personnelles avec de vastes réseaux d'amis - et, souvent, un nombre inconnu d'inconnus. Dans cet article, nous étudions les modèles de révélation de l'information dans les réseaux sociaux en ligne et leurs implications sur la vie privée. Nous analysons le comportement en ligne de plus de 4 000 étudiants de l'Université Carnegie Mellon qui ont rejoint un site de réseautage social populaire destiné aux collèges. Nous évaluons la quantité d'informations qu'ils divulguent et étudions leur utilisation des paramètres de confidentialité du site. Nous mettons en évidence les attaques potentielles sur divers aspects de leur vie privée, et nous montrons que seul un pourcentage minime d'utilisateurs modifie les préférences de confidentialité hautement perméables.
|
e9c525679fed4dad85699d09b5ce1ccaffe8f11d
| null |
192687300b76bca25d06744b6586f2826c722645
|
Dans cet article, nous présentons les modèles de processus gaussien profond (GP). Les GP profonds sont un réseau de croyances profondes basé sur des schémas de processus gaussiens. Les données sont modélisées comme la sortie d'un GP multivarié. Les intrants de ce processus gaussien sont ensuite régis par un autre GP. Un modèle monocouche est équivalent à un GP standard ou au modèle à variable latente GP (GP-LVM). Nous effectuons l'inférence dans le modèle par marginalisation variationnelle approximative. Il en résulte une limite inférieure stricte de la vraisemblance marginale du modèle que nous utilisons pour la sélection du modèle (nombre de couches et de nœuds par couche). Les réseaux de croyances profondes sont généralement appliqués à des ensembles de données relativement volumineux en utilisant la descente de gradient stochastique pour l'optimisation. Notre traitement entièrement bayésien permet l'application de modèles profonds même lorsque les données sont rares. La sélection du modèle par notre borne variationnelle montre qu'une hiérarchie à cinq couches est justifiée même lors de la modélisation d'un ensemble de données numériques contenant seulement 150 exemples.
|
2cac0942a692c3dbb46bcf826d71d202ab0f2e02
|
Nous développons un modèle génératif non paramétrique profond évolutif en augmentant les processus gaussiens profonds avec un modèle de reconnaissance. L'inférence est réalisée dans un nouveau cadre variationnel évolutif où les distributions variationnelles a posteriori sont reparamétrées par un perceptron multicouche. L'aspect clé de cette reformulation est qu'elle empêche la prolifération de paramètres variationnels qui, autrement, croîtraient linéairement proportionnellement à la taille de l'échantillon. Nous dérivons une nouvelle formulation de la limite inférieure variationnelle qui nous permet de répartir la plupart des calculs de manière à pouvoir gérer des ensembles de données de la taille des tâches d'apprentissage profond traditionnelles. Nous montrons l'efficacité de la méthode sur une variété de défis, notamment l'apprentissage non supervisé profond et l'optimisation bayésienne profonde.
|
722fcc35def20cfcca3ada76c8dd7a585d6de386
|
Caffe fournit aux scientifiques et aux praticiens du multimédia un cadre propre et modifiable pour des algorithmes d'apprentissage profond de pointe et une collection de modèles de référence. Il s'agit d'une bibliothèque C++ sous licence BSD avec des liaisons Python et MATLAB pour l'entraînement et le déploiement efficace de réseaux neuronaux convolutifs à usage général et d'autres modèles profonds sur des architectures de base. Caffe répond aux besoins de l'industrie et des médias à l'échelle d'Internet grâce au calcul GPU CUDA, traitant plus de 40 millions d'images par jour sur un seul GPU K40 ou Titan (environ 2 ms par image). En séparant la représentation du modèle de la mise en œuvre réelle, Caffe permet l'expérimentation et le basculement transparent entre les plates-formes pour faciliter le développement et le déploiement, des machines de prototypage aux environnements cloud. Caffe est maintenu et développé par le Berkeley Vision and Learning Center (BVLC) avec l'aide d'une communauté active de contributeurs sur GitHub. Il alimente des projets de recherche en cours, des applications industrielles à grande échelle et des prototypes de startups dans les domaines de la vision, de la parole et du multimédia.
|
fd50fa6954e1f6f78ca66f43346e7e86b196b137
|
Avec le processus d'urbanisation toujours croissante, la modélisation systématique des activités des personnes dans l'espace urbain est reconnue comme une tâche socio-économique cruciale. Cette tâche était presque impossible il y a des années en raison du manque de sources de données fiables, mais l'émergence des données des médias sociaux géolocalisés (GTSM) jette un nouvel éclairage à ce sujet. Récemment, des études fructueuses ont été menées sur la découverte de sujets géographiques à partir des données GTSM. Cependant, leurs coûts de calcul élevés et leurs fortes hypothèses de distribution sur les sujets latents les empêchent de libérer pleinement la puissance de GTSM. Pour combler le fossé, nous présentons CrossMap, une nouvelle méthode d'apprentissage de la représentation intermodale qui découvre la dynamique urbaine avec des données GTSM massives. CrossMap utilise d'abord une procédure de recherche de mode accélérée pour détecter les points chauds spatio-temporels sous-jacents aux activités des personnes. Les points chauds détectés tiennent non seulement compte des variations spatio-temporelles, mais atténuent également largement la rareté des données GTSM. Avec les points chauds détectés, CrossMap intègre ensuite conjointement toutes les unités spatiales, temporelles et textuelles dans le même espace en utilisant deux stratégies différentes : l'une est basée sur la reconstruction et l'autre est basée sur les graphiques. Les deux stratégies capturent les corrélations entre les unités en encodant leur cooccurrence et leurs relations de voisinage, et apprennent des représentations de faible dimension pour préserver ces corrélations. Nos expériences démontrent que CrossMap surpasse non seulement de manière significative les méthodes de pointe pour la récupération et la classification de l'activité, mais atteint également une bien meilleure efficacité.
|
ce8d99e5b270d15dc09422c08c500c5d86ed3703
|
L'analyse de la démarche humaine permet de trouver une signature intrinsèque de la marche grâce à laquelle l'identification humaine omniprésente et les problèmes de troubles médicaux peuvent être étudiés dans un large spectre. La biométrie de la marche offre une fonction discrète grâce à laquelle les données vidéo de la marche peuvent être capturées à une plus grande distance sans que le sujet ne soit conscient au préalable. Dans cet article, une nouvelle technique a été abordée pour étudier l'analyse de la marche humaine avec un appareil Kinect Xbox. Il nous permet de minimiser les erreurs de segmentation grâce à une technique de soustraction automatisée en arrière-plan. Le modèle de squelette humain, très similaire, peut être généré à partir d'images de marche soustraites en arrière-plan, modifiées par des conditions de covariables, telles que le changement de vitesse de marche et les variations du type de vêtement. Les signatures de la marche sont capturées à partir des trajectoires d'angle articulaire de la hanche gauche, du genou gauche, de la hanche droite et du genou droit du modèle de squelette du sujet. La vérification expérimentale des données de marche Kinect a été comparée à notre développement interne d'une combinaison biométrique basée sur des capteurs, Intelligent Gait Oscillation Detector (IGOD). Des efforts ont été entrepris pour déterminer si cette combinaison biométrique basée sur un capteur peut être modifiée avec un dispositif Kinect pour la prolifération d'un système d'identification de la marche robuste. L'analyse discriminante de Fisher a été appliquée à la signature de la marche d'entraînement pour examiner le pouvoir discriminant du vecteur de caractéristique. Le classificateur naïf bayésien démontre un résultat de classification encourageant avec l'estimation des erreurs sur un ensemble de données limité capturé par le capteur Kinect.
|
582ea307db25c5764e7d2ed82c4846757f4e95d7
|
L'approximation de fonction est considérée du point de vue de l'optimisation numérique dans l'espace des fonctions, plutôt que de l'espace des paramètres. Une connexion est faite entre les expansions additives par étapes et la minimisation la plus abrupte de la descente. Un paradigme général de gradient est développé pour les expansions additives basées sur n'importe quel critère tting. Des algorithmes spécifiques sont présentés pour les moindres carrés, les moins absolus pour l'écart, les fonctions de perte de Huber M pour la régression et la probabilité logistique multiclasse pour la classification. Des améliorations spéciales sont dérivées pour le cas particulier où les composants additifs individuels sont des arbres de décision, et des outils d'interprétation de tels modèles « TreeBoost » sont présentés. L'amplification du gradient des arbres de décision produit des procédures compétitives, très robustes et interprétables pour la régression et la classification, particulièrement appropriées pour l'extraction de données moins propres. Les liens entre cette approche et les méthodes de boosting de Freund et Shapire 1996, et de Friedman, Hastie et Tibshirani 1998 sont discutés. 1 Estimation de fonction Dans le problème de l'estimation de fonction, on a un système composé d'une variable aléatoire de sortie ou de réponse y et d'un ensemble de variables aléatoires d'entrée ou explicatives x = fx1 ; xng. Étant donné un échantillon de \formation" pour info ; xig N 1 de connu (y ; x){valeurs, le but est de trouver une fonction F (x) qui associe x à y, telle que sur la distribution conjointe de tous (y ; x){valeurs, la valeur attendue d'une fonction de perte spécifiée (y ; F (x)) est minimisé F (x) = argmin F (x) Ey ; x (y ; F (x)) = argmin F (x) Ex [Ey( (y ; F (x)) jx] : (1) Fonctions de perte fréquemment employées (y ; F ) comprennent l'erreur carrée (y F ) et l'erreur absolue jy F j pour y 2 R (régression), et le binôme négatif log{vraisemblance, log(1 + e 2yF ), lorsque y 2 f 1 ; 1g (classification). Une procédure courante consiste à prendre F (x) comme membre d'une classe paramétrée de fonctions F (x ;P), où P = fP1 ; P2 ; g est un ensemble de paramètres. Dans cet article, nous nous concentrons sur les expansions « additives » de la forme
|
6a7c63a73724c0ca68b1675e256bb8b9a35c94f4
|
Votre utilisation de l'archive JSTOR indique que vous acceptez les conditions générales d'utilisation de JSTOR, disponibles à l'adresse http://www.jstor.org/about/terms.html. Les conditions générales d'utilisation de JSTOR prévoient, en partie, qu'à moins d'avoir obtenu une autorisation préalable, vous ne pouvez pas télécharger un numéro entier d'une revue ou plusieurs copies d'articles, et vous ne pouvez utiliser le contenu de l'archive JSTOR qu'à des fins personnelles et non commerciales. Veuillez contacter l'éditeur au sujet de toute utilisation ultérieure de cette œuvre. Les coordonnées de l'éditeur peuvent être obtenues à l'adresse http://www.jstor.org/journals/econosoc.html. Chaque copie d'une partie d'une transmission JSTOR doit contenir le même avis de droit d'auteur que celui qui apparaît à l'écran ou sur la page imprimée de cette transmission.
|
8eca169f19425c76fa72078824e6a91a5b37f470
|
Pour réussir la conception de systèmes radar à faible coût et hautes performances, une simulation de système précise et efficace est une exigence clé. Dans cet article, nous présentons un nouvel environnement de simulation polyvalent pour les systèmes radar à ondes continues modulés en fréquence. Outre la simulation matérielle courante, elle couvre la simulation de systèmes intégrés et l'analyse de concepts, de la synthèse du signal à la bande de base. Il comprend un générateur de scénarios flexible, une modélisation précise du bruit et fournit efficacement des données de simulation pour le développement et le test d'algorithmes de traitement du signal. Une comparaison des simulations et des résultats de mesure d'un prototype de radar intégré à 77 GHz montre les capacités du simulateur dans deux scénarios différents.
|
71337276460b50a2cb37959a2d843e593dc4fdcc
|
Un nouveau convertisseur à trois ports non isolé (NI-TPC) est proposé pour interfacer un port PV, un port de batterie bidirectionnel et un port de charge. La conversion de puissance en un seul étage entre deux des trois ports est réalisée. La topologie est dérivée en découplant le chemin d'écoulement d'énergie bidirectionnel de la structure conventionnelle en deux unidirectionnels. Deux des trois ports peuvent être étroitement régulés pour obtenir une récupération d'énergie maximale pour le PV ou le contrôle de charge pour la batterie, et maintenir la tension de charge constante en même temps, tandis que le troisième port est laissé flexible pour compenser le déséquilibre de puissance du convertisseur. Les états de fonctionnement sont analysés. La stratégie de contrôle de la concurrence multi-régulateurs est présentée pour obtenir une commutation d'état autonome et fluide lorsque la puissance d'entrée PV fluctue. L'analyse est vérifiée par les résultats expérimentaux.
|
ac8877b0e87625e26f52ab75e84c534a576b1e77
|
Dans le monde numérique, les dirigeants d'entreprise sont plus conscients de l'importance stratégique de l'information et de la gestion de l'information pour la création de valeur de leur entreprise. Cela présente à la fois des opportunités de leadership et des défis pour les DSI. Pour éviter que le poste de DSI ne soit marginalisé et pour renforcer la contribution des DSI à la création de valeur commerciale, ils doivent aller au-delà du statut de gestionnaires compétents des services informatiques et jouer un rôle actif pour aider leurs entreprises à construire une solide culture d'utilisation de l'information. L'objectif de cet article est de fournir une meilleure compréhension des approches de leadership que les DSI et les dirigeants d'entreprise peuvent adopter pour améliorer l'orientation informationnelle de leur entreprise. Sur la base des résultats de quatre études de cas, nous avons créé un cadre de positionnement du leadership à quatre quadrants. Ce cadre est construit du point de vue du DSI et indique qu'un DSI peut agir en tant que leader, suiveur ou non-acteur dans l'élaboration de l'orientation de l'information de l'entreprise pour atteindre son orientation stratégique. L'article se termine par des lignes directrices que les DSI peuvent utiliser pour les aider à positionner leurs défis de leadership dans l'introduction ou le maintien des initiatives d'orientation de l'information de leur entreprise et recommande des approches de leadership spécifiques en fonction de la situation particulière des DSI.
|
5c6b51bb44c9b2297733b58daaf26af01c98fe09
|
L'article compare systématiquement deux algorithmes d'extraction de caractéristiques pour exploiter les caractéristiques des produits commentées dans les avis des clients. La première approche [17] identifie les caractéristiques candidates en appliquant un ensemble de modèles POS et en élaguant l'ensemble candidat sur la base du test du rapport de vraisemblance logarithmique. La deuxième approche [11] applique l'exploitation minière de règles d'association pour identifier les caractéristiques fréquentes et une heuristique basée sur la présence de termes de sentiment pour identifier les caractéristiques peu fréquentes. Nous évaluons la performance des algorithmes sur cinq collections de documents spécifiques à des produits concernant des appareils électroniques grand public. Nous effectuons une analyse des erreurs et discutons des avantages et des limites des algorithmes.
|
623fd6adaa5585707d8d7339b5125185af6e3bf1
|
La présente étude est une étude prospective quasi expérimentale des interventions pour le trouble du jeu sur Internet (TCI). Cent quatre parents et leurs enfants adolescents ont été inscrits et répartis dans l'un des quatre groupes de traitement ; Camp résidentiel thérapeutique Siriraj de 7 jours (S-TRC) seul, formation de 8 semaines en gestion parentale pour la dépendance au jeu (PMT-G) seule, S-TRC et PMT-G combinés, et psychoéducation de base (contrôle). La gravité de l'IGD a été mesurée par le Game Addiction Screening Test (GAST). La différence moyenne entre les groupes dans les scores GAST était statistiquement significative, avec des valeurs P de < 0,001, 0,002 et 0,005 1, 3 et 6 mois après l'intervention, respectivement. Tous les groupes ont montré une amélioration par rapport au groupe témoin. Le pourcentage d'adolescents qui sont restés dans les groupes dépendants ou probablement dépendants était inférieur à 50 % dans les groupes S-TRC, PMT-G et combinés. En conclusion, le S-TRC et le PMT-G étaient des interventions psychosociales efficaces pour l'IGD et étaient supérieurs à la psychoéducation de base seule.
|
aca437e9e2a453c84a38d716ca9a7a7683ae58b6
|
Cet article présente une nouvelle perspective pour la compréhension des scènes 3D en raisonnant la stabilité et la sécurité des objets à l'aide de la mécanique intuitive. Notre approche utilise une observation simple selon laquelle, selon la conception humaine, les objets dans les scènes statiques devraient être stables dans le champ de gravité et être sûrs par rapport à diverses perturbations physiques telles que les activités humaines. Cette hypothèse s'applique à toutes les catégories de scènes et pose des contraintes utiles pour les interprétations plausibles (analyses) dans la compréhension des scènes. Étant donné un nuage de points 3D capturé pour une scène statique par des caméras de profondeur, notre méthode se compose de trois étapes : (i) récupération de primitives volumétriques 3D solides à partir de voxels ; (ii) raisonner la stabilité en regroupant les primitives instables en objets physiquement stables en optimisant la stabilité et la scène antérieure ; et (iii) raisonner la sécurité en évaluant les risques physiques pour les objets soumis à des perturbations physiques, telles que l'activité humaine, le vent ou les tremblements de terre. Nous adoptons un nouveau modèle de physique intuitive et représentons le paysage énergétique de chaque primitive et objet de la scène par un graphique de distancellement (DG). Nous construisons un graphe de contact avec des nœuds étant des primitives volumétriques 3D et des arêtes représentant les relations de support. Ensuite, nous adoptons un algorithme de Swendson-Wang Cuts pour partitionner le graphe de contact en groupes, chacun d'entre eux étant un objet stable. Afin de détecter des objets dangereux dans une scène statique, notre méthode déduit davantage les causes cachées et situées (perturbations) dans la scène, puis introduit une mécanique physique intuitive pour prédire les effets possibles (par exemple, les chutes) comme conséquences des perturbations. Dans les expériences, nous démontrons que l'algorithme atteint une performance nettement meilleure pour (i) la segmentation d'objets, (ii) la récupération volumétrique 3D et (iii) la compréhension de scènes par rapport à d'autres méthodes de pointe. Nous comparons également la prédiction de la sécurité du modèle mécanique intuitif avec le jugement humain.
|
7e9507924ceebd784503fd25128218a7119ff722
|
Cet article présente une approche analytique visuelle pour analyser une image complète de sujets pertinents discutés dans plusieurs sources, telles que des actualités, des blogs ou des micro-blogs. L'image complète se compose d'un certain nombre de sujets communs couverts par plusieurs sources, ainsi que de sujets distincts de chaque source. Notre approche modélise chaque corpus textuel sous la forme d'un graphique thématique. Ces graphiques sont ensuite appariés à l'aide d'une méthode de correspondance de graphe cohérente. Ensuite, nous développons une visualisation du niveau de détail (LOD) qui équilibre à la fois la lisibilité et la stabilité. En conséquence, la visualisation qui en résulte améliore la capacité des utilisateurs à comprendre et à analyser le graphique apparié sous plusieurs angles. En intégrant l'apprentissage métrique et la sélection de caractéristiques dans l'algorithme de correspondance de graphiques, nous permettons aux utilisateurs de modifier de manière interactive le résultat de la correspondance de graphiques en fonction de leurs besoins en matière d'informations. Nous avons appliqué notre approche à divers types de données, notamment les articles de presse, les tweets et les données de blog. L'évaluation quantitative et les études de cas réels démontrent le potentiel de notre approche, en particulier pour soutenir l'examen d'une image complète basée sur des graphiques thématiques à différents niveaux de détail.
|
b04a503487bc6505aa8972fd690da573f771badb
|
Les réseaux de perception et de contrôle neuronaux profonds sont susceptibles d'être un élément clé des véhicules autonomes. Ces modèles doivent être explicables - ils doivent fournir des justifications faciles à interpréter pour leur comportement - afin que les passagers, les compagnies d'assurance, les forces de l'ordre, les développeurs, etc., puissent comprendre ce qui a déclenché un comportement particulier. Nous explorons ici l'utilisation d'explications visuelles. Ces explications prennent la forme de régions mises en évidence en temps réel d'une image qui influencent causalement la sortie du réseau (contrôle de direction). Notre approche est en deux étapes. Dans un premier temps, nous utilisons un modèle d'attention visuelle pour entraîner un réseau de convolution de bout en bout, des images à l'angle de braquage. Le modèle d'attention met en évidence les régions de l'image qui influencent potentiellement la sortie du réseau. Certaines d'entre elles sont de vraies influences, mais d'autres sont fallacieuses. Nous appliquons ensuite une étape de filtrage causal pour déterminer quelles régions d'entrée influencent réellement la sortie. Cela produit des explications visuelles plus succinctes et expose plus précisément le comportement du réseau. Nous démontrons l'efficacité de notre modèle sur trois jeux de données totalisant 16 heures de conduite. Nous montrons d'abord que s'entraîner avec attention ne dégrade pas les performances du réseau de bout en bout. Ensuite, nous montrons que le réseau attribue de manière causale une variété de caractéristiques qui sont utilisées par les humains pendant la conduite.
|
4954bb26107d69eb79bb32ffa247c8731cf20fcf
|
Le chiffrement basé sur les attributs (ABE) [13] détermine la capacité de déchiffrement en fonction des attributs d'un utilisateur. Dans un schéma ABE multi-autorités, plusieurs autorités d'attributs surveillent différents ensembles d'attributs et émettent des clés de déchiffrement correspondantes aux utilisateurs, et les chiffreurs peuvent exiger qu'un utilisateur obtienne des clés pour les attributs appropriés de chaque autorité avant de déchiffrer un message. Chase [5] a donné un schéma ABE multi-autorités en utilisant les concepts d'une autorité centrale (CA) de confiance et d'identifiants globaux (GID). Cependant, l'AC dans cette construction a le pouvoir de déchiffrer chaque texte chiffré, ce qui semble en quelque sorte contradictoire avec l'objectif initial de distribuer le contrôle à de nombreuses autorités potentiellement non fiables. De plus, dans cette construction, l'utilisation d'un GID cohérent a permis aux autorités de combiner leurs informations pour construire un profil complet avec tous les attributs d'un utilisateur, ce qui compromet inutilement la vie privée de l'utilisateur. Dans cet article, nous proposons une solution qui supprime l'autorité centrale de confiance et protège la vie privée des utilisateurs en empêchant les autorités de regrouper leurs informations sur des utilisateurs particuliers, rendant ainsi l'ABE plus utilisable dans la pratique.
|
25098861749fe9eab62fbe90c1ebeaed58c211bb
|
Dans cet article, nous étudions les méthodes de boosting sous un nouvel angle. Nous nous appuyons sur des travaux récents d'Efron et al. pour montrer que le boosting minimise approximativement (et dans certains cas exactement) son critère de perte avec une contrainte l1 sur le vecteur coefficient. Cela permet de comprendre le succès du boosting avec l'arrêt précoce en tant qu'ajustement régularisé du critère de perte. Pour les deux critères les plus couramment utilisés (log-vraisemblance exponentielle et binomiale), nous montrons en outre qu'à mesure que la contrainte est relâchée - ou de manière équivalente au fur et à mesure que les itérations de boosting se déroulent - la solution converge (dans le cas séparable) vers un hyper-plan séparateur « l1-optimal ». Nous prouvons que cet hyper-plan de séparation optimal l1 a la propriété de maximiser la marge minimale l1 des données d'entraînement, telle que définie dans la littérature de boosting. Une similitude fondamentale intéressante entre le boosting et les machines à vecteurs de support de noyau émerge, car les deux peuvent être décrites comme des méthodes d'optimisation régularisée dans l'espace de prédiction de grande dimension, utilisant une astuce de calcul pour rendre le calcul pratique, et convergeant vers des solutions de maximisation des marges. Bien que cette déclaration décrive exactement les SVM, elle ne s'applique qu'approximativement à l'amplification.
|
0825788b9b5a18e3dfea5b0af123b5e939a4f564
|
Des méthodes récentes d'apprentissage des représentations de mots dans l'espace vectoriel ont réussi à capturer des régularités sémantiques et syntaxiques à grain fin en utilisant l'arithmétique vectorielle, mais l'origine de ces régularités est restée opaque. Nous analysons et rendons explicites les propriétés du modèle nécessaires à l'émergence de telles régularités dans les vecteurs de mots. Le résultat est un nouveau modèle de régression logbilinéaire global qui combine les avantages des deux grandes familles de modèles de la littérature : la factorisation matricielle globale et les méthodes de fenêtre de contexte local. Notre modèle exploite efficacement les informations statistiques en s'entraînant uniquement sur les éléments non nuls d'une matrice de cooccurrence mot-mot, plutôt que sur l'ensemble de la matrice clairsemée ou sur des fenêtres de contexte individuelles dans un grand corpus. Le modèle produit un espace vectoriel avec une sous-structure significative, comme en témoigne sa performance de 75 % sur une tâche d'analogie de mots récente. Il surpasse également les modèles associés sur les tâches de similarité et la reconnaissance d'entités nommées.
|
326cfa1ffff97bd923bb6ff58d9cb6a3f60edbe5
|
Nous étudions les propriétés d'une métrique entre deux distributions, la distance du déménageur de terre (EMD), pour la récupération d'images basée sur le contenu. L'EMD est basé sur le coût minimal qui doit être payé pour transformer une distribution en une autre, dans un sens précis, et a été proposé pour la première fois pour certains problèmes de vision par Peleg, Werman et Rom. Pour la récupération d'images, nous combinons cette idée avec un schéma de représentation des distributions basé sur la quantification vectorielle. Cette combinaison conduit à un cadre de comparaison d'images qui rend souvent mieux compte de la similitude perceptuelle que d'autres méthodes précédemment proposées. L'EMD est basé sur une solution au problème de transport à partir de l'optimisation linéaire, pour laquelle des algorithmes efficaces sont disponibles, et permet aussi naturellement un appariement partiel. Elle est plus robuste que les techniques d'appariement d'histogrammes, en ce sens qu'elle peut fonctionner sur des représentations de longueur variable des distributions qui évitent la quantification et d'autres problèmes de binning typiques des histogrammes. Lorsqu'il est utilisé pour comparer des distributions avec la même masse globale, l'EMD est une véritable mesure. Dans cet article, nous nous concentrons sur les applications à la couleur et à la texture, et nous comparons les performances de récupération de l'EMD avec celles d'autres distances.
|
508d8c1dbc250732bd2067689565a8225013292f
|
Une nouvelle sonde photopléthysmographe (PPG) double et un système de mesure de la vitesse d'onde d'impulsion locale (PWV) sont proposés et démontrés. La conception de la sonde développée utilise des transducteurs PPG de réflectance pour la détection non invasive des formes d'onde de propagation des impulsions sanguines à partir de deux points de mesure adjacents (distants de 28 mm). Le temps de propagation entre la forme d'onde à double impulsion acquise en continu a été utilisé pour la mesure locale de la VOP battement à battement. Une étude de validation expérimentale in vivo a été menée sur 10 volontaires sains (8 hommes et 2 femmes, âgés de 21 à 33 ans) pour valider la conception de la sonde PPG et développer un système de mesure local de la VOP. Le système proposé a permis de mesurer la VOP locale carotidienne de plusieurs sujets. La variation battement à battement de la VOP carotidienne de base était inférieure à 7,5 % pour 7 sujets sur 10, une variation maximale de 16 % a été observée au cours de l'étude. La variation des valeurs de la PWV locale carotidienne et de la pression artérielle brachiale (PA) pendant la période de récupération après l'exercice a également été examinée. Une corrélation statistiquement significative entre la variation locale de la VOP intra-sujet et les paramètres de la PA brachiale a été observée (r > 0,85, p < 0,001). Les résultats ont démontré la faisabilité de la sonde PPG proposée pour la mesure locale continue de la VOP battement à battement de l'artère carotide. Une telle unité de mesure locale non invasive de la VOP peut potentiellement être utilisée pour des mesures ambulatoires continues de la pression artérielle.
|
79465f3bac4fb9f8cc66dcbe676022ddcd9c05c6
|
Cet article présente une méthode pour reconnaître les actions humaines à partir de séquences de cartes de profondeur. Plus précisément, nous utilisons un graphe d'action pour modéliser explicitement la dynamique des actions et un sac de points 3D pour caractériser un ensemble de postures saillantes qui correspondent aux nœuds du graphe d'action. De plus, nous proposons un schéma d'échantillonnage basé sur la projection simple, mais efficace, pour échantillonner le sac de points 3D à partir des cartes de profondeur. Les résultats expérimentaux ont montré que plus de 90 % de précision de reconnaissance a été obtenue en échantillonnant seulement environ 1 % de points 3D à partir des cartes de profondeur. Par rapport à la reconnaissance basée sur la silhouette 2D, les erreurs de reconnaissance ont été divisées par deux. De plus, nous démontrons le potentiel du modèle de posture du sac de points pour traiter les occlusions par simulation.
|
46fd85775cab39ecb32cf2e41642ed2d0984c760
|
L'article examine le débat d'aujourd'hui sur le statut juridique des robots d'IA et la fréquence à laquelle les chercheurs et les décideurs politiques confondent l'agentivité juridique de ces agents artificiels avec le statut de la personne juridique. En prenant en compte les tendances actuelles dans le domaine, l'article propose une double position. Premièrement, les décideurs politiques doivent sérieusement réfléchir à la possibilité d'établir de nouvelles formes de responsabilité pour les activités des robots d'IA dans les contrats et le droit des affaires, par exemple, de nouvelles formes d'agentivité juridique dans les cas de responsabilité distribuée complexe. Deuxièmement, toute hypothèse visant à accorder aux robots IA la pleine personnalité juridique doit être écartée dans un avenir prévisible. Cependant, comment devrions-nous traiter avec Sophia, qui est devenue la première application d'IA à recevoir la citoyenneté d'un pays, à savoir l'Arabie saoudite, en octobre 2017 ? Certes, l'octroi à quelqu'un ou à quelque chose de la personnalité juridique est, comme toujours, une question politique très délicate qui ne repose pas simplement sur des choix rationnels et des preuves empiriques. La discrétion, l'arbitraire et même les décisions bizarres jouent un rôle dans ce contexte. Cependant, les raisons normatives pour lesquelles les systèmes juridiques accordent leur statut aux entités humaines et artificielles, telles que les sociétés, nous aident à prendre parti dans la quête actuelle de la personnalité juridique des robots IA. La citoyenne Sophia est-elle vraiment consciente, ou capable de subir les frondes et les flèches d'érudits scandaleux ?
|
0943ed739c909d17f8686280d43d50769fe2c2f8
|
Nous proposons l'apprentissage par l'action-réaction comme approche d'analyse et de synthèse du comportement humain. Ce paradigme met au jour des correspondances causales entre les événements passés et futurs ou entre une action et sa réaction en observant des séquences temporelles. Nous appliquons cette méthode pour analyser l'interaction humaine et pour synthétiser par la suite le comportement humain. À l'aide d'une série chronologique de mesures perceptuelles, un système découvre automatiquement une correspondance entre les gestes d'un participant humain (une action) et un geste ultérieur (une réaction) d'un autre participant. Un modèle probabiliste est formé à partir de données de l'interaction humaine à l'aide d'une nouvelle technique d'estimation, la maximisation des attentes conditionnelles (CEM). Le système pilote un caractère interactif graphique qui prédit de manière probabiliste la réponse la plus probable au comportement de l'utilisateur et l'exécute de manière interactive. Ainsi, après avoir analysé l'interaction humaine chez une paire de participants, le système est capable de remplacer l'un d'entre eux et d'interagir avec un seul utilisateur restant.
|
272216c1f097706721096669d85b2843c23fa77d
|
Nous présentons Adam, un algorithme pour l'optimisation basée sur le gradient du premier ordre des fonctions objectifs stochastiques, basé sur des estimations adaptatives de moments d'ordre inférieur. La méthode est simple à mettre en œuvre, efficace en termes de calcul, nécessite peu de mémoire, est invariante à la mise à l'échelle diagonale des gradients et est bien adaptée aux problèmes volumineux en termes de données et/ou de paramètres. La méthode convient également aux objectifs non stationnaires et aux problèmes avec des gradients très bruyants et/ou clairsemés. Les hyperparamètres ont des interprétations intuitives et nécessitent généralement peu de réglages. Certains liens avec des algorithmes connexes, dont Adam s'est inspiré, sont discutés. Nous analysons également les propriétés de convergence théoriques de l'algorithme et fournissons une borne de regret sur le taux de convergence qui est comparable aux résultats les plus connus dans le cadre de l'optimisation convexe en ligne. Les résultats empiriques démontrent qu'Adam fonctionne bien dans la pratique et se compare favorablement aux autres méthodes d'optimisation stochastique. Enfin, nous discutons de l'AdaMax, une variante d'Adam basée sur la norme de l'infini.
|
05aba481e8a221df5d8775a3bb749001e7f2525e
|
Nous présentons une nouvelle famille de méthodes de sous-gradient qui intègrent dynamiquement la connaissance de la géométrie des données observées dans les itérations précédentes pour effectuer un apprentissage plus informatif basé sur le gradient. Métaphoriquement, l'adaptation nous permet de trouver des needles dans des bottes de foin sous la forme de caractéristiques très prédictives mais rarement vues. Notre paradigme découle des progrès récents de l'optimisation stochastique et de l'apprentissage en ligne qui utilisent des ions proximaux pour contrôler les étapes de gradient de l'algorithme. Nous décrivons et analysons un appareil permettant de modifier de manière adaptative la fonction proximale, ce qui simplifie considérablement la fixation d'un taux d'apprentissage et aboutit à des garanties regrettables dont il est prouvé qu'elles sont aussi bonnes que la meilleure fonction proximale qui peut être choisie avec le recul. Nous donnons plusieurs algorithmes efficaces pour les problèmes de minimisation des risques empiriques avec des fonctions de régularisation communes et importantes et des contraintes de domaine. Nous étudions en détail notre analyse théorique et montrons que les méthodes adaptatives de sous-gradient surpassent les algorithmes de sous-gradient de pointe, mais non adaptatifs.
|
f2bc77fdcea85738d1062da83d84dfa3371d378d
|
Ce document décrit un émetteur-récepteur 6,25 Gbit/s 14 mW en CMOS 90 nm pour les applications puce à puce. L'émetteur-récepteur utilise un certain nombre de caractéristiques pour réduire la consommation d'énergie, notamment un multiplicateur d'horloge LC-PLL partagé, un réseau de distribution d'horloge résonnante chargé d'inductance, un émetteur en mode tension à faible oscillation et programmable, une horloge et une récupération de données (CDR) contrôlées par logiciel et une égalisation adaptative dans le récepteur, ainsi qu'un nouveau rotateur de phase basé sur PLL pour le CDR. La conception peut fonctionner avec une atténuation de canal de -15 dB ou plus à un taux d'erreur binaire de 10-15 ou moins, tout en consommant moins de 2,25 mW/Gb/s par émetteur-récepteur.
|
9da870dbbc32c23013ef92dd9b30db60a3cd7628
|
L'enregistrement non rigide des formes 3D est une tâche essentielle de plus en plus importante à mesure que les capteurs de profondeur de base deviennent plus largement disponibles pour le balayage de scènes dynamiques. L'enregistrement non rigide est beaucoup plus difficile que l'enregistrement rigide car il estime un ensemble de transformations locales au lieu d'une seule transformation globale, et est donc sujet au problème de surajustement en raison de la sous-détermination. La sagesse commune dans les méthodes précédentes est d'imposer une régularisation de la norme L2 sur les différences de transformation locales. Cependant, la régularisation de la norme l2 tend à biaiser la solution vers les valeurs aberrantes et le bruit avec une distribution à queue lourde, ce qui est vérifié par la mauvaise qualité de l'ajustement de la distribution gaussienne sur les différences de transformation. Au contraire, la distribution laplacienne s'accorde bien avec les différences de transformation, suggérant l'utilisation d'une rareté a priori. Nous proposons une méthode d'enregistrement non rigide (SNR) clairsemée avec un modèle régularisé de norme l1 pour l'estimation de la transformation, qui est effectivement résolue par une méthode de direction alternative (ADM) dans le cadre lagrangien augmenté. Nous élaborons également un schéma multi-résolution pour un enregistrement robuste et progressif. Les résultats à la fois sur les jeux de données publics et sur nos jeux de données numérisés montrent la supériorité de notre méthode, en particulier dans le traitement des déformations à grande échelle ainsi que des valeurs aberrantes et du bruit.
|
e36ecd4250fac29cc990330e01c9abee4c67a9d6
|
Un nouveau réseau d'antennes à double bande et double polarisation circulaire en bande Ka est présenté dans cette lettre. Une antenne bi-bande avec une polarisation circulaire à gauche pour les fréquences de liaison descendante en bande Ka et une polarisation circulaire à droite pour les fréquences de liaison montante en bande Ka est réalisée avec des fentes annulaires compactes. En appliquant la technique de rotation séquentielle, on obtient un sous-réseau de 2 × 2 avec de bonnes performances. Cette lettre décrit le processus de conception et présente les résultats de la simulation et des mesures.
|
0bb71e91b29cf9739c0e1334f905baad01b663e6
|
Dans cet article, l'ordonnancement et le contrôle de la puissance de transmission sont étudiés afin de minimiser la consommation d'énergie des appareils alimentés par batterie déployés dans les réseaux LTE. Pour permettre une planification efficace pour un grand nombre d'abonnés de type machine, un nouveau schéma distribué est proposé pour permettre aux nœuds de machine de former des grappes locales et de communiquer avec la station de base par l'intermédiaire des têtes de grappe. Ensuite, la planification de la liaison montante et le contrôle de l'alimentation dans les réseaux LTE sont introduits et des solutions tenant compte de la durée de vie sont étudiées pour être utilisées pour la communication entre les têtes de cluster et la station de base. Outre les solutions exactes, des solutions sous-optimales de faible complexité sont présentées dans ce travail, qui peuvent atteindre des performances presque optimales avec une complexité de calcul beaucoup plus faible. L'évaluation des performances montre que la durée de vie du réseau est considérablement prolongée à l'aide des protocoles proposés.
|
6dc4be33a07c277ee68d42c151b4ee866108281f
|
L'estimation des matrices de covariance à partir de mesures de compression a récemment fait l'objet d'efforts de recherche considérables dans divers domaines de la science et de l'ingénierie. En raison du petit nombre d'observations, l'estimation des matrices de covariance est un problème très mal posé. Cela peut être surmonté en exploitant des informations préalables sur la structure de la matrice de covariance. Cet article présente une classe de formulations convexes et des solutions respectives au problème d'estimation de la matrice de covariance de grande dimension sous des mesures de compression, imposant à la solution une structure de Toeplitz, de parcimonie, de motif nul, de rang bas ou de rang permuté faible, en plus d'une semi-définition positive. Pour résoudre les problèmes d'optimisation, nous introduisons la covariance par l'algorithme de rétrécissement lagrangien augmenté (CoVALSA), qui est une instance de l'algorithme de rétrécissement lagrangien augmenté divisé (SALSA). Nous illustrons l'efficacité de notre approche par rapport à des algorithmes de pointe.
|
05357314fe2da7c2248b03d89b7ab9e358cbf01e
|
Tous droits réservés. Aucune partie de ce livre ne peut être reproduite sous quelque forme que ce soit par des moyens électroniques ou mécaniques (y compris la photocopie, l'enregistrement ou le stockage et la récupération d'informations) sans l'autorisation écrite de l'éditeur.
|
06d0a9697a0f0242dbdeeff08ec5266b74bfe457
|
Nous présentons un nouveau modèle générique pour les structures arborescentes en langage naturel dans lequel les structures sémantiques (dépendance lexicale y) et syntaxiques sont notées avec des modèles séparés. Cette factorisation offre une simplicité conceptuelle, des possibilités directes d'améliorer séparément les modèles constitutifs et un niveau de performance déjà proche de celui de modèles similaires non factorisés. Plus important encore, contrairement à d'autres modèles d'analyse modernes, le modèle factorisé admet qu'il existe un algorithme d'analyse extrêmement efficace, qui rend possible une déduction efficace et exacte.
|
8f76334bd276a2b92bd79203774f292318f42dc6
|
Cet article traite d'une antenne cornet circulaire alimentée par une sonde en forme de L. Le processus de conception de l'adaptation à large bande à un câble coaxial 50 Omega et les performances de l'antenne en rapport axial et en gain sont présentés. Les résultats de simulation de cet article ont été obtenus à l'aide d'Ansoft HFSS 9.2
|
41c987b8a7e916d56fed2ea7311397e0f2286f3b
|
Contrairement aux approches traditionnelles qui se concentrent sur la quantification au niveau du réseau, nous proposons dans ce travail de minimiser l'effet de quantification au niveau tensoriel. Nous analysons le compromis entre le bruit de quantification et la distorsion d'écrêtage dans les réseaux de faible précision. Nous identifions les statistiques de différents tenseurs et dérivons des expressions exactes pour la dégradation de l'erreur quadratique moyenne due à l'écrêtage. En optimisant ces expressions, nous montrons des améliorations notables par rapport aux schémas de quantification standard qui évitent normalement l'écrêtage. Par exemple, en choisissant simplement les valeurs d'écrêtage précises, on obtient une amélioration de plus de 40 % de la précision pour la quantification de VGG16-BN à 4 bits de précision. Nos résultats ont de nombreuses applications pour la quantification des réseaux de neurones à la fois au moment de l'entraînement et de l'inférence. Une application immédiate est le déploiement rapide de réseaux neuronaux sur des accélérateurs de faible précision sans réglage fin fastidieux ni disponibilité de l'ensemble des ensembles de données.
|
1bde4205a9f1395390c451a37f9014c8bea32a8a
|
La reconnaissance et la localisation des objets interrogés dans les images à distance jouent un rôle important pour la manipulation et la navigation robotiques. Même s'il a été régulièrement étudié, il reste une tâche difficile pour les scènes avec occlusion et encombrement.
|
242caa8e04b73f56a8d4adae36028cc176364540
|
Nous proposons un algorithme d'estimation de pose basé sur le vote applicable aux capteurs 3D, qui remplacent rapidement leurs homologues 2D dans de nombreuses applications de robotique, de vision par ordinateur et de jeux. Il a récemment été démontré qu'une paire de points 3D orientés, qui sont des points sur la surface de l'objet avec des normales, dans un cadre de vote, permet une estimation rapide et robuste de la pose. Bien que les points de surface orientés soient discriminants pour les objets avec des changements de courbure suffisants, ils ne sont pas assez compacts et discriminants pour de nombreux objets industriels et du monde réel qui sont principalement planaires. Comme les bords jouent un rôle clé dans le recalage 2D, les discontinuités de profondeur sont cruciales en 3D. Dans cet article, nous étudions et développons une famille d'algorithmes d'estimation de pose qui exploitent mieux ces informations de limites. En plus des points de surface orientés, nous utilisons deux autres primitives : les points limites avec des directions et les segments de ligne de frontière. Nos expériences montrent que ces primitives soigneusement choisies encodent plus d'informations de manière compacte et offrent ainsi une plus grande précision pour une large classe de pièces industrielles et permettent un calcul plus rapide. Nous faisons la démonstration d'un système de prélèvement robotisé pratique à l'aide de l'algorithme proposé et d'un capteur 3D.
|
5df318e4aac5313124571ecc7e186cba9e84a264
|
Le nombre croissant de pénétrations répétées de logiciels malveillants sur les marchés officiels des applications mobiles constitue une menace élevée pour la confidentialité et la confidentialité des informations personnelles et sensibles des utilisateurs finaux. Protéger les appareils des utilisateurs finaux contre les applications adverses représente un défi technique et de recherche pour les chercheurs/ingénieurs en sécurité du monde universitaire et de l'industrie. Malgré les pratiques de sécurité et les contrôles d'analyse déployés sur les marchés d'applications, les logiciels malveillants se faufilent à travers les défenses et infectent les appareils des utilisateurs. L'évolution des logiciels malveillants les a vus devenir des logiciels sophistiqués et changeant de manière dynamique, généralement déguisés en applications légitimes. L'utilisation de techniques d'évasion très avancées, telles que le code crypté, l'obfuscation et les mises à jour dynamiques du code, etc., sont des pratiques courantes que l'on retrouve dans les nouveaux logiciels malveillants. Avec l'utilisation évasive des mises à jour de code dynamiques, un logiciel malveillant se faisant passer pour une application bénigne contourne les vérifications d'analyse et ne révèle ses fonctionnalités malveillantes que lorsqu'il est installé sur l'appareil d'un utilisateur. Cette thèse fournit une étude approfondie sur l'utilisation et le mode d'utilisation des mises à jour de code dynamiques dans les applications Android. De plus, nous proposons une approche d'analyse hybride, StaDART, qui intercale l'analyse statique et l'analyse dynamique pour couvrir les lacunes inhérentes aux techniques d'analyse statique pour analyser les applications en présence de mises à jour de code dynamiques. Les résultats de nos évaluations sur des applications du monde réel démontrent l'efficacité de StaDART. Cependant, l'analyse dynamique, et l'analyse hybride d'ailleurs, pose le problème de la stimulation du comportement de l'application, ce qui est un défi non négligeable pour les outils d'analyse automatisés. À cette fin, nous proposons une technique d'exécution de chemins de code inter-composants ciblés basée sur le découpage arrière, TeICC. TeICC exploite un mécanisme de découpage vers l'arrière pour extraire les chemins de code à partir d'un point cible dans l'application. Il utilise un graphe de dépendances système pour extraire des chemins de code qui impliquent une communication entre les composants. Les chemins d'accès au code extrait sont ensuite instrumentés et exécutés dans le contexte de l'application pour capturer les comportements dynamiques sensibles, résoudre les mises à jour de code dynamique et l'obfuscation. Notre évaluation de TeICC montre qu'il peut être utilisé efficacement pour l'exécution ciblée de chemins de code inter-composants dans des applications Android obfusquées. Aussi, n'excluant toujours pas la possibilité que des adversaires atteignent les appareils des utilisateurs, nous proposons un accrochage API sur téléphone
|
5ed4b57999d2a6c28c66341179e2888c9ca96a25
|
Dans cet article, nous travaillons dans le but de développer des agents capables d'apprendre à agir dans des mondes complexes. Nous développons une représentation probabiliste de règles de planification relationnelle qui modélise de manière compacte les effets d'action bruyants et non déterministes, et montrons comment ces règles peuvent être apprises efficacement. À travers des expériences dans des domaines de planification simples et un monde de blocs simulé en 3D avec une physique réaliste, nous démontrons que cet algorithme d'apprentissage permet aux agents de modéliser efficacement la dynamique du monde.
|
55c769b5829ca88ba940e0050497f4956c233445
|
L'odométrie visuelle peut être complétée par des informations de profondeur telles que celles fournies par les caméras RGB-D ou par les lidars associés aux caméras. Cependant, ces informations de profondeur peuvent être limitées par les capteurs, laissant de grandes zones dans les images visuelles où la profondeur n'est pas disponible. Ici, nous proposons une méthode pour utiliser la profondeur, même si elle est peu disponible, dans la récupération du mouvement de la caméra. De plus, la méthode utilise la profondeur par structure à partir du mouvement à l'aide du mouvement précédemment estimé et des caractéristiques visuelles saillantes pour lesquelles la profondeur n'est pas disponible. Par conséquent, la méthode est capable d'étendre l'odométrie visuelle RGBD à des environnements ouverts à grande échelle où la profondeur ne peut souvent pas être suffisamment acquise. Le cœur de notre méthode est une étape d'ajustement de faisceau qui affine les estimations de mouvement en parallèle en traitant une séquence d'images, dans une optimisation par lots. Nous avons évalué notre méthode dans trois configurations de capteurs, l'une à l'aide d'une caméra RVB-D et les deux autres à l'aide d'une combinaison d'une caméra et d'un lidar 3D. Notre méthode est classée #4 sur le benchmark d'odométrie KITTI, quelle que soit la modalité de détection, par rapport aux méthodes d'odométrie visuelle stéréoscopique qui récupèrent la profondeur par triangulation. L'erreur de position moyenne qui en résulte est de 1,14 % de la distance parcourue.
|
0c668ee24d58ecca165f788d40765e79ed615471
| null |
9cccd211c9208f790d71fa5b3499d8f827744aa0
|
Divers problèmes éducatifs sont résolus grâce à l'exploration de données éducatives, qui est l'application la plus répandue de l'exploration de données. L'un des objectifs cruciaux de cet article est d'étudier les travaux les plus récents réalisés sur l'EDM et d'analyser leurs avantages et leurs inconvénients. Cet article met également en évidence les résultats cumulatifs des différentes pratiques et techniques d'exploration de données appliquées dans les articles étudiés, suggérant ainsi aux chercheurs les orientations futures en matière de GED. De plus, une expérience a également été menée pour évaluer certains algorithmes de classification et de clustering afin d'observer les algorithmes les plus fiables pour les recherches futures.
|
197a7fc2f8d57d93727b348851b59b34ce990afd
|
SRILM est un ensemble de bibliothèques C++, de programmes exécutables et de scripts d'assistance conçus pour permettre la production et l'expérimentation de modèles de langage statistique pour la reconnaissance vocale et d'autres applications. SRILM est disponible gratuitement à des fins non commerciales. La boîte à outils prend en charge la création et l'évaluation d'une variété de types de modèles de langage basés sur les statistiques de N-grammes, ainsi que plusieurs tâches connexes, telles que le marquage statistique et la manipulation de listes de N-meilleurs et de treillis de mots. Ce document résume les fonctionnalités de la boîte à outils et traite de sa conception et de sa mise en œuvre, en mettant en évidence la facilité de prototypage rapide, la réutilisation et la combinabilité des outils.
|
12f661171799cbd899e1ff4ae0a7e2170c3d547b
|
Les modèles statistiques du langage estiment la distribution de divers phénomènes du langage naturel aux fins de la reconnaissance vocale et d'autres technologies linguistiques. Depuis que le premier modèle significatif a été proposé en 1980, de nombreuses tentatives ont été faites pour améliorer l'état de l'art. Nous les examinons, indiquons quelques directions prometteuses et plaidons en faveur d'une approche bayésienne de l'intégration des théories linguistiques avec les données.
|
395f4b41578c3ff5139ddcf9e90eb60801b50394
|
La boîte à outils de modélisation statistique du langage de la CMU a été réintégrée afin de faciliter la construction et la mise à l'essai de modèles de langage de bigrammes et de trigrammes. Elle est actuellement utilisée dans plus de laboratoires universitaires, gouvernementaux et industriels dans plus de pays. Ce document présente une nouvelle version de la boîte à outils. Nous décrivons la technologie conventionnelle de modélisation du langage telle qu'elle est mise en œuvre dans la boîte à outils et décrivons l'efficacité et la fonctionnalité supplémentaires que la nouvelle boîte à outils offre. par rapport aux logiciels précédents pour cette tâche Enfin, nous donnons un exemple de l'utilisation de la boîte à outils dans la construction et le test d'un modèle de langage simple
|
0b8f4edf1a7b4d19d47d419f41cde432b9708ab7
|
Nous présentons une technologie pour la fabrication de guides d'ondes intégrés remplis de silicium permettant la réalisation de composants passifs à ondes millimétriques à faible perte et haute performance et d'antennes réseau à gain élevé, facilitant ainsi la réalisation de systèmes à ondes millimétriques hautement intégrés. La technologie proposée utilise des techniques de gravure par ions réactifs profonds (DRIE) avec des étapes de métallisation de l'aluminium pour intégrer des guides d'ondes rectangulaires avec une grande précision géométrique et des parois latérales métalliques continues. Les résultats de mesure des guides d'ondes rectangulaires intégrés présentent des pertes de 0,15 dB/λg à 105 GHz. De plus, les transitions coplanaires-guides d'ondes à bande ultra-large avec une perte d'insertion de 0,6 dB à 105 GHz et une perte de retour supérieure à 15 dB de 80 à 110 GHz sont décrites et caractérisées. La conception, l'intégration et les performances mesurées d'une antenne réseau à guide d'ondes fendu à balayage de fréquence sont rapportées, ce qui permet d'obtenir une capacité d'orientation du faisceau mesurée de 82 ° dans une bande de 23 GHz et une largeur de faisceau à demi-puissance (HPBW) de 8,5 ° à 96 GHz. Enfin, pour démontrer la capacité de cette technologie à faciliter l'intégration à faible coût au niveau du système à ondes millimétriques, un circuit intégré d'émission/réception à ondes continues modulées en fréquence (FMCW) pour les applications radar d'imagerie est monté directement sur le réseau intégré et caractérisé expérimentalement.
|
31864e13a9b3473ebb07b4f991f0ae3363517244
|
Cet article décrit une approche computationnelle de la détection des bords. Le succès de l'approche dépend de la définition d'un ensemble complet d'objectifs pour le calcul des points de bord. Ces objectifs doivent être suffisamment précis pour délimiter le comportement souhaité du détecteur tout en faisant des hypothèses minimales sur la forme de la solution. Nous définissons des critères de détection et de localisation pour une classe d'arêtes, et présentons des formes mathématiques pour ces critères sous forme de fonctionnelles sur la réponse impulsionnelle de l'opérateur. Un troisième critère est ensuite ajouté pour s'assurer que le détecteur n'a qu'une seule réponse à une seule arête. Nous utilisons les critères de l'optimisation numérique pour dériver des détecteurs pour plusieurs caractéristiques d'image courantes, y compris les bords de pas. En spécialisant l'analyse pour faire avancer les bords, nous constatons qu'il existe un principe d'incertitude naturelle entre la détection et les performances de localisation, qui sont les deux objectifs principaux. Avec ce principe, nous dérivons une forme d'opérateur unique qui est optimale à n'importe quelle échelle. Le détecteur optimal a une implémentation approchée simple dans laquelle les bords sont marqués aux maxima de l'amplitude du gradient d'une image lissée gaussienne. Nous étendons ce détecteur simple à l'aide d'opérateurs de plusieurs largeurs pour faire face aux différents rapports signal/bruit dans l'image. Nous présentons une méthode générale, appelée synthèse de caractéristiques, pour l'intégration fine à grossière d'informations provenant d'opérateurs à différentes échelles. Enfin, nous montrons que les performances du détecteur de bord de pas s'améliorent considérablement à mesure que la fonction d'étalement du point de l'opérateur est étendue le long du bord.
|
b41c45b2ca0c38a4514f0779395ebdf3d34cecc0
| null |
7e19f7a82528fa79349f1fc61c7f0d35a9ad3a5e
|
Les visages représentent des stimuli visuels complexes, multidimensionnels et significatifs et le développement d'un modèle informatique pour la reconnaissance faciale est difficile [42]. Nous présentons une solution de réseau de neurones hybride qui se compare favorablement à d'autres méthodes. Le système combine un système d'images locales, un réseau de neurones cartographiques auto-organisé et un réseau de neurones convolutifs. La carte auto-organisée fournit une quantification des échantillons d'images dans un espace topologique où les entrées qui sont n e r dans l'espace d'origine sont également proches dans l'espace de sortie, fournissant ainsi la dimensionnalité et l'invariance aux changements mineurs dans l'échantillon d'image, et le réseau neuronal convolutif fournit des preuves pour l'invariance partielle à la translation, rotation, échelle et déformation. Le réseau convolutif extrait des caractéristiques de plus en plus grandes dans un ensemble hiérarchique de couches. Nous présentons les résultats en utilisant la transformée de Karhunen-Loève à la place de l'application auto-organisatrice, et un perceptron multicouche à la place du réseau convolutif. La transformée de Karhunen-Loève est presque aussi performante (erreur de 5,3 % contre 3,8 %). Le perceptron multicouche est très peu performant (40 % d'erreur contre 3,8 %). La méthode est capable d'une classification rapide, ne nécessite qu'une normalisation et un prétraitement rapides et approximatifs, et présente actuellement de meilleures performances de classification que l'approche des faces propres [42] sur la base de données considérée, car le nombre d'images par personne dans la base de données d'entraînement varie de 1 à 5. Avec 5 images par personne, la méthode proposée et les faces propres donnent respectivement 3,8 % et 10,5 % d'erreur. Le reconnaisseur fournit une mesure de confiance dans sa sortie et l'erreur de classification approche de zéro lorsque l'on rejette aussi peu que 10 % des exemples. Nous utilisons une base de données de 400 images de 40 individus qui présentent un degré assez élevé de variabilité dans l'expression, la pose et les détails du visage. Nous analysons la complexité informatique et discutons de la manière dont de nouvelles classes pourraient être ajoutées à la reconnaissance entraînée.
|
5dd9dc47c4acc9ea3e597751194db52119398ac6
|
Le registre à décalage est un type de circuit logique séquentiel qui est principalement utilisé pour le stockage de données numériques ou le transfert de données sous forme de nombres binaires dans les applications d'identification par radiofréquence (RFID) afin d'améliorer la sécurité du système. Cet article présente un registre à décalage économe en énergie utilisant une nouvelle bascule avec une structure implicite déclenchée par impulsion. La bascule proposée présente des caractéristiques de haute performance et de faible puissance. Il est composé d'un circuit d'échantillonnage mis en œuvre par cinq transistors, d'un élément C pour les trajectoires de montée et de descente, et d'un étage de garde. La vitesse est améliorée par l'exécution de quatre transistors cadencés avec une technique de condition de transition. Les résultats de la simulation confirment que la topologie proposée consomme les quantités les plus faibles de puissance de 30,1997 et 22,7071 nW pour les registres à décalage parallèle entrée-sortie parallèle (PIPO) et série entrée-série sortie (SISO) couvrant respectivement une surface de puce de 22 μm2. La conception globale ne comprend que 16 transistors et est simulée dans la technologie CMOS (Complementary-Metal-Oxide-Semiconductor) de 130 nm avec une alimentation de 1,2 V.
|
d76beb59a23c01c9bec1940c4cec1ca26e00480a
|
Le laboratoire de recherche de l'armée de l'air a mis en œuvre et évalué deux interfaces cerveau-ordinateur (BCI) qui traduisent la réponse visuelle évoquée à l'état stationnaire en un signal de commande pour le fonctionnement d'un dispositif physique ou d'un programme informatique. Dans une approche, les opérateurs autorégulent la réponse cérébrale ; L'autre approche utilise plusieurs réponses évoquées.
|
8a65dc637d39c14323dccd5cbcc08eed2553880e
|
Cet article décrit la période initiale (1994-2001) d'un projet de recherche-action en cours visant à développer des systèmes d'information sanitaire pour soutenir la gestion des districts en Afrique du Sud. La reconstruction du secteur de la santé dans l'Afrique du Sud post-apartheid : la lutte pour l'équité dans la prestation des services de santé et la construction d'une structure décentralisée basée sur les districts sanitaires. En termes de développement des systèmes d'information (SI), ce processus de réforme se traduit par une standardisation des données de santé de manière à inscrire les objectifs de la nouvelle Afrique du Sud en renforçant le contrôle local et l'intégration du traitement de l'information. Nous décrivons notre approche de la recherche-action et utilisons des concepts issus des théories de l'acteur-réseau et de la structuration dans l'analyse du matériel du cas. Dans la description détaillée et l'analyse du processus de développement des SI fournies, nous nous concentrons sur la nécessité d'équilibrer la normalisation et l' exibilité locale (localisation) ; la normalisation est donc considérée comme un alignement ascendant d'un ensemble d'acteurs hétérogènes. En nous appuyant sur un modèle de système social des systèmes d'information, nous conceptualisons la stratégie de conception du SI développée et utilisée comme la culture de processus par lesquels ces acteurs traduisent et alignent leurs intérêts. Nous développons une hiérarchie modulaire d'ensembles de données mondiaux et locaux comme cadre dans lequel les tensions entre la normalisation et la localisation peuvent être comprises et abordées. Enfin, nous discutons de la pertinence possible des résultats de la recherche dans d'autres pays.
|
600434c6255c160b53ad26912c1c0b96f0d48ce6
|
La forêt aléatoire est une technique efficace sur le plan informatique qui peut fonctionner rapidement sur de grands ensembles de données. Il a été utilisé dans de nombreux projets de recherche récents et des applications réelles dans divers domaines. Cependant, la littérature associée ne fournit presque aucune indication sur le nombre d'arbres à utiliser pour composer une forêt aléatoire. La recherche rapportée ici analyse s'il existe un nombre optimal d'arbres au sein d'une forêt aléatoire, c'est-à-dire un seuil à partir duquel l'augmentation du nombre d'arbres n'apporterait aucun gain de performance significatif, et ne ferait qu'augmenter le coût de calcul. Nos principales conclusions sont les suivantes : à mesure que le nombre d'arbres augmente, cela ne signifie pas toujours que la performance de la forêt est nettement meilleure que celle des forêts précédentes (moins d'arbres), et doubler le nombre d'arbres est sans valeur. Il est également possible d'affirmer qu'il existe un seuil au-delà duquel il n'y a pas de gain significatif, à moins qu'un énorme environnement de calcul ne soit disponible. De plus, il a été constaté une relation expérimentale pour le gain d'AUC lors du doublement du nombre d'arbres dans n'importe quelle forêt. De plus, à mesure que le nombre d'arbres augmente, l'ensemble complet des attributs a tendance à être utilisé dans une forêt aléatoire, ce qui peut ne pas être intéressant dans le domaine biomédical. De plus, les mesures basées sur la densité des ensembles de données proposées ici capturent probablement certains aspects de la dimension VC sur les arbres de décision et les ensembles de données à faible densité peuvent nécessiter des machines de grande capacité, tandis que l'inverse semble également être vrai.
|
4cbadc5f4afe9ac178fd14a6875ef1956a528313
|
Au cours des dernières années, les progrès de la technologie ont permis à de petits nœuds de capteurs de communiquer sans fil avec le reste d'Internet. Avec cette réalisation, la question de la sécurisation de tels réseaux de capteurs sans fil compatibles IP (IP-WSN) a émergé et a été un sujet de recherche important depuis. Dans cette thèse, nous discutons de notre implémentation des protocoles TLS et DTLS à l'aide d'une suite de chiffrement à clé pré-partagée (TLS, PSK WITH AES 128, CCM 8) pour le système d'exploitation Contiki. Outre le simple ajout d'un nouveau protocole à l'ensemble des protocoles pris en charge par le système d'exploitation Contiki, ce projet nous permet d'évaluer dans quelle mesure la sécurité de la couche de transport et les schémas de gestion des clés pré-partagées sont adaptés aux IP-WSN.
|
0ab99aa04e3a8340a7552355fb547374a5604b24
|
L'apprentissage EEP est une tendance croissante dans l'analyse générale des données et a été qualifié de l'une des 10 technologies révolutionnaires de 2013 [1]. L'apprentissage profond est une amélioration des réseaux de neurones artificiels, composés de plus de couches qui permettent des niveaux d'abstraction plus élevés et des prédictions améliorées à partir de données [2]. À ce jour, il s'impose comme le principal outil d'apprentissage automatique dans les domaines de l'imagerie générale et de la vision par ordinateur. En particulier, les réseaux neuronaux convolutifs (CNN) se sont avérés être des outils puissants pour un large éventail de tâches de vision par ordinateur. Les CNN profonds apprennent automatiquement les abstractions de niveau intermédiaire et élevé obtenues à partir de données brutes (par exemple, des images). Des résultats récents indiquent que les descripteurs génériques extraits des CNN sont extrêmement efficaces dans la reconnaissance et la localisation d'objets dans des images naturelles. Les groupes d'analyse d'images médicales du monde entier entrent rapidement dans le domaine et appliquent les CNN et d'autres méthodologies d'apprentissage profond à une grande variété d'applications. Des résultats prometteurs émergent. En imagerie médicale, le diagnostic et/ou l'évaluation précis d'une maladie dépendent à la fois de l'acquisition et de l'interprétation de l'image. L'acquisition d'images s'est considérablement améliorée au cours des dernières années, les appareils acquérant des données à des vitesses plus rapides et une résolution accrue. Cependant, le processus d'interprétation des images n'a commencé que récemment à bénéficier de la technologie informatique. La plupart des interprétations d'images médicales sont effectuées par des médecins ; Cependant, l'interprétation de l'image par les humains est limitée en raison de sa subjectivité, de ses grandes variations entre les interprètes et de sa fatigue. De nombreuses tâches de diagnostic nécessitent un processus de recherche initial pour détecter les anomalies et quantifier les mesures et les changements au fil du temps. Les outils informatiques, en particulier l'analyse d'images et l'apprentissage automatique, sont les principaux catalyseurs pour améliorer le diagnostic, en facilitant l'identification des résultats nécessitant un traitement et pour soutenir le flux de travail de l'expert. Parmi ces outils, l'apprentissage profond s'avère rapidement être la base de l'état de l'art, conduisant à une meilleure précision. Elle a également ouvert de nouvelles frontières dans l'analyse des données, avec des taux de progrès jamais atteints auparavant.
|
5343b6d5c9f3a2c4d9648991162a6cc13c1c5e70
|
La traduction d'images non supervisée, qui vise à traduire deux ensembles d'images indépendants, est un défi pour découvrir les correspondances correctes sans données appariées. Les travaux existants s'appuient sur des réseaux antagonistes génératifs (GAN) de sorte que la distribution des images traduites est indiscernable de la distribution de l'ensemble cible. Cependant, de telles contraintes au niveau de l'ensemble ne peuvent pas apprendre les correspondances au niveau de l'instance (par exemple, les parties sémantiques alignées dans la tâche de transfiguration d'objet). Cette limitation entraîne souvent des faux positifs (par exemple, des artefacts géométriques ou sémantiques) et entraîne un problème d'effondrement de mode. Pour résoudre les problèmes ci-dessus, nous proposons un nouveau cadre pour la traduction d'images au niveau de l'exemple par Deep Attention GAN (DA-GAN). Une telle conception permet à DA-GAN de décomposer la tâche de traduction d'échantillons de deux ensembles en instances de traduction dans un espace latent hautement structuré. Plus précisément, nous apprenons conjointement un encodeur d'attention profonde, et les correspondances au niveau de l'instance pourraient être découvertes en assistant aux instances apprises. Par conséquent, les contraintes pouvaient être exploitées à la fois au niveau de l'ensemble et au niveau de l'instance. Les comparaisons avec plusieurs stades de l'art démontrent la supériorité de notre approche, et la large capacité d'application, par exemple, le morphing de pose, l'augmentation des données, etc., repousse la marge du problème de traduction de domaine.1
|
f1526054914997591ffdb8cd523bea219ce7a26e
|
En mars de cette année, l'American Statistical Association (ASA) a publié une déclaration sur l'utilisation correcte des valeurs P, en réponse à une préoccupation croissante selon laquelle la valeur P est souvent utilisée à mauvais escient et mal interprétée. Notre objectif est de traduire ces avertissements donnés par l'ASA dans un langage plus facilement compréhensible par les cliniciens et les chercheurs qui n'ont pas une expérience approfondie en statistiques. De plus, nous avons l'intention d'illustrer les limites des valeurs P, même lorsqu'elles sont utilisées et interprétées correctement, et d'attirer davantage l'attention sur la pertinence clinique des résultats d'études en utilisant deux études récemment publiées à titre d'exemples. Nous soutenons que les valeurs P sont souvent mal interprétées. Une erreur courante consiste à dire que P < 0,05 signifie que l'hypothèse nulle est fausse, et P ≥0,05 signifie que l'hypothèse nulle est vraie. L'interprétation correcte d'une valeur P de 0,05 est que si l'hypothèse nulle était effectivement vraie, un résultat similaire ou plus extrême se produirait 5 % du temps en répétant l'étude dans un échantillon similaire. En d'autres termes, la valeur P informe sur la probabilité des données compte tenu de l'hypothèse nulle et non l'inverse. Une alternative possible liée à la valeur P est l'intervalle de confiance (IC). Il fournit plus d'informations sur l'ampleur d'un effet et l'imprécision avec laquelle cet effet a été estimé. Cependant, il n'existe pas de solution miracle pour remplacer les valeurs P et arrêter l'interprétation erronée des résultats scientifiques. Les scientifiques et les lecteurs devraient se familiariser avec l'interprétation correcte et nuancée des tests statistiques, des valeurs P et des IC.
|
50ca90bc847694a7a2d9a291f0d903a15e408481
|
Nous proposons une approche généralisée de la reconnaissance des gestes humains basée sur de multiples modalités de données telles que la vidéo de profondeur, la pose articulée et la parole. Dans notre système, chaque geste est décomposé en mouvements corporels à grande échelle et en mouvements subtils locaux tels que l'articulation de la main. L'idée d'apprendre à plusieurs échelles est également appliquée à la dimension temporelle, de sorte qu'un geste est considéré comme un ensemble d'impulsions de mouvement caractéristiques, ou poses dynamiques. Chaque modalité est d'abord traitée séparément dans de courts blocs spatio-temporels, où les caractéristiques discriminatives spécifiques aux données sont soit extraites manuellement, soit apprises. Enfin, nous utilisons un réseau de neurones récurrents pour modéliser les dépendances temporelles à grande échelle, la fusion de données et, finalement, la classification des gestes. Nos expériences sur l'ensemble de données du Challenge on Multimodal Gesture Recognition de 2013 ont démontré que l'utilisation de plusieurs modalités à plusieurs échelles spatiales et temporelles conduit à une augmentation significative des performances, permettant au modèle de compenser les erreurs des classificateurs individuels ainsi que le bruit dans les canaux séparés.
|
586d7b215d1174f01a1dc2f6abf6b2eb0f740ab6
|
Nous présentons une méthode non supervisée pour l'apprentissage d'une hiérarchie de détecteurs de caractéristiques éparses qui sont invariants aux petits décalages et distorsions. L'extracteur de caractéristiques résultant se compose de plusieurs filtres de convolution, suivis d'une couche de regroupement de caractéristiques qui calcule le maximum de chaque sortie de filtre dans les fenêtres adjacentes, et d'une non-linéarité sigmoïde ponctuelle. Un deuxième niveau de caractéristiques plus grandes et plus invariantes est obtenu en entraînant le même algorithme sur des patchs de caractéristiques du premier niveau. L'entraînement d'un classificateur supervisé sur ces caractéristiques produit une erreur de 0,64 % sur MNIST et un taux de reconnaissance moyen de 54 % sur Caltech 101 avec 30 échantillons d'entraînement par catégorie. Bien que l'architecture résultante soit similaire à celle des réseaux convolutifs, la procédure d'entraînement non supervisé par couche atténue les problèmes de surparamétrage qui affligent les procédures d'apprentissage purement supervisé et offre de bonnes performances avec très peu d'échantillons d'apprentissage étiquetés.
|
80bcfbb1a30149e636ff1a08aeb715dad6dd9285
|
La conception et les performances de deux MMIC amplificateurs de puissance en bande Ka à haut rendement utilisant une technologie de procédé GaN HEMT de 0,15 μm sont présentées. Les résultats mesurés à ondes continues (CW) dans l'appareil pour l'amplificateur symétrique à 3 étages montrent une puissance de sortie allant jusqu'à 11 W et une efficacité à puissance ajoutée (PAE) de 30 % à 30 GHz. La conception asymétrique à 3 étages produisait plus de 6 W de puissance de sortie et jusqu'à 34 % de PAE. La taille de la matrice pour les MMIC équilibrés et asymétriques est respectivement de 3,24×3,60 mm2 et 1,74×3,24 mm2.
|
284de726e700a6c52f9f8fb9f3de4d4b0ff778bb
|
Les réseaux neuronaux récurrents (RNN) sont naturellement adaptés à la reconnaissance vocale en raison de leur capacité à utiliser des informations temporelles changeant dynamiquement. On a fait valoir que les RNN profonds sont capables de modéliser des relations temporelles à différentes granularités temporelles, mais qu'ils souffrent de problèmes de gradient de disparition. Dans cet article, nous étendons les RNN à longue mémoire à court terme (LSTM) empilés en utilisant des blocs LSTM de grille qui formulent le calcul non seulement le long de la dimension temporelle, mais aussi de la dimension de profondeur, afin d'atténuer ce problème. De plus, nous donnons la priorité à la dimension de profondeur par rapport à la dimension temporelle pour fournir des informations plus à jour sur la dimension de profondeur, puisque la sortie de celle-ci sera utilisée pour la classification. Nous appelons ce modèle le Grid LSTM prioritaire (pGLSTM). Des expériences approfondies sur quatre grands ensembles de données (AMI, HKUST, GALE et MGB) indiquent que le pGLSTM surpasse les autres modèles LSTM profonds, battant les LSTM empilés avec une amélioration relative de 4 % à 7 %, et atteint de nouveaux points de référence parmi les modèles unidirectionnels sur tous les ensembles de données.
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.