La technologie expliquée dans le projet concerne les objets portables comme cela se produit, par exemple, avec votre téléphone portable en utilisant une application pour compter vos pas ou votre rythme cardiaque lorsque vous faites du sport. Objectif? Crypto-monnaie minière. Le brevet n'a pas encore été accordé à Microsoft et il ne peut pas être correctement dit qu'il provient de Bill Gates. Il existe de sérieux doutes quant à son développement pour des questions éthiques et juridiques.Le nombre "666" est obtenu en supprimant les "zéros" de l'ID "WO2020060606A1" du brevet qui n'a pas encore été délivré. Si nous lisons la table des codes, le chiffre "A1", présent à la fin de l'ID, signifie que le brevet n'a pas encore été délivré.
Le dispositif utilisateur 130 peut comprendre tout dispositif capable de traiter et de stocker des données / informations et de communiquer sur le réseau de communication 120. Par exemple, le dispositif utilisateur 130 peut comprendre des ordinateurs personnels, des serveurs, des téléphones cellulaires, des tablettes, des ordinateurs portables, des dispositifs intelligents (par exemple des montres intelligentes ou intelligentes téléviseurs).
L'activité du corps humain associée à une tâche fournie à un utilisateur peut être utilisée dans un processus d'exploration de données d'un système de crypto-monnaie. Un serveur peut fournir une tâche à un dispositif d'un utilisateur qui est couplé en communication avec le serveur. Un capteur couplé en communication ou compris dans le dispositif de l'utilisateur peut détecter l'activité corporelle de l'utilisateur. Des données d'activité corporelle peuvent être générées sur la base de l'activité corporelle détectée de l'utilisateur. Le système de crypto-monnaie couplé de manière communicative au dispositif de l'utilisateur peut vérifier si les données d'activité corporelle satisfont à une ou plusieurs conditions définies par le système de crypto-monnaie, et attribuer une crypto-monnaie à l'utilisateur dont les données d'activité corporelle sont vérifiées.Le capteur 140 peut être configuré pour détecter l'activité corporelle de l'utilisateur 145. Comme illustré sur la Fig. 1, le capteur 140 peut être un composant distinct du dispositif utilisateur 130 et être connecté de manière opérationnelle et / ou communicative au dispositif utilisateur 130. En variante, le capteur 140 peut être inclus et intégré dans le dispositif utilisateur 130. Par exemple, le dispositif utilisateur 130 peut être un appareil portable dispositif comportant un capteur 140. Le capteur 140 peut transmettre des informations / données au dispositif utilisateur 130.
Le capteur 140 peut comprendre, par exemple, mais sans s'y limiter, des scanners ou capteurs d'imagerie par résonance magnétique fonctionnelle (IRMf), des capteurs d'électroencéphalographie (EEG), des capteurs de spectroscopie proche infrarouge (NIRS), des moniteurs de fréquence cardiaque, des capteurs thermiques, des capteurs optiques, une radiofréquence (RF) capteurs, capteurs à ultrasons, caméras ou tout autre capteur ou scanner pouvant mesurer ou détecter l'activité corporelle ou scanner le corps humain.
L'idée ne s'arrête pas aux prospections possibles, mais aussi aux futures probables: 5G
Par exemple, l'IRMf peut mesurer l'activité corporelle en détectant les changements associés au flux sanguin. L'IRMf peut utiliser un champ magnétique et des ondes radio pour créer des images détaillées du corps (par exemple, le flux sanguin dans le cerveau pour détecter les zones d'activité). Le matériel ( http://news.berkely.edu/2011/09/22/brain-movies/ ) montre un exemple de la façon dont l'IRMf peut mesurer l'activité cérébrale associée aux informations visuelles et générer des données d'image.
En utilisant l'imagerie par résonance magnétique fonctionnelle (IRMf) et des modèles informatiques, les chercheurs d'UC Berkeley ont réussi à décoder et à reconstruire les expériences visuelles dynamiques des gens - dans ce cas, en regardant des bandes-annonces de films hollywoodiens.
Pour l'instant, la technologie ne peut que reconstruire des clips vidéo que les gens ont déjà visionnés. Cependant, la percée ouvre la voie à la reproduction des films dans nos têtes que personne d'autre ne voit, tels que les rêves et les souvenirs, selon les chercheurs.
La reconstruction approximative (à droite) d'un clip vidéo (à gauche) est obtenue par imagerie cérébrale et simulation informatique«Il s'agit d'un grand pas vers la reconstruction de l'imagerie interne», a déclaré le professeur Jack Gallant, neuroscientifique de l'UC Berkeley et co-auteur de l'étude publiée en ligne aujourd'hui (22 septembre) dans la revue Current Biology . "Nous ouvrons une fenêtre sur les films dans nos esprits."
À terme, les applications pratiques de la technologie pourraient comprendre une meilleure compréhension de ce qui se passe dans l'esprit des personnes qui ne peuvent pas communiquer verbalement, comme les victimes d'AVC, les patients atteints de coma et les personnes atteintes de maladies neurodégénératives.
Cela peut également jeter les bases d'une interface cerveau-machine afin que les personnes atteintes de paralysie cérébrale ou de paralysie, par exemple, puissent guider les ordinateurs avec leur esprit.
Cependant, les chercheurs soulignent que la technologie met des décennies à permettre aux utilisateurs de lire les pensées et les intentions des autres, comme le décrivent des classiques de science-fiction tels que «Brainstorm», dans lesquels les scientifiques ont enregistré les sensations d'une personne afin que d'autres puissent les ressentir.
Auparavant, Gallant et ses collègues chercheurs ont enregistré l'activité cérébrale dans le cortex visuel tandis qu'un sujet regardait des photographies en noir et blanc. Ils ont ensuite construit un modèle de calcul qui leur a permis de prédire avec une précision écrasante quelle image le sujet regardait.
Dans leur dernière expérience, les chercheurs affirment avoir résolu un problème beaucoup plus difficile en décodant les signaux cérébraux générés par les images animées.
"Notre expérience visuelle naturelle est comme regarder un film", a déclaré Shinji Nishimoto, auteur principal de l'étude et chercheur post-doctoral dans le laboratoire de Gallant. "Pour que cette technologie ait une large applicabilité, nous devons comprendre comment le cerveau traite ces expériences visuelles dynamiques."
La lecture de l'esprit grâce à la technologie d'imagerie cérébrale est un thème de science-fiction commun
Nishimoto et deux autres membres de l'équipe de recherche ont servi de sujets à l'expérience, car la procédure exige que les volontaires restent immobiles à l'intérieur du scanner IRM pendant des heures à la fois.
Ils ont regardé deux séries distinctes de bandes-annonces de films hollywoodiens, tandis que l'IRMf a été utilisée pour mesurer le flux sanguin à travers le cortex visuel, la partie du cerveau qui traite les informations visuelles. Sur l'ordinateur, le cerveau était divisé en petits cubes tridimensionnels appelés pixels volumétriques ou «voxels».
"Nous avons construit un modèle pour chaque voxel qui décrit comment les informations de forme et de mouvement dans le film sont mises en correspondance avec l'activité cérébrale", a déclaré Nishimoto.
L'activité cérébrale enregistrée pendant que les sujets regardaient le premier ensemble de clips a été introduite dans un programme informatique qui a appris, seconde par seconde, à associer les modèles visuels du film à l'activité cérébrale correspondante.
L'activité cérébrale évoquée par le deuxième ensemble de clips a été utilisée pour tester l'algorithme de reconstruction du film. Cela a été fait en introduisant 18 millions de secondes de vidéos YouTube aléatoires dans le programme informatique afin qu'il puisse prédire l'activité cérébrale que chaque clip film évoquerait le plus probablement chez chaque sujet.
Enfin, les 100 clips que le programme informatique a décidé étaient les plus similaires au clip que le sujet avait probablement vu ont été fusionnés pour produire une reconstruction floue mais continue du film original.
Reconstruire des films en utilisant des scintigraphies cérébrales a été difficile car les signaux de flux sanguin mesurés à l'aide de l'IRMf changent beaucoup plus lentement que les signaux neuronaux qui codent les informations dynamiques dans les films, selon les chercheurs. Pour cette raison, la plupart des tentatives précédentes de décoder l'activité cérébrale se sont concentrées sur les images statiques.
"Nous avons résolu ce problème en développant un modèle en deux étapes qui décrit séparément la population neuronale sous-jacente et les signaux de flux sanguin", a déclaré Nishimoto.
En fin de compte, a déclaré Nishimoto, les scientifiques doivent comprendre comment le cerveau traite les événements visuels dynamiques que nous vivons dans la vie quotidienne.
"Nous devons savoir comment fonctionne le cerveau dans des conditions naturalistes", a-t-il déclaré. "Pour cela, nous devons d'abord comprendre comment fonctionne le cerveau pendant que nous regardons des films."
Les autres coauteurs de l'étude sont Thomas Naselaris avec Helen Wills Neuroscience Institute d'UC Berkeley; An T. Vu avec le Joint Graduate Group d'UC Berkeley en bio-ingénierie; et Yuval Benjamini et le professeur Bin Yu du Département de statistique de l'UC Berkeley.
voyant qui sont les actionnaires derrieres ces brevets
il est clair que si ils veulent implanter les gens ils vont pas le mettre directement devant leur yeux ils vont le faire soit par dissimulation avec des smart dust ou nanorobot deja present dans l'air et la 5 g donnera le potentiel a toute la technologie invasives pour le controle du moindre battement de cils d'un individu ainsi du suivi en temps reel de sa santé .....les moyens de paiement cryptes sous la peau existent deja et sont deja implantés depuis plusieurs années dans le monde . Cela se democratisera et sera meme pour les generations futures , le dernier cri , ne souhaitant que suivre la mode et leur model .....
pour finir une deputée italienne qui demande l'arrestation de bill Gates au parlement italien .