Alors que les banques de détail numérisent progressivement leurs activités, elles se sont largement concentrées sur les transactions clients les plus fréquentes, telles que la vérification d’un solde ou le dépôt à distance. Une grande partie de l’arène des prêts, à l’exception des cartes de crédit, a pris un siège arrière. Une analyse récente de Bain & Company et du SAP Value Management Center révèle que la plupart des banques ont numérisé des fragments du processus de commercialisation, de vente et de gestion des prêts. Par exemple, les banques ne peuvent gérer que 7 % des produits de manière numérique de bout en bout. Ce rythme lent de modernisation rend les banques vulnérables, car les prêts représentent plus d’un tiers des revenus des banques de détail.
Les nouveaux entrants numériques, allant des start-ups de la technologie financière aux détaillants en place et aux fournisseurs de télécommunications, ont repéré l’opportunité et s’attaquent à de fines tranches du pool de bénéfices des prêts. Bon nombre de ces insurgés de la technologie financière, ou fintechs, offrent une meilleure expérience en se concentrant sur les besoins de clients spécifiques, souvent un segment mal desservi. CommonBond, par exemple, a commencé avec des prêts aux étudiants à faible risque, et OnDeck propose des prêts aux petites entreprises sans longue expérience. Ces insurgés peuvent souvent offrir un prix inférieur grâce à une combinaison d’une base de coûts plus faible pour l’octroi et le service des prêts et un meilleur ciblage et une meilleure appréciation des profils de risque spécifiques.
Les fintechs créent également de nouveaux modèles pour prendre des décisions de prêt, rechercher des capitaux et des prêts de service. Souvent, ils peuvent compenser au moins une partie des avantages d’échelle des grandes banques avec des processus numérisés plus simples. Dans certains cas, ils bénéficient d’un arbitrage réglementaire ; Prosper et LendingClub se financent d’une manière qui nécessite moins de capital à détenir dans leurs propres bilans. D’autres, dont WeChat, PayPal et Square, proposent des plateformes de messagerie ou de paiement numériques sur lesquelles ils ont ajouté des financements à court terme. Et de nombreuses fintechs telles que ZestFinance sont allées au-delà de l’évaluation traditionnelle des risques pour utiliser de nouvelles sources de données dans la souscription, par exemple si un demandeur conserve un numéro de téléphone cohérent ou a payé ses factures de téléphone en retard.
Les banques doivent accélérer leurs investissements dans les prêts numériques si elles veulent éviter une baisse significative des bénéfices et une perte de parts de marché. Les principales banques ont déjà commencé à investir dans la création de meilleures expériences client, en facilitant la candidature à leurs offres, en supprimant les interactions mauvaises et évitables (générées par des processus internes complexes, des erreurs des employés ou des clients, ou mieux acheminées vers des solutions numériques moins coûteuses et plus pratiques. canaux) de la succursale et des centres de contact, et en concevant un modèle opérationnel plus agile. Ces investissements ont généralement porté leurs fruits grâce à des processus de prêt plus rapides, meilleurs et moins chers.
Joe Fielding, un partenaire de la pratique Services financiers, discute de trois priorités pour les banques afin d’obtenir des prêts numériques adéquats.
Les banques signalent des progrès lents dans la numérisation du processus de prêt
Pour aider les banques à mieux comprendre le paysage du prêt numérique et à éclairer leurs prochaines actions, Bain et SAP Value Management Center ont récemment interrogé deux douzaines de banques dans 10 pays. Nous avons évalué dans quelle mesure ces banques ont déclaré qu’elles performaient selon sept capacités de prêt et quatre douzaines de mesures opérationnelles qui ont été segmentées par catégories de prêts et niveaux de maturité. Les domaines de capacité comprennent :
des offres pertinentes, simples et facilement achetées ;
de meilleures décisions fondées sur les données clients, risques et marketing ;
exécution multicanal cohérente ;
des processus efficaces et numérisés ;
innovation rapide et réinvention des entreprises.
L’enquête de référence montre que dans l’ensemble, les banques font état de niveaux de numérisation relativement faibles dans ces domaines, comme le soulignent plusieurs conclusions (voir Figure 1) :
En moyenne, les banques ne peuvent gérer que 7 % des produits de manière numérique de bout en bout.
Les clients ne soumettent que 14 % des demandes de prêt via les canaux numériques.
La plupart des banques manquent d’expertise en matière de ventes croisées numériques, le nombre moyen de prêts n’étant que de 1,1.
Les banques ne consacrent que 18 % de leur budget marketing aux initiatives numériques.
14 % des prêts simples et 36 % des prêts complexes nécessitent une refonte.
Tout ce qui précède se traduit par une croissance annuelle combinée médiocre des prêts, à 3 % de 2011 à 2014, et se répercute sur les mesures de rentabilité (voir la figure 2).
L’enquête révèle où les banques sont confrontées aux plus grandes lacunes en matière de capacités (voir Figure 4) :
Offrir des expériences simples, faciles et pratiques. Dans la plupart des banques, le processus de prêt reste opaque pour ceux qui en font la demande, ce qui rend difficile pour les clients de vérifier la progression d’une demande ou pour la banque de fournir des mises à jour via des canaux en ligne ou mobiles. Les clients ont du mal à trouver et à sélectionner le produit qui intègre les fonctionnalités appropriées à leurs besoins sans parler à un agent bancaire. Peu de banques déclarent disposer de bons outils numériques pour accompagner les employés dans ce processus. Dans certains cas, il est même difficile de garantir des jalons critiques tels que la mise à disposition des fonds hypothécaires à la date de clôture.
Exécution cohérente sur tous les canaux. Les clients s’attendent à ce que chaque canal s’harmonise parfaitement avec les autres afin qu’ils n’aient pas à remplir à plusieurs reprises les mêmes données. Pourtant, le comportement endémique de nombreuses banques traditionnelles – des départements puissants qui se concentrent étroitement sur les améliorations dans leur domaine – sape une approche cross-canal. Les murs entre les départements et les fonctions doivent tomber.
Recueillir une image complète et cohérente du client pour le marketing, les ventes et le service. La plupart des banques déclarent qu’elles ne parviennent pas à utiliser les données internes et externes disponibles pour prendre des décisions rapides et de haute qualité lorsqu’elles prêtent de l’argent, identifient des difficultés financières ou collectent des paiements. À une époque de prolifération des données, de plus grande puissance informatique et de clients dotés du numérique, cela représente une faiblesse critique des prêteurs bancaires.
Configurer les produits et processus de base rapidement et facilement. La plupart des banques ont des scores voire des centaines de variantes de produits codés en dur dans leurs systèmes d’information. Des variantes supplémentaires de fonctionnalités et d’avantages peuvent atteindre des milliers. Cela rend difficile la présentation facile et rapide des produits aux clients.
Le marketing numérique. La plupart des banques ont à peine effleuré la surface pour apprendre comment le marketing et les communications numériques peuvent engager efficacement les clients. Alors que certains ont investi dans des outils de workflow et d’automatisation, la promesse de ces technologies n’a pas encore atteint son potentiel de prêt.
Traitement direct. La plupart des banques n’ont pas de traitement direct des demandes de prêt pour les cas les plus simples.
Façonner et accélérer la prochaine vague d’investissements
Lorsque les banques de notre enquête de référence ont investi pour numériser les prêts, elles ont été récompensées par des processus de prêt plus rapides, meilleurs et moins coûteux (voir Figure 5). Pour réaliser des bénéfices encore plus importants et augmenter les retours sur investissements, les expériences des principales banques et entreprises d’autres secteurs suggèrent plusieurs principes pour guider les investissements.
Concevez autour des priorités du client, pas pour les opérations internes. Lorsqu’il s’agit d’initiatives numériques, les banques s’appuient souvent trop sur une perspective opérationnelle basée sur des métriques internes. Bien que de telles initiatives puissent initialement améliorer l’efficacité des processus, elles ont également tendance à saper l’expérience client en en faisant un problème secondaire. Par exemple, les gens ne veulent pas acheter une hypothèque, ils veulent accéder au capital pour acheter une maison. Ils adoptent donc une expérience conçue pour les aider à acheter une maison plus facilement qu’une expérience conçue pour leur vendre une hypothèque.
Commonwealth Bank of Australia (CBA) et Hana Bank ont été des pionniers dans ce domaine. Les composants numériques de leur expérience d’achat d’une maison comprennent l’utilisation des services de localisation d’un smartphone pour viser et photographier les propriétés et afficher les détails, la prise de rendez-vous avec un prêteur à partir du téléphone, le calcul des limites et la réception d’une préapprobation via une application, et l’utilisation d’un portefeuille mobile pour payer une caution.
De même, Fidor Bank en Allemagne a créé une banque de toutes pièces, entièrement centrée sur la relation avec le client. La devise de la banque, faire des opérations bancaires avec des amis », se rapporte à la communauté d’utilisateurs partageant les mêmes idées qui s’engagent via les plateformes de médias sociaux pour offrir des conseils et échanger des histoires sur tous les types de questions financières. Sans l’héritage des succursales, Fidor propose une large gamme de services bancaires sur Internet et mobiles, notamment des prêts entre particuliers et des prêts sur salaire d’urgence traités en une minute, grâce au traitement direct.
Le jugement et les conseils humains comptent toujours, bien sûr, et il s’agit de doter les employés en contact avec les clients d’outils numériques leur permettant d’améliorer l’expérience client autour de leurs besoins (achat d’une maison, financement d’une entreprise, financement d’une formation). Bien que le centre de contact reste un mécanisme principal pour aider les clients, il devrait également être facile pour un client de prendre rendez-vous numériquement pour voir quelqu’un dans une succursale s’il souhaite des conseils ou lorsque les exigences réglementaires exigent une réunion en face à face.
Compte tenu de l’essor des services bancaires mobiles, les banques devraient de plus en plus adopter une approche de conception axée sur le mobile, ce qui impose une discipline réductrice utile à la conception de l’ensemble de l’expérience. La conception mobile first oblige les banques à ne demander aux clients que des informations dont la banque n’a pas déjà besoin pour faciliter l’obtention de conseils, limiter le nombre de signatures humides, réduire le nombre de pages de documentation et finalement éliminer le papier. Chez mBank en Pologne, les utilisateurs peuvent accéder à des informations financières de base sur leur téléphone sans avoir besoin de se connecter, et ils peuvent obtenir des prêts en un clic avec une approbation et un décaissement de 30 secondes. L’approche axée sur le mobile peut également informer toute refonte du réseau d’agences et du centre de contact avec des capacités de vidéo, de chat, de messagerie et d’appel pour fournir un accès facile à des conseils pendant le processus de prêt.
Simplifiez les produits et les processus. Au cœur de la plupart des organismes de crédit bancaire se trouvent de puissantes équipes de produits qui visent généralement à satisfaire toutes les demandes possibles des clients avec une vaste gamme de variations de produits, de prix et de promotions. La complexité des produits et des processus s’est insinuée à travers des décisions historiques prises dans l’ordre. Des produits similaires ont donc souvent des processus différents qui ont été mis en œuvre à des moments différents de différentes manières.
Pour compliquer les choses, la chaîne des étapes du processus, de l’enquête à la collecte des informations sur le client en passant par la codification des garanties et le financement d’un prêt, fonctionne souvent via des départements organisationnels distincts. Certaines banques obligent même les clients à utiliser des applications mobiles distinctes pour leurs comptes bancaires principaux et leurs cartes de crédit.
Améliorer l’expérience et réduire les coûts nécessitent de trier la gamme de produits et de remplacer la complexité de 20 ou 30 systèmes par quelques plates-formes pouvant gérer la variété, de la même manière que les constructeurs automobiles sont passés au partage de plate-forme (châssis et groupes motopropulseurs) pour une variété de modèles de voitures. CBA, par exemple, est passé de 610 variantes de produits à 18 produits de base, ce qui a permis à la banque de réduire les délais de mise sur le marché de 75 % et les erreurs de traitement de 30 %.
Les banques peuvent réaliser d’énormes gains d’efficacité opérationnelle en automatisant davantage de processus manuels, en utilisant des outils de gestion des flux de travail et des algorithmes de souscription qui crachent la décision et l’approbation. Ils peuvent également utiliser des outils numériques pour augmenter la productivité des employés. Un spécialiste en prêts hypothécaires peut parler à beaucoup plus de personnes par jour par chat vidéo qu’en agence ou en voiture pour se rendre chez les clients. ABN AMRO aux Pays-Bas, par exemple, a pu utiliser des webcams pour vendre une part de plus en plus importante de ses hypothèques.
Redémarrez l’infrastructure technologique pour prendre en charge des expériences exceptionnelles. Les systèmes informatiques des banques traditionnelles ont généralement des règles codées en dur concernant chaque caractéristique du produit, telles que la structure des taux d’intérêt, la durée du terme, les frais initiaux, etc. Et différents départements peuvent installer leur propre codage, ce qui signifie qu’une demande de changement d’adresse dans un centre de contact aurait des critères de vérification différents de ceux d’une demande en succursale. La rigidité du codage en dur ne permet pas aux banques de développer ou de modifier rapidement des produits numériquement.
Une alternative plus efficace qui est de plus en plus adoptée par les entreprises averties en numérique est un moteur informatique qui intègre les fonctionnalités de base (taux d’intérêt, durée, frais) dans une plate-forme de prêt de base, puis extrait au-dessus de cette plate-forme pour s’adapter à n’importe quel produit. L’abstraction du produit permet aux équipes de reconcevoir et de bricoler plus facilement une expérience produit et de la faire reposer sur la plate-forme sous-jacente.
Les entreprises à l’avant-garde numérique sont également passées des systèmes informatiques individuels qui prennent en charge les silos de produits et de fonctions à des systèmes communs à tous les produits, départements et fonctions. Les composants clés fournis par ces systèmes sont les suivants :
des produits modulaires pouvant être assemblés comme des briques LEGO, permettant une mise sur le marché rapide, un degré élevé de personnalisation pour les clients et une réutilisation via des processus et des systèmes communs ;
les profils de clients résultant de la fusion de données transactionnelles traditionnellement structurées avec des données non structurées provenant de sources telles que les médias sociaux et les e-mails des clients ; et
la capacité de proposer des offres en temps réel qui répondent à l’emplacement, au profil, aux préférences et aux interactions passées du client.
Accélérer la vitesse de mise sur le marché. Alors que certaines banques peuvent arriver sur le marché en moins de quatre mois, de nombreuses grandes banques ont tendance à prendre beaucoup plus de temps. Qu’est-ce qui explique la différence ? Dans de nombreux cas, les dirigeants ont remplacé le développement en cascade de logiciels et de systèmes associés (une approche séquentielle) par un développement Agile (incrémental et modulaire), qui se déplace généralement plus rapidement et s’adapte plus facilement aux changements.
Outre l’adoption d’Agile, certaines banques se sont tournées vers l’extérieur pour susciter un changement dans leurs anciennes organisations et accélérer le rythme de l’innovation. Ils découvrent qu’un partenariat ou une acquisition est la voie la plus prometteuse pour accéder aux talents et aux systèmes nécessaires.
Les régions, par exemple, ont récemment choisi la voie du partenariat avec la Fondation des prêteurs en ligne pour fournir aux petites entreprises une offre coordonnée de solutions de prêt. Les deux sociétés pensent que chacune bénéficiera de la combinaison de la marque et de la franchise de distribution de Regions avec le processus de demande de prêt en ligne simplifié et le service de conciergerie de Fundation.
SunTrust, en revanche, a acheté le prêteur à la consommation en ligne FirstAgain en 2012. Il a relancé l’entreprise en tant que division de prêt direct en ligne LightStream, offrant des prêts personnels non garantis. Les décisions de prêt sont prises par des souscripteurs humains, mais le processus est accéléré par la plate-forme de prêt de LightStream.
Fidor, la banque en ligne allemande, démontre une autre façon d’accéder aux talents externes. Elle a été l’une des premières banques à fournir des interfaces de programmation d’applications à des tiers pour intégrer de nouvelles applications. Cela donne aux développeurs de logiciels et aux fintechs la possibilité de présenter leurs produits sur une plus grande scène, et cela donne aux clients l’accès à un ensemble croissant de services bancaires.
Investir pour changer de banque
Les banques dépensent déjà beaucoup pour l’informatique – environ 6 % des revenus de 2014 en moyenne, estime Gartner, bien plus que les 1 % à 4 % de la plupart des autres secteurs, y compris les télécommunications à forte intensité technologique. Les investissements numériques s’accumuleront-ils sur ces dépenses ?
À court terme, oui, mais la façon dont les banques orientent leurs investissements déterminera les bénéfices du numérique. Les banques qui font de plus grands progrès numériques dans les opérations de prêt ont des dépenses informatiques plus élevées que la moyenne. Le facteur critique : ils dépensent beaucoup plus pour changer le modèle de la banque que pour faire fonctionner le modèle existant. Les retardataires font exactement le contraire (voir Figure 6).
Les dirigeants acceptent un coût informatique plus élevé car ils automatisent davantage, réduisent les coûts de main-d’œuvre et préparent le terrain pour des revenus plus élevés grâce aux conversions numériques. Ils s’efforcent de payer l’investissement en supprimant les erreurs et les retouches de la succursale et du centre d’appels et en migrant des transactions plus basiques vers des canaux numériques en libre-service.
Les banques n’ont d’autre choix que d’agir rapidement pour numériser leurs opérations de prêt. Les attentes croissantes des clients pour les opérations bancaires à tout moment et en tout lieu dépassent actuellement les capacités des banques. Et les fintechs ont le vent en poupe pour se constituer une base de clients, en particulier parmi les jeunes adultes, ainsi que pour attirer les talents. Mais même les banques traditionnelles peuvent rivaliser efficacement dans les prêts numériques si elles sont prêtes à placer les priorités du client au centre de leur refonte numérique.
Catégorie : Non classé
Guattari et une idée philosophique
Pierre-Félix Guattari est un psychiatre et philosophe français, ainsi qu’un innovateur du mouvement antipsychiatrique des années 1960 et 1970, qui a remis en question les croyances établies dans la psychanalyse, l’approche et la sociologie. Psychanalyste de formation, Guattari a bien travaillé dans les années 1950 à Los Angeles Borde, un centre médical près de Paris qui était reconnu pour ses méthodes de guérison innovantes. C’est actuellement que Guattari a commencé l’évaluation en utilisant le psychanalyste français reconnu Jacques Lacan, dont la réévaluation de la centralité de « l’inconscient » dans la théorie psychanalytique expérimentée a commencé à attirer de nombreux disciples. Au milieu des années 1960, Guattari se brisa avec Lacan, dont il expérimenta la réflexion qui restait trop soigneusement liée à celle de Freud, et fonda leurs propres centres de traitement, la Society for Institutional Psychotherapy (1965) ainsi que le Center for Institutional Research and Study (1970). Influencé par le soulèvement étudiant à Paris en mai 1968, Guattari a collaboré avec le philosophe français Gilles Deleuze (1925-95) pour produire un ouvrage en deux volumes de philosophie sociale antipsychanalytique, Capitalisme et schizophrénie. Dans la quantité 1, Anti-Odipe (1972), ils se sont appuyés sur des idées lacaniennes pour soutenir que les conceptions psychanalytiques conventionnelles du cadre de la personnalité sont utilisées pour supprimer et contrôler le désir de l’être humain et finalement pour perpétuer le programme capitaliste. La schizophrénie, ont-ils poursuivi, constitue l’un des deux types authentiques de rébellion face aux impératifs tyranniques du système. Au lieu de la psychanalyse conventionnelle, ils ont recommandé une nouvelle technique influencée par le mouvement antipsychiatrique, la « schizoanalyse », dans laquelle les individus sont analysés comme des « machines désirantes » libidinalement diffuses plutôt que comme des subjectivités freudiennes dictées par le moi. Le volume 2 de Capitalism and Schizophrenia, One Thousand Plateaus (1980), se caractérise par un type d’enquête philosophique paratactique, consciemment décousue, reflétant la conviction des auteurs que l’organisation « linéaire » de l’approche conventionnelle signifie une forme naissante de gestion interpersonnelle. . Le travail se présente comme une étude de ce que Deleuze et Guattari contactent avec la « déterritorialisation », c’est-à-dire l’effort pour déstabiliser les conceptions prédominantes et répressives de l’identification, du sens et de la vérité. Les auteurs déterminent en rejetant avec désinvolture la métaphysique occidentale comme une expression de « l’approche étatique ». En fait conscient des fissures les plus infimes au sein de l’ordre interpersonnel et à la recherche de méthodes innovantes pour saper les idées fixes et les faits hérités, Guattari est devenu un partisan des «révolutions moléculaires» dans la vie quotidienne et a cru. Ce faisant, Guattari est devenu membre du philosophe et historien français Michel Foucault en proclamant la mort du mental conventionnel (marxiste), qui visait une « révolution interpersonnelle totale ». Au lieu de cela, une nouvelle motivation découlerait de vos luttes contre des groupes jusque-là marginalisés, y compris les homosexuels, les femmes, les écologistes, les immigrants et les prisonniers. Le troisième et dernier ouvrage de Guattari coécrit avec Deleuze, Qu’est-ce que la philosophie ?, est sorti en 1991. La psychanalyse est une méthode de traitement des troubles mentaux, formée par la théorie psychanalytique, qui met l’accent sur les processus mentaux inconscients et est aussi parfois décrite comme la « psychologie des profondeurs ». Le mouvement psychanalytique a commencé dans les observations cliniques et les formulations du psychiatre autrichien Sigmund Freud, qui a inventé le mot psychanalyse. Au cours des années 1890, Freud a travaillé avec le médecin et physiologiste autrichien Josef Breuer dans la recherche de patients névrotiques sous hypnose. Freud et Breuer ont remarqué que, lorsque les causes des suggestions et des signaux des patients étaient rendues conscientes pendant la condition hypnotique, les patients montraient une amélioration. Observant que de nombreux patients parlaient facilement sans avoir à être sous hypnothérapie, Freud a développé la procédure de libre connexion d’idées. L’individu a été encouragé à dire tout ce qui lui venait à l’esprit, sans égard à la pertinence ou à la justesse présumée. Mentionnant que les individus avaient parfois des problèmes à faire des associations totalement libres, Freud a déterminé que des rencontres désagréables spécifiques étaient réprimées, ou refoulées de la pleine conscience. Freud a noté que chez la plupart des patients vus tout au long de sa pratique antérieure, les événements les plus fréquemment refoulés concernaient des expériences intimes troublantes. Ainsi, il a émis l’hypothèse que l’anxiété était le résultat de l’énergie refoulée (libido) liée à la sexualité ; l’énergie réprimée a découvert le concept dans une variété de symptômes qui se présentaient comme des systèmes de défense mentale. Freud et ses formidables fans ont par la suite prolongé le concept d’anxiété pour inclure des sentiments de peur, de culpabilité et de honte résultant des fantasmes d’hostilité et d’hostilité et de l’anxiété face à la solitude causée par la séparation d’avec la personne dont le patient dépend.
Améliorer le pilote de chasse par la biotechnologie
Imaginez une équipe de volontaires, leur poitrine équipée de capteurs biophysiques, se préparant pour un objectif dans un lieu de travail des services militaires en développement équipé d’appareils photo numériques et de micros pour capturer tout ce qu’ils font réellement. «Nous voulons mettre en place un laboratoire de revenu à temps plein dans lequel nous sommes en mesure de percevoir les individus de manière omniprésente, en continu, pendant une longue période de temps. L’objectif serait de faire de notre mieux pour quantifier l’individu, l’environnement et la façon dont l’individu agit dans l’atmosphère », m’a dit l’année dernière Justin Brooks, un scientifique de l’Army Study Laboratory, ou ARL. L’Environment Force a également besoin d’une prochaine génération de dispositifs portables pour aider les avions de combat de demain à comprendre leurs pilotes. Les avions de chasse contemporains révèlent le corps de l’être humain à des forces physiques qui ne sont pourtant pas complètement comprises. En 2010, plusieurs pilotes de F-22 ont noté des épisodes de malentendus, d’essoufflement et de modification de la couleur de la peau en vol, tous signes et symptômes d’hypoxie ou de réduction de l’oxygène dans le sang. La raison était la vitesse. « Je dessine un G dans l’avion, la circulation sanguine a tendance à s’accumuler dans certaines de ces zones dépendantes du corps, comme les mains, les cuisses et les jambes », a déclaré Lloyd Tripp, vol en avion de chasse superviseur du programme de physiologie et toxicologie aérospatiales à l’atmosphère. Force Research Laboratory’s 711th Human Being Performance Wing. Deux ans plus tard, la Force environnementale a commencé à installer des détecteurs dans les casques des pilotes de F-22 pour lire le niveau d’oxygène dans le sang de leur artère temporale. À peu près à la même époque, l’armée russe observait également de la confusion et des modifications de la couleur de la peau parmi leurs pilotes d’avion qui tiraient des forces G plus élevées, a déclaré Tripp. Manquant exactement de la même technologie d’indicateurs, les commandants russes ont commencé à donner aux pilotes d’avion des transfusions sanguines avant leurs vols. Cela n’a pas fonctionné. Les pilotes d’avion européens planant à des vitesses supersoniques ont souffert d’hypoxie à des taux plus élevés. « Ils ne l’ont pas avoué pendant plusieurs années », a-t-il expliqué. Des diagnostics corrects ont permis au You.S. Atmosphère Force à lire le problème et à améliorer les performances globales. Au-delà des casques, les chercheurs d’Air Pressure travaillent sur ce qu’ils contactent avec un système de surveillance cognitive complet. Cela signifie explorer quelles technologies de capteurs fonctionnent efficacement pour quelles raisons, et quels signaux peuvent être détectés sans déranger ou déranger l’aviateur – qui, en fin de compte, est censé effectuer une mission de combat. D’après ce que vous cherchez à mesurer, ont-ils découvert, vous n’aurez peut-être plus besoin d’un indicateur physique réel sur votre corps. Vous pouvez désormais collecter des informations de santé internes incroyablement personnelles et essentielles avec des caméras. Considérez l’oxygénation cérébrale, la quantité d’O2 dans les tissus de portions spécifiques du cerveau d’un pilote. Vous pouvez mesurer cette importante transmission biophysique en projetant un éclairage infrarouge autour des sourcils, car le sang avant le crâne est à peu près aussi riche en oxygène que le tissu mental juste derrière la paroi du crâne. « Si je fais briller cette lumière infrarouge avec la peau, je peux voir la quantité d’O2 dans le sang dans ces cellules. Lorsque j’améliore la force G, je diminue la quantité d’oxygène que j’ai ici et cette réduction de l’o2 est directement corrélée avec une diminution de la fonction cognitive », a déclaré David Christensen, gestionnaire de profil avec la 711th Human Being Performance Wing. . Une autre tâche de recherche a configuré un simple objectif de caméra pour ordinateur portable pour détecter si l’hémoglobine d’une personne est oxygénée, ce qui rend la circulation sanguine légèrement plus rouge, ou riche en désoxygène, ce qui est un peu plus bleu. Fondamentalement, cela vous permet de lire à distance le rythme cardiaque d’une personne. Même votre respiration indique quelque chose concernant votre condition physique réelle. « Le rapport entre l’oxygène et le co2 changera au fur et à mesure que je serai de plus en plus fatigué. C’est essentiel car, comme je suis épuisé, il me faut environ vingt-quatre heures pour récupérer complètement à 100% », a déclaré Christensen. « Cet épuisement est important simplement parce que mes groupes musculaires ne peuvent pas stresser pour ramener le sang vers mon cerveau, donc la possibilité que je perde conscience augmente considérablement. »
Médecine: les modifications psychologiques
Les hallucinogènes sont une série de médicaments psychoactifs qui produisent des changements mentaux à court terme qui incluent une perception sensorielle altérée et des états de conscience oniriques. Pendant des siècles, les éléments hallucinogènes ont été liés à une rencontre mystique profonde ; le Rigveda mentionne une substance végétale connue sous le nom de Soma, qui, lorsqu’elle est consommée, produit des visions étonnantes du paradis. La plupart des chercheurs pensent que le médicament était un hallucinogène, bien que la plante exacte ne soit pas identifiée à l’époque moderne. Les secrets d’Eleusis, une ancienne routine de la Grèce antique qui a persisté pendant près de 2 000 ans, étaient également axés sur une boisson, connue sous le nom de kykeon, qui était capable de produire de nouvelles revendications de conscience. Dans les Amériques, les Aztèques utilisaient une variété de substances hallucinogènes dans des rituels religieux et sociaux. Dans les années 50 et 60, les hallucinogènes avaient fait l’objet d’importantes recherches scientifiques. L’une des recherches les plus connues était ce qu’on appelle le Grand Vendredi Essayez les choses, dans lequel 20 étudiants en théologie ont reçu de la psilocybine hallucinogène ou peut-être un placebo lors d’un service religieux du vendredi saint. Les étudiants qui ont obtenu de la psilocybine ont noté des rencontres religieuses intenses. L’hyperlien apparent entre la consommation d’hallucinogènes et la rencontre spirituelle a conduit certains chercheurs à rechercher les utilisations potentielles des hallucinogènes comme remède aux problèmes psychiatriques tels que la toxicomanie, l’anxiété et les troubles dépressifs. L’utilisation d’hallucinogènes dans les études scientifiques s’est accompagnée de leur prolifération dans la contre-culture en tant que médicaments de loisir. L’utilisation récréative généralisée d’hallucinogènes dans la culture « hippie » a provoqué une réaction culturelle et politique qui a finalement conduit à la criminalisation de ces drogues dans le cadre de l’action Managed Substances Take de 1970 ; cette législation a également eu pour résultat de supprimer la plupart des études scientifiques concernant les hallucinogènes. Après une longue absence, les hallucinogènes ont commencé à réapparaître dans les études technologiques à la fin des années 1990. Les nouvelles études, qui ont examiné les utilisations curatives des hallucinogènes pour une variété de problèmes, ont déjà été menées avec une meilleure rigueur méthodologique et une meilleure attention à la sécurité individuelle que leurs prédécesseurs dans les années 1960. La plupart des recherches ont été limitées, car les hallucinogènes continuent d’être fermement gérés, et le gouvernement américain n’identifie aucune utilisation médicale légitime et ne fournira donc aucun financement pour l’étude. Mais les études scientifiques ont généralement qualifié leurs premiers résultats de très prometteurs. Par exemple, des études sur des personnes atteintes de maladies en phase terminale ont révélé que les expériences magiques causées par la psilocybine ont créé des améliorations plus puissantes et plus durables des signes et symptômes de dépression et d’anxiété des patients que les traitements traditionnels. Hallucinogène, substance qui crée des résultats psychologiques généralement associés à des phénomènes tels que des objectifs ou une exaltation spirituelle ou à des troubles mentaux tels que la schizophrénie. Les hallucinogènes produisent des modifications dans la compréhension, la pensée et la sensation, allant de distorsions de ce qui est perçu (illusions) à des éléments de détection dans lesquels il n’y en a pas vraiment (hallucinations). Les hallucinogènes augmentent les impulsions sensorielles, mais cela est souvent associé à une perte de contrôle de ce qui est qualifié. Les médicaments psychopharmacologiques qui ont suscité un intérêt et une controverse prévalents sont ceux qui produisent des aberrations marquées dans le comportement ou la compréhension. L’un des plus courants est le diéthylamide de l’acide D-lysergique, ou LSD-25, qui était initialement produit à partir de l’ergot (Claviceps purpurea), un champignon du seigle et du blé entier ; la mescaline, principe actif du cactus peyotl (Lophophora williamsii), qui se développe dans le sud-ouest de l’U . S. et le Mexique ; et la psilocybine et la psilocine, qui proviennent de certains champignons frais. D’autres hallucinogènes sont constitués de bufoténine, initialement isolée de la peau des crapauds ; harmine, de vos téguments de l’herbe de la région du Moyen-Orient et de la Méditerranée ; ainsi que les composés artificiels méthylènedioxyamphétamine (MDA), méthylènedioxyméthamphétamine (MDMA) et phencyclidine (PCP). Le tétrahydrocannabinol (THC), le composant actif du cannabis, ou cannabis, obtenu à partir des feuilles et des sommets de la végétation du genre Cannabis, peut également être parfois classé comme hallucinogène. Traditionnellement, les communautés indigènes de l’hémisphère occidental traditionnel utilisaient une végétation contenant des éléments psychédéliques. Les champignons frais hallucinogènes du Mexique étaient considérés comme sacrés et étaient connus des Aztèques sous le nom de « chair de dieu ». Le peyotisme a finalement fusionné avec le christianisme, et l’église locale des États-Unis a été créée en 1918 pour protéger le peyotisme en tant que type de culte. Le désir technologique pour les hallucinogènes s’est développé lentement. La mescaline a finalement été éloignée en tant que principe actif du peyotl en 1896. Ce n’est qu’en 1943, lorsque le chimiste suisse Albert Hofmann a involontairement consommé une préparation artificielle de LSD et a maîtrisé ses effets psychédéliques, que la quête d’une substance naturelle responsable de la schizophrénie est devenue répandue. Gordon Wasson, un banquier et mycologue new-yorkais, s’est concentré sur les pouvoirs des champignons frais mexicains en 1953, ainsi que le principe actif s’est rapidement avéré être la psilocybine.
Des vins sophistiqués
Les caves à vin domestiques deviennent de plus en plus populaires, au Liban et au-delà, offrant des conditions de stockage parfaites et également un espace de divertissement élégant et fonctionnel. Avec votre propre cave à vin, vous pouvez suivre de près le processus de maturation de vos vins, cours œnologie Dijon tout en appréciant pleinement le plaisir de comparer différents vins et millésimes sur de nombreuses années.
La cave à vin est devenue un atout important pour la maison moderne et est passée d’une grotte souterraine humide et moisie à une pièce unique et sophistiquée dédiée à votre passe-temps, qui sert également de salon et de salle de respiration pour les réunions de famille ou les dîners.
Une cave familiale permet de déguster des bouteilles à sa guise et de comparer facilement ses propres millésimes
L’APPEL DE GARDER LE VIN CHEZ VOUS
La plupart des amateurs de vin prennent plaisir à déguster des vins à différents stades de leur évolution. Cependant, ce n’est qu’avec un accès direct à un endroit où vous pouvez stocker et vieillir vous-même les vins que vous pourrez suivre cette processus de développement de près. Une cave à la maison permet de déguster des bouteilles à sa guise et de comparer facilement ses propres millésimes.
Lorsqu’on se lance dans un projet de cave, il y a un certain nombre de choses à considérer.
ESPACE ET EMPLACEMENT
Il est essentiel de bien considérer la quantité d’espace disponible, surtout si vous habitez en ville. En réorganisant la disposition actuelle de votre maison ou en agrandissant le sous-sol et en créant un sous-sol, comme le font maintenant de nombreux Libanais, l’espace ne devrait pas poser de problème. La construction d’une cave peut également apporter une valeur ajoutée à votre propriété, une pensée réconfortante lorsque vous investissez dans de grands changements structurels.
TAILLE ET CAPACITÉ
Pour déterminer le nombre de bouteilles dont vous avez besoin, vous devez tenir compte de la quantité qui pourrait potentiellement être consommée lors des dîners ou des fêtes domestiques au cours d’une année moyenne. Les bouteilles plus grandes (par exemple un magnum ou un jéroboam) ne sont pas seulement bonnes pour leur durée de vie prolongée et une meilleure maturation du vin, mais aussi pour leur taille spectaculaire et leur aptitude au grand occasions. Vous devriez également envisager de garder le vin non ouvert, dans sa caisse en bois d’origine, si vous le choisissez comme investissement.
L’ancienne cave rêveuse et charmante n’est pas forcément l’endroit idéal pour mettre votre vin en cave
Profitez du plaisir continu de déguster, acheter, élever et apprécier une variété de grands vins et millésimes
DURÉE DE VIE ET STOCKAGE
Il est étonnant de constater combien de vin est laissé à mûrir au-delà de son point de buvabilité idéale et entre dans un déclin constant, perdant non seulement sa saveur mais aussi sa valeur. Une cave bien organisée doit contenir des vins en maturation et des vins dans leur fenêtre de consommation optimale, mais aucun en déclin. Pour assurer cet équilibre, il est conseillé que votre cave fasse l’objet d’une expertise périodique, soit par vous-même, soit par un expert. Le stock excédentaire peut alors être vendu, laissant place à de nouveaux achats.
Pour offrir une répartition continue des millésimes à boire pendant leurs périodes de maturation les plus favorables, la cave idéale pourrait avoir 10 millésimes en maturation et 10 autres millésimes qui sont déjà entrés dans leur fenêtre de consommation optimale. Dans un premier temps, il est recommandé de ne remplir la cave qu’à environ 60 % de sa capacité, laissant de la place pour de futurs achats et vous permettant de profiter du plaisir continu de déguster, acheter, vieillir et apprécier une variété de grands vins et millésimes.
Vous ne devez pas déplacer vos bouteilles de vin après les avoir mises en cave, et vous ne devez pas retirer les bouteilles pour atteindre d’autres bouteilles. Les bouteilles de vin doivent toujours être stockées horizontalement car le vin doit être en contact direct avec le bouchon. Pour protéger l’étiquette de la bouteille de l’humidité, elle doit être recouverte d’un film alimentaire.
CONDITIONS DE TEMPÉRATURE
Le vin est sensible à son environnement de stockage et doit de préférence être conservé à environ 12°C avec une humidité de 75 à 85%. Il est important de s’assurer que les bouchons restent humides. S’ils se dessèchent, les vins s’oxydent, ruinant leur saveur et leur longévité. Une connaissance technique et un équipement de contrôle de l’humidité approprié sont conseillé.
VOTRE COLLECTION ET CONCESSIONNAIRE DE VIN
Au départ, votre collection reflétera sans aucun doute vos coups de cœur et le style de vins que vous appréciez le plus. Cependant, grâce à une relation continue avec votre marchand de vin, vous devriez accepter de nouvelles suggestions pour élargir vos horizons et faire des investissements intéressants. Ainsi, votre cave à vin sera bientôt constituée d’un assortiment varié de vins. Votre caviste doit non seulement offrir le choix et l’accès aux meilleurs vins du monde, mais en comprenant vos besoins personnels, offrir des services adaptés à vos besoins.
CARACTERISTIQUES D’UNE BONNE CAVE A VIN
L’ancienne cave rêveuse et charmante n’est pas forcément l’endroit idéal pour mettre votre vin en cave. Il n’a pas besoin d’être voûté ou creusé dans la roche. Afin d’avoir la meilleure garde, il suffit de respecter les règles suivantes :
• La température doit être constamment comprise entre 8°C et 18°C. La température idéale est de 10°C-12°C
• Orienté nord
• Ventilé par un ouverture basse à l’extrémité nord de la cave et une ouverture haute à l’extrémité sud
• L’humidité doit être comprise entre 75 % et 85 %
• Il doit être sombre, sans lumière extérieure directe
• Il doit être propre et sans mauvaises odeurs
• Il doit être dans un endroit calme, loin des vibrations causées par les routes ou les générateurs
• Avoir un sol en sable ou en gravier
• Utilisez des murs en pierre, calcaire ou briques
• Gardez l’isolation thermique pour maintenir une température constante
• Les lumières à l’intérieur de la cave doivent être comprises entre 25W et 40W. N’utilisez jamais de lampes halogènes ou fluorescentes. Les lumières LED sont très bonnes mais l’intensité doit rester faible
FAITS AMUSANTS SUR LE VIN ET LES CAVES
La plus grande cave à vin du monde se trouve en Moldavie, appelée Milestii Mici, contenant plus de 2 millions de bouteilles de vin.
Le Bern’s Steakhouse à Tampa, en Floride, aux États-Unis, est l’endroit où vous trouverez la deuxième plus grande collection de vins au monde. Elle a été fondée en 1956 et est exploitée par David Laxer, qui est le fils du propriétaire d’origine. Le personnel a même récemment découvert un joyau parmi les meules de vin : une bouteille de 30 000 $ de Château Latour 1947, l’un des vins les plus chers au monde.
La collection de Tawfiq Khoury (un Palestinien vivant à San Diego, aux États-Unis) a été vendue aux enchères par l’intermédiaire de la maison de vente aux enchères Christie’s alors qu’il effectuait un nettoyage de printemps, mais avant les ventes, il tenait 65 000 bouteilles de vin. Christie’s a estimé que les vins valaient 2,5 millions de dollars, bien qu’un chiffre exact n’ait pas été révélé. Pendant un certain temps, il possédait l’une des plus grandes collections privées des États-Unis, qui était utile dans sa jeunesse lorsque lui et sa femme organisaient de nombreux dîners. Comme il voyageait davantage avec sa femme, il a décidé de vendre les autres vins.
Le champion du monde de la reconnaissance du vin par l’odorat a été sacré en 2003. Richard Juhlin, de Suède, a pu reconnaître 43 vins sur 50. A titre de comparaison, la deuxième place n’a pu en reconnaître que quatre.
10 000 variétés de raisins de cuve existent dans le monde.
Le plus grand chêne-liège du monde est le Whistler Arbre, situé dans la région de l’Alentejo au Portugal. L’arbre a plus de 212 ans et produit les meilleurs bouchons du monde depuis 1820. L’arbre de Whistler est récolté tous les neuf ans et produit actuellement suffisamment de bouchons pour 100 000 bouteilles de vin. L’arbre a reçu son nom des nombreux oiseaux chanteurs qui vivent dans sa canopée massive.
Le vin ne contient pas de matières grasses et zéro cholestérol. Presque sans culpabilité ! Il faudrait boire 20 verres de jus de pomme pour bénéficier des mêmes bienfaits antioxydants qu’un verre de vin rouge. Si vous préférez le jus d’orange, vous devrez boire sept verres.
L’épave du Titanic contient ce qui est considéré comme l’une des plus anciennes caves à vin connues. Même si le Titanic se trouve à environ 12 000 à 13 000 pieds sous la surface de l’océan, la plupart des bouteilles de vin dans la cave se sont avérées intactes.
Il est étonnant de constater combien de vin est laissé à mûrir au-delà de son point de buvabilité idéale et entre dans un déclin constant, perdant non seulement sa saveur mais aussi sa valeur
La naissance de l’internet
Internet, une méthode de structures qui a révolutionné les communications et les techniques de commerce en permettant à divers réseaux informatiques à travers le monde de s’interconnecter. Parfois appelé « réseau de réseaux », le web est apparu aux États-Unis dans les années 1970 mais n’est devenu visible pour le grand public qu’au début des années 1990. En 2020, on estime qu’environ 4,5 milliards d’individus, soit plus de la moitié de la population mondiale, auraient accès à Internet. Le Web offre une capacité si efficace et basique que vous pouvez l’utiliser à presque toutes les fins qui dépendent de l’information, qui est accessible par toute personne qui se connecte à l’un de leurs systèmes constitutifs. Il facilite la communication humaine via les réseaux sociaux, le courrier électronique (courrier électronique), les « zones de discussion », seo les groupes de discussion et la transmission vidéo et audio et permet aux gens de travailler en collaboration à divers endroits. Il prend en charge l’accès aux détails numériques par de nombreux programmes, y compris le World Wide Web. Internet s’est avéré être une pépinière pour un nombre important et croissant d’« entreprises en ligne » (y compris les filiales de sociétés traditionnelles « de brique et de mortier ») qui réalisent la plupart de leurs ventes et de leurs solutions sur Internet. Les tout premiers réseaux d’ordinateurs personnels avaient été dédiés à des techniques à objectif spécial comme SABRE (un programme de réservation de voyages aériens) et AUTODIN I (un système de contrôle et de gestion de la défense), tous deux développés et mis en œuvre à la fin des années 1950 et au début des années 1960. Au début des années 1960, les producteurs d’ordinateurs personnels expérimentés ont commencé à utiliser les technologies des semi-conducteurs dans les articles commerciaux, et les systèmes traditionnels de traitement par lots et de temps partagé étaient en place dans de nombreuses grandes entreprises techniquement avancées. Les systèmes de partage du temps permettaient de partager rapidement les sources d’un ordinateur avec plusieurs utilisateurs, en parcourant la file d’attente des clients si rapidement que l’ordinateur s’est présenté dédié aux tâches de chaque utilisateur malgré l’existence de nombreux autres accédant au système « simultanément ». Cela a conduit à la notion de partage des sources informatiques (appelées ordinateurs hôtes ou simplement hôtes) plus qu’un système entier. Des interactions variété-hôte avaient été imaginées, ainsi que l’utilisation de ressources spécialisées (telles que des supercalculateurs et des techniques de stockage en masse) et un accès interactif par des clients distants vers les puissances de calcul de vos techniques de partage de temps situées ailleurs. Ces idées ont été initialement reconnues dans ARPANET, qui a reconnu la première liaison système variété-hôte le 29 octobre 1969. Elle a été créée par l’Advanced Research Jobs Company (ARPA) de la division américaine de la défense. ARPANET a été l’un des premiers réseaux informatiques à objectif de base. Il connectait des ordinateurs révélateurs de temps à des sites Web d’études soutenus par le gouvernement fédéral, principalement des collèges aux États-Unis, et il est rapidement devenu une infrastructure essentielle pour la communauté de recherche en informatique personnelle aux États-Unis. Des outils et des programmes, tels que le protocole de transfert de courrier postal simplifié (SMTP, communément appelé courrier électronique), pour fournir de brèves informations, ainsi que le processus de transfert de documents (protocole de transfert de fichiers), pour des transmissions plus longues, ont rapidement fait surface. Afin de réaliser des communications interactives peu coûteuses entre les systèmes informatiques, qui communiquent généralement en bref des salves d’informations, ARPANET a utilisé les nouvelles technologies de changement de paquets. Le changement de paquet prend de gros messages (ou des morceaux de données informatiques) et les brise en éléments plus petits et contrôlables (appelés paquets) qui peuvent voyager indépendamment sur n’importe quel circuit disponible vers l’emplacement cible, dans lequel les morceaux sont réassemblés. Par conséquent, contrairement aux télécommunications vocales conventionnelles, la commutation de paquets n’a pas besoin d’un seul circuit dédié entre chaque ensemble d’utilisateurs. Les réseaux industriels par paquets ont été lancés dans les années 1970, mais ils ont été développés principalement pour offrir un accès effectif aux ordinateurs distants par des terminaux dédiés. Rapidement, ils ont changé les connexions modem longue distance par des circuits « virtuels » moins coûteux sur des systèmes de paquets. Aux États-Unis, Telenet et Tymnet étaient deux systèmes de ce type. Aucun des deux ne prenait en charge les télécommunications de la variété vers l’hôte ; dans les années 70, c’était encore le domaine des systèmes d’études, et il le restera pendant plusieurs années.
Découvrir l’histoire de Notre Dame
Notre-Dame de Paris, également appelée cathédrale Notre-Dame, chapelle cathédrale de Paris. Elle sera la plus célèbre des cathédrales gothiques du Moyen Âge et se distingue par sa taille, son antiquité et sa curiosité architecturale. Notre-Dame est à l’extrémité est de l’île de la Cité et a été construite dans les dommages de deux bâtiments de l’église, qui étaient eux-mêmes antérieurs à un temple gallo-romain dédié à Jupiter. La cathédrale a été établie par Maurice de Sully, évêque de Paris, qui vers 1160 a développé l’idée de changer en un seul bâtiment, sur le plus large éventail, les épaves de ces deux avant basiliques. Le rocher des blocs de construction a été posé par le pape Alexandre III en 1163, et le maître-autel a été consacré en 1189. Le choeur, la façade ouest et la nef avaient été exécutés en 1250, et des porches, des chapelles et d’autres embellissements avaient été ajoutés. au cours des cent prochaines années. La cathédrale Notre-Dame se compose d’un choeur et d’une abside, d’un transept rapide, ainsi que d’une nef flanquée de deux nefs et de chapelles carrées. Sa flèche centrale a été ajoutée tout au long de la restauration au XIXe siècle, remplaçant la première, qui avait été entièrement éliminée au XVIIIe siècle en raison de l’instabilité. L’intérieur de la cathédrale est de 427 par 157 pi (130 par 48 mètres) en plan, et le toit est également de 115 pi (35 mètres). Deux massives tours gothiques précoces (1210-50) couronnent la façade ouest, qui est divisée en trois étages et dont les portes sont ornées de bonnes sculptures gothiques anciennes et surmontées d’une rangée de nombres de rois de l’Ancien Testament. Les deux tours ont une hauteur de 223 pieds (68 mètres); les flèches dans lesquelles celles-ci devaient être couronnées n’ont jamais été ajoutées. À l’est de la cathédrale, l’abside a de grandes fenêtres à claire-voie (1235-1270 supplémentaires) et est entretenue par des contreforts mobiles à arc individuel du type gothique rayonnant le plus audacieux, particulièrement remarquable pour leur audace et leur sophistication. Les quelques grandes rosaces de la cathédrale conservent vous-même leur coupe du XIIIe siècle. La cathédrale Notre-Dame a subi des dommages et l’usure des centaines d’années. Après la Révolution française, il a été absolument sauvé de la destruction possible par Napoléon, qui s’est couronné empereur des Français dans la cathédrale en 1804. Notre-Dame a subi des restaurations majeures par le designer français Eugène-Emmanuel Viollet-le-Duc au milieu de la -1800s. On pense que la popularité de l’innovation historique de Victor Hugo, Notre-Dame de Paris (1831), dont la cathédrale est le cadre, aurait influencé les rénovations. Lors d’une campagne de récupération en 2019, une cheminée a éclaté dans le grenier de la cathédrale, et l’énorme incendie a endommagé la majorité de la structure du toit, la flèche du XIXe siècle de Viollet-le-Duc et une partie de la voûte nervurée.
Ces marques qui montent sur Instagram
Ces droles de marques sur Instagram
Tout a commencé avec une publicité Instagram pour un manteau, le manteau long coupe-vent West Louis (TM) pour homme d’affaires pour être précis. Cela ressemblait à un manteau camel décent, pas chic mais bien. Et j’en cherchais une de cette couleur, alors quand l’annonce vantant le manteau est apparue et que le prix était à deux chiffres, je me suis dit : hé, une affaire !
La marque, West Louis, semblait être une autre des petites entreprises de vêtements qui m’ont marqué dans le vaste écosystème publicitaire de Facebook comme quelqu’un qui aime acheter des vêtements : Faherty, Birdwell Beach Britches, Life After Denim, une marque de sous-vêtements en laine qui prétend que je seulement besoin de deux paires par semaine, bottiers divers.
Peut-être que la copie sur le site de West Louis était un peu trop, affirmant que «West Louis est la perfection des vêtements pour hommes modernes», mais dans un monde où une compagnie pétrolière peut prétendre «alimenter les connexions», qui étais-je à blâmer un petit entrepreneur pour de la prose violette ?
Plusieurs semaines plus tard, le manteau est apparu dans un sac en plastique noir arborant les marques de China Post, le service postal de ce pays. Je l’ai déchiré et j’ai sorti le manteau. Le matériau a la douceur d’un tapis de Las Vegas et le riche éclat d’une combinaison en velours. Le tissu est si synthétique qu’il pourrait probablement être raffiné en carburant de soute pour un navire. C’était, techniquement, l’article que j’ai commandé, seulement plus minable que ce à quoi je m’attendais dans tous les aspects.
Je suis allé sur le compte Instagram de West Louis et j’ai trouvé 20 publications au total, toutes faites entre juin et octobre 2017. La plupart ne sont que des photos de vêtements. En effectuant une recherche d’image inversée, il est clair que le manteau long coupe-vent pour homme d’affaires est vendu dans le monde entier sur une variété de sites Web de vente au détail. Un autre sweat-shirt que j’ai acheté via Instagram – j’ai retrouvé pas moins de 15 magasins vendant le même article. J’ai acheté le mien auprès de Thecuttedge.life, mais j’aurais pu l’obtenir auprès de Gonthwid, Hzijue, Romwe, HypeClothing, Manvestment, Ladae Picassa ou Kovfee. Chacun marque très légèrement le sweat-shirt comme le sien, mais présente des images identiques d’un modèle tatoué moustachu. Qu’un pourcentage décent des marques soient imprononçables en anglais ne fait qu’ajouter au covfefe de tout cela.
Tous ces sites utilisent une plateforme appelée Shopify, qui s’apparente au WordPress ou au Blogger du e-commerce, permettant des boutiques en ligne complètement clé en main. Aujourd’hui, elle compte plus de 500 000 marchands, un nombre qui a augmenté de 74 % par an au cours des cinq dernières années. Lors des grands jours de shopping autour de Thanksgiving, ils effectuaient des transactions d’un million de dollars par minute. Et la « grande majorité » des magasins du service sont des petites et moyennes entreprises, m’a dit la société.
Shopify sert de couche de base à un écosystème émergent qui soude la publicité numérique via Facebook au monde des fabricants et grossistes asiatiques qui représentent leurs entreprises sur Alibaba et son homologue ouvert aux étrangers, AliExpress.
C’est un nouveau monde fascinant de la vente au détail, une mutation du capitalisme mondialisé qui s’est développé dans les fissures du commerce traditionnel.
Voici comment Ça marche.
« Qu’est-ce qui se passe tout le monde ?! » un homme au visage frais aux cheveux bruns en désordre crie dans la caméra. Derrière lui, deux ordinateurs sont ouverts sur un bureau blanc dans une pièce blanche. D’après son apparence, il n’est peut-être pas un adulte, mais il a déjà appris à regarder directement dans la caméra lorsqu’il livre l’évangile toujours attrayant de Easy Money sur Internet.
« Dans ce défi, je vais porter un tout nouveau magasin Shopify à plus de mille dollars », dit-il. « Je vous invite donc à me suivre alors que je fais passer ce tout nouveau magasin de 0, littéralement 0, à plus de mille dollars au cours des sept prochains jours. »
Dans le coin de YouTube dédié au e-commerce, ces vidéos font un peu fureur, cumulant des centaines de milliers de vues pour des explications très détaillées sur la mise en place d’une boutique e-commerce sur Internet.
Leur star est Rory Ganon. Bien que son accent soit irlandais (« tousand »), sa diction est purement YouTuber de LA. Il est répétitif, fait des coupes rapides et livre chaque ligne avec conviction de jeunesse. Il semble vivre à Ratoath, une petite ville de banlieue irlandaise située à environ une demi-heure de Dublin. Sa page Facebook le décrit comme un entrepreneur de 17 ans.
Son succès à trouver un public semble fondé sur le fait que lorsqu’il dit qu’il va tout vous montrer, il va vraiment tout vous montrer. Par exemple, vous regarderez son écran pendant qu’il s’apprête à ouvrir un magasin, afin que tout le monde puisse le suivre à la maison. C’est un Bob Ross du commerce électronique.
Ces techniques fonctionnent de la même manière pour lui que pour Gucci. Certains détaillants Instagram sont des marques légitimes avec des employés et des produits. D’autres sont simplement des intermédiaires pour les produits chinois, construits dans des chambres et lancés sans capital ni inventaire. Tous ont vu le jour grâce à la puissance des publicités Instagram et Facebook combinées à une suite d’outils de commerce électronique basés sur Shopify.
Les produits n’ont pas d’importance pour le système, ni pour Ganon. Toute l’idée du commerce de détail est inversée dans ses vidéos. Ce qu’il vend réellement dans ses magasins est secondaire à la façon dont il le fait. C’est comme s’il giclait des hot-dogs sur son ketchup et sa moutarde.
Ce que fait Ganon, c’est choisir des fournisseurs qu’il ne connaîtra jamais pour expédier des produits qu’il ne touchera jamais. Tous ses efforts sont consacrés à la création de publicités pour capturer des clients potentiels, puis à l’optimisation d’un environnement numérique qui les encourage à acheter n’importe quelle merde qu’il leur propose.
Et il n’est pas seul.
L’enquête de référence sur ce monde – « Il n’y a pas de montre gratuite » – a été menée par une artiste, Jenny Odell. Après qu’un visiteur du Museum of Capitalism d’Oakland ait apporté une montre « vendue » « gratuitement » en ligne, Odell s’est efforcé de rechercher ses origines. La montre a été vendue par Folsom & Co, agence SEO Dunkerque l’une d’une constellation de sociétés presque identiques vendant des montres presque identiques. Ces entreprises se distinguent principalement par leur relation lâche avec la vérité sur elles-mêmes. Les informations qu’ils fournissent sur les marques sont presque certainement fictives. Alors que Folsom & Co prétendu être du district de Soma à San Francisco, SoFi côtier a prétendu être de Miami. Les deux venaient probablement d’ailleurs. Un autre site crée le plus petit croquis d’un fondateur supposé nommé « Bradley » qui « avait un désir constant de bien se présenter mais ne croyait pas que la mode et le style devraient avoir un prix aussi élevé ». Bradley n’existe probablement pas.
Bien sûr, il ne s’agit que d’une version éculée de ce que fait toute image de marque, souligne Odell. Cela crée des histoires qui augmentent la valeur des produits. Ce que vous pouvez facturer dépend de l’histoire que vous racontez, ce qui signifie que sur Instagram, les photos bien éclairées dans les cafés entraînent directement des prix plus élevés, surtout si elles présentent un « influenceur » avec de nombreux abonnés.
Ces nouveaux sites de vente au détail sont également des créatures qui ne pourraient exister que dans notre économie actuelle. Ils sont un remaniement de la même infrastructure de mode rapide qui alimente H&M et Zara. West Louis et Folsom & Co sont un nouveau front-end pour les usines asiatiques qui fabriquent des trucs. Trébucher sur un – ou plus probablement – vous retrouvez ciblé par les publicités d’une telle marque, et vous ouvrez l’un des nombreux visages hautement jetables de l’économie mondialisée. C’est juste qu’avec des entreprises comme West Louis, les coutures montrent, au propre comme au figuré.
La ségrégation des revenus
Les juges fédéraux sont plus susceptibles d’embaucher des femmes juristes après avoir siégé à un panel composé de femmes juges.
Notre graphique du haut montre que les revenus de la classe moyenne ont augmenté à un rythme plus lent que les revenus de la tranche supérieure au cours des cinq dernières décennies.
Danielle Douglas-Gabriel décrit les défis auxquels sont historiquement confrontés les collèges et universités noirs lorsqu’ils fournissent des ressources financières à leurs étudiants.
Enfin, consultez la nouvelle pièce de Jenny Schuetz sur la façon dont l’expansion de l’utilisation des baux à plus long terme pourrait aider à faire de la location un choix plus stable pour les ménages à revenu moyen.
Les étudiants des collèges sont fortement séparés par le revenu des parents, les établissements plus sélectifs ayant des parts beaucoup plus élevées de ceux issus de familles aisées. Cela est dû en grande partie au fait que les candidats issus de milieux plus riches ont de meilleures qualifications, comme un score élevé au SAT ou à l’ACT. Mais dans cet article, Chetty et Friedman et leurs collègues montrent que cela n’explique pas tout l’écart. Plus précisément, ils constatent que l’égalisation des taux de demande, d’admission et de scolarisation entre les groupes de revenu des parents conditionnels aux résultats des tests réduirait considérablement la ségrégation, principalement en augmentant la représentation des étudiants de la classe moyenne dans les collèges plus sélectifs
Cependant, cela aurait peu d’impact sur la fraction des étudiants à faible revenu dans les collèges privés d’élite, car il y a si peu d’étudiants issus de familles à faible revenu avec des scores SAT / ACT suffisamment élevés. Mais les collèges pourraient aller plus loin et accorder une préférence à échelle mobile aux étudiants à revenu faible ou intermédiaire dans le processus de demande et d’admission, similaire à celui implicitement accordé aux étudiants hérités des collèges privés d’élite. Les auteurs estiment que cela éliminerait les différences de répartition du revenu des parents entre les collèges et réduirait de 25% la persistance du revenu intergénérationnel chez les étudiants.
J’ai testé la Mustang Shelby
Conduire une voiture incroyable est une possibilité. Nous avons propulsé un véhicule incroyable pour le plaisir. C’est la nouvelle Shelby. Freiner dans le premier virage à la fin de la brève fosse directement sur le programme de 2,4 milles à l’extérieur de la rue à Vegas Motor Speedway donne l’impression que cela pourrait être une proposition de fermer les yeux et les souhaits. Dans le pneu de la Mustang Shelby GT500 2020, vous arrêtez une fusée de 760 chevaux qui pèse 4 171 livres, donc la ralentir de manière fiable et tourner dans le coin semble précisément être un exercice de rêverie. Incroyablement, tour après tour, transformation après transformation, la GT500 fait exactement ce qu’elle est censée faire, malgré les difficultés apparentes. Les concepteurs de Ford ont créé un appareil capable d’aller à -60 mph en 3,3 secondes et de parcourir un quart de mile en seulement 10,7 secondes. Selon le programme de contrôle de lancement de la GT500, pilotage Ferrari nous avons enregistré des courses consécutives de 11,4 secondes sur la bande de traction du Las Vegas Motor Speedway. Mais la GT500 âgée était également rapide sur le Strip. Ce nouveau véhicule semble mieux défini par ce qu’il n’est pas, car il défie constamment les anticipations basées sur l’histoire du modèle, sa lignée, son énergie et son encombrement. C’est possible en partie puisque le GT500 défie une conférence Mustang familière : le coût. Les Mustangs sont appréciées pour leur facilité d’accès aux conducteurs de tous les jours, mais le PDSF de notre voiture de contrôle Grabber Lime était époustouflant de 93 890 $. Ajoutez les bandes de couleur optionnelles de 10 000 $ (comme le font apparemment la plupart des acheteurs) et le coût efface sans effort le défi à 6 chiffres. Nous avons parcouru un quart de mille dans le tableau de 11 secondes pendant notre temps de test de la voiture. (Ford/) C’est beaucoup d’argent pour une Mustang, mais la GT500 contient une gamme de matériel digne d’une supercar pour le justifier. Et heureusement, ces goodies rapides ne sont pas de simples déguisements de fenêtre de case à cocher. Cette Shelby est un ensemble parfaitement cohérent par opposition à une collection de composants en raison de l’attention impressionnante portée aux détails par le groupe d’ingénierie. Il n’est pas surprenant que la GT500 dispose d’une grande énergie : à ce stade, nous avons déjà observé de nombreux V8 suralimentés. La GT500 de génération précédente, la Dodge Hellcat avec ses variantes Redeye et Demon, ainsi que les Chevy Corvette Z06 et ZR1. Les 760 chevaux du V8 de 5,2 litres de la GT500 en font le véhicule le plus efficace de Ford à ce jour, et le couple de 625 lb-pi fournit un grognement de qualité véhicule pick-up. Ce moteur spécifique contient quelques innovations notables. Il s’agit du premier moteur à utiliser le nouveau compresseur de suralimentation inversé de 2,65 litres d’Eaton qui place les lourds rotors jumelés vers le bas de l’appareil, en utilisant l’échangeur de chaleur atmosphère-eau potable plus léger pour votre refroidisseur intermédiaire en haut. Cela améliore l’efficacité de l’emballage du produit en comprimant beaucoup mieux le ventilateur dans la vallée du V du moteur et en abaissant le centre des forces gravitationnelles du moteur. Ceci est particulièrement bénéfique dans un véhicule tel que le Shelby qui se tient assez haut par rapport aux spécifications globales de la voiture de performance. Le carter d’huile à carter humide du moteur comprend des fonctions spéciales pour offrir une disponibilité constante d’huile essentielle dans des conditions de surveillance de g plus élevé qui nécessitent généralement un programme de carter sec de style course. Un avantage de la hauteur de la Mustang est qu’il y a suffisamment d’espace sous le moteur pour un carter d’huile accru, avec des réservoirs de croissance latéraux pour une capacité d’huile supplémentaire. Il y a un labyrinthe de chicanes vers le bas du bac et des volets faciles à ouvrir contrôlent le flux à côté des réservoirs. Tout cela se combine pour éviter que l’huile essentielle ne s’accumule de manière inatteignable à partir du ramassage de la pompe à huile essentielle, garantissant une disponibilité constante de la lubrification. Les roues larges le retirent rapidement de la ligne. Un système de freinage sérieux le ralentit rapidement. (Ford/) Puissance des canaux du moteur au moyen d’une transmission à double embrayage Tremec TR-9070 à 7 vitesses. La coopération de Ford avec Tremec pour calibrer les qualités de changement de vitesse de la transmission est évidente à la fois dans la vitesse ainsi que dans la fluidité des changements de vitesse, qui ont toujours été parfaitement synchronisés dans les déplacements sur route et sur moniteur sans avoir besoin d’utiliser les palettes de déplacement montées sur les commandes pour les commandes manuelles. contrôler. Ce qui inclut des rétrogradations intenses sous un freinage brutal dans les virages et des rétrogradations au bon moment à la sortie des virages afin de ne pas perturber l’équilibre de la GT500 tout en accélérant et en déroulant simultanément les commandes. Toute la force motrice sous le capot génère une énorme quantité de chaleur, donc Ford a plus que doublé la taille de l’entrée d’air dans la calandre et a ajouté un évent d’échappement de capot qui mesure six pieds carrés de superficie. Le résultat final est la possibilité de perdre 230 kilowatts incroyables de chaleur résiduelle, une capacité développée à l’aide du logiciel de calcul de dynamique des liquides PowerFLOW de Dassault Systèmes. Ceci est particulièrement important car alors que le moteur est évalué à «seulement» 760 ch Internet, car le compresseur met 100 ch pour tourner à la vitesse de la ligne rouge du moteur, le V8 produit en fait 860 ch et la quantité de chaleur résiduelle associée. De toute évidence, cette chaleur provient de la combustion du gaz, et l’EPA évalue le GT500 à 12 mpg en ville et à 18 miles par gallon sur l’autoroute. Mais qui est dans un voyage placide qui laisse simplement la plupart des 760 chevaux de Shelby dans le corral. Relâchez-les autour du moniteur et la consommation devient presque comiquement terrible, car cette énergie doit provenir de quelque part. Les concepteurs de Ford se sont vantés que, malgré sa nature mère plus tendue et ses performances raréfiées, la GT500 a subi tous les tests de durabilité réguliers de l’entreprise. Néanmoins, le Shelby n’a pas pu effectuer un contrôle qui implique une demi-heure de voyage difficile à pleine énergie. La raison principale : il a vidé le réservoir de gaz de 16 gallons en seulement 25 minutes.