id_numeric
int64
0
1.03k
en_input
stringlengths
12
7.84k
en_output
stringlengths
15
17.7k
de_input
stringlengths
13
8.96k
de_output
stringlengths
15
21.1k
es_input
stringlengths
16
8.77k
es_output
stringlengths
15
18.6k
fr_input
stringlengths
15
9.16k
fr_output
stringlengths
15
20.6k
it_input
stringlengths
8
8.7k
it_output
stringlengths
15
19.6k
0
Can brain cells move? By movement I mean long distance migration (preferably within the brain only).
The question is relatively broad and one should take into account that the brain not only consists of neurons, but also glial cells (supportive cells) and pre-mitotic neuronal stem cells. Furthermore, as critical fellow-scientists have indicated, developmental stage is very important, as the developing embryonic brain is very different from the adult brain. However, after sifting through various publications, the answer to the question is actually remarkably simple: Yes, brain cells migrate. In the adult brain glial cells migrate in the brain (Klämbt, 2009). Glial cells are involved in a myriad of functions, but a notable example of migrating glial cells are the oligodendrocytes that migrate relative long distances to find their target axons onto which they wrap themselves to form the insulating myelin sheath (Tsai and Miller, 2002). Neuronal stem cells migrate over long distances in response to injury (Imitola et al., 2004) and they migrate from specific stem-cell locations (e.g., hippocampus and subventricular zone) to other regions (Clarke, 2003). Post-mitotic, but non-differentiated neurons have been shown to migrate in the adult brain in fish (Scott et al., 2012), and in mammals and non-human primates as well (Sawada et al., 2011). Not surprisingly, glial cells, stem cells and neurons also migrate during embryonic development. Most notably, post-mitotic neurons destined to fulfill peripheral functions have to migrate over relatively long distances from the neural crest to their target locations (Neuroscience, 2nd ed, Neuronal Migration).
Können sich Gehirnzellen bewegen? Mit Bewegung meine ich die Wanderung über große Entfernungen (vorzugsweise nur innerhalb des Gehirns).
Die Frage ist relativ weit gefasst, und man sollte berücksichtigen, dass das Gehirn nicht nur aus Neuronen besteht, sondern auch aus Gliazellen (Stützzellen) und prä-mitotischen neuronalen Stammzellen. Außerdem ist, wie kritische Kollegen anmerkten, das Entwicklungsstadium sehr wichtig, da sich das sich entwickelnde embryonale Gehirn stark vom erwachsenen Gehirn unterscheidet. Nach Durchsicht verschiedener Veröffentlichungen ist die Antwort auf die Frage jedoch eigentlich bemerkenswert einfach: Ja, Gehirnzellen wandern. Im erwachsenen Gehirn wandern Gliazellen im Gehirn (Klämbt, 2009). Gliazellen sind an einer Vielzahl von Funktionen beteiligt, aber ein bemerkenswertes Beispiel für wandernde Gliazellen sind die Oligodendrozyten, die über relativ große Entfernungen wandern, um ihre Zielaxone zu finden, um die sie sich wickeln und die isolierende Myelinscheide bilden (Tsai und Miller, 2002). Neuronale Stammzellen wandern als Reaktion auf Verletzungen über weite Entfernungen (Imitola et al., 2004) und sie wandern von bestimmten Stammzellstandorten (z. B. Hippocampus und subventrikuläre Zone) in andere Regionen (Clarke, 2003). Bei Fischen (Scott et al., 2012), aber auch bei Säugetieren und nichtmenschlichen Primaten (Sawada et al., 2011) wurde gezeigt, dass post-mitotische, aber nicht-differenzierte Neuronen in das erwachsene Gehirn wandern. Es überrascht nicht, dass Gliazellen, Stammzellen und Neuronen auch während der Embryonalentwicklung wandern. Vor allem postmitotische Neuronen, die periphere Funktionen erfüllen sollen, müssen über relativ lange Strecken von der Neuralleiste zu ihren Zielorten wandern (Neuroscience, 2nd ed, Neuronal Migration).
¿Pueden moverse las células cerebrales? Por movimiento entiendo migración a larga distancia (preferiblemente sólo dentro del cerebro).
La pregunta es relativamente amplia y hay que tener en cuenta que el cerebro no sólo está formado por neuronas, sino también por células gliales (células de sostén) y células madre neuronales premíticas. Además, como han indicado compañeros científicos críticos, la etapa de desarrollo es muy importante, ya que el cerebro embrionario en desarrollo es muy diferente del cerebro adulto. Sin embargo, tras escudriñar diversas publicaciones, la respuesta a la pregunta es en realidad notablemente sencilla: Sí, las células cerebrales migran. En el cerebro adulto, las células gliales migran en el cerebro (Klämbt, 2009). Las células gliales están implicadas en una miríada de funciones, pero un ejemplo notable de células gliales migratorias son los oligodendrocitos, que migran distancias relativamente largas para encontrar sus axones diana sobre los que se envuelven para formar la vaina aislante de mielina (Tsai y Miller, 2002). Las células madre neuronales migran largas distancias en respuesta a una lesión (Imitola et al., 2004) y migran desde localizaciones específicas de células madre (por ejemplo, hipocampo y zona subventricular) a otras regiones (Clarke, 2003). Se ha demostrado que las neuronas postmitóticas, pero no diferenciadas, migran en el cerebro adulto en peces (Scott et al., 2012), y también en mamíferos y primates no humanos (Sawada et al., 2011). No es sorprendente que las células gliales, las células madre y las neuronas también migren durante el desarrollo embrionario. En particular, las neuronas posmitóticas destinadas a desempeñar funciones periféricas tienen que migrar distancias relativamente largas desde la cresta neural hasta sus lugares de destino (Neuroscience, 2nd ed, Neuronal Migration).
Les cellules du cerveau peuvent-elles se déplacer ? Par mouvement, j'entends une migration sur une longue distance (de préférence à l'intérieur du cerveau uniquement).
La question est relativement vaste et il faut tenir compte du fait que le cerveau n'est pas seulement constitué de neurones, mais aussi de cellules gliales (cellules de soutien) et de cellules souches neuronales pré-mitotiques. En outre, comme l'ont indiqué des collègues scientifiques critiques, le stade de développement est très important, car le cerveau embryonnaire en développement est très différent du cerveau adulte. Cependant, après avoir passé au crible diverses publications, la réponse à la question est en fait remarquablement simple : Oui, les cellules cérébrales migrent. Dans le cerveau adulte, les cellules gliales migrent dans le cerveau (Klämbt, 2009). Les cellules gliales sont impliquées dans une myriade de fonctions, mais un exemple notable de cellules gliales migrantes sont les oligodendrocytes qui migrent sur des distances relativement longues pour trouver leurs axones cibles sur lesquels ils s'enroulent pour former la gaine isolante de myéline (Tsai et Miller, 2002). Les cellules souches neuronales migrent sur de longues distances en réponse à une lésion (Imitola et al., 2004) et elles migrent d'endroits spécifiques (par exemple, l'hippocampe et la zone subventriculaire) vers d'autres régions (Clarke, 2003). Il a été démontré que les neurones post-mitotiques, mais non différenciés, migrent dans le cerveau adulte des poissons (Scott et al., 2012), ainsi que chez les mammifères et les primates non humains (Sawada et al., 2011). Il n'est pas surprenant que les cellules gliales, les cellules souches et les neurones migrent également au cours du développement embryonnaire. En particulier, les neurones post-mitotiques destinés à remplir des fonctions périphériques doivent migrer sur des distances relativement longues depuis la crête neurale jusqu'à leur emplacement cible (Neuroscience, 2e édition, Neuronal Migration).
Le cellule cerebrali possono muoversi? Per movimento intendo migrazione a lunga distanza (preferibilmente solo all'interno del cervello).
La questione è relativamente ampia e bisogna tenere conto del fatto che il cervello non è costituito solo da neuroni, ma anche da cellule gliali (cellule di supporto) e da cellule staminali neuronali pre-mitotiche. Inoltre, come hanno indicato i colleghi critici, lo stadio di sviluppo è molto importante, poiché il cervello embrionale in via di sviluppo è molto diverso da quello adulto. Tuttavia, dopo aver passato al setaccio diverse pubblicazioni, la risposta alla domanda è in realtà straordinariamente semplice: Sì, le cellule cerebrali migrano. Nel cervello adulto le cellule gliali migrano (Klämbt, 2009). Le cellule gliali sono coinvolte in una miriade di funzioni, ma un esempio notevole di cellule gliali che migrano sono gli oligodendrociti che migrano per distanze relativamente lunghe per trovare gli assoni bersaglio sui quali si avvolgono per formare la guaina mielinica isolante (Tsai e Miller, 2002). Le cellule staminali neuronali migrano su lunghe distanze in risposta a lesioni (Imitola et al., 2004) e migrano da specifiche sedi di cellule staminali (ad esempio, ippocampo e zona subventricolare) ad altre regioni (Clarke, 2003). È stato dimostrato che i neuroni post-mitotici, ma non differenziati, migrano nel cervello adulto dei pesci (Scott et al., 2012) e anche nei mammiferi e nei primati non umani (Sawada et al., 2011). Non sorprende che anche le cellule gliali, le cellule staminali e i neuroni migrino durante lo sviluppo embrionale. In particolare, i neuroni post-mitotici destinati a svolgere funzioni periferiche devono migrare per distanze relativamente lunghe dalla cresta neurale alle loro sedi di destinazione (Neuroscience, 2nd ed, Neuronal Migration).
1
In our computer systems lecture we were introduced to the MIPS processor. It was (re)developed over the course of the term and has in fact been quite easy to understand. It uses a RISC design, that is its elementary commands are regularly encoded and there are only few of them in order to keep the wires simple. It was mentioned that CISC follows a different philosophy. I looked briefly at the x86 instruction set and was shocked. I can not image how anyone would want to build a processor that uses so complex a command set! So I figure there have to be good arguments why large portions of the processor market use CISC architectures. What are they?
There is a general historical trend. In the olden days, memories were small, and so programs were perforce small. Also, compilers were not very smart, and many programs were written in assembler, so it was considered a good thing to be able to write a program using few instructions. Instruction pipelines were simple, and processors grabbed one instruction at a time to execute it. The machinery inside the processor was quite complex anyway; decoding instructions was not felt to be much of a burden. In the 1970s, CPU and compiler designers realized that having such complex instructions was not so helpful after all. It was difficult to design processors in which those instructions were really efficient, and it was difficult to design compilers that really took advantage of these instructions. Chip area and compiler complexity was better spent on more generic pursuits such as more general-purpose registers. The Wikipedia article on RISC explains this in more detail. MIPS is the ultimate RISC architecture, which is why it's taught so often. The x86 family is a bit different. It was originally a CISC architecture meant for systems with very small memory (no room for large instructions), and has undergone many successive versions. Today's x86 instruction set is not only complicated because it's CISC, but because it's really a 8088 with a 80386 with a Pentium possibly with an x86_64 processor. In today's world, RISC and CISC are no longer the black-and-white distinction they might have been once. Most CPU architectures have evolved to different shades of grey. On the RISC side, some modern MIPS variants have added multiplication and division instructions, with a non-uniform encoding. ARM processors have become more complex: many of them have a 16-bit instruction set called Thumb in addition to the “original” 32-bit instructions, not to mention Jazelle to execute JVM instructions on the CPU. Modern ARM processors also have SIMD instructions for multimedia applications: some complex instructions do pay after all. On the CISC side, all recent processors are to some extent RISC inside. They have microcode to define all these complex macro instructions. The sheer complexity of the processor makes the design of each model take several years, even with a RISC design, what with the large number of components, with pipelining and predictive execution and whatnot. So why do the fastest processors remain CISC outside? Part of it, in the case of the x86 (32-bit and 64-bit) family, is historical compatibility. But that's not the whole of it. In the early 2000s, Intel tried pushing the Itanium architecture. Itanium is an extreme case of complex instructions (not really CISC, though: its design has been dubbed EPIC). It even does away with the old-fashioned idea of executing instructions in sequence: all instructions are executed in parallel until the next barrier. One of the reasons Itanium didn't take is that nobody, whether at Intel or elsewhere, could write a decent compiler for it. Now a good old mostly-sequential processor like x86_64, that's something we understand.
In unserer Vorlesung über Computersysteme wurden wir mit dem MIPS-Prozessor bekannt gemacht. Er wurde im Laufe des Semesters (neu) entwickelt und ist eigentlich recht einfach zu verstehen. Er verwendet ein RISC-Design, d.h. seine elementaren Befehle sind regelmäßig kodiert und es gibt nur wenige davon, um die Verdrahtung einfach zu halten. Es wurde erwähnt, dass CISC eine andere Philosophie verfolgt. Ich habe mir kurz den x86-Befehlssatz angesehen und war schockiert. Ich kann mir nicht vorstellen, wie jemand einen Prozessor bauen will, der einen so komplexen Befehlssatz verwendet! Es muss also gute Argumente geben, warum große Teile des Prozessormarktes CISC-Architekturen verwenden. Welche sind das?
Es gibt einen allgemeinen historischen Trend. Früher waren die Speicher klein und die Programme daher zwangsläufig auch klein. Außerdem waren die Compiler nicht sehr intelligent, und viele Programme wurden in Assembler geschrieben, so dass es als vorteilhaft galt, ein Programm mit wenigen Anweisungen schreiben zu können. Die Befehlspipelines waren einfach, und die Prozessoren nahmen einen Befehl nach dem anderen auf und führten ihn aus. Die Maschinerie im Inneren des Prozessors war ohnehin recht komplex; die Dekodierung von Anweisungen wurde nicht als große Belastung empfunden. In den 1970er Jahren erkannten die Entwickler von CPUs und Compilern, dass solch komplexe Befehle doch nicht so hilfreich waren. Es war schwierig, Prozessoren zu entwickeln, in denen diese Befehle wirklich effizient waren, und es war schwierig, Compiler zu entwickeln, die diese Befehle wirklich nutzten. Der Platz auf dem Chip und die Komplexität des Compilers wurden besser für allgemeinere Aufgaben wie z. B. Mehrzweckregister verwendet. Der Wikipedia-Artikel über RISC erklärt dies ausführlicher. MIPS ist die ultimative RISC-Architektur, weshalb sie auch so oft gelehrt wird. Die x86-Familie ist ein wenig anders. Ursprünglich handelte es sich um eine CISC-Architektur, die für Systeme mit sehr kleinem Speicher (kein Platz für große Befehle) gedacht war und viele aufeinander folgende Versionen durchlaufen hat. Der heutige x86-Befehlssatz ist nicht nur kompliziert, weil es sich um eine CISC-Architektur handelt, sondern weil es sich in Wirklichkeit um einen 8088 mit einem 80386 mit einem Pentium, möglicherweise mit einem x86_64-Prozessor, handelt. In der heutigen Welt sind RISC und CISC nicht mehr die Schwarz-Weiß-Unterscheidung, die sie vielleicht einmal waren. Die meisten CPU-Architekturen haben sich zu verschiedenen Grautönen entwickelt. Auf der RISC-Seite haben einige moderne MIPS-Varianten Multiplikations- und Divisionsbefehle mit einer uneinheitlichen Kodierung hinzugefügt. ARM-Prozessoren sind komplexer geworden: Viele von ihnen haben zusätzlich zu den "ursprünglichen" 32-Bit-Befehlen einen 16-Bit-Befehlssatz namens Thumb, ganz zu schweigen von Jazelle zur Ausführung von JVM-Befehlen auf der CPU. Moderne ARM-Prozessoren verfügen auch über SIMD-Befehle für Multimedia-Anwendungen: einige komplexe Befehle lohnen sich also doch. Auf der CISC-Seite sind alle neueren Prozessoren bis zu einem gewissen Grad RISC-intern. Sie verfügen über Mikrocode, um all diese komplexen Makrobefehle zu definieren. Die schiere Komplexität des Prozessors führt dazu, dass die Entwicklung jedes Modells mehrere Jahre in Anspruch nimmt, selbst bei einem RISC-Design, angesichts der großen Anzahl von Komponenten, des Pipelining und der vorausschauenden Ausführung und so weiter. Warum also bleiben die schnellsten Prozessoren außerhalb des CISC-Bereichs? Im Fall der x86-Familie (32-Bit und 64-Bit) ist ein Teil davon die historische Kompatibilität. Aber das ist nicht der ganze Grund. In den frühen 2000er Jahren versuchte Intel, die Itanium-Architektur voranzutreiben. Itanium ist ein Extremfall komplexer Anweisungen (allerdings nicht wirklich CISC: sein Design wurde als EPIC bezeichnet). Er verzichtet sogar auf die altmodische Idee, Befehle nacheinander auszuführen: Alle Befehle werden bis zur nächsten Barriere parallel ausgeführt. Einer der Gründe, warum sich Itanium nicht durchgesetzt hat, ist, dass niemand, weder bei Intel noch anderswo, einen anständigen Compiler dafür schreiben konnte. Bei einem guten alten, meist sequenziellen Prozessor wie x86_64 ist das etwas, das wir verstehen.
En nuestra clase sobre sistemas informáticos conocimos el procesador MIPS. Se ha ido (re)desarrollando a lo largo del curso y, de hecho, es bastante fácil de entender. Utiliza un diseño RISC, es decir, sus comandos elementales están codificados de forma regular y sólo hay unos pocos para mantener los cables simples. Se ha mencionado que CISC sigue una filosofía diferente. Miré brevemente el conjunto de instrucciones x86 y me quedé asombrado. No puedo imaginarme cómo alguien querría construir un procesador que utiliza un conjunto de instrucciones tan complejo. Así que me imagino que tiene que haber buenos argumentos para que gran parte del mercado de procesadores utilice arquitecturas CISC. ¿Cuáles son?
Existe una tendencia histórica general. Antiguamente, las memorias eran pequeñas y, por tanto, los programas también lo eran. Además, los compiladores no eran muy inteligentes y muchos programas se escribían en ensamblador, por lo que se consideraba positivo poder escribir un programa utilizando pocas instrucciones. Los pipelines de instrucciones eran sencillos, y los procesadores cogían una instrucción cada vez para ejecutarla. De todas formas, la maquinaria del procesador era bastante compleja, por lo que decodificar instrucciones no se consideraba una gran carga. En los años 70, los diseñadores de CPU y compiladores se dieron cuenta de que tener instrucciones tan complejas no era tan útil después de todo. Era difícil diseñar procesadores en los que esas instrucciones fueran realmente eficientes, y era difícil diseñar compiladores que realmente aprovecharan esas instrucciones. El área del chip y la complejidad del compilador se empleaban mejor en tareas más genéricas, como registros de propósito más general. El artículo de Wikipedia sobre RISC lo explica con más detalle. MIPS es la arquitectura RISC por excelencia, y por eso se enseña tan a menudo. La familia x86 es un poco diferente. Originalmente era una arquitectura CISC pensada para sistemas con muy poca memoria (sin espacio para instrucciones grandes), y ha sufrido muchas versiones sucesivas. El conjunto de instrucciones x86 actual no sólo es complicado por ser CISC, sino porque en realidad es un 8088 con un 80386 con un Pentium posiblemente con un procesador x86_64. En el mundo actual, RISC y CISC ya no son la distinción en blanco y negro que podían ser antaño. La mayoría de las arquitecturas de CPU han evolucionado hacia distintos tonos de gris. En el lado RISC, algunas variantes modernas de MIPS han añadido instrucciones de multiplicación y división, con una codificación no uniforme. Los procesadores ARM se han vuelto más complejos: muchos de ellos tienen un conjunto de instrucciones de 16 bits llamado Thumb, además de las instrucciones "originales" de 32 bits, por no hablar de Jazelle para ejecutar instrucciones JVM en la CPU. Los procesadores ARM modernos también tienen instrucciones SIMD para aplicaciones multimedia: al fin y al cabo, algunas instrucciones complejas merecen la pena. En el lado CISC, todos los procesadores recientes son hasta cierto punto RISC en su interior. Disponen de microcódigo para definir todas estas macroinstrucciones complejas. La mera complejidad del procesador hace que el diseño de cada modelo lleve varios años, incluso con un diseño RISC, debido al gran número de componentes, el pipelining, la ejecución predictiva y demás. Entonces, ¿por qué los procesadores más rápidos siguen siendo CISC fuera? En parte, en el caso de la familia x86 (32 y 64 bits), por compatibilidad histórica. Pero eso no es todo. A principios de la década de 2000, Intel intentó impulsar la arquitectura Itanium. Itanium es un caso extremo de instrucciones complejas (aunque no realmente CISC: su diseño se ha denominado EPIC). Incluso prescinde de la anticuada idea de ejecutar las instrucciones en secuencia: todas las instrucciones se ejecutan en paralelo hasta la siguiente barrera. Una de las razones por las que Itanium no triunfó es que nadie, ni en Intel ni en ningún otro sitio, fue capaz de escribir un compilador decente para él. Ahora, un buen procesador secuencial como x86_64 es algo que entendemos.
Dans notre cours sur les systèmes informatiques, nous avons découvert le processeur MIPS. Il a été (re)développé au cours du semestre et s'est en fait avéré assez facile à comprendre. Il utilise une conception RISC, c'est-à-dire que ses commandes élémentaires sont codées régulièrement et qu'elles sont peu nombreuses pour que les fils restent simples. Il a été mentionné que le CISC suit une philosophie différente. J'ai examiné brièvement le jeu d'instructions x86 et j'ai été choqué. Je n'arrive pas à imaginer comment quelqu'un pourrait vouloir construire un processeur qui utilise un jeu d'instructions aussi complexe ! Je me suis donc dit qu'il devait y avoir de bons arguments pour expliquer pourquoi une grande partie du marché des processeurs utilise des architectures CISC. De quoi s'agit-il ?
Il existe une tendance historique générale. Autrefois, les mémoires étaient petites, et donc les programmes étaient forcément petits. En outre, les compilateurs n'étaient pas très intelligents et de nombreux programmes étaient écrits en assembleur, de sorte qu'il était considéré comme une bonne chose de pouvoir écrire un programme en utilisant peu d'instructions. Les pipelines d'instructions étaient simples et les processeurs saisissaient une instruction à la fois pour l'exécuter. La machinerie à l'intérieur du processeur était de toute façon assez complexe ; le décodage des instructions n'était pas considéré comme un fardeau. Dans les années 1970, les concepteurs d'unités centrales et de compilateurs se sont rendu compte que des instructions aussi complexes n'étaient finalement pas si utiles. Il était difficile de concevoir des processeurs dans lesquels ces instructions étaient vraiment efficaces, et il était difficile de concevoir des compilateurs qui tirent vraiment parti de ces instructions. La surface des puces et la complexité des compilateurs étaient mieux utilisées pour des tâches plus génériques telles que des registres à usage plus général. L'article de Wikipédia sur les RISC explique cela plus en détail. MIPS est l'architecture RISC par excellence, c'est pourquoi elle est si souvent enseignée. La famille x86 est un peu différente. Il s'agissait à l'origine d'une architecture CISC destinée aux systèmes dotés d'une très petite mémoire (pas de place pour les instructions volumineuses), qui a connu de nombreuses versions successives. Le jeu d'instructions x86 d'aujourd'hui n'est pas seulement compliqué parce qu'il s'agit d'une architecture CISC, mais aussi parce qu'il s'agit en fait d'un 8088 avec un 80386 avec un Pentium éventuellement avec un processeur x86_64. Dans le monde d'aujourd'hui, RISC et CISC ne sont plus la distinction noire et blanche qu'ils ont pu être par le passé. La plupart des architectures de processeurs ont évolué vers différentes nuances de gris. Du côté RISC, certaines variantes modernes du MIPS ont ajouté des instructions de multiplication et de division, avec un codage non uniforme. Les processeurs ARM sont devenus plus complexes : nombre d'entre eux disposent d'un jeu d'instructions de 16 bits appelé Thumb en plus des instructions "originales" de 32 bits, sans parler de Jazelle pour exécuter les instructions JVM sur l'unité centrale. Les processeurs ARM modernes disposent également d'instructions SIMD pour les applications multimédias : certaines instructions complexes sont en effet payantes. Du côté CISC, tous les processeurs récents sont, dans une certaine mesure, RISC à l'intérieur. Ils disposent d'un microcode pour définir toutes ces macro-instructions complexes. La complexité même du processeur fait que la conception de chaque modèle prend plusieurs années, même avec une conception RISC, compte tenu du grand nombre de composants, du pipelining, de l'exécution prédictive, etc. Alors pourquoi les processeurs les plus rapides restent-ils des processeurs CISC ? Dans le cas de la famille x86 (32 et 64 bits), il s'agit en partie d'une compatibilité historique. Mais ce n'est pas tout. Au début des années 2000, Intel a tenté de promouvoir l'architecture Itanium. L'Itanium est un cas extrême d'instructions complexes (pas vraiment CISC, cependant : sa conception a été baptisée EPIC). Elle abandonne même l'idée démodée d'exécuter les instructions en séquence : toutes les instructions sont exécutées en parallèle jusqu'à la barrière suivante. L'une des raisons pour lesquelles l'Itanium n'a pas été adopté est que personne, que ce soit chez Intel ou ailleurs, n'a pu écrire un compilateur décent pour lui. Maintenant, un bon vieux processeur essentiellement séquentiel comme x86_64, c'est quelque chose que nous comprenons.
Durante la lezione sui sistemi informatici ci è stato presentato il processore MIPS. Questo processore è stato (ri)sviluppato nel corso del semestre ed è stato abbastanza facile da capire. Utilizza un design RISC, cioè i suoi comandi elementari sono codificati regolarmente e sono pochi per mantenere i fili semplici. È stato detto che il CISC segue una filosofia diversa. Ho dato una breve occhiata al set di istruzioni x86 e sono rimasto scioccato. Non riesco a immaginare come qualcuno possa voler costruire un processore che utilizza un set di comandi così complesso! Quindi ho pensato che ci devono essere buoni argomenti per cui gran parte del mercato dei processori utilizza architetture CISC. Quali sono?
Esiste una tendenza storica generale. Un tempo le memorie erano piccole e quindi i programmi erano per forza piccoli. Inoltre, i compilatori non erano molto intelligenti e molti programmi erano scritti in assembler, per cui era considerata una buona cosa poter scrivere un programma utilizzando poche istruzioni. Le pipeline di istruzioni erano semplici e i processori prendevano un'istruzione alla volta per eseguirla. Il macchinario all'interno del processore era comunque piuttosto complesso; la decodifica delle istruzioni non era considerata un grosso peso. Negli anni '70, i progettisti di CPU e compilatori si resero conto che avere istruzioni così complesse non era poi così utile. Era difficile progettare processori in cui queste istruzioni fossero davvero efficienti, ed era difficile progettare compilatori che sfruttassero davvero queste istruzioni. L'area del chip e la complessità del compilatore erano meglio impiegate in attività più generiche, come i registri di uso più generale. L'articolo di Wikipedia sui RISC spiega questo aspetto in modo più dettagliato. MIPS è l'architettura RISC per eccellenza, ed è per questo che viene insegnata così spesso. La famiglia x86 è un po' diversa. Originariamente era un'architettura CISC destinata a sistemi con memoria molto piccola (non c'è spazio per istruzioni di grandi dimensioni) e ha subito molte versioni successive. L'odierno set di istruzioni x86 non è complicato solo perché è CISC, ma anche perché è in realtà un 8088 con un 80386 con un Pentium forse con un processore x86_64. Nel mondo di oggi, RISC e CISC non sono più una distinzione in bianco e nero come lo erano un tempo. La maggior parte delle architetture delle CPU si è evoluta verso diverse sfumature di grigio. Sul versante RISC, alcune moderne varianti di MIPS hanno aggiunto istruzioni di moltiplicazione e divisione, con una codifica non uniforme. I processori ARM sono diventati più complessi: molti di essi hanno un set di istruzioni a 16 bit chiamato Thumb in aggiunta alle istruzioni "originali" a 32 bit, per non parlare di Jazelle per eseguire le istruzioni JVM sulla CPU. I moderni processori ARM dispongono anche di istruzioni SIMD per le applicazioni multimediali: alcune istruzioni complesse, dopotutto, pagano. Per quanto riguarda il lato CISC, tutti i processori recenti sono in qualche misura RISC all'interno. Hanno un microcodice per definire tutte le macroistruzioni complesse. La complessità del processore fa sì che la progettazione di ogni modello richieda diversi anni, anche se si tratta di un progetto RISC, per via del gran numero di componenti, del pipelining, dell'esecuzione predittiva e così via. Allora perché i processori più veloci rimangono CISC? In parte, nel caso della famiglia x86 (32 e 64 bit), si tratta di compatibilità storica. Ma non è tutto. Nei primi anni 2000, Intel ha cercato di spingere l'architettura Itanium. Itanium è un caso estremo di istruzioni complesse (non proprio CISC, però: il suo design è stato definito EPIC). Non esiste nemmeno l'idea antiquata di eseguire le istruzioni in sequenza: tutte le istruzioni vengono eseguite in parallelo fino alla barriera successiva. Uno dei motivi per cui Itanium non ha avuto successo è che nessuno, né in Intel né altrove, è riuscito a scrivere un compilatore decente per Itanium. Ora, un buon vecchio processore prevalentemente sequenziale come x86_64, è qualcosa che comprendiamo.
2
View tabular file such as CSV from command line, having horizontal and vertical scrolling would be great.
Sure, please take a look at csvkit. It provides a set of tools that adhere to the UNIX philosophy (meaning they are small, simple, single-purposed and can be combined). Here is an example that extracts the ten most populated cities in Germany from the free Maxmind World Cities database and displays the result in a console-readable format: ```$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | line_number | Country | AccentCity | Population | ----------------------------------------------------- | 1 | de | Berlin | 3398362 | | 2 | de | Hamburg | 1733846 | | 3 | de | Munich | 1246133 | | 4 | de | Cologne | 968823 | | 5 | de | Frankfurt | 648034 | | 6 | de | Dortmund | 594255 | | 7 | de | Stuttgart | 591688 | | 8 | de | Düsseldorf | 577139 | | 9 | de | Essen | 576914 | | 10 | de | Bremen | 546429 | ----------------------------------------------------- ``` Csvkit is platform independent because it is written in Python.
Anzeige von Tabellendateien wie CSV von der Kommandozeile aus, horizontales und vertikales Scrollen wäre toll.
Sicher, werfen Sie einen Blick auf csvkit. Es bietet eine Reihe von Werkzeugen, die der UNIX-Philosophie folgen (d.h. sie sind klein, einfach, zweckgebunden und können kombiniert werden). Hier ist ein Beispiel, das die zehn bevölkerungsreichsten Städte in Deutschland aus der freien Maxmind World Cities Datenbank extrahiert und das Ergebnis in einem konsolenlesbaren Format anzeigt: ```$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | line_number | Land | AccentCity | Bevölkerung | ----------------------------------------------------- | 1 | de | Berlin | 3398362 | de | 2 | de | Hamburg | 1733846 | 3 | de | München | 1246133 | 4 | de | Köln | 968823 | 5 | de | Frankfurt | 648034 | 6 | de | Dortmund | 594255 | Dortmund | 7 | die | Stuttgart | 591688 | 8 | the | Düsseldorf | 577139 | 9 | de | Essen | 576914 | 10 | de | Bremen | 546429 ----------------------------------------------------- ``` Csvkit ist plattformunabhängig, da es in Python geschrieben ist.
Ver archivo tabular como CSV desde la línea de comandos, tener desplazamiento horizontal y vertical sería genial.
Claro, echa un vistazo a csvkit. Proporciona un conjunto de herramientas que se adhieren a la filosofía UNIX (lo que significa que son pequeñas, simples, de un solo propósito y se pueden combinar). He aquí un ejemplo que extrae las diez ciudades más pobladas de Alemania de la base de datos gratuita Maxmind World Cities y muestra el resultado en un formato legible por consola: ```$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | País Ciudad Acento Población ----------------------------------------------------- | 1 de Berlín 3398362 de | 2 Hamburgo 1733846 | 3 Múnich 1246133 | 4. Colonia 968823 | 5. Frankfurt 648034 | 6. de Dortmund 594255 | 7. Stuttgart 591688 | 8. Düsseldorf 577139 | 9. Essen 576914 | 10. Bremen 546429 ----------------------------------------------------- ``` Csvkit es independiente de la plataforma porque está escrito en Python.
Visualiser un fichier tabulaire tel que CSV à partir de la ligne de commande, avoir un défilement horizontal et vertical serait formidable.
Bien sûr, jetez un coup d'œil à csvkit. Il fournit un ensemble d'outils qui adhèrent à la philosophie UNIX (c'est-à-dire qu'ils sont petits, simples, à usage unique et peuvent être combinés). Voici un exemple qui extrait les dix villes les plus peuplées d'Allemagne de la base de données gratuite Maxmind World Cities et affiche le résultat dans un format lisible par la console : ``$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | numéro_de_ligne | Pays | AccentCity | Population | ----------------------------------------------------- | 1 | de | Berlin | 3398362 | de | 2 | de | Hamburg | 1733846 | 3 | de Munich | 1246133 | 4 | de | Cologne | 968823 | 5 | de | Francfort | 648034 | 6 | de | Dortmund | 594255 | Dortmund | 7 | le | Stuttgart | 591688 | Düsseldorf | 577139 | 9 | de | Essen | 576914 | 10 | de | Bremen | 546429 ----------------------------------------------------- ``` Csvkit est indépendant de la plate-forme car il est écrit en Python.
Visualizzare file tabellari come CSV dalla riga di comando, con scorrimento orizzontale e verticale sarebbe fantastico.
Certo, date un'occhiata a csvkit. Fornisce un insieme di strumenti che aderiscono alla filosofia UNIX (cioè sono piccoli, semplici, a scopo singolo e possono essere combinati). Ecco un esempio che estrae le dieci città più popolate della Germania dal database gratuito Maxmind World Cities e mostra il risultato in un formato leggibile da console: ```$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | numero_linea | Paese | AccentCity | Popolazione | ----------------------------------------------------- | 1 | de | Berlino | 3398362 | de | 2 | de | Amburgo | 1733846 | 3 | de Monaco | 1246133 | 4 | de | Colonia | 968823 | 5 | de | Francoforte | 648034 | 6 | de | Dortmund | 594255 | Dortmund | 7 | the | Stoccarda | 591688 | 8 | the | Düsseldorf | 577139 | 9 | de | Essen | 576914 | 10 | de | Brema | 546429 ----------------------------------------------------- ``` Csvkit è indipendente dalla piattaforma perché è scritto in Python.
3
Slater type orbitals (STO) are considered to be more accurate than gaussian type orbitals (GTO) for atomic and molecular QM calculations because - among other reasons - they decay with $e^{-\alpha r}$ as $r \to \infty$. But GTOs are more popular because they are easier to calculate with. GTOs decay with $e^{-\alpha r^2}$, so its adequate to sometimes add diffuse functions to the GTO basis set to compensate for gaussian decay behaviour. Also, exact hydrogen wavefunctions decay exponentially, so the motivation for STOs. I understand that the only boundary requirement for solving the Schrödinger equation for atoms and molecules in free space is that the wavefunction goes zero as $r \to \infty$, but there are no a priori requirements for the way it decays as it does so. My question is: do we have theoretical (ab initio) and/or experimental reasons to believe that all atomic and molecular wavefunctions decay like $e^{-\alpha r}$ as $r \to \infty$.
I'll answer this question from the theoretical side. The exponential behavior follows simply from the Schrödinger equation. Consider the one-electron Schrödinger equation: $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ At spatial points that are very far away from the nucleus, $V(\mathbf{r})\approx 0$, so that the asymptotic solution is given by $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ This differential equation has basic solutions of the form $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ for some unit vector $\mathbf{k}$. The real asymptotic behavior of $\psi(\mathbf{r})$ is thus a linear combination of these basic solutions. The linear combination may bring a polynomial prefactor to the exponential, but will never alter the exponent. Thus we have not only proved the exponential behavior, but also derived the correct exponent $\alpha = \sqrt{-2\epsilon}$. For a multi-electronic, non-interacting system, the overall decay rate is governed by the slowest decaying orbital, i.e. the HOMO. Of course, the real wavefunction can only be described by a multi-electron Schrödinger equation. But we can work on the equivalent Kohn-Sham system and show that the Kohn-Sham wavefunction decays at a rate given by the Kohn-Sham HOMO energy. By Janak's theorem, the Kohn-Sham HOMO energy is just the negative of the ionization potential of the exact system. To see this, consider a huge ensemble of $N$ identical, non-interacting molecules. If we remove one electron from the ensemble and let the hole delocalize evenly between all the molecules, then as $N\to +\infty$, the electron removal has a negligible impact on the electron density of any molecule (and therefore the Kohn-Sham potential of each molecule). Therefore under the Kohn-Sham framework we see that removing such an electron costs an energy of $-\epsilon_{\mathrm{HOMO}}$ (it does not matter whether the HOMO refers to that of the ensemble or that of a molecule, since their orbital energies are equal), since the electron is taken from an energy level whose energy is $\epsilon_{\mathrm{HOMO}}$ and the Hamiltonian is not changed in this process. On the other hand, from the perspective of the real system it is clear that the energy cost is equal to the first ionization energy of one of the molecules, $I$. Therefore we have $\epsilon_{\mathrm{HOMO}} = -I$, which means that the Kohn-Sham wavefunction decays like (again up to a possible polynomial prefactor; the precise determination of this polynomial prefactor is a much more difficult question) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Although the Kohn-Sham wavefunction is fictional, its density is equal to the true multielectronic density, and in order for the true density to have the same asymptotic behavior as the Kohn-Sham density, the true wavefunction must have the same asymptotic behavior as the Kohn-Sham wavefunction. Q.E.D.
Slater-Orbitale (STO) gelten für atomare und molekulare QM-Berechnungen als genauer als Gauß-Orbitale (GTO), weil sie - neben anderen Gründen - mit $e^{-\alpha r}$ als $r \zu \infty$ zerfallen. Aber GTOs sind beliebter, weil sie einfacher zu berechnen sind. GTOs zerfallen mit $e^{-\alpha r^2}$, so dass es manchmal angemessen ist, dem GTO-Basissatz diffuse Funktionen hinzuzufügen, um das gaußsche Zerfallsverhalten zu kompensieren. Auch exakte Wasserstoffwellenfunktionen zerfallen exponentiell, daher die Motivation für STOs. Soweit ich weiß, ist die einzige Randbedingung für die Lösung der Schrödingergleichung für Atome und Moleküle im freien Raum, dass die Wellenfunktion mit $r \to \infty$ gegen Null geht, aber es gibt keine a priori Anforderungen an die Art und Weise, wie sie dabei zerfällt. Meine Frage lautet: Gibt es theoretische (ab initio) und/oder experimentelle Gründe für die Annahme, dass alle atomaren und molekularen Wellenfunktionen wie $e^{-\alpha r}$ mit $r \zu \infty$ zerfallen.
Ich werde diese Frage von der theoretischen Seite her beantworten. Das exponentielle Verhalten ergibt sich einfach aus der Schrödinger-Gleichung. Betrachten Sie die Ein-Elektronen-Schrödinger-Gleichung: $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ An räumlichen Punkten, die sehr weit vom Kern entfernt sind, geht $V(\mathbf{r})\gegen 0$, so dass die asymptotische Lösung gegeben ist durch $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Diese Differentialgleichung hat Basislösungen der Form $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ für einen Einheitsvektor $\mathbf{k}$. Das reale asymptotische Verhalten von $\psi(\mathbf{r})$ ist also eine Linearkombination dieser Basislösungen. Die Linearkombination kann dem Exponentialwert einen polynomialen Vorfaktor geben, wird aber niemals den Exponenten verändern. Damit haben wir nicht nur das exponentielle Verhalten bewiesen, sondern auch den richtigen Exponenten $\alpha = \sqrt{-2\epsilon}$ abgeleitet. Für ein mehrelektronisches, nicht wechselwirkendes System wird die Gesamtzerfallsrate durch das am langsamsten zerfallende Orbital, d.h. das HOMO, bestimmt. Natürlich kann die reale Wellenfunktion nur durch eine Mehrelektronen-Schrödinger-Gleichung beschrieben werden. Aber wir können mit dem äquivalenten Kohn-Sham-System arbeiten und zeigen, dass die Kohn-Sham-Wellenfunktion mit einer Geschwindigkeit zerfällt, die durch die Kohn-Sham-HOMO-Energie gegeben ist. Nach dem Janak-Theorem ist die Kohn-Sham-HOMO-Energie nur das Negativ des Ionisierungspotenzials des exakten Systems. Man betrachte dazu ein riesiges Ensemble von $N$ identischen, nicht wechselwirkenden Molekülen. Entfernt man ein Elektron aus dem Ensemble und lässt das Loch gleichmäßig zwischen allen Molekülen delokalisieren, dann hat die Entfernung des Elektrons mit $N$ bis +\infty$ eine vernachlässigbare Auswirkung auf die Elektronendichte eines jeden Moleküls (und damit auf das Kohn-Sham-Potenzial jedes Moleküls). Daher sehen wir im Kohn-Sham-Rahmen, dass das Entfernen eines solchen Elektrons eine Energie von $-\epsilon_{\mathrm{HOMO}}$ kostet (es spielt keine Rolle, ob sich das HOMO auf das des Ensembles oder das eines Moleküls bezieht, da ihre Orbitalenergien gleich sind), da das Elektron aus einem Energieniveau entnommen wird, dessen Energie $\epsilon_{\mathrm{HOMO}}$ ist, und der Hamiltonian in diesem Prozess nicht verändert wird. Andererseits ist aus der Perspektive des realen Systems klar, dass der Energieaufwand gleich der ersten Ionisierungsenergie eines der Moleküle, $I$, ist. Daher haben wir $\epsilon_{\mathrm{HOMO}} = -I$, was bedeutet, dass die Kohn-Sham-Wellenfunktion wie folgt zerfällt (wiederum bis zu einem möglichen polynomialen Vorfaktor; die genaue Bestimmung dieses polynomialen Vorfaktors ist eine viel schwierigere Frage) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Obwohl die Kohn-Sham-Wellenfunktion fiktiv ist, ist ihre Dichte gleich der wahren multielektronischen Dichte, und damit die wahre Dichte das gleiche asymptotische Verhalten wie die Kohn-Sham-Dichte hat, muss die wahre Wellenfunktion das gleiche asymptotische Verhalten wie die Kohn-Sham-Wellenfunktion haben. Q.E.D.
Los orbitales tipo Slater (STO) se consideran más precisos que los orbitales tipo Gauss (GTO) para cálculos QM atómicos y moleculares porque -entre otras razones- decaen con $e^{-\alpha r}$ a medida que $r \to \infty$. Pero los GTO son más populares porque son más fáciles de calcular. Los GTO decaen con $e^{-\alpha r^2}$, por lo que a veces es adecuado añadir funciones difusas al conjunto de bases GTO para compensar el comportamiento de decaimiento gaussiano. Además, las funciones de onda exactas del hidrógeno decaen exponencialmente, de ahí la motivación de las OST. Entiendo que el único requisito de contorno para resolver la ecuación de Schrödinger para átomos y moléculas en el espacio libre es que la función de onda se hace cero cuando $r \a \infty$, pero no hay requisitos a priori para la forma en que decae cuando lo hace. Mi pregunta es: ¿tenemos razones teóricas (ab initio) y/o experimentales para creer que todas las funciones de onda atómicas y moleculares decaen como $e^{-\alpha r}$ cuando $r \a \infty$?
Responderé a esta pregunta desde el punto de vista teórico. El comportamiento exponencial se deduce simplemente de la ecuación de Schrödinger. Consideremos la ecuación de Schrödinger de un electrón: $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ En puntos espaciales muy alejados del núcleo, $V(\mathbf{r})\aprox 0$, de modo que la solución asintótica viene dada por $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Esta ecuación diferencial tiene soluciones básicas de la forma $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ para algún vector unitario $\mathbf{k}$. El comportamiento asintótico real de $\psi(\mathbf{r})$ es pues una combinación lineal de estas soluciones básicas. La combinación lineal puede aportar un prefactor polinómico a la exponencial, pero nunca alterará el exponente. Así pues, no sólo hemos demostrado el comportamiento exponencial, sino que también hemos deducido el exponente correcto $\alpha = \sqrt{-2\epsilon}$. Para un sistema multielectrónico que no interactúa, la tasa de desintegración global se rige por el orbital de desintegración más lenta, es decir, el HOMO. Por supuesto, la función de onda real sólo puede describirse mediante una ecuación de Schrödinger multielectrónica. Pero podemos trabajar con el sistema Kohn-Sham equivalente y demostrar que la función de onda Kohn-Sham decae a una velocidad dada por la energía del HOMO de Kohn-Sham. Por el teorema de Janak, la energía HOMO de Kohn-Sham es sólo el negativo del potencial de ionización del sistema exacto. Para ver esto, considere un enorme conjunto de $N$ moléculas idénticas, que no interactúan. Si quitamos un electrón del conjunto y dejamos que el agujero se deslocalice uniformemente entre todas las moléculas, entonces como $N\to +\infty$, la eliminación de electrones tiene un impacto insignificante en la densidad de electrones de cualquier molécula (y por lo tanto el potencial de Kohn-Sham de cada molécula). Por lo tanto, bajo el marco de Kohn-Sham vemos que la eliminación de un electrón de este tipo cuesta una energía de $-\epsilon_{\mathrm{HOMO}}$ (no importa si el HOMO se refiere al del conjunto o al de una molécula, ya que sus energías orbitales son iguales), ya que el electrón se toma de un nivel de energía cuya energía es $\epsilon_{\mathrm{HOMO}}$ y el Hamiltoniano no se modifica en este proceso. Por otro lado, desde la perspectiva del sistema real está claro que el coste energético es igual a la primera energía de ionización de una de las moléculas, $I$. Por lo tanto tenemos $\epsilon_{\mathrm{HOMO}} = -I$, lo que significa que la función de onda de Kohn-Sham decae como (de nuevo hasta un posible prefactor polinómico; la determinación precisa de este prefactor polinómico es una cuestión mucho más difícil) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Aunque la función de onda de Kohn-Sham es ficticia, su densidad es igual a la densidad multielectrónica verdadera, y para que la densidad verdadera tenga el mismo comportamiento asintótico que la densidad de Kohn-Sham, la función de onda verdadera debe tener el mismo comportamiento asintótico que la función de onda de Kohn-Sham. Q.E.D.
Les orbitales de type Slater (STO) sont considérées comme plus précises que les orbitales de type Gaussien (GTO) pour les calculs atomiques et moléculaires de la MQ car - entre autres raisons - elles se décomposent avec $e^{-\alpha r}$ lorsque $r \à \infty$. Mais les GTO sont plus populaires parce qu'ils sont plus faciles à calculer. Les GTO se décomposent avec $e^{-\alpha r^2}$, il convient donc d'ajouter parfois des fonctions diffuses à l'ensemble de bases GTO pour compenser le comportement gaussien de la décomposition. En outre, les fonctions d'onde exactes de l'hydrogène se décomposent de manière exponentielle, d'où la motivation pour les STO. Je comprends que la seule condition limite pour résoudre l'équation de Schrödinger pour les atomes et les molécules dans l'espace libre est que la fonction d'onde devienne nulle lorsque $r \à \infty$, mais il n'y a pas d'exigences a priori pour la façon dont elle se décompose à ce moment-là. Ma question est la suivante : avons-nous des raisons théoriques (ab initio) et/ou expérimentales de croire que toutes les fonctions d'onde atomiques et moléculaires se décomposent comme $e^{-\alpha r}$ lorsque $r passe à \infty$.
Je répondrai à cette question d'un point de vue théorique. Le comportement exponentiel découle simplement de l'équation de Schrödinger. Considérons l'équation de Schrödinger à un électron : $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Aux points spatiaux très éloignés du noyau, $V(\mathbf{r})\approx 0$, de sorte que la solution asymptotique est donnée par $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Cette équation différentielle a des solutions de base de la forme $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ pour un vecteur unitaire $\mathbf{k}$. Le comportement asymptotique réel de $\psi(\mathbf{r})$ est donc une combinaison linéaire de ces solutions de base. La combinaison linéaire peut apporter un préfacteur polynomial à l'exponentielle, mais ne modifiera jamais l'exposant. Ainsi, nous avons non seulement prouvé le comportement exponentiel, mais aussi dérivé l'exposant correct $\alpha = \sqrt{-2\epsilon}$. Pour un système multi-électronique sans interaction, le taux de désintégration global est régi par l'orbitale à désintégration la plus lente, c'est-à-dire l'HOMO. Bien entendu, la fonction d'onde réelle ne peut être décrite que par une équation de Schrödinger multi-électronique. Mais nous pouvons travailler sur le système équivalent de Kohn-Sham et montrer que la fonction d'onde de Kohn-Sham se décompose à une vitesse donnée par l'énergie du HOMO de Kohn-Sham. Par le théorème de Janak, l'énergie HOMO de Kohn-Sham est juste le négatif du potentiel d'ionisation du système exact. Pour s'en convaincre, considérons un énorme ensemble de $N$ molécules identiques, sans interaction. Si nous retirons un électron de l'ensemble et laissons le trou se délocaliser uniformément entre toutes les molécules, alors, à mesure que $N\à +\infty$, le retrait de l'électron a un impact négligeable sur la densité électronique de chaque molécule (et donc sur le potentiel de Kohn-Sham de chaque molécule). Par conséquent, dans le cadre de Kohn-Sham, nous constatons que l'élimination d'un tel électron coûte une énergie de $-\epsilon_{\mathrm{HOMO}}$ (peu importe que l'HOMO se réfère à celle de l'ensemble ou à celle d'une molécule, puisque leurs énergies orbitales sont égales), puisque l'électron est prélevé d'un niveau d'énergie dont l'énergie est $\epsilon_{\mathrm{HOMO}}$ et que l'hamiltonien n'est pas modifié au cours de ce processus. D'autre part, du point de vue du système réel, il est clair que le coût énergétique est égal à l'énergie de première ionisation de l'une des molécules, $I$. Par conséquent, nous avons $\epsilon_{\mathrm{HOMO}} = -I$, ce qui signifie que la fonction d'onde de Kohn-Sham se décompose comme (encore une fois jusqu'à un préfacteur polynomial possible ; la détermination précise de ce préfacteur polynomial est une question beaucoup plus difficile) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Bien que la fonction d'onde de Kohn-Sham soit fictive, sa densité est égale à la véritable densité multiélectronique, et pour que la véritable densité ait le même comportement asymptotique que la densité de Kohn-Sham, la véritable fonction d'onde doit avoir le même comportement asymptotique que la fonction d'onde de Kohn-Sham. Q.E.D.
Gli orbitali di tipo Slater (STO) sono considerati più accurati degli orbitali di tipo gaussiano (GTO) per i calcoli di MQ atomica e molecolare perché - tra le altre ragioni - decadono con $e^{-alfa r}$ al variare di $r ´a ´infty$. Ma i GTO sono più popolari perché sono più facili da calcolare. I GTO decadono con $e^{-alfa r^2}$, quindi è opportuno aggiungere talvolta funzioni diffuse all'insieme di basi GTO per compensare il comportamento del decadimento gaussiano. Inoltre, le funzioni d'onda esatte dell'idrogeno decadono in modo esponenziale, quindi la motivazione per gli STO. So che l'unico requisito fondamentale per risolvere l'equazione di Schrödinger per gli atomi e le molecole nello spazio libero è che la funzione d'onda vada a zero quando $r \a \infty$, ma non ci sono requisiti a priori per il modo in cui decade. La mia domanda è: abbiamo ragioni teoriche (ab initio) e/o sperimentali per credere che tutte le funzioni d'onda atomiche e molecolari decadano come $e^{-alfa r}$ quando $r \a \infty$.
Risponderò a questa domanda dal punto di vista teorico. Il comportamento esponenziale deriva semplicemente dall'equazione di Schrödinger. Consideriamo l'equazione di Schrödinger di un elettrone: $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ In punti spaziali molto distanti dal nucleo, $V(\mathbf{r})\ circa 0$, per cui la soluzione asintotica è data da $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Questa equazione differenziale ha soluzioni di base della forma $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ per un vettore unitario $mathbf{k}$. Il comportamento asintotico reale di $psi(\mathbf{r})$ è quindi una combinazione lineare di queste soluzioni di base. La combinazione lineare può apportare un prefattore polinomiale all'esponenziale, ma non altera mai l'esponente. In questo modo non solo abbiamo dimostrato il comportamento dell'esponenziale, ma abbiamo anche ricavato l'esponente corretto $alfa = \sqrt{-2\epsilon}$. Per un sistema multi-elettronico e non interagente, il tasso di decadimento complessivo è governato dall'orbitale che decade più lentamente, cioè l'HOMO. Naturalmente, la funzione d'onda reale può essere descritta solo da un'equazione di Schrödinger a più elettroni. Ma possiamo lavorare sul sistema Kohn-Sham equivalente e dimostrare che la funzione d'onda Kohn-Sham decade a una velocità data dall'energia dell'HOMO di Kohn-Sham. Per il teorema di Janak, l'energia HOMO di Kohn-Sham è solo il negativo del potenziale di ionizzazione del sistema esatto. Per rendersene conto, si consideri un enorme insieme di $N$ molecole identiche e non interagenti. Se rimuoviamo un elettrone dall'insieme e lasciamo che il buco si delocalizzi uniformemente tra tutte le molecole, allora, con l'approssimarsi di $N\a +\infty$, la rimozione dell'elettrone ha un impatto trascurabile sulla densità elettronica di ogni molecola (e quindi sul potenziale di Kohn-Sham di ogni molecola). Pertanto, nell'ambito del quadro di Kohn-Sham, vediamo che la rimozione di un elettrone costa un'energia di $-epsilon_{\mathrm{HOMO}}$ (non importa se l'HOMO si riferisce a quello dell'insieme o a quello di una molecola, poiché le energie dei loro orbitali sono uguali), poiché l'elettrone viene prelevato da un livello energetico la cui energia è $epsilon_{\mathrm{HOMO}}$ e l'Hamiltoniana non viene modificata in questo processo. D'altra parte, dal punto di vista del sistema reale è chiaro che il costo energetico è uguale all'energia di prima ionizzazione di una delle molecole, $I$. Pertanto si ha $epsilon_{mathrm{HOMO}} = -I$, il che significa che la funzione d'onda di Kohn-Sham decade come (ancora una volta fino a un possibile prefattore polinomiale; la determinazione precisa di questo prefattore polinomiale è una domanda molto più difficile) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Sebbene la funzione d'onda di Kohn-Sham sia fittizia, la sua densità è uguale alla vera densità multielettronica e, affinché la vera densità abbia lo stesso comportamento asintotico della densità di Kohn-Sham, la vera funzione d'onda deve avere lo stesso comportamento asintotico della funzione d'onda di Kohn-Sham. Q.E.D.
4
Explain what "git reset" does. I come from a SVN background and Git is a whole new paradigm. I got mercurial easily, but Git is much more technical. I think ```git reset``` is close to ```hg revert```, but it seems there are differences. Please include detailed explanations about: * the options ```--hard```, ```--soft``` and ```--merge```; * the strange notation you use with ```HEAD``` such as ```HEAD^``` and ```HEAD~1```; * concrete use cases and work flows; * consequences on the working copy, the ```HEAD``` and your global stress level.
Remember that in ```git``` you have: * the ```HEAD``` pointer, which tells you what commit you're working on * the working tree, which represents the state of the files on your system * the staging area (also called the index), which "stages" changes so that they can later be committed together > Please include detailed explanations about: ```--hard```, ```--soft``` and ```--merge```; In increasing order of dangerous-ness: * ```--soft``` moves ```HEAD``` but doesn't touch the staging area or the working tree. * ```--mixed``` moves ```HEAD``` and updates the staging area, but not the working tree. * ```--merge``` moves ```HEAD```, resets the staging area, and tries to move all the changes in your working tree into the new working tree. * ```--hard``` moves ```HEAD``` and adjusts your staging area and working tree to the new ```HEAD```, throwing away everything. > concrete use cases and workflows; * Use ```--soft``` when you want to move to another commit and patch things up without "losing your place". It's pretty rare that you need this. ``` # git reset --soft example touch foo // Add a file, make some changes. git add foo // git commit -m "bad commit message" // Commit... D'oh, that was a mistake! git reset --soft HEAD^ // Go back one commit and fix things. git commit -m "good commit" // There, now it's right. ``` -- * Use ```--mixed``` (which is the default) when you want to see what things look like at another commit, but you don't want to lose any changes you already have. * Use ```--merge``` when you want to move to a new spot but incorporate the changes you already have into that the working tree. * Use ```--hard``` to wipe everything out and start a fresh slate at the new commit.
Erklären Sie, was "git reset" bewirkt. Ich komme aus einem SVN-Hintergrund und Git ist ein ganz neues Paradigma. Ich habe Mercurial leicht verstanden, aber Git ist viel technischer. Ich denke, ```Git reset`` ist ähnlich wie ```Hg revert```, aber es scheint Unterschiede zu geben. Bitte fügen Sie detaillierte Erklärungen bei: * die Optionen ```--hard``, ```--soft`` und ```--merge``; * die seltsame Schreibweise, die Sie mit ``HEAD`` verwenden, wie ``HEAD^``` und ``HEAD~1```; * konkrete Anwendungsfälle und Arbeitsabläufe; * Auswirkungen auf die Arbeitskopie, den ```HEAD`` und Ihren globalen Stresslevel.
Erinnern Sie sich, dass Sie in ```Git`` haben: * den ```HEAD``-Zeiger, der Ihnen sagt, an welchem Commit Sie gerade arbeiten * den Arbeitsbaum, der den Zustand der Dateien auf deinem System darstellt * den Staging-Bereich (auch Index genannt), der Änderungen "stuft", so dass sie später zusammen übertragen werden können > Bitte fügen Sie detaillierte Erklärungen über: ```--hard```, ```--soft``` und ```--merge``; In aufsteigender Reihenfolge der Gefährlichkeit: * ````-weich`` bewegt sich ```KOPF``, berührt aber nicht den Bereitstellungsraum oder den Arbeitsbaum. * ```--mixed``` verschiebt ```HEAD`` und aktualisiert die Staging Area, aber nicht den Working Tree. * ```--merge``` verschiebt ```HEAD``, setzt die Staging Area zurück und versucht, alle Änderungen im Arbeitsbaum in den neuen Arbeitsbaum zu verschieben. * ```--hard``` verschiebt ```HEAD`` und passt den Bereitstellungsbereich und den Arbeitsbaum an den neuen ```HEAD`` an, wobei alles weggeworfen wird. > konkrete Anwendungsfälle und Arbeitsabläufe; * Benutzen Sie ```--soft``, wenn Sie zu einem anderen Commit wechseln und Dinge ausbessern wollen, ohne "Ihren Platz zu verlieren". Es ist ziemlich selten, dass man das braucht. ``` # git reset --soft Beispiel touch foo // Füge eine Datei hinzu, mache ein paar Änderungen. git add foo // git commit -m "bad commit message" // Commit... D'oh, das war ein Fehler! git reset --soft HEAD^ // Einen Commit zurückgehen und Dinge korrigieren. git commit -m "good commit" // So, jetzt ist es richtig. ``` -- * Benutze ```--mixed``` (das ist die Standardeinstellung), wenn du sehen willst, wie die Dinge bei einem anderen Commit aussehen, aber du willst keine Änderungen verlieren, die du bereits hast. * Benutzen Sie ```--merge```, wenn Sie an eine neue Stelle wechseln wollen, aber die Änderungen, die Sie bereits haben, in den Arbeitsbaum einfügen wollen. * Benutzen Sie ```--hard``, um alles zu löschen und mit dem neuen Commit neu zu beginnen.
Explica lo que hace "git reset". Vengo de un fondo SVN y Git es un paradigma completamente nuevo. Entendí mercurial fácilmente, pero Git es mucho más técnico. Creo que ``git reset`` es parecido a ```hg revert``, pero parece que hay diferencias. Por favor, incluya explicaciones detalladas sobre: * las opciones ```--hard``, ```--soft`` y ```--merge``; * la extraña notación que usas con ```HEAD`` como ```HEAD^`` y ```HEAD~1``; * casos concretos de uso y flujos de trabajo; * consecuencias en la copia de trabajo, la ```HEAD`` y tu nivel de estrés global.
Recuerda que en ``git`` tienes: * el puntero ```HEAD``, que te dice en qué confirmación estás trabajando * el árbol de trabajo, que representa el estado de los archivos en tu sistema * el área de preparación (también llamada índice), que "ordena" los cambios para que puedan ser confirmados juntos más tarde. > Por favor, incluya explicaciones detalladas sobre: ```--hard``, ```--soft`` y ```--merge``; En orden creciente de peligrosidad: * ```--soft`` mueve ```HEAD`` pero no toca el área de preparación o el árbol de trabajo. * ```--mixed`` mueve ```HEAD`` y actualiza el área de preparación, pero no el árbol de trabajo. * ```--merge`` mueve ```HEAD``, reinicia el área de preparación, e intenta mover todos los cambios de tu árbol de trabajo al nuevo árbol de trabajo. * ```--hard`` mueve ```HEAD`` y ajusta tu área de preparación y árbol de trabajo al nuevo ```HEAD``, desechando todo. > casos de uso y flujos de trabajo concretos; * Usa ```--soft`` cuando quieras moverte a otro commit y arreglar las cosas sin "perder tu sitio". Es bastante raro que necesites esto. ``` # git reset --soft ejemplo touch foo // Añadir un archivo, hacer algunos cambios. git add foo // git commit -m "bad commit message" // Confirmar... D'oh, ¡eso fue un error! git reset --soft HEAD^ // Retrocede una confirmación y arregla las cosas. git commit -m "good commit" // Ya está, ahora está bien. ``` -- * Usa ```--mixed`` (que es la opción por defecto) cuando quieras ver cómo quedan las cosas en otro commit, pero no quieras perder ningún cambio que ya tengas. * Usa ``--merge`` cuando quieras moverte a un nuevo punto pero incorporando los cambios que ya tienes en el árbol de trabajo. * Usa ``--hard`` para borrar todo y empezar de cero en el nuevo commit.
Expliquez ce que fait "git reset". Je viens de SVN et Git est un tout nouveau paradigme. J'ai facilement compris mercurial, mais Git est beaucoup plus technique. Je pense que ``git reset`` est proche de ``hg revert``, mais il semble qu'il y ait des différences. Merci d'inclure des explications détaillées sur : * les options ``--hard``, ``--soft`` et ``--merge`` ; * la notation étrange que vous utilisez avec ``HEAD`` comme ``HEAD^`` et ``HEAD~1`` ; * des cas d'utilisation concrets et des flux de travail ; * les conséquences sur la copie de travail, le ``HEAD`` et votre niveau de stress global.
Rappelez-vous que dans ``git`` vous avez : * le pointeur ``HEAD``, qui vous indique sur quel commit vous travaillez * l'arbre de travail, qui représente l'état des fichiers sur votre système * la zone de mise à disposition (aussi appelée index), qui "met en scène" les changements de façon à ce qu'ils puissent être livrés ensemble plus tard > Veuillez inclure des explications détaillées sur : ``--hard``, ``--soft`` et ``--merge`` ; Par ordre croissant de dangerosité : * ``-soft`` déplace ``HEAD`` mais ne touche pas la zone de préparation ou l'arbre de travail. * ``--mixed`` déplace ``HEAD`` et met à jour la staging area, mais pas l'arbre de travail. * ``--merge`` déplace ``HEAD``, réinitialise la zone de travail, et essaie de déplacer toutes les modifications de votre arbre de travail dans le nouvel arbre de travail. * ``--hard`` déplace ``HEAD`` et ajuste votre staging area et votre arbre de travail au nouveau ``HEAD``, en jetant tout. > Les cas d'utilisation concrets et les flux de travail ; * Utilisez ``--soft`` lorsque vous voulez passer à un autre commit et corriger les choses sans "perdre votre place". Il est assez rare que vous ayez besoin de cela. ``` # git reset --soft exemple touch foo // Ajoute un fichier, fait quelques changements. git add foo // git commit -m "mauvais message de livraison" // Livraison... D'oh, c'était une erreur ! git reset --soft HEAD^ // Revenir en arrière d'un commit et corriger les choses. git commit -m "good commit" // Voilà, c'est bon. ``` -- * Utilisez ``--mixed`` (qui est l'option par défaut) quand vous voulez voir à quoi ressemblent les choses dans un autre commit, mais que vous ne voulez pas perdre les changements que vous avez déjà. * Utilisez ``--merge`` quand vous voulez changer de place mais incorporer les changements que vous avez déjà dans l'arbre de travail. * Utilisez ``--hard`` pour tout effacer et repartir à zéro avec le nouveau commit.
Spiega cosa fa "git reset". Vengo da un background SVN e Git è un paradigma completamente nuovo. Ho capito mercurial facilmente, ma Git è molto più tecnico. Penso che ``git reset`` sia vicino a ``hg revert``, ma sembra che ci siano delle differenze. Si prega di includere spiegazioni dettagliate su: * le opzioni ```--hard``, ```--soft`` e ````merge``; * la strana notazione che si usa con ```HEAD`` come ```HEAD^`` e ```HEAD~1``; * casi d'uso concreti e flussi di lavoro; * le conseguenze sulla copia di lavoro, sul ``HEAD`` e sul livello di stress globale.
Ricordate che in ```git`` si ha: * il puntatore ```HEAD``, che dice su quale commit si sta lavorando * l'albero di lavoro, che rappresenta lo stato dei file sul vostro sistema * l'area di staging (chiamata anche indice), che "mette in scena" le modifiche in modo che possano essere poi impegnate insieme > Si prega di includere spiegazioni dettagliate su: ```--hard``, ```--soft`` e ````merge``; In ordine crescente di pericolosità: * ```-soft`` si sposta ```HEAD`` ma non tocca l'area di sosta o l'albero di lavoro. * ```--mixed`` sposta ```HEAD`` e aggiorna l'area di staging, ma non l'albero di lavoro. * ```--merge`` sposta ```HEAD``, ripristina l'area di staging e cerca di spostare tutte le modifiche nell'albero di lavoro nel nuovo albero di lavoro. * ```--hard`` sposta ```HEAD`` e adatta l'area di staging e l'albero di lavoro alla nuova ```HEAD``, buttando via tutto. > casi d'uso e flussi di lavoro concreti; * Usare ```--soft`` quando si vuole passare a un altro commit e sistemare le cose senza "perdere il posto". È piuttosto raro che sia necessario. ``` # git reset --soft esempio touch foo // Aggiungere un file, fare qualche modifica. git add foo // git commit -m "bad commit message" // Impegna... D'oh, c'è stato un errore! git reset --soft HEAD^ // Tornare indietro di un commit e sistemare le cose. git commit -m "good commit" // Ecco, ora è giusto. ``` -- * Usare ```--mixed`` (che è il default) quando si vuole vedere come sono le cose in un altro commit, ma non si vogliono perdere le modifiche già fatte. * Usare ```--merge`` quando si vuole passare a un nuovo punto ma incorporare le modifiche già fatte nell'albero di lavoro. * Usare ```--hard`` per cancellare tutto e ricominciare da capo con il nuovo commit.
5
I am looking to use Java to get the MD5 checksum of a file. How is it done?
The com.google.common.hash API offers: * A unified user-friendly API for all hash functions * Seedable 32- and 128-bit implementations of murmur3 * md5(), sha1(), sha256(), sha512() adapters, change only one line of code to switch between these, and murmur. * goodFastHash(int bits), for when you don't care what algorithm you use * General utilities for HashCode instances, like combineOrdered / combineUnordered Read the User Guide (IO Explained, Hashing Explained). For your use-case ```Files.hash()``` computes and returns the digest value for a file. For example a sha-1 digest calculation (change SHA-1 to MD5 to get MD5 digest) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()); "SHA-1: " + hc.toString(); ``` Note that crc32 is much faster than md5, so use crc32 if you do not need a cryptographically secure checksum. Note also that md5 should not be used to store passwords and the like since it is to easy to brute force, for passwords use bcrypt, scrypt or sha-256 instead. For long term protection with hashes a Merkle signature scheme adds to the security and The Post Quantum Cryptography Study Group sponsored by the European Commission has recommended use of this cryptography for long term protection against quantum computers (ref). Note that crc32 has a higher collision rate than the others. What part of Files.hash as stated above does not cover Files.hash ?
Ich möchte mit Java die MD5-Prüfsumme einer Datei ermitteln. Wie wird das gemacht?
Die com.google.common.hash API bietet: * Eine einheitliche, benutzerfreundliche API für alle Hash-Funktionen * Seedfähige 32- und 128-Bit-Implementierungen von murmur3 * md5(), sha1(), sha256(), sha512() Adapter, ändern Sie nur eine Zeile Code, um zwischen diesen und murmur zu wechseln. * goodFastHash(int bits), wenn es Ihnen egal ist, welchen Algorithmus Sie verwenden * Allgemeine Dienstprogramme für HashCode-Instanzen, wie combineOrdered / combineUnordered Lesen Sie das Benutzerhandbuch (IO Explained, Hashing Explained). Für Ihren Anwendungsfall ```Files.hash()``` berechnet und liefert den Digest-Wert für eine Datei. Zum Beispiel eine sha-1 Hash-Berechnung (ändern Sie SHA-1 in MD5, um MD5 Hash zu erhalten) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()); "SHA-1: " + hc.toString(); ``` Beachten Sie, dass crc32 viel schneller ist als md5, verwenden Sie also crc32, wenn Sie keine kryptografisch sichere Prüfsumme benötigen. Beachten Sie auch, dass md5 nicht zum Speichern von Passwörtern und ähnlichem verwendet werden sollte, da es zu leicht zu erzwingen ist. Verwenden Sie für Passwörter stattdessen bcrypt, scrypt oder sha-256. Die Post Quantum Cryptography Study Group, die von der Europäischen Kommission gesponsert wird, hat die Verwendung dieser Kryptographie für den langfristigen Schutz vor Quantencomputern empfohlen (ref). Beachten Sie, dass crc32 eine höhere Kollisionsrate hat als die anderen. Welcher Teil von Files.hash deckt sich nicht mit Files.hash, wie oben angegeben?
Quiero utilizar Java para obtener la suma de comprobación MD5 de un archivo. ¿Cómo se hace?
La API com.google.common.hash ofrece: * Una API unificada y fácil de usar para todas las funciones hash. * Implementaciones sembrables de 32 y 128 bits de murmur3 * Adaptadores md5(), sha1(), sha256(), sha512(), cambie sólo una línea de código para cambiar entre éstos, y murmur. * goodFastHash(int bits), para cuando no te importa que algoritmo usar * Utilidades generales para instancias HashCode, como combineOrdered / combineUnordered Lee la Guía del Usuario (IO Explained, Hashing Explained). Para tu caso de uso ```Files.hash()`` calcula y devuelve el valor de resumen de un fichero. Por ejemplo un cálculo sha-1 digest (cambia SHA-1 por MD5 para obtener MD5 digest) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()); "SHA-1: " + hc.toString(); ``` Tenga en cuenta que crc32 es mucho más rápido que md5, así que use crc32 si no necesita una suma de comprobación criptográficamente segura. Tenga en cuenta también que md5 no debe ser utilizado para almacenar contraseñas y similares, ya que es muy fácil de fuerza bruta, para las contraseñas de uso bcrypt, scrypt o sha-256 en su lugar. El Grupo de Estudio de Criptografía Post Cuántica patrocinado por la Comisión Europea ha recomendado el uso de esta criptografía para la protección a largo plazo contra los ordenadores cuánticos (ref). Tenga en cuenta que crc32 tiene una tasa de colisión más alta que los otros. ¿Qué parte de Files.hash no cubre Files.hash?
Je cherche à utiliser Java pour obtenir la somme de contrôle MD5 d'un fichier. Comment faire ?
L'API com.google.common.hash offre : * Une API unifiée et conviviale pour toutes les fonctions de hachage * Des implémentations de murmur3 en 32 et 128 bits pouvant être semées * des adaptateurs md5(), sha1(), sha256(), sha512(), qui ne changent qu'une ligne de code pour passer de l'un à l'autre et de murmur à l'autre. * goodFastHash(int bits), pour les cas où vous ne vous souciez pas de l'algorithme que vous utilisez. * Utilitaires généraux pour les instances de HashCode, comme combineOrdered / combineUnordered Lisez le guide de l'utilisateur (IO Explained, Hashing Explained). Pour votre cas d'utilisation, ``Files.hash()`` calcule et renvoie la valeur du condensé d'un fichier. Par exemple, le calcul d'un condensé sha-1 (remplacez SHA-1 par MD5 pour obtenir un condensé MD5) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()) ; "SHA-1 : " + hc.toString() ; ``` Notez que crc32 est beaucoup plus rapide que md5, donc utilisez crc32 si vous n'avez pas besoin d'une somme de contrôle cryptographiquement sécurisée. Notez également que md5 ne doit pas être utilisé pour stocker des mots de passe ou autres, car il est trop facile à forcer. Pour les mots de passe, utilisez plutôt bcrypt, scrypt ou sha-256. Pour une protection à long terme avec des hachages, un schéma de signature Merkle ajoute à la sécurité et le Post Quantum Cryptography Study Group sponsorisé par la Commission européenne a recommandé l'utilisation de cette cryptographie pour une protection à long terme contre les ordinateurs quantiques (ref). Notez que crc32 a un taux de collision plus élevé que les autres. Quelle partie de Files.hash, comme indiqué ci-dessus, ne couvre pas Files.hash ?
Sto cercando di utilizzare Java per ottenere il checksum MD5 di un file. Come si fa?
L'API com.google.common.hash offre: * Un'API unificata di facile utilizzo per tutte le funzioni hash. * Implementazioni di murmur3 a 32 e 128 bit con possibilità di semina * Adattatori md5(), sha1(), sha256(), sha512(), cambiando solo una riga di codice per passare da uno all'altro e murmur. * goodFastHash(int bits), per i casi in cui non vi interessa quale algoritmo utilizzare. * utilità generali per le istanze di HashCode, come combineOrdered / combineUnordered Leggere la Guida per l'utente (IO spiegato, Hashing spiegato). Per il vostro caso d'uso ```Files.hash()``` calcola e restituisce il valore digest di un file. Per esempio, il calcolo di un digest sha-1 (cambiare SHA-1 in MD5 per ottenere il digest MD5) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()); "SHA-1: " + hc.toString(); ``` Si noti che crc32 è molto più veloce di md5, quindi si usi crc32 se non si ha bisogno di un checksum crittograficamente sicuro. Si noti anche che md5 non dovrebbe essere usato per memorizzare password e simili, poiché è troppo facile da forzare; per le password si usi invece bcrypt, scrypt o sha-256. Per una protezione a lungo termine con gli hash, uno schema di firma Merkle aumenta la sicurezza e il Post Quantum Cryptography Study Group, sponsorizzato dalla Commissione Europea, ha raccomandato l'uso di questa crittografia per una protezione a lungo termine contro i computer quantistici (rif.). Si noti che crc32 ha un tasso di collisione più elevato rispetto agli altri. Quale parte di Files.hash, come detto sopra, non copre Files.hash?
6
What are the primary objections Democrats have to a border wall?
It's not clear to me that Democrats are opposed to border-wall construction (your one source suggests they are fine with border walls/fences where necessary), so much as they opposed to some of the plans for full-border walls that have been put forth so far. Recently, in response to reports that the spending bill would include funding for a border wall, 5 Democratic senators released a letter voicing concerns over the cost, the effectiveness, and the legal issues of constructing it. We are also concerned with reports that there may be an effort to include funding for a very expensive new wall along the southern border with Mexico and a “deportation force.” According to non-partisan experts, the proposed new border wall could cost as much as $25 million per mile and raises considerable issues that have not been resolved by the Congress or the Department of Homeland Security. First, many experts believe that such a border wall will not work. Second, there is real concern that the Administration, put simply, has no plan to build the border wall. For example, the Administration has not detailed how to 1) use eminent domain and other procedures to acquire land from private landowners and Native American tribes, 2) design the wall, 3) locate the wall, 4) construct the wall, and 5) require Mexico to pay for the wall given the President’s clear and repeated promises that he would force Mexico to do so. Finally, there are objections to the construction of a wall from Democratic and Republican members of Congress that represent border states. Given these and other concerns, we believe it would be inappropriate to insist on the inclusion of such funding in a must-pass appropriations bill that is needed for the Republican majority in control of the Congress to avert a government shutdown so early in President Trump’s Administration. [...] Senator Charles Schumer Senator Richard Durbin Senator Patty Murray Senator Debbie Stabenow Senator Patrick Leahy Based on this letter, it appears their main objections to a full border wall are currently the cost-benefit ratio and the legal issues of taking land from Americans to build it on; objections that may not be unique to Democrats.
Was sind die Haupteinwände der Demokraten gegen eine Grenzmauer?
Für mich ist nicht klar, dass die Demokraten gegen den Bau einer Grenzmauer sind (Ihre eine Quelle deutet darauf hin, dass sie mit Grenzmauern/Zäunen einverstanden sind, wo dies notwendig ist), sondern sie sind vielmehr gegen einige der Pläne für vollständige Grenzmauern, die bisher vorgelegt wurden. Kürzlich veröffentlichten fünf demokratische Senatoren als Reaktion auf Berichte, dass das Haushaltsgesetz Mittel für eine Grenzmauer vorsehen würde, ein Schreiben, in dem sie Bedenken hinsichtlich der Kosten, der Wirksamkeit und der rechtlichen Aspekte des Baus einer solchen Mauer äußerten. Wir sind auch besorgt über Berichte, wonach es Bestrebungen geben könnte, Mittel für eine sehr teure neue Mauer entlang der südlichen Grenze zu Mexiko und eine "Abschiebetruppe" einzuplanen. Unparteiischen Experten zufolge könnte die vorgeschlagene neue Grenzmauer bis zu 25 Millionen Dollar pro Meile kosten und wirft erhebliche Fragen auf, die weder vom Kongress noch vom Ministerium für Innere Sicherheit gelöst wurden. Erstens glauben viele Experten, dass eine solche Grenzmauer nicht funktionieren wird. Zweitens gibt es echte Bedenken, dass die Regierung, vereinfacht gesagt, keinen Plan zum Bau der Grenzmauer hat. So hat die Regierung beispielsweise nicht dargelegt, wie sie 1) die Enteignung und andere Verfahren zum Erwerb von Land von privaten Landbesitzern und indianischen Stämmen nutzen, 2) die Mauer entwerfen, 3) den Standort der Mauer bestimmen, 4) die Mauer errichten und 5) von Mexiko verlangen will, für die Mauer zu zahlen, obwohl der Präsident eindeutig und wiederholt versprochen hat, Mexiko dazu zu zwingen. Schließlich gibt es auch Einwände gegen den Bau einer Mauer von demokratischen und republikanischen Kongressmitgliedern, die Grenzstaaten vertreten. In Anbetracht dieser und anderer Bedenken halten wir es für unangemessen, auf die Aufnahme einer solchen Finanzierung in ein Haushaltsgesetz zu bestehen, das die republikanische Mehrheit im Kongress benötigt, um einen Regierungsstillstand so früh in der Amtszeit von Präsident Trump abzuwenden. [...] Senator Charles Schumer Senator Richard Durbin Senatorin Patty Murray Senatorin Debbie Stabenow Senator Patrick Leahy Aus diesem Schreiben geht hervor, dass ihre Haupteinwände gegen eine vollständige Grenzmauer derzeit das Kosten-Nutzen-Verhältnis und die rechtlichen Probleme sind, die entstehen, wenn man den Amerikanern Land wegnimmt, um die Mauer zu bauen.
¿Cuáles son las principales objeciones de los demócratas a un muro fronterizo?
No tengo claro que los demócratas se opongan a la construcción de muros fronterizos (la fuente de la que usted habla sugiere que les parece bien que se construyan muros o vallas cuando sea necesario), sino que se oponen a algunos de los planes de construcción de muros fronterizos que se han presentado hasta ahora. Recientemente, en respuesta a los informes de que el proyecto de ley de gastos incluiría financiación para un muro fronterizo, 5 senadores demócratas publicaron una carta expresando su preocupación por el coste, la eficacia y las cuestiones legales de su construcción. También nos preocupan los informes de que puede haber un esfuerzo para incluir financiación para un nuevo muro muy caro a lo largo de la frontera sur con México y una "fuerza de deportación". Según expertos no partidistas, el nuevo muro fronterizo propuesto podría costar hasta 25 millones de dólares por milla y plantea cuestiones considerables que no han sido resueltas por el Congreso ni por el Departamento de Seguridad Nacional. En primer lugar, muchos expertos creen que ese muro fronterizo no funcionará. En segundo lugar, existe una preocupación real porque la Administración, sencillamente, no tiene un plan para construir el muro fronterizo. Por ejemplo, la Administración no ha detallado cómo 1) utilizar el dominio eminente y otros procedimientos para adquirir terrenos de propietarios privados y tribus nativas americanas, 2) diseñar el muro, 3) ubicar el muro, 4) construir el muro y 5) exigir a México que pague por el muro, dadas las claras y repetidas promesas del Presidente de que obligaría a México a hacerlo. Por último, existen objeciones a la construcción de un muro por parte de miembros demócratas y republicanos del Congreso que representan a estados fronterizos. Dadas estas y otras preocupaciones, creemos que sería inapropiado insistir en la inclusión de dicha financiación en un proyecto de ley de asignaciones de aprobación obligatoria que es necesario para que la mayoría republicana en el control del Congreso evite un cierre del gobierno tan temprano en la Administración del presidente Trump. [...] Senador Charles Schumer Senador Richard Durbin Senadora Patty Murray Senadora Debbie Stabenow Senador Patrick Leahy Basándose en esta carta, parece que sus principales objeciones a un muro fronterizo completo son actualmente la relación coste-beneficio y las cuestiones legales de quitar tierras a los estadounidenses para construirlo; objeciones que pueden no ser exclusivas de los demócratas.
Quelles sont les principales objections des démocrates à la construction d'un mur frontalier ?
Je ne pense pas que les démocrates soient opposés à la construction de murs frontaliers (votre seule source suggère qu'ils sont d'accord avec les murs/clôtures frontaliers lorsque cela est nécessaire), mais plutôt qu'ils s'opposent à certains des projets de murs frontaliers complets qui ont été présentés jusqu'à présent. Récemment, en réponse à des informations selon lesquelles le projet de loi de finances inclurait le financement d'un mur frontalier, cinq sénateurs démocrates ont publié une lettre exprimant leurs inquiétudes quant au coût, à l'efficacité et aux problèmes juridiques de sa construction. Nous sommes également préoccupés par les informations selon lesquelles il pourrait y avoir un effort pour inclure le financement d'un nouveau mur très coûteux le long de la frontière sud avec le Mexique et d'une "force d'expulsion". Selon des experts non partisans, le nouveau mur frontalier proposé pourrait coûter jusqu'à 25 millions de dollars par kilomètre et soulève des questions considérables qui n'ont pas été résolues par le Congrès ou le ministère de la sécurité intérieure. Tout d'abord, de nombreux experts estiment qu'un tel mur frontalier ne fonctionnera pas. Deuxièmement, il existe une réelle inquiétude quant au fait que l'administration n'a tout simplement pas de plan pour construire le mur frontalier. Par exemple, l'administration n'a pas détaillé comment 1) utiliser le domaine éminent et d'autres procédures pour acquérir des terres auprès de propriétaires privés et de tribus amérindiennes, 2) concevoir le mur, 3) localiser le mur, 4) construire le mur et 5) exiger du Mexique qu'il paie pour le mur, étant donné les promesses claires et répétées du président qu'il obligerait le Mexique à le faire. Enfin, des membres démocrates et républicains du Congrès représentant des États frontaliers s'opposent à la construction d'un mur. Compte tenu de ces préoccupations et d'autres, nous pensons qu'il serait inapproprié d'insister sur l'inclusion d'un tel financement dans un projet de loi de crédits obligatoire qui est nécessaire pour que la majorité républicaine qui contrôle le Congrès évite une fermeture du gouvernement si tôt dans l'administration du président Trump. [...] Le sénateur Charles Schumer Sénateur Richard Durbin Sénatrice Patty Murray Sénatrice Debbie Stabenow Sénateur Patrick Leahy Sur la base de cette lettre, il apparaît que leurs principales objections à un mur frontalier complet sont actuellement le rapport coût-bénéfice et les questions juridiques liées au fait de prendre des terres aux Américains pour le construire ; des objections qui ne sont peut-être pas propres aux démocrates.
Quali sono le principali obiezioni dei Democratici al muro di confine?
Non mi sembra chiaro che i Democratici si oppongano alla costruzione di muri di confine (la vostra fonte suggerisce che sono d'accordo con muri e recinzioni di confine, se necessario), quanto piuttosto che si oppongano ad alcuni dei piani per muri di confine completi che sono stati presentati finora. Recentemente, in risposta alle notizie secondo cui il disegno di legge sulla spesa avrebbe incluso i fondi per un muro di confine, 5 senatori democratici hanno pubblicato una lettera in cui esprimevano preoccupazione per i costi, l'efficacia e le questioni legali legate alla sua costruzione. Siamo anche preoccupati per le notizie secondo cui si starebbe cercando di includere i fondi per un nuovo muro molto costoso lungo il confine meridionale con il Messico e per una "forza di deportazione". Secondo esperti non di parte, il nuovo muro di confine proposto potrebbe costare fino a 25 milioni di dollari per miglio e solleva questioni considerevoli che non sono state risolte dal Congresso o dal Dipartimento per la Sicurezza Nazionale. In primo luogo, molti esperti ritengono che tale muro di confine non funzionerà. In secondo luogo, c'è la preoccupazione reale che l'Amministrazione, in parole povere, non abbia un piano per costruire il muro di confine. Ad esempio, l'Amministrazione non ha descritto dettagliatamente come 1) utilizzare il dominio pubblico e altre procedure per acquisire terreni da proprietari privati e tribù di nativi americani, 2) progettare il muro, 3) localizzare il muro, 4) costruire il muro e 5) richiedere al Messico di pagare il muro, viste le chiare e ripetute promesse del Presidente di costringere il Messico a farlo. Infine, ci sono obiezioni alla costruzione di un muro da parte di membri democratici e repubblicani del Congresso che rappresentano gli Stati di confine. Alla luce di queste e altre preoccupazioni, riteniamo che sarebbe inopportuno insistere sull'inclusione di tali finanziamenti in una legge sugli stanziamenti che deve essere approvata e che è necessaria alla maggioranza repubblicana che controlla il Congresso per evitare uno shutdown del governo così presto nell'amministrazione del Presidente Trump. [...] Il senatore Charles Schumer Il senatore Richard Durbin Senatore Patty Murray Senatrice Debbie Stabenow Senatore Patrick Leahy In base a questa lettera, sembra che le loro principali obiezioni a un muro di confine completo siano attualmente il rapporto costi-benefici e le questioni legali legate alla sottrazione di terra agli americani per costruirlo; obiezioni che potrebbero non essere uniche per i Democratici.
7
I'm converting a video to GIF file with ```ffmpeg```: ```ffmpeg \ -i input.flv \ -ss 00:00:00.000 \ -pix_fmt rgb24 \ -r 10 \ -s 320x240 \ -t 00:00:10.000 \ output.gif ``` It works great, but output gif file has a very low quality. Any ideas how can I improve quality of converted gif?
If you would prefer to avoid intermediate image files, the commands provided by LordNeckBeard can be piped between ```ffmpeg``` and ImageMagick's ```convert``` so that no intermediate files are required: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` The ```-f image2pipe``` tells ffmpeg to split the video into images and make it suitable to be piped out, and ```-vcodec ppm``` specifies the output format to be ppm (for some reason if the format is png, either ```convert``` does not read all the images from the pipe, or ffmpeg does not output them all). The ```-``` for both commands specifies that a pipe will be used for output and input respectively. To optimize the result without saving a file, you can pipe the output from ```convert``` to a second ```convert``` command: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` The ```gif:-``` tells ```convert``` to pipe its output as gif formatted data and ```-layers Optimize``` tells the second ```convert``` to perform ```optimize-frame``` and ```optimize-transparancy``` methods (see the ImageMagick Introduction to Animation Optimization). Note that the output from the ```-layers Optimize``` may not always provide a smaller file size, so you may want to try converting to a gif without optimization first to be sure. Remember that during this whole process everything is in memory so you may need sufficient memory if the images are quite large.
Ich konvertiere ein Video in eine GIF-Datei mit ````ffmpeg``: ``ffmpeg \ -i input.flv \ -ss 00:00:00.000 \ -pix_fmt rgb24 \ -r 10 \ -s 320x240 \ -t 00:00:10.000 \ ausgabe.gif ``` Es funktioniert gut, aber die ausgegebene gif-Datei hat eine sehr schlechte Qualität. Hat jemand eine Idee, wie ich die Qualität der konvertierten gif-Datei verbessern kann?
Wenn Sie es vorziehen, Zwischendateien zu vermeiden, können die von LordNeckBeard bereitgestellten Befehle zwischen ``ffmpeg`` und ImageMagicks ``convert`` eingefügt werden, so dass keine Zwischendateien erforderlich sind: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` Der Befehl ```-f image2pipe`` weist ffmpeg an, das Video in Bilder aufzuteilen und für die Ausgabe über die Pipeline vorzubereiten, und ```-vcodec ppm`` gibt das Ausgabeformat ppm an (aus irgendeinem Grund liest ```convert`` nicht alle Bilder aus der Pipeline, wenn das Format png ist, oder ffmpeg gibt sie nicht alle aus). Das ```-``` für beide Befehle gibt an, dass eine Pipe für die Ausgabe bzw. Eingabe verwendet wird. Um das Ergebnis zu optimieren, ohne eine Datei zu speichern, können Sie die Ausgabe von ```convert`` an einen zweiten ```convert`` Befehl weiterleiten: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` Das ```gif:-`` sagt ```convert``, daß es seine Ausgabe als gif-formatierte Daten weiterleiten soll und ```-layers Optimize`` sagt dem zweiten ```convert``, daß es die Methoden ```optimize-frame``` und ```optimize-transparancy`` ausführen soll (siehe die ImageMagick Einführung in die Optimierung von Animationen). Beachten Sie, dass die Ausgabe von ```-layers Optimize`` nicht immer zu einer kleineren Dateigröße führt, daher sollten Sie zunächst versuchen, ohne Optimierung in ein gif zu konvertieren, um sicher zu gehen. Denken Sie daran, dass während des gesamten Prozesses alles im Speicher liegt, so dass Sie ausreichend Speicher benötigen, wenn die Bilder recht groß sind.
Estoy convirtiendo un vídeo a archivo GIF con ```ffmpeg``: ```ffmpeg \ -i entrada.flv -ss 00:00:00.000 -pix_fmt rgb24 -pix_fmt rgb24 -r 10 -r 10 \ -s 320x240 \ -t 00:00:10.000 \ output.gif ``` Funciona muy bien, pero el archivo gif de salida tiene una calidad muy baja. ¿Alguna idea de cómo puedo mejorar la calidad del gif convertido?
Si prefiere evitar archivos de imagen intermedios, los comandos proporcionados por LordNeckBeard se pueden canalizar entre ```ffmpeg`` y ``convert`` de ImageMagick para que no se necesiten archivos intermedios: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` El ```-f image2pipe`` le dice a ffmpeg que divida el vídeo en imágenes y lo haga apto para ser canalizado, y ```-vcodec ppm`` especifica que el formato de salida sea ppm (por alguna razón si el formato es png, o bien ```convert`` no lee todas las imágenes de la tubería, o bien ffmpeg no las saca todas). El ```-`` para ambos comandos especifica que se utilizará una tubería para la salida y la entrada respectivamente. Para optimizar el resultado sin guardar un fichero, puede enviar la salida de ```convert`` a un segundo comando ```convert``: ``ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` El ``gif:-`` le dice a ```convert`` que canalice su salida como datos con formato gif y ``-layers Optimize`` le dice al segundo ``convert`` que ejecute los métodos ``optimize-frame`` y ``optimize-transparancy`` (ver la Introducción a la Optimización de Animaciones de ImageMagick). Tenga en cuenta que la salida de ```layers Optimize`` no siempre puede proporcionar un tamaño de archivo más pequeño, por lo que es posible que desee intentar convertir a un gif sin optimización primero para estar seguro. Recuerde que durante todo este proceso todo está en memoria, por lo que puede necesitar memoria suficiente si las imágenes son bastante grandes.
Je convertis une vidéo en fichier GIF avec ``ffmpeg`` : ``ffmpeg \N-i input.flv \N -i input.flv \N- -ss 00:00:00.000 \N -ss 00:00:00.000 \N- -pix_fmt rv \N- -pix_fmt rv \N -pix_fmt rgb24 \N -r 10 \N -r 10 \ -s 320x240 \N -t 00:00:10.000 \ output.gif ``` Cela fonctionne très bien, mais le fichier gif de sortie est de très mauvaise qualité. Une idée pour améliorer la qualité du fichier gif converti ?
Si vous préférez éviter les fichiers images intermédiaires, les commandes fournies par LordNeckBeard peuvent être transférées entre ``ffmpeg`` et ``convert`` d'ImageMagick de façon à ce qu'aucun fichier intermédiaire ne soit nécessaire : ``ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` Le ``-f image2pipe`` demande à ffmpeg de découper la vidéo en images et de la rendre apte à être diffusée, et ``-vcodec ppm`` spécifie que le format de sortie doit être ppm (pour une raison quelconque, si le format est png, soit ``convert`` ne lit pas toutes les images depuis le tube, soit ffmpeg ne les sort pas toutes). Le ``-`` pour les deux commandes spécifie qu'un tube sera utilisé pour la sortie et l'entrée respectivement. Pour optimiser le résultat sans sauvegarder de fichier, vous pouvez diriger la sortie de ``convert`` vers une seconde commande ``convert`` : ``ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` Le ``gif:-`` indique à ``convert`` d'acheminer sa sortie sous forme de données formatées gif et ``-layers Optimize`` indique au second ``convert`` d'exécuter les méthodes ``optimize-frame`` et ``optimize-transparancy`` (voir l'Introduction à l'Optimisation de l'Animation d'ImageMagick). Notez que la sortie des ``couches Optimiser`` ne fournit pas toujours une taille de fichier plus petite, donc vous pouvez essayer de convertir en gif sans optimisation d'abord pour être sûr. Rappelez-vous que pendant tout ce processus, tout est en mémoire, vous aurez donc besoin de suffisamment de mémoire si les images sont assez grandes.
Sto convertendo un video in un file GIF con ``ffmpeg``: ``ffmpeg \ -i input.flv \ -ss 00:00:00.000 \ -pix_fmt rgb24 ´ -r 10 \ -s 320x240 \ -t 00:00:10.000 \ output.gif ``` Funziona benissimo, ma il file gif di output ha una qualità molto bassa. Qualche idea su come migliorare la qualità della gif convertita?
Se si preferisce evitare i file immagine intermedi, i comandi forniti da LordNeckBeard possono essere trasmessi tra ``ffmpeg`` e ``convert`` di ImageMagick in modo da non richiedere file intermedi: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` L'opzione ```-f image2pipe`` dice a ffmpeg di dividere il video in immagini e di renderlo adatto all'uscita, mentre ```-vcodec ppm`` specifica che il formato di uscita deve essere ppm (per qualche motivo, se il formato è png, o ```convert`` non legge tutte le immagini dalla pipe, o ffmpeg non le produce tutte). L'opzione ```-`` per entrambi i comandi specifica che verrà utilizzata una pipe rispettivamente per l'uscita e l'ingresso. Per ottimizzare il risultato senza salvare un file, è possibile inviare l'output di ``convert`` a un secondo comando ``convert``: ``ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` Il ``gif:-`` dice a ``convert`` di inviare il suo output come dati formattati in gif e ```-layers Optimize`` dice al secondo ``convert`` di eseguire i metodi ```optimize-frame`` e ```optimize-transparancy`` (si veda ImageMagick Introduction to Animation Optimization). Si noti che l'output dell'ottimizzazione dei livelli non sempre fornisce una dimensione minore del file, quindi si può provare a convertire in una gif senza ottimizzazione per essere sicuri. Ricordate che durante l'intero processo tutto è in memoria, quindi potrebbe essere necessaria una quantità di memoria sufficiente se le immagini sono piuttosto grandi.
8
Tor can only handle TCP connections, but DNS is a UDP protocol. How does Tor route DNS requests over its TCP based network? Why can the same approach not be used to route all UDP traffic over Tor?
Tor clients do not, in general, directly do DNS requests. When you open a connection through the tor network you usually ask your client (on its socks ports) to connect you to a hostname and port, say www.example.com:80. Your tor client, once it has created a circuit, will send that hostname and port to the exit node in its RELAY_BEGIN cell. The exit node will then do a DNS resolve and open a TCP connection to the target. Once that's established it will tell your client that the connection is open, and for informational purposes will also tell your client what address that hostname resolved to. Tor, in addition to that, has some sort of "remote DNS resolve" protocol built in. This support allows clients to query for certain resource types, like IPv4 or IPv6 addresses. Here too, the exit node does the actual DNS packet sending and receiving and just relays the answer to the client. No UDP packets are actually ever routed from the client. There's also a proposal to add more full featured DNS support to Tor. So far it hasn't been implemented. Tor Protocol Specification references * 6.2. Opening streams and transferring data * 6.4. Remote hostname lookup * Proposal 219 - Support for full DNS and DNSSEC resolution in Tor
Tor kann nur TCP-Verbindungen verarbeiten, aber DNS ist ein UDP-Protokoll. Wie leitet Tor DNS-Anfragen über sein TCP-basiertes Netzwerk weiter? Warum kann der gleiche Ansatz nicht verwendet werden, um den gesamten UDP-Verkehr über Tor zu leiten?
Tor-Clients führen im Allgemeinen keine direkten DNS-Anfragen durch. Wenn du eine Verbindung durch das Tor-Netzwerk öffnest, bittest du normalerweise deinen Client (auf seinen Socken-Ports), dich mit einem Hostnamen und einem Port zu verbinden, zum Beispiel www.example.com:80. Sobald dein Tor-Client eine Verbindung aufgebaut hat, sendet er diesen Hostnamen und Port an den Exit-Knoten in seiner RELAY_BEGIN-Zelle. Der Exit-Node wird dann eine DNS-Auflösung durchführen und eine TCP-Verbindung zum Ziel öffnen. Sobald die Verbindung aufgebaut ist, teilt er deinem Client mit, dass die Verbindung offen ist, und zu Informationszwecken teilt er deinem Client auch mit, zu welcher Adresse der Hostname aufgelöst wurde. Tor hat außerdem eine Art "Remote-DNS-Auflösungsprotokoll" eingebaut. Diese Unterstützung erlaubt es Clients, nach bestimmten Ressourcentypen wie IPv4- oder IPv6-Adressen zu fragen. Auch hier übernimmt der Exit-Knoten das Senden und Empfangen von DNS-Paketen und leitet die Antwort lediglich an den Client weiter. Es werden keine UDP-Pakete vom Client weitergeleitet. Es gibt auch einen Vorschlag, Tor mit einer vollwertigen DNS-Unterstützung auszustatten. Bis jetzt wurde es noch nicht implementiert. Referenzen zur Spezifikation des Tor-Protokolls * 6.2. Öffnen von Streams und Übertragen von Daten * 6.4. Nachschlagen von entfernten Hostnamen * Vorschlag 219 - Unterstützung für vollständige DNS- und DNSSEC-Auflösung in Tor
Tor sólo puede manejar conexiones TCP, pero DNS es un protocolo UDP. ¿Cómo enruta Tor las peticiones DNS sobre su red basada en TCP? ¿Por qué no se puede usar el mismo enfoque para enrutar todo el tráfico UDP sobre Tor?
Los clientes Tor, en general, no hacen directamente peticiones DNS. Cuando abres una conexión a través de la red tor normalmente le pides a tu cliente (en sus puertos socks) que te conecte a un nombre de host y puerto, digamos www.example.com:80. Su cliente tor, una vez que ha creado un circuito, enviará ese nombre de host y puerto al nodo de salida en su celda RELAY_BEGIN. El nodo de salida entonces hará un DNS resolver y abrir una conexión TCP con el objetivo. Una vez establecida, le dirá a su cliente que la conexión está abierta, y para propósitos informativos también le dirá a su cliente a qué dirección se resolvió el nombre de host. Tor, además de eso, tiene algún tipo de protocolo de "resolución DNS remota" incorporado. Este soporte permite a los clientes consultar ciertos tipos de recursos, como direcciones IPv4 o IPv6. También en este caso, el nodo de salida se encarga de enviar y recibir los paquetes DNS y se limita a transmitir la respuesta al cliente. En realidad, nunca se enrutan paquetes UDP desde el cliente. También hay una propuesta para añadir un soporte DNS más completo a Tor. Hasta ahora no se ha implementado. Referencias a la Especificación del Protocolo Tor * 6.2. 6.3. Apertura de flujos y transferencia de datos * 6.4. Búsqueda remota de nombres de host * Propuesta 219 - Soporte para DNS completo y resolución DNSSEC en Tor
Tor ne peut gérer que des connexions TCP, mais le DNS est un protocole UDP. Comment Tor achemine-t-il les requêtes DNS sur son réseau basé sur TCP ? Pourquoi la même approche ne peut-elle pas être utilisée pour acheminer tout le trafic UDP sur Tor ?
En général, les clients Tor n'effectuent pas directement de requêtes DNS. Lorsque vous ouvrez une connexion à travers le réseau Tor, vous demandez généralement à votre client (sur ses ports socks) de vous connecter à un nom d'hôte et à un port, par exemple www.example.com:80. Votre client Tor, une fois qu'il a créé un circuit, envoie ce nom d'hôte et ce port au nœud de sortie dans sa cellule RELAY_BEGIN. Le nœud de sortie effectuera alors une résolution DNS et ouvrira une connexion TCP à la cible. Une fois la connexion établie, il indiquera à votre client que la connexion est ouverte et, à titre d'information, il lui indiquera également l'adresse à laquelle le nom d'hôte a été résolu. Tor, en plus de cela, a une sorte de protocole de "résolution DNS à distance" intégré. Ce support permet aux clients d'interroger certains types de ressources, comme les adresses IPv4 ou IPv6. Ici aussi, le nœud de sortie se charge de l'envoi et de la réception des paquets DNS et se contente de relayer la réponse au client. Aucun paquet UDP n'est en fait acheminé depuis le client. Il existe également une proposition visant à ajouter un support DNS plus complet à Tor. Jusqu'à présent, cela n'a pas été mis en oeuvre. Références de la spécification du protocole Tor * 6.2. Ouverture de flux et transfert de données * 6.4. Recherche de nom d'hôte à distance * Proposition 219 - Prise en charge du DNS complet et de la résolution DNSSEC dans Tor
Tor può gestire solo connessioni TCP, ma il DNS è un protocollo UDP. Come fa Tor a instradare le richieste DNS sulla sua rete basata su TCP? Perché non si può usare lo stesso approccio per instradare tutto il traffico UDP su Tor?
I client Tor, in generale, non effettuano direttamente richieste DNS. Quando si apre una connessione attraverso la rete Tor, di solito si chiede al proprio client (sulle sue porte socks) di connettersi a un nome host e a una porta, ad esempio www.example.com:80. Il client tor, una volta creato il circuito, invierà l'hostname e la porta al nodo di uscita nella cella RELAY_BEGIN. Il nodo di uscita eseguirà quindi una risoluzione DNS e aprirà una connessione TCP all'obiettivo. Una volta stabilita, comunicherà al client che la connessione è aperta e, a scopo informativo, dirà anche a quale indirizzo si è risolto l'hostname. Tor, inoltre, ha una sorta di protocollo di "risoluzione DNS remota" incorporato. Questo supporto consente ai client di interrogare alcuni tipi di risorse, come gli indirizzi IPv4 o IPv6. Anche in questo caso, il nodo di uscita esegue l'invio e la ricezione dei pacchetti DNS e si limita a trasmettere la risposta al client. Nessun pacchetto UDP viene instradato dal client. Esiste anche una proposta per aggiungere a Tor un supporto DNS più completo. Finora non è stato implementato. Riferimenti alle specifiche del protocollo Tor * 6.2. Apertura di flussi e trasferimento di dati * 6.4. Ricerca di un hostname remoto * Proposta 219 - Supporto per la risoluzione DNS completa e DNSSEC in Tor
9
Why does this throw ```NullPointerException``` ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false; // NPE on this line. System.out.println(b); } public static Boolean returnsNull() { return null; } ``` while this doesn't ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false; System.out.println(b); // null } ``` ? The solution is by the way to replace ```false``` by ```Boolean.FALSE``` to avoid ```null``` being unboxed to ```boolean``` --which isn't possible. But that isn't the question. The question is why? Are there any references in JLS which confirms this behaviour, especially of the 2nd case?
The difference is that the explicit type of the ```returnsNull()``` method affects the static typing of the expressions at compile time: ```E1: `true ? returnsNull() : false` - boolean (auto-unboxing 2nd operand to boolean) E2: `true ? null : false` - Boolean (autoboxing of 3rd operand to Boolean) ``` See Java Language Specification, section 15.25 Conditional Operator ? : * For E1, the types of the 2nd and 3rd operands are ```Boolean``` and ```boolean``` respectively, so this clause applies: If one of the second and third operands is of type boolean and the type of the other is of type Boolean, then the type of the conditional expression is boolean. Since the type of the expression is ```boolean```, the 2nd operand must be coerced to ```boolean```. The compiler inserts auto-unboxing code to the 2nd operand (return value of ```returnsNull()```) to make it type ```boolean```. This of course causes the NPE from the ```null``` returned at run-time. * For E2, types of the 2nd and 3rd operands are `````` (not ```Boolean``` as in E1!) and ```boolean``` respectively, so no specific typing clause applies (go read 'em!), so the final "otherwise" clause applies: Otherwise, the second and third operands are of types S1 and S2 respectively. Let T1 be the type that results from applying boxing conversion to S1, and let T2 be the type that results from applying boxing conversion to S2. The type of the conditional expression is the result of applying capture conversion (§5.1.10) to lub(T1, T2) (§15.12.2.7). * S1 == `````` (see §4.1) * S2 == ```boolean``` * T1 == box(S1) == `````` (see last item in list of boxing conversions in §5.1.7) * T2 == box(S2) == `Boolean * lub(T1, T2) == ```Boolean``` So the type of the conditional expression is ```Boolean``` and the 3rd operand must be coerced to ```Boolean```. The compiler inserts auto-boxing code for the 3rd operand (```false```). The 2nd operand doesn't need the auto-unboxing as in ```E1```, so no auto-unboxing NPE when ```null``` is returned. This question needs a similar type analysis: Java conditional operator ?: result type
Warum führt dies zu einer ```NullPointerException``? ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false; // NPE in dieser Zeile. System.out.println(b); } public static Boolean returnsNull() { return null; } ``` während dies nicht der Fall ist ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false; System.out.println(b); // null } ``` ? Die Lösung ist übrigens, ```false`` durch ```Boolean.FALSE`` zu ersetzen, um zu vermeiden, dass ```null`` zu ```boolean`` unboxed wird - was nicht möglich ist. Aber das ist nicht die Frage. Die Frage ist, warum? Gibt es irgendwelche Hinweise in JLS, die dieses Verhalten bestätigen, insbesondere für den 2. Fall?
Der Unterschied besteht darin, dass der explizite Typ der Methode ``returnsNull()```` die statische Typisierung der Ausdrücke zur Kompilierungszeit beeinflusst: ```E1: `true ? returnsNull() : false` - Boolean (automatisches Entpacken des 2. Operanden in Boolean) E2: `true ? null : false` - Boolean (automatische Umwandlung des 3. Operanden in Boolean) ``` Siehe Java Language Specification, Abschnitt 15.25 Bedingter Operator ? : * Für E1 sind die Typen des 2. und 3. Operanden ```Boolean``` bzw. ```Bolean```, so dass diese Klausel gilt: Wenn einer der zweiten und dritten Operanden vom Typ Boolean ist und der Typ des anderen vom Typ Boolean, dann ist der Typ des bedingten Ausdrucks Boolean. Da der Typ des Ausdrucks ```boolean`` ist, muss der 2. Operand in ```boolean`` umgewandelt werden. Der Compiler fügt Auto-Unboxing-Code in den 2. Operanden (Rückgabewert von ```returnsNull()``) ein, um ihn in den Typ ```boolean`` zu überführen. Dies verursacht natürlich den NPE von ```Null``, der zur Laufzeit zurückgegeben wird. * Für E2 sind die Typen des 2. und 3. Operanden `````` (nicht ``Boolean`` wie in E1!) bzw. ```boolean``, so dass keine spezielle Typisierungsklausel gilt (lesen Sie sie!), so dass die abschließende "Sonst"-Klausel gilt: Ansonsten sind der zweite und dritte Operand vom Typ S1 bzw. S2. Sei T1 der Typ, der sich aus der Anwendung der Boxing-Konversion auf S1 ergibt, und sei T2 der Typ, der sich aus der Anwendung der Boxing-Konversion auf S2 ergibt. Der Typ des bedingten Ausdrucks ist das Ergebnis der Anwendung von capture conversion (§5.1.10) auf lub(T1, T2) (§15.12.2.7). * S1 == `````` (siehe §4.1) * S2 == ``boolean`` * T1 == box(S1) == `````` (siehe letzter Punkt in der Liste der boxing-Konvertierungen in §5.1.7) * T2 == box(S2) == `Boolean * lub(T1, T2) == ```Boolean``` Der Typ des bedingten Ausdrucks ist also ```Boolean`` und der 3. Operand muss in ```Boolean`` umgewandelt werden. Der Compiler fügt Auto-Boxing-Code für den 3. Operanden ein (```false```). Der 2. Operand braucht kein Auto-Unboxing wie in ```E1``, also kein Auto-Unboxing NPE wenn ```Null`` zurückgegeben wird. Diese Frage erfordert eine ähnliche Typanalyse: Java bedingter Operator ?: Ergebnistyp
¿Por qué lanza esto una ```NullPointerException``? ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false; // NPE en esta línea. System.out.println(b); } public static Boolean returnsNull() { return null; } ``` mientras que esto no ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false; System.out.println(b); // null } ``` ? La solución es, por cierto, sustituir ``false`` por ``Boolean.FALSE`` para evitar que ``null`` sea unboxed a ```boolean`` --lo cual no es posible. Pero esa no es la cuestión. La pregunta es ¿por qué? ¿Hay alguna referencia en JLS que confirme este comportamiento, especialmente del 2º caso?
La diferencia es que el tipo explícito del método ``returnsNull()`` afecta al tipado estático de las expresiones en tiempo de compilación: ```E1: ``true ? returnsNull() : false`` - boolean (auto-unboxing 2nd operand to boolean) E2: `true ? null : false` - Boolean (autodescomposición del 3er operando a booleano) ``` Véase Java Language Specification, sección 15.25 Operador condicional ? * Para E1, los tipos del 2º y 3º operandos son ``Boolean`` y ``boolean`` respectivamente, por lo que se aplica esta cláusula: Si uno de los operandos segundo y tercero es de tipo booleano y el tipo del otro es de tipo booleano, entonces el tipo de la expresión condicional es booleano. Como el tipo de la expresión es ``boolean``, el segundo operando debe ser coercionado a ```boolean``. El compilador inserta código de auto-unboxing en el 2º operando (valor de retorno de ``returnsNull()``) para que sea de tipo ```boolean``. Esto, por supuesto, causa el NPE del ```null`` devuelto en tiempo de ejecución. * Para E2, los tipos del segundo y tercer operandos son `````` (¡no ``Boolean`` como en E1!) y ```boolean`` respectivamente, por lo que no se aplica ninguna cláusula específica de tipado (¡vaya a leerlas!), así que se aplica la cláusula final "otherwise": En caso contrario, el segundo y tercer operando son de tipo S1 y S2 respectivamente. Sea T1 el tipo resultante de aplicar la conversión boxing a S1, y sea T2 el tipo resultante de aplicar la conversión boxing a S2. El tipo de la expresión condicional es el resultado de aplicar la conversión de captura (§5.1.10) a lub(T1, T2) (§15.12.2.7). * S1 == `````` (véase §4.1) * S2 == ```boolean`` * T1 == box(S1) == `````` (véase el último punto de la lista de conversiones de box en §5.1.7) * T2 == box(S2) == `Boolean * lub(T1, T2) == ```Boolean`` Así que el tipo de la expresión condicional es ``Boolean`` y el tercer operando debe ser coercionado a ``Boolean``. El compilador inserta código auto-boxing para el tercer operando (```false``). El 2º operando no necesita el auto-unboxing como en ``E1``, así que no hay NPE de auto-unboxing cuando se devuelve ```null``. Esta pregunta necesita un análisis de tipo similar: Operador condicional Java ?: tipo de resultado
Pourquoi cela lance-t-il une ``NullPointerException`` ? ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false ; // NPE sur cette ligne. System.out.println(b) ; } public static Boolean returnsNull() { return null ; } ``` alors que ceci ne le fait pas ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false ; System.out.println(b) ; // null } ``` ? La solution est d'ailleurs de remplacer ``false`` par ``Boolean.FALSE`` pour éviter que ``null`` soit unboxé en ``boolean`` --ce qui n'est pas possible. Mais ce n'est pas la question. La question est de savoir pourquoi. Existe-t-il des références dans JLS qui confirment ce comportement, en particulier dans le 2e cas ?
La différence est que le type explicite de la méthode ``returnsNull()`` affecte le typage statique des expressions au moment de la compilation : E1 : `true ? returnsNull() : false` - booléen (auto-unboxing 2nd operand to boolean) E2 : `true ? null : false` - booléen (conversion automatique de l'opérande 3 en booléen) ``` Voir la spécification du langage Java, section 15.25 Opérateur conditionnel ? * Pour E1, les types des 2ème et 3ème opérandes sont respectivement ``Booléen`` et ``booléen``, donc cette clause s'applique : Si l'un des deuxième et troisième opérandes est de type booléen et que le type de l'autre est de type booléen, alors le type de l'expression conditionnelle est booléen. Puisque le type de l'expression est ``booléen``, le second opérande doit être contraint à ``booléen``. Le compilateur insère un code d'auto-unboxing au 2ème opérande (valeur de retour de ``returnsNull()``)) pour le rendre de type ``booléen``. Ceci cause bien sûr le NPE du ``null`` retourné à l'exécution. * Pour E2, les types des 2ème et 3ème opérandes sont `````` (pas ``Booléen`` comme dans E1 !) et ``boolean`` respectivement, donc aucune clause de typage spécifique ne s'applique (allez les lire !), donc la clause finale "otherwise" s'applique : Sinon, les deuxième et troisième opérandes sont respectivement de types S1 et S2. Soit T1 le type qui résulte de l'application de la conversion en boîte à S1, et T2 le type qui résulte de l'application de la conversion en boîte à S2. Le type de l'expression conditionnelle est le résultat de l'application de la conversion de capture (§5.1.10) à lub(T1, T2) (§15.12.2.7). * S1 == `````` (voir §4.1) S2 == ``booléen`` * T1 == box(S1) * T1 == box(S1) == `````` (voir le dernier élément de la liste des conversions de box au §5.1.7) * T2 == box(S2) == `Booléen * lub(T1, T2) == ``Booléen```` * lub(T1, T2) == ``Booléen```` Donc le type de l'expression conditionnelle est ``Booléen`` et le 3ème opérande doit être contraint à ``Booléen``. Le compilateur insère du code d'auto-boxing pour le 3ème opérande (``false``). L'opérande 2 n'a pas besoin de l'auto-boxing comme dans ``E1``, donc pas de NPE d'auto-boxing quand ``null`` est retourné. Cette question nécessite une analyse de type similaire : Opérateur conditionnel Java ? : type de résultat
Perché questo lancio ```NullPointerException`` ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false; // NPE su questa riga. System.out.println(b); } public static Boolean returnsNull() { return null; } ``` mentre questo non lo fa ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false; System.out.println(b); // null } ``` ? La soluzione è quella di sostituire ```false`` con ```Boolean.FALSE`` per evitare che ```null``` venga unboxato in ```boolean``, cosa che non è possibile. Ma non è questa la domanda. La domanda è: perché? Ci sono riferimenti in JLS che confermano questo comportamento, specialmente nel secondo caso?
La differenza è che il tipo esplicito del metodo ``returnsNull()`` influisce sulla tipizzazione statica delle espressioni in fase di compilazione: ```E1: ``true ? returnsNull() : false`` - booleano (auto-unboxing del secondo operando a booleano) E2: `true ? null : false` - booleano (autoboxing del terzo operando in booleano) ``` Vedere le specifiche del linguaggio Java, sezione 15.25 Operatore condizionale ? : * Per E1, i tipi del secondo e del terzo operando sono rispettivamente ```Boolean`` e ```boolean``, quindi si applica questa clausola: Se uno dei due operandi è di tipo booleano e il tipo dell'altro è di tipo booleano, il tipo dell'espressione condizionale è booleano. Poiché il tipo dell'espressione è ```boolean``, il secondo operando deve essere forzato a ```boolean``. Il compilatore inserisce del codice di auto-unboxing nel secondo operando (valore di ritorno di ``returnsNull()```) per renderlo di tipo ```boolean``. Questo ovviamente causa l'NPE del ```null``` restituito in fase di esecuzione. * Per E2, i tipi del secondo e del terzo operando sono rispettivamente `````` (non ```Boolean`` come in E1!) e ```boolean``, quindi non si applica alcuna clausola di tipizzazione specifica (andate a leggerli!), quindi si applica la clausola finale "altrimenti": Altrimenti, il secondo e il terzo operando sono rispettivamente di tipo S1 e S2. Sia T1 il tipo che risulta dall'applicazione della conversione boxe a S1 e sia T2 il tipo che risulta dall'applicazione della conversione boxe a S2. Il tipo dell'espressione condizionale è il risultato dell'applicazione della conversione di cattura (§5.1.10) a lub(T1, T2) (§15.12.2.7). * S1 == `````` (vedere §4.1) * S2 = = ```boolean`` * T1 == box(S1) == `````` (vedi ultimo punto dell'elenco delle conversioni di boxe al §5.1.7) * T2 = box(S2) = = ``booleano''. * lub(T1, T2) = = ```Boolean`` Quindi il tipo dell'espressione condizionale è ```Boolean`` e il terzo operando deve essere coercizzato a ```Boolean``. Il compilatore inserisce il codice di auto-boxing per il terzo operando (```false``). Il secondo operando non ha bisogno dell'auto-unboxing come in ```E1``, quindi non ci sono NPE di auto-unboxing quando viene restituito ```null```. Questa domanda richiede un'analisi di tipo simile: Operatore condizionale Java ?: tipo di risultato
10
How do DOS games like DOOM benefit from a PCI graphics card?
DOOM itself doesn’t do anything special to benefit from PCI graphics cards. It runs faster with PCI graphics cards (and VLB, AGP, and PCI Express cards) than with ISA graphics cards because the supporting bus is faster, so reads from and writes to video memory take less time. PCI goes to great lengths to preserve backwards compatibility with ISA-based VGA, providing support for “VGA compatible” adapters so that they can appear in memory at the same locations and use the same I/O ports as ISA VGA cards. So accesses to the VGA registers and to the VGA buffer (at 0xA0000) go directly to the main PCI VGA compatible adapter in the system, with no change required in the operating system or programs running on it. (This is the reason why there’s a specific “VGA compatible controller” device type in PCI. Such shenanigans are impossible for other device types in PCI, which is why PCI sound cards have so much trouble providing compatibility with programs written for ISA sound cards.) A faster bus and/or faster video memory immediately leads to higher performance in video-intensive programs because software doesn’t need to be careful about how it accesses video memory (except on CGA, and on all platforms with vertical blank synchronisation if it cares about tearing). So ```REP MOVSW``` or ```REP MOVSD``` with no waiting in software, once the program decides to write a frame, is perfectly fine, and will go faster and faster as the underlying hardware improves. On platforms where this can’t work in hardware (e.g. on an 8088 with a VGA card), the hardware takes care of specifics — for example on an 8088 the bus unit will split up 16-bit accesses. Your question is specific to DOOM but other DOS games are in a similar situation. Later games tended to rely on VBE (often using UniVBE) to access video modes beyond those provided by VGA, but they mostly didn’t use anything beyond video-mode setup and framebuffer configuration (see also Were any DOS games (or software) known to use VBE/AF?), so improved video speed came mostly from bus speed increases, faster video memory, and speed increases in the cards themselves (which was already a factor in the ISA era, compare most Trident cards to Tseng cards for example). For an excellent explanation of the intricacies of VGA programming and its memory layout, see Fabien Sanglard’s Game Engine Black Book series. The DOOM update loop is shown on page 185 of the DOOM book; it doesn’t use any assembly language (unlike the renderer, see pp. 290 and following), but it does have one perhaps surprising feature given the 32-bit nature of the code: VGA updates are done 16 bits at a time. Section 2.3 of the same book, pp. 59 and following, describes some of the improvements to VGA adapters around the time DOOM was released, in particular the switch to the VESA Local Bus on 486s. The benchmark table on page 287 shows the importance of the bus.
Wie profitieren DOS-Spiele wie DOOM von einer PCI-Grafikkarte?
DOOM selbst tut nichts Besonderes, um von PCI-Grafikkarten zu profitieren. Es läuft schneller mit PCI-Grafikkarten (und VLB-, AGP- und PCI-Express-Karten) als mit ISA-Grafikkarten, weil der unterstützende Bus schneller ist, so dass Lese- und Schreibvorgänge im Videospeicher weniger Zeit in Anspruch nehmen. PCI unternimmt große Anstrengungen, um die Abwärtskompatibilität mit ISA-basierten VGA-Karten zu wahren, und bietet Unterstützung für "VGA-kompatible" Adapter, so dass diese im Speicher an denselben Stellen erscheinen und dieselben E/A-Anschlüsse verwenden können wie ISA-VGA-Karten. Zugriffe auf die VGA-Register und den VGA-Puffer (bei 0xA0000) gehen also direkt an den Haupt-PCI-VGA-kompatiblen Adapter im System, ohne dass eine Änderung des Betriebssystems oder der darauf laufenden Programme erforderlich ist. (Das ist der Grund, warum es in PCI einen speziellen Gerätetyp "VGA-kompatibler Controller" gibt. Solche Spielereien sind für andere Gerätetypen in PCI nicht möglich, weshalb PCI-Soundkarten so große Schwierigkeiten haben, mit Programmen kompatibel zu sein, die für ISA-Soundkarten geschrieben wurden). Ein schnellerer Bus und/oder schnellerer Videospeicher führt sofort zu einer höheren Leistung in videointensiven Programmen, da die Software nicht darauf achten muß, wie sie auf den Videospeicher zugreift (außer auf CGA und auf allen Plattformen mit vertikaler Leersynchronisation, wenn sie sich um Tearing kümmert). Also ``REP MOVSW`` oder ``REP MOVSD`` ohne Wartezeit in der Software, sobald das Programm sich entscheidet, ein Bild zu schreiben, ist vollkommen in Ordnung und wird immer schneller, je besser die zugrunde liegende Hardware ist. Auf Plattformen, auf denen dies in Hardware nicht funktionieren kann (z.B. auf einem 8088 mit einer VGA-Karte), kümmert sich die Hardware um die Besonderheiten - auf einem 8088 zum Beispiel teilt die Buseinheit 16-Bit-Zugriffe auf. Ihre Frage bezieht sich speziell auf DOOM, aber andere DOS-Spiele befinden sich in einer ähnlichen Situation. Spätere Spiele neigten dazu, sich auf VBE (oft unter Verwendung von UniVBE) zu verlassen, um auf Videomodi zuzugreifen, die über die von VGA zur Verfügung gestellten hinausgingen, aber sie benutzten meist nichts, was über die Einstellung des Videomodus und die Konfiguration des Framebuffers hinausging (siehe auch Waren irgendwelche DOS-Spiele (oder Software) bekannt dafür, VBE/AF zu benutzen?), so dass die verbesserte Videogeschwindigkeit vor allem aus der Erhöhung der Busgeschwindigkeit, dem schnelleren Videospeicher und der Erhöhung der Geschwindigkeit der Karten selbst kam (was bereits in der ISA-Ära ein Faktor war, vergleiche z.B. die meisten Trident-Karten mit Tseng-Karten). Eine ausgezeichnete Erklärung der Feinheiten der VGA-Programmierung und des Speicherlayouts finden Sie in Fabien Sanglards Game Engine Black Book Serie. Die DOOM-Update-Schleife wird auf Seite 185 des DOOM-Buches gezeigt; sie verwendet keine Assembler-Sprache (im Gegensatz zum Renderer, siehe S. 290 ff.), aber sie hat ein vielleicht überraschendes Merkmal angesichts der 32-Bit-Natur des Codes: VGA-Aktualisierungen werden 16 Bit auf einmal durchgeführt. Abschnitt 2.3 desselben Buches, S. 59 ff., beschreibt einige der Verbesserungen an VGA-Adaptern zur Zeit der Veröffentlichung von DOOM, insbesondere die Umstellung auf den VESA Local Bus bei 486ern. Die Benchmark-Tabelle auf Seite 287 zeigt, wie wichtig dieser Bus ist.
¿Cómo se benefician los juegos DOS como DOOM de una tarjeta gráfica PCI?
DOOM en sí no hace nada especial para beneficiarse de las tarjetas gráficas PCI. Funciona más rápido con tarjetas gráficas PCI (y tarjetas VLB, AGP y PCI Express) que con tarjetas gráficas ISA porque el bus de soporte es más rápido, por lo que las lecturas y escrituras en la memoria de vídeo tardan menos tiempo. PCI hace todo lo posible por mantener la compatibilidad con las tarjetas VGA basadas en ISA, ofreciendo soporte para adaptadores "compatibles con VGA", de modo que puedan aparecer en memoria en las mismas ubicaciones y utilizar los mismos puertos de E/S que las tarjetas VGA ISA. De este modo, los accesos a los registros VGA y al búfer VGA (en 0xA0000) van directamente al adaptador PCI VGA compatible principal del sistema, sin necesidad de realizar ningún cambio en el sistema operativo o en los programas que se ejecutan en él. (Esta es la razón por la que existe un tipo de dispositivo específico "controlador compatible VGA" en PCI. Tales travesuras son imposibles para otros tipos de dispositivos en PCI, razón por la cual las tarjetas de sonido PCI tienen tantos problemas para ofrecer compatibilidad con programas escritos para tarjetas de sonido ISA). Un bus más rápido y/o una memoria de vídeo más rápida conducen inmediatamente a un mayor rendimiento en programas intensivos en vídeo porque el software no necesita tener cuidado sobre cómo accede a la memoria de vídeo (excepto en CGA, y en todas las plataformas con sincronización vertical en blanco si se preocupa por el tearing). Así que ```REP MOVSW`` o ```REP MOVSD`` sin esperas en el software, una vez que el programa decide escribir un fotograma, está perfectamente bien, e irá cada vez más rápido a medida que mejore el hardware subyacente. En plataformas donde esto no puede funcionar por hardware (por ejemplo, en un 8088 con una tarjeta VGA), el hardware se encarga de los detalles - por ejemplo, en un 8088 la unidad de bus dividirá los accesos de 16 bits. Tu pregunta es específica para DOOM, pero otros juegos de DOS se encuentran en una situación similar. Los juegos posteriores tendían a depender de VBE (a menudo usando UniVBE) para acceder a los modos de vídeo más allá de los proporcionados por VGA, pero en su mayoría no usaban nada más allá de la configuración del modo de vídeo y la configuración del framebuffer (véase también ¿Se sabía de algún juego (o software) de DOS que usara VBE/AF?), por lo que la mejora de la velocidad de vídeo provenía principalmente de aumentos de velocidad del bus, memoria de vídeo más rápida y aumentos de velocidad en las propias tarjetas (que ya era un factor en la era ISA, compare la mayoría de las tarjetas Trident con las tarjetas Tseng, por ejemplo). Para una excelente explicación de los entresijos de la programación VGA y su disposición de memoria, véase la serie Game Engine Black Book de Fabien Sanglard. El bucle de actualización de DOOM se muestra en la página 185 del libro de DOOM; no utiliza ningún lenguaje ensamblador (a diferencia del renderizador, ver pp. 290 y siguientes), pero tiene una característica quizás sorprendente dada la naturaleza de 32 bits del código: Las actualizaciones VGA se hacen de 16 bits en 16 bits. La sección 2.3 del mismo libro, pp. 59 y siguientes, describe algunas de las mejoras de los adaptadores VGA en la época en que DOOM fue lanzado, en particular el cambio al Bus Local VESA en los 486s. La tabla de referencia de la página 287 muestra la importancia del bus.
En quoi les jeux DOS comme DOOM bénéficient-ils d'une carte graphique PCI ?
DOOM lui-même ne fait rien de spécial pour bénéficier des cartes graphiques PCI. Il fonctionne plus rapidement avec les cartes graphiques PCI (et les cartes VLB, AGP et PCI Express) qu'avec les cartes graphiques ISA, car le bus de support est plus rapide, de sorte que les lectures et les écritures dans la mémoire vidéo prennent moins de temps. PCI se donne beaucoup de mal pour préserver la compatibilité ascendante avec les cartes VGA basées sur ISA, en prenant en charge les adaptateurs "compatibles VGA" afin qu'ils puissent apparaître dans la mémoire aux mêmes emplacements et utiliser les mêmes ports d'E/S que les cartes VGA basées sur ISA. Ainsi, les accès aux registres VGA et à la mémoire tampon VGA (à 0xA0000) vont directement à l'adaptateur principal PCI compatible VGA dans le système, sans qu'aucun changement ne soit nécessaire dans le système d'exploitation ou les programmes qui tournent dessus. (C'est la raison pour laquelle il existe un type de périphérique spécifique "contrôleur compatible VGA" dans PCI. De telles manigances sont impossibles pour les autres types de périphériques PCI, ce qui explique pourquoi les cartes son PCI ont tant de mal à assurer la compatibilité avec les programmes écrits pour les cartes son ISA). Un bus plus rapide et/ou une mémoire vidéo plus rapide conduisent immédiatement à de meilleures performances dans les programmes intensifs en vidéo parce que le logiciel n'a pas besoin de faire attention à la façon dont il accède à la mémoire vidéo (sauf sur CGA, et sur toutes les plates-formes avec une synchronisation verticale des blancs s'il se soucie du déchirement). Ainsi, ``REP MOVSW`` ou ``REP MOVSD``` sans attente dans le logiciel, une fois que le programme décide d'écrire une image, est parfaitement correct, et ira de plus en plus vite au fur et à mesure que le matériel sous-jacent s'améliorera. Sur les plates-formes où cela ne peut pas fonctionner au niveau matériel (par exemple sur un 8088 avec une carte VGA), le matériel s'occupe des spécificités - par exemple sur un 8088, l'unité de bus divise les accès 16 bits. Votre question est spécifique à DOOM, mais d'autres jeux DOS sont dans une situation similaire. Les jeux ultérieurs avaient tendance à s'appuyer sur le VBE (souvent en utilisant UniVBE) pour accéder aux modes vidéo au-delà de ceux fournis par VGA, mais ils n'utilisaient généralement rien d'autre que la configuration du mode vidéo et du framebuffer (voir aussi Y a-t-il des jeux DOS (ou des logiciels) connus pour utiliser le VBE/AF ?), de sorte que l'amélioration de la vitesse vidéo provenait principalement de l'augmentation de la vitesse du bus, d'une mémoire vidéo plus rapide et de l'augmentation de la vitesse des cartes elles-mêmes (ce qui était déjà un facteur à l'époque de l'ISA, comparez la plupart des cartes Trident aux cartes Tseng par exemple). Pour une excellente explication des subtilités de la programmation VGA et de la disposition de la mémoire, voir la série Game Engine Black Book de Fabien Sanglard. La boucle de mise à jour de DOOM est présentée à la page 185 du livre DOOM ; elle n'utilise pas de langage assembleur (contrairement au moteur de rendu, voir les pages 290 et suivantes), mais elle présente une caractéristique peut-être surprenante compte tenu de la nature 32 bits du code : Les mises à jour VGA sont effectuées 16 bits à la fois. La section 2.3 du même livre, pages 59 et suivantes, décrit certaines des améliorations apportées aux adaptateurs VGA à l'époque de la sortie de DOOM, en particulier le passage au bus local VESA sur les 486. Le tableau des performances de la page 287 montre l'importance de ce bus.
In che modo i giochi DOS come DOOM traggono vantaggio da una scheda grafica PCI?
DOOM stesso non fa nulla di speciale per trarre vantaggio dalle schede grafiche PCI. Funziona più velocemente con le schede grafiche PCI (e con le schede VLB, AGP e PCI Express) che con le schede grafiche ISA perché il bus di supporto è più veloce, quindi le letture e le scritture nella memoria video richiedono meno tempo. Il PCI si impegna a fondo per preservare la compatibilità con le schede VGA basate su ISA, fornendo il supporto per gli adattatori "VGA compatibili" in modo che possano apparire in memoria nelle stesse posizioni e utilizzare le stesse porte di I/O delle schede VGA ISA. In questo modo, gli accessi ai registri VGA e al buffer VGA (a 0xA0000) vanno direttamente all'adattatore PCI VGA compatibile principale del sistema, senza che sia necessario modificare il sistema operativo o i programmi in esecuzione su di esso. (Questo è il motivo per cui nel PCI esiste un tipo di dispositivo specifico "controller compatibile VGA". Questo è il motivo per cui esiste un tipo di dispositivo specifico "controller compatibile con VGA" nel PCI, mentre non è possibile per altri tipi di dispositivi nel PCI.) Un bus più veloce e/o una memoria video più veloce portano immediatamente a prestazioni più elevate nei programmi ad alta intensità video, perché il software non deve fare attenzione a come accede alla memoria video (tranne che su CGA, e su tutte le piattaforme con sincronizzazione verticale del bianco se si preoccupa del tearing). Quindi ```REP MOVSW`` o ```REP MOVSD`` senza attesa nel software, una volta che il programma decide di scrivere un fotogramma, va benissimo e sarà sempre più veloce man mano che l'hardware sottostante migliora. Sulle piattaforme in cui questo non può funzionare in hardware (ad esempio su un 8088 con una scheda VGA), l'hardware si occupa delle specifiche - ad esempio su un 8088 l'unità bus divide gli accessi a 16 bit. La domanda è specifica per DOOM, ma altri giochi DOS si trovano in una situazione simile. I giochi successivi tendevano ad affidarsi al VBE (spesso utilizzando UniVBE) per accedere alle modalità video oltre a quelle fornite dalla VGA, ma per lo più non utilizzavano nulla al di là dell'impostazione della modalità video e della configurazione del framebuffer (vedi anche C'è qualche gioco (o software) DOS che utilizzava il VBE/AF?), quindi la velocità video migliorata derivava principalmente dall'aumento della velocità del bus, da una memoria video più veloce e dall'aumento della velocità delle schede stesse (che era già un fattore nell'era ISA, si confronti ad esempio la maggior parte delle schede Trident con le schede Tseng). Per un'eccellente spiegazione delle complessità della programmazione della VGA e del suo layout di memoria, si veda la serie Game Engine Black Book di Fabien Sanglard. Il ciclo di aggiornamento di DOOM è mostrato a pagina 185 del libro di DOOM; non utilizza alcun linguaggio assembly (a differenza del renderer, vedi pagg. 290 e seguenti), ma ha una caratteristica forse sorprendente data la natura a 32 bit del codice: Gli aggiornamenti della VGA vengono eseguiti 16 bit alla volta. La sezione 2.3 dello stesso libro, alle pagine 59 e seguenti, descrive alcuni dei miglioramenti apportati agli adattatori VGA nel periodo in cui DOOM è stato rilasciato, in particolare il passaggio al VESA Local Bus sui 486. La tabella dei benchmark a pagina 287 mostra l'importanza del bus.
11
I need to be able to open a document using its default application in Windows and Mac OS. Basically, I want to do the same thing that happens when you double-click on the document icon in Explorer or Finder. What is the best way to do this in Python?
```open``` and ```start``` are command-interpreter things for Mac OS/X and Windows respectively, to do this. To call them from Python, you can either use ```subprocess``` module or ```os.system()```. Here are considerations on which package to use: * You can call them via ```os.system```, which works, but... Escaping: ```os.system``` only works with filenames that don't have any spaces or other shell metacharacters in the pathname (e.g. ```A:\abc\def\a.txt```), or else these need to be escaped. There is ```shlex.quote``` for Unix-like systems, but nothing really standard for Windows. Maybe see also python, windows : parsing command lines with shlex * MacOS/X: ```os.system("open " + shlex.quote(filename))``` * Windows: ```os.system("start " + filename)``` where properly speaking ```filename``` should be escaped, too. * You can also call them via ```subprocess``` module, but... For Python 2.7 and newer, simply use ```subprocess.check_call(['open', filename]) ``` In Python 3.5+ you can equivalently use the slightly more complex but also somewhat more versatile ```subprocess.run(['open', filename], check=True) ``` If you need to be compatible all the way back to Python 2.4, you can use ```subprocess.call()``` and implement your own error checking: ```try: retcode = subprocess.call("open " + filename, shell=True) if retcode < 0: print >>sys.stderr, "Child was terminated by signal", -retcode else: print >>sys.stderr, "Child returned", retcode except OSError, e: print >>sys.stderr, "Execution failed:", e ``` Now, what are the advantages of using ```subprocess```? * Security: In theory, this is more secure, but in fact we're needing to execute a command line one way or the other; in either environment, we need the environment and services to interpret, get paths, and so forth. In neither case are we executing arbitrary text, so it doesn't have an inherent "but you can type ```'filename ; rm -rf /'```" problem, and if the file name can be corrupted, using ```subprocess.call``` gives us little additional protection. * Error handling: It doesn't actually give us any more error detection, we're still depending on the ```retcode``` in either case; but the behavior to explicitly raise an exception in the case of an error will certainly help you notice if there is a failure (though in some scenarios, a traceback might not at all be more helpful than simply ignoring the error). * Spawns a (non-blocking) subprocess: We don't need to wait for the child process, since we're by problem statement starting a separate process. To the objection "But ```subprocess``` is preferred." However, ```os.system()``` is not deprecated, and it's in some sense the simplest tool for this particular job. Conclusion: using ```os.system()``` is therefore also a correct answer. A marked disadvantage is that the Windows ```start``` command requires you to pass in ```shell=True``` which negates most of the benefits of using ```subprocess```.
Ich muss in der Lage sein, ein Dokument mit seiner Standardanwendung in Windows und Mac OS zu öffnen. Im Grunde möchte ich dasselbe tun, was passiert, wenn man im Explorer oder Finder auf das Dokumentensymbol doppelklickt. Wie kann ich das am besten in Python erreichen?
```open``` und ```start`` sind Befehlsinterpreter für Mac OS/X bzw. Windows, um dies zu tun. Um sie von Python aus aufzurufen, kann man entweder das ```subprocess`` Modul oder ```os.system()``` verwenden. Hier sind Überlegungen dazu, welches Paket man verwenden sollte: * Sie können sie über ```os.system`` aufrufen, was funktioniert, aber... Ausweichen: ```os.system``` funktioniert nur mit Dateinamen, die keine Leerzeichen oder andere Shell-Metacharaktere im Pfadnamen enthalten (z.B. ``A:\abc\def\a.txt``), oder diese müssen escaped werden. Es gibt ```shlex.quote`` für Unix-ähnliche Systeme, aber nichts wirklich standardisiertes für Windows. Siehe vielleicht auch python, windows : parsing command lines with shlex * MacOS/X: ```os.system("open " + shlex.quote(filename))``` * Windows: ```os.system("start " + dateiname)```, wobei ```dateiname`` eigentlich auch escaped werden sollte. * Man kann sie auch über das ```subprocess`` Modul aufrufen, aber... Für Python 2.7 und neuer, verwenden Sie einfach ```subprocess.check_call(['open', filename]) ``` In Python 3.5+ können Sie das etwas komplexere, aber auch etwas vielseitigere ```subprocess.run(['open', Dateiname], check=True) ``` Wenn Sie bis zurück zu Python 2.4 kompatibel sein wollen, können Sie ```subprocess.call()```` verwenden und Ihre eigene Fehlerprüfung implementieren: ```Versuch: retcode = subprocess.call("open " + filename, shell=True) wenn retcode < 0: print >>sys.stderr, "Kind wurde durch Signal beendet", -retcode sonst: print >>sys.stderr, "Kind kehrte zurück", retcode except OSError, e: print >>sys.stderr, "Execution failed:", e ``` Was sind nun die Vorteile der Verwendung von ```subprocess```? * Sicherheit: Theoretisch ist dies sicherer, aber in Wirklichkeit muessen wir so oder so eine Befehlszeile ausfuehren; in beiden Faellen benoetigen wir die Umgebung und die Dienste, um zu interpretieren, Pfade zu erhalten und so weiter. In keinem der beiden Fälle führen wir einen beliebigen Text aus, so dass es kein inhärentes "aber Sie können ```'Dateiname ; rm -rf /'```"-Problem gibt, und wenn der Dateiname beschädigt werden kann, gibt uns die Verwendung von ```subprocess.call``` wenig zusätzlichen Schutz. * Fehlerbehandlung: Es gibt uns nicht wirklich mehr Fehlererkennung, wir sind in jedem Fall immer noch vom ```Retcode`` abhängig; aber das Verhalten, im Falle eines Fehlers explizit eine Exception auszulösen, wird Ihnen sicherlich helfen, zu bemerken, wenn es einen Fehler gibt (obwohl in einigen Szenarien ein Traceback nicht unbedingt hilfreicher ist, als den Fehler einfach zu ignorieren). * Erzeugt einen (nicht-blockierenden) Unterprozess: Wir brauchen nicht auf den Kindprozess zu warten, da wir aufgrund der Problemstellung einen separaten Prozess starten. Auf den Einwand "Aber ```subprocess``` ist vorzuziehen." Jedoch ist ````os.system()``` nicht veraltet, und es ist in gewisser Weise das einfachste Werkzeug für diese spezielle Aufgabe. Fazit: Die Verwendung von ```os.system()``` ist daher auch eine richtige Antwort. Ein deutlicher Nachteil ist, dass der Windows ```Start``-Befehl die Übergabe von ```Shell=True`` erfordert, was die meisten Vorteile der Verwendung von ```Subprocess`` zunichte macht.
Necesito poder abrir un documento utilizando su aplicación por defecto en Windows y Mac OS. Básicamente, quiero hacer lo mismo que ocurre al hacer doble clic en el icono del documento en el Explorador o el Finder. ¿Cuál es la mejor manera de hacer esto en Python?
```open`` y ```start`` son intérpretes de comandos para Mac OS/X y Windows respectivamente, para hacer esto. Para llamarlos desde Python, puedes usar el módulo ```subprocess`` o ```os.system()```. Aquí tienes consideraciones sobre qué paquete usar: * Puedes llamarlos a través de ```os.system``, que funciona, pero... Escapando: ```os.system`` sólo funciona con nombres de fichero que no tengan espacios u otros metacaracteres del shell en la ruta (por ejemplo ```A:\abc\def\a.txt``), o si no, éstos necesitan ser escapados. Existe ```shlex.quote`` para sistemas tipo Unix, pero no hay nada realmente estándar para Windows. Quizás vea también python, windows : parseando líneas de comando con shlex * MacOS/X: ```os.system("open " + shlex.quote(filename))``` * Windows: ```os.system("start " + filename)``` donde correctamente hablando ```filename`` debería ser escapado también. * También puedes llamarlos a través del módulo ```subprocess``, pero... Para Python 2.7 y posteriores, simplemente usa ```subprocess.check_call(['open', filename]) ``` En Python 3.5+ puedes utilizar de forma equivalente el método ligeramente más complejo pero también algo más versátil ```subprocess.run(['open', filename], check=True) ``` Si necesitas ser compatible con Python 2.4, puedes usar ```subprocess.call()`` e implementar tu propia comprobación de errores: ```intentar: retcode = subprocess.call("open " + filename, shell=True) si retcode < 0: print >>sys.stderr, "Child was terminated by signal", -retcode si no: print >>sys.stderr, "Child returned", retcode except OSError, e: print >>sys.stderr, "Error de ejecución:", e ``` Ahora, ¿cuáles son las ventajas de usar ``subproceso``? * Seguridad: En teoría, esto es más seguro, pero de hecho estamos necesitando ejecutar una línea de comandos de una forma u otra; en cualquiera de los dos entornos, necesitamos el entorno y los servicios para interpretar, obtener rutas, etc. En ninguno de los dos casos estamos ejecutando texto arbitrario, por lo que no tiene un problema inherente "pero puedes escribir ```'nombrearchivo ; rm -rf /'```", y si el nombre del archivo puede estar corrupto, usar ```subprocess.call`` nos da poca protección adicional. * Manejo de errores: En realidad no nos da más detección de errores, seguimos dependiendo del ``retcode`` en cualquier caso; pero el comportamiento de lanzar explícitamente una excepción en caso de error ciertamente te ayudará a notar si hay un fallo (aunque en algunos escenarios, un traceback puede no ser en absoluto más útil que simplemente ignorar el error). * Crea un subproceso (no bloqueante): No necesitamos esperar al proceso hijo, ya que estamos iniciando un proceso separado. A la objeción "Pero ``subproceso`` es preferible". Sin embargo, ```os.system()`` no está obsoleto, y es en cierto sentido la herramienta más simple para este trabajo en particular. Conclusión: usar ```os.system()`` es por tanto también una respuesta correcta. Una desventaja marcada es que el comando ```start`` de Windows requiere que le pases ```shell=True`` lo que anula la mayoría de los beneficios de usar ```subprocess``.
J'ai besoin de pouvoir ouvrir un document en utilisant son application par défaut dans Windows et Mac OS. En fait, je veux faire la même chose que lorsque vous double-cliquez sur l'icône du document dans l'Explorateur ou le Finder. Quelle est la meilleure façon de faire cela en Python ?
``open`` et ``start`` sont des interpréteurs de commandes pour Mac OS/X et Windows respectivement. Pour les appeler depuis Python, vous pouvez utiliser le module ``subprocess`` ou ``os.system()``. Voici quelques considérations sur le paquetage à utiliser : * Vous pouvez les appeler via ``os.system``, ce qui fonctionne, mais... L'échappement : ``os.system`` ne fonctionne qu'avec des noms de fichiers qui n'ont pas d'espaces ou d'autres métacaractères du shell dans le chemin (par exemple ``A:abc\def\a.txt``), ou alors ils doivent être échappés. Il existe ``shlex.quote`` pour les systèmes de type Unix, mais rien de vraiment standard pour Windows. Voir aussi python, windows : analyser les lignes de commande avec shlex * MacOS/X : ``os.system("open " + shlex.quote(filename))``` * Windows : ``os.system("start " + filename)`` où, à proprement parler, ``filename`` devrait aussi être échappé. * Vous pouvez aussi les appeler via le module ``subprocess``, mais... Pour Python 2.7 et les versions plus récentes, utilisez simplement ```subprocess.check_call(['open', filename]) ``` En Python 3.5+, vous pouvez utiliser de manière équivalente la méthode un peu plus complexe mais aussi un peu plus polyvalente ```subprocess.run(['open', filename], check=True) ``` Si vous avez besoin d'être compatible avec Python 2.4, vous pouvez utiliser ``subprocess.call()`` et implémenter votre propre vérification d'erreur : ``try : retcode = subprocess.call("open " + filename, shell=True) if retcode < 0 : print >>sys.stderr, "Child was terminated by signal", -retcode else : print >>sys.stderr, "L'enfant est revenu", retcode except OSError, e : print >>sys.stderr, "L'exécution a échoué :", e ``` Maintenant, quels sont les avantages de l'utilisation de ``subprocess`` ? * Sécurité : En théorie, c'est plus sûr, mais en fait nous avons besoin d'exécuter une ligne de commande d'une manière ou d'une autre ; dans les deux cas, nous avons besoin de l'environnement et des services pour interpréter, obtenir des chemins, et ainsi de suite. Dans les deux cas, nous exécutons du texte arbitraire, donc il n'y a pas de problème inhérent "mais vous pouvez taper ``'nom de fichier ; rm -rf /'``", et si le nom de fichier peut être corrompu, utiliser ``subprocess.call`` nous donne peu de protection supplémentaire. * La gestion des erreurs : Cela ne nous donne pas plus de détection d'erreur, nous dépendons toujours du ``retcode`` dans les deux cas ; mais le comportement de lever explicitement une exception dans le cas d'une erreur vous aidera certainement à remarquer s'il y a un échec (bien que dans certains scénarios, un traceback pourrait ne pas être plus utile que d'ignorer simplement l'erreur). * Lance un sous-processus (non bloquant) : Nous n'avons pas besoin d'attendre le processus enfant, puisque nous lançons un processus distinct. A l'objection "Mais ``subprocess`` est préférable." Cependant, ``os.system()`` n'est pas déprécié, et c'est en quelque sorte l'outil le plus simple pour ce travail particulier. Conclusion : utiliser ``os.system()`` est donc aussi une réponse correcte. Un désavantage marqué est que la commande Windows ``start`` requiert que vous passiez ``shell=True`` ce qui annule la plupart des bénéfices de l'utilisation de ``subprocess``.
Devo poter aprire un documento utilizzando la sua applicazione predefinita in Windows e Mac OS. In pratica, voglio fare la stessa cosa che accade quando si fa doppio clic sull'icona del documento in Explorer o nel Finder. Qual è il modo migliore per farlo in Python?
```open`` e ```start`` sono degli interpreti di comandi per Mac OS/X e Windows, rispettivamente, per fare questo. Per chiamarli da Python, si può usare il modulo ``subprocess`` o ```os.system()``. Ecco alcune considerazioni su quale pacchetto utilizzare: * È possibile chiamarli tramite ``os.system``, il che funziona, ma... Evadere: ```os.system`` funziona solo con nomi di file che non hanno spazi o altri metacaratteri di shell nel nome del percorso (ad esempio ```A:\abc\def.txt``), altrimenti questi devono essere evitati. Esiste ```shlex.quote`` per i sistemi Unix-like, ma non c'è nulla di veramente standard per Windows. Forse vedere anche python, windows: analizzare le righe di comando con shlex * MacOS/X: ```os.system("open " + shlex.quote(filename))``` * Windows: ```os.system("start " + filename)``` dove, correttamente parlando, anche ```filename`` dovrebbe essere evitato. * Si possono anche chiamare tramite il modulo ``subprocess``, ma... Per Python 2.7 e successivi, è sufficiente usare ``subprocess.check_call(['open', filename]) ``` In Python 3.5+ è possibile utilizzare in modo equivalente il metodo leggermente più complesso ma anche più versatile ``subprocess.run(['open', filename], check=True) ``` Se volete essere compatibili fino a Python 2.4, potete usare ``subprocess.call()`` e implementare il vostro controllo degli errori: ``prova: retcode = subprocess.call("open " + filename, shell=True) se retcode < 0: print >>sys.stderr, "Il bambino è stato terminato da un segnale", -retcode altrimenti: print >>sys.stderr, "Il bambino è tornato", retcode except OSError, e: print >>sys.stderr, "Esecuzione fallita:", e ``` Ora, quali sono i vantaggi dell'uso di ``subprocess``? * Sicurezza: In teoria, questo è più sicuro, ma in realtà abbiamo bisogno di eseguire una riga di comando in un modo o nell'altro; in entrambi gli ambienti, abbiamo bisogno dell'ambiente e dei servizi per interpretare, ottenere percorsi e così via. In nessuno dei due casi stiamo eseguendo del testo arbitrario, quindi non c'è il problema "ma si può digitare ```nome file ; rm -rf /'````", e se il nome del file può essere corrotto, l'uso di ``subprocess.call`` ci dà poca protezione aggiuntiva. * Gestione degli errori: In realtà non ci fornisce alcun rilevamento di errore in più, dipendiamo ancora dal ``retcode`` in entrambi i casi; ma il comportamento di sollevare esplicitamente un'eccezione in caso di errore aiuterà certamente a notare se c'è un fallimento (anche se in alcuni scenari, un traceback potrebbe non essere affatto più utile che ignorare semplicemente l'errore). * Avvia un sottoprocesso (non bloccante): Non è necessario attendere il processo figlio, poiché il problema è avviare un processo separato. All'obiezione "Ma ``subprocesso'' è preferibile". Tuttavia, ```os.system()`` non è deprecato e in un certo senso è lo strumento più semplice per questo particolare lavoro. Conclusione: l'uso di ```os.system()`` è quindi una risposta corretta. Uno svantaggio evidente è che il comando ```start`` di Windows richiede di passare ```shell=True``, il che annulla la maggior parte dei vantaggi dell'uso di ``subprocess``.
12
Why does PRC devalue its currency on purpose, but Turkey is worried about the devaluation of its currency?
Trade surplus/deficit Devaluing one's currency means mostly one thing: It becomes more expensive to import products from abroad, while one's own products become comparably cheaper to buy on the world market. That means a country which exports lots of goods wants to devalue their currency while a country which imports lots of goods does not. In 2016, Turkey imported goods worth US $186 billion and exported goods worth US $156 billion. That means they had a trade deficit of 19%. However, China only imported goods worth US $1.23 trillion and exported goods worth US $2.27 trillion in 2016. That means they had a trade surplus of 84%. Which is why China wants to devalue their currency while Turkey does not. Debt management Another reason to devalue one's currency is that it reduces any debts denoted in that currency. If a country has a problem of too much public and private debt, then an easy way to get rid of it is to cause a hyperinflation. China happens to have a debt-to-gdp ratio of 47.6% while Turkey only has one of 28.3%. When you look at the private debt (debt of private citizens and companies in the country), you see the same picture. Private debit in Turkey was 170% of GDP, while China's is rumored to be over 300%. Which is why reducing debt through causing inflation seems more attractive to China than to Turkey. Foreign investor relations So why don't all countries get rid of their debt by adding a few zeroes to their bank notes? Because inflating your currency is a surefire way to drive away any foreign investors. Nobody will invest money into your country when that money might be worth nothing in a few years. Investors want stable currencies. Again, we observe the same difference in motivation between Turkey and China here. Turkey is actively inviting foreign investors, but China is quite reluctant to allow foreign economic influence in their country.
Warum wertet die VR China ihre Währung absichtlich ab, aber die Türkei ist besorgt über die Abwertung ihrer Währung?
Handelsüberschuss/-defizit Eine Abwertung der eigenen Währung bedeutet vor allem eines: Es wird teurer, Produkte aus dem Ausland zu importieren, während die eigenen Produkte auf dem Weltmarkt vergleichsweise billiger zu haben sind. Das bedeutet, dass ein Land, das viele Waren exportiert, seine Währung abwerten möchte, während ein Land, das viele Waren importiert, dies nicht tut. Im Jahr 2016 importierte die Türkei Waren im Wert von 186 Milliarden US-Dollar und exportierte Waren im Wert von 156 Milliarden US-Dollar. Das bedeutet, dass sie ein Handelsdefizit von 19 % hatte. China hingegen importierte 2016 nur Waren im Wert von 1,23 Billionen US-Dollar und exportierte Waren im Wert von 2,27 Billionen US-Dollar. Das bedeutet, dass das Land einen Handelsüberschuss von 84 % hatte. Aus diesem Grund will China seine Währung abwerten, die Türkei hingegen nicht. Schuldenmanagement Ein weiterer Grund für die Abwertung einer Währung ist der Abbau von Schulden, die in dieser Währung ausgewiesen sind. Wenn ein Land ein Problem mit zu hoher öffentlicher und privater Verschuldung hat, dann ist eine Hyperinflation ein einfacher Weg, diese loszuwerden. In China beträgt das Verhältnis zwischen Schulden und BIP 47,6 %, in der Türkei dagegen nur 28,3 %. Betrachtet man die private Verschuldung (Schulden von Privatpersonen und Unternehmen im Land), so ergibt sich das gleiche Bild. Die private Verschuldung in der Türkei lag bei 170 % des BIP, während die chinesische Verschuldung Gerüchten zufolge bei über 300 % liegt. Deshalb scheint der Schuldenabbau durch Inflation für China attraktiver zu sein als für die Türkei. Beziehungen zu ausländischen Investoren Warum also werden nicht alle Länder ihre Schulden los, indem sie ein paar Nullen auf ihre Banknoten setzen? Weil die Aufblähung der eigenen Währung ein todsicherer Weg ist, um ausländische Investoren zu vertreiben. Niemand wird Geld in seinem Land investieren, wenn dieses Geld in ein paar Jahren nichts mehr wert sein könnte. Investoren wollen stabile Währungen. Auch hier ist der gleiche Motivationsunterschied zwischen der Türkei und China zu beobachten. Die Türkei lädt aktiv ausländische Investoren ein, aber China ist ziemlich zurückhaltend, wenn es darum geht, ausländischen wirtschaftlichen Einfluss in seinem Land zuzulassen.
¿Por qué la RPC devalúa su moneda a propósito, pero Turquía está preocupada por la devaluación de su moneda?
Superávit/déficit comercial Devaluar la moneda significa sobre todo una cosa: resulta más caro importar productos del extranjero, mientras que los productos propios son comparativamente más baratos en el mercado mundial. Eso significa que un país que exporta muchos bienes quiere devaluar su moneda, mientras que un país que importa muchos bienes no. En 2016, Turquía importó bienes por valor de 186.000 millones de dólares y exportó bienes por valor de 156.000 millones de dólares. Esto significa que tuvo un déficit comercial del 19%. Sin embargo, China solo importó bienes por valor de 1,23 billones de dólares y exportó bienes por valor de 2,27 billones de dólares en 2016. Esto significa que tuvo un superávit comercial del 84%. Por eso China quiere devaluar su moneda, mientras que Turquía no. Gestión de la deuda Otra razón para devaluar la moneda de uno es que reduce cualquier deuda denotada en esa moneda. Si un país tiene un problema de demasiada deuda pública y privada, una forma fácil de deshacerse de ella es provocar una hiperinflación. Resulta que China tiene una relación deuda/PIB del 47,6%, mientras que Turquía sólo tiene una del 28,3%. Si nos fijamos en la deuda privada (deuda de los ciudadanos particulares y las empresas del país), vemos el mismo panorama. La deuda privada en Turquía era del 170% del PIB, mientras que se rumorea que la de China supera el 300%. Por eso, reducir la deuda provocando inflación parece más atractivo para China que para Turquía. Relaciones con los inversores extranjeros Entonces, ¿por qué no todos los países se deshacen de su deuda añadiendo unos cuantos ceros a sus billetes? Porque inflar tu moneda es una forma segura de ahuyentar a cualquier inversor extranjero. Nadie invertirá dinero en tu país cuando ese dinero puede no valer nada dentro de unos años. Los inversores quieren monedas estables. De nuevo, observamos aquí la misma diferencia de motivación entre Turquía y China. Turquía invita activamente a los inversores extranjeros, pero China es bastante reacia a permitir la influencia económica extranjera en su país.
Pourquoi la RPC dévalue-t-elle volontairement sa monnaie, alors que la Turquie s'inquiète de la dévaluation de sa monnaie ?
Excédent/déficit commercial Dévaluer sa monnaie signifie principalement une chose : il devient plus coûteux d'importer des produits de l'étranger, tandis que ses propres produits deviennent comparativement moins chers à acheter sur le marché mondial. Cela signifie qu'un pays qui exporte beaucoup de marchandises souhaite dévaluer sa monnaie, alors qu'un pays qui importe beaucoup de marchandises ne le souhaite pas. En 2016, la Turquie a importé des biens d'une valeur de 186 milliards de dollars américains et exporté des biens d'une valeur de 156 milliards de dollars américains. Cela signifie qu'elle a enregistré un déficit commercial de 19 %. En revanche, la Chine n'a importé que des biens d'une valeur de 1,23 billion de dollars américains et exporté des biens d'une valeur de 2,27 billions de dollars américains en 2016. Cela signifie qu'elle a enregistré un excédent commercial de 84 %. C'est pourquoi la Chine souhaite dévaluer sa monnaie, alors que la Turquie ne le souhaite pas. Gestion de la dette Une autre raison de dévaluer sa monnaie est qu'elle permet de réduire les dettes exprimées dans cette monnaie. Si un pays a un problème d'endettement public et privé trop important, un moyen facile de s'en débarrasser est de provoquer une hyperinflation. Il se trouve que la Chine a un ratio dette/pib de 47,6 %, tandis que la Turquie n'en a qu'un de 28,3 %. Si l'on considère la dette privée (celle des particuliers et des entreprises du pays), le tableau est le même. La dette privée en Turquie représentait 170 % du PIB, alors que celle de la Chine serait supérieure à 300 %. C'est pourquoi réduire la dette en provoquant de l'inflation semble plus intéressant pour la Chine que pour la Turquie. Relations avec les investisseurs étrangers Pourquoi tous les pays ne se débarrassent-ils pas de leur dette en ajoutant quelques zéros à leurs billets de banque ? Parce que gonfler sa monnaie est un moyen infaillible de faire fuir les investisseurs étrangers. Personne n'investira de l'argent dans votre pays si cet argent risque de ne plus rien valoir dans quelques années. Les investisseurs veulent des monnaies stables. Ici aussi, nous observons la même différence de motivation entre la Turquie et la Chine. La Turquie invite activement les investisseurs étrangers, alors que la Chine est très réticente à l'idée d'autoriser une influence économique étrangère dans son pays.
Perché la RPC svaluta di proposito la sua moneta, ma la Turchia è preoccupata per la svalutazione della sua moneta?
Surplus/deficit commerciale Svalutare la propria moneta significa soprattutto una cosa: diventa più costoso importare prodotti dall'estero, mentre i propri prodotti diventano comparabilmente più economici da acquistare sul mercato mondiale. Ciò significa che un Paese che esporta molti beni vuole svalutare la propria moneta, mentre un Paese che importa molti beni non vuole farlo. Nel 2016, la Turchia ha importato beni per un valore di 186 miliardi di dollari e ne ha esportati per 156 miliardi. Ciò significa che il deficit commerciale è stato del 19%. La Cina, invece, nel 2016 ha importato merci per un valore di 1,23 trilioni di dollari ed esportato merci per un valore di 2,27 trilioni di dollari. Ciò significa che ha registrato un surplus commerciale dell'84%. Ecco perché la Cina vuole svalutare la propria moneta, mentre la Turchia no. Gestione del debito Un'altra ragione per svalutare la propria moneta è la riduzione dei debiti espressi in tale valuta. Se un Paese ha un problema di eccessivo debito pubblico e privato, un modo semplice per liberarsene è quello di provocare un'iperinflazione. Si dà il caso che la Cina abbia un rapporto debito/PIL del 47,6%, mentre la Turchia ne ha solo uno del 28,3%. Se si guarda al debito privato (debito dei privati cittadini e delle aziende del Paese), si vede lo stesso quadro. Il debito privato in Turchia era pari al 170% del PIL, mentre si dice che quello della Cina sia superiore al 300%. Ecco perché la riduzione del debito attraverso l'inflazione sembra più interessante per la Cina che per la Turchia. Relazioni con gli investitori stranieri Allora perché tutti i Paesi non si liberano del loro debito aggiungendo qualche zero alle loro banconote? Perché inflazionare la valuta è un modo sicuro per allontanare gli investitori stranieri. Nessuno investirà denaro nel vostro Paese se quel denaro potrebbe non valere nulla tra qualche anno. Gli investitori vogliono valute stabili. Anche in questo caso, osserviamo la stessa differenza di motivazioni tra Turchia e Cina. La Turchia invita attivamente gli investitori stranieri, mentre la Cina è piuttosto riluttante a consentire l'influenza economica straniera nel proprio Paese.
13
Is it worth patenting an algorithm if I don't have the money to defend against infringements?
This is a great question, with no one right answer. The strength of a patent comes from the ability to enforce it. If the patent owner cannot enforce it for whatever reason (such as a lack of funding), the patent is effectively toothless. But your competitors will likely not know that. They may therefore be dissuaded from infringing simply by the existence of a patent and the assumption that you would sue. Such a chilling effect on competition may be valuable to you. In addition, if there is infringement, you may be able to get a licensing agreement without the need for litigation. This can be a very lucrative business model, and so may justify the cost of patenting. And if litigation seems likely, there is a nascent field of litigation funding. While your funders will take quite a great deal of the damages, you may at least get something out of the end of it. Finally, even if you can't sue, someone else could. You might therefore get quite some value from selling it off at some point. There are a number of tech businesses where most of their value comes from their IP portfolio. On the whole therefore it depends how you see yourself proceeding. If you're unsure, it may pay to err on the side of patenting: once you disclose or use your invention publicly, you're generally barred from patenting it later (but for a short grace period in some countries), whereas it's easy to abandon a patent (or application) later down the track if you wish.
Lohnt es sich, einen Algorithmus zu patentieren, wenn ich nicht das Geld habe, um mich gegen Rechtsverletzungen zu wehren?
Das ist eine gute Frage, auf die es keine einzig richtige Antwort gibt. Die Stärke eines Patents ergibt sich aus der Fähigkeit, es durchzusetzen. Wenn der Patentinhaber es aus irgendeinem Grund nicht durchsetzen kann (z. B. wegen fehlender finanzieller Mittel), ist das Patent praktisch zahnlos. Aber Ihre Konkurrenten werden das wahrscheinlich nicht wissen. Sie könnten daher allein durch das Vorhandensein eines Patents und die Annahme, dass Sie klagen würden, davon abgehalten werden, das Patent zu verletzen. Eine solche abschreckende Wirkung auf den Wettbewerb kann für Sie wertvoll sein. Darüber hinaus können Sie im Falle einer Patentverletzung möglicherweise eine Lizenzvereinbarung abschließen, ohne dass ein Rechtsstreit erforderlich ist. Dies kann ein sehr lukratives Geschäftsmodell sein, das die Kosten für eine Patentanmeldung rechtfertigen kann. Und wenn ein Rechtsstreit wahrscheinlich ist, gibt es ein neu entstehendes Feld für die Finanzierung von Rechtsstreitigkeiten. Auch wenn Ihre Geldgeber einen großen Teil des Schadensersatzes übernehmen werden, können Sie am Ende zumindest etwas davon haben. Und selbst wenn Sie nicht klagen können, könnte es jemand anderes tun. Sie könnten also einen gewissen Wert aus dem Verkauf des Unternehmens ziehen. Es gibt eine Reihe von Technologieunternehmen, bei denen der größte Teil ihres Wertes aus ihrem IP-Portfolio stammt. Im Großen und Ganzen hängt es also davon ab, wie Sie selbst vorgehen wollen. Wenn Sie sich nicht sicher sind, kann es sich lohnen, sich auf die Seite der Patentierung zu schlagen: Sobald Sie Ihre Erfindung öffentlich offenlegen oder benutzen, können Sie sie in der Regel später nicht mehr patentieren (in einigen Ländern gibt es jedoch eine kurze Schonfrist), wohingegen Sie ein Patent (oder eine Anmeldung) später leicht wieder aufgeben können, wenn Sie dies wünschen.
¿Merece la pena patentar un algoritmo si no tengo dinero para defenderme de las infracciones?
Esta es una gran pregunta, sin una respuesta correcta. La fuerza de una patente radica en la capacidad de hacerla valer. Si el titular de la patente no puede hacerla valer por el motivo que sea (como la falta de financiación), la patente carece efectivamente de valor. Pero es probable que sus competidores no lo sepan. Por lo tanto, pueden verse disuadidos de infringir simplemente por la existencia de una patente y la suposición de que usted la demandaría. Este efecto disuasorio sobre la competencia puede ser valioso para usted. Además, si se produce una infracción, es posible que pueda obtener un acuerdo de licencia sin necesidad de litigar. Este puede ser un modelo de negocio muy lucrativo, por lo que puede justificar el coste de la patente. Y si el litigio parece probable, existe un campo incipiente de financiación de litigios. Aunque sus financiadores se harán cargo de gran parte de los daños y perjuicios, puede que al menos obtenga algo al final. Por último, aunque usted no pueda demandar, otra persona podría hacerlo. Por lo tanto, podrías obtener bastante valor vendiéndola en algún momento. Hay una serie de empresas tecnológicas en las que la mayor parte de su valor procede de su cartera de propiedad intelectual. En general, por tanto, depende de cómo se vea a sí mismo. Si no está seguro, puede que le compense errar por el lado de las patentes: una vez que divulga o utiliza públicamente su invención, por lo general se le prohíbe patentarla posteriormente (aunque en algunos países existe un breve período de gracia), mientras que es fácil abandonar una patente (o solicitud) más adelante si así lo desea.
Cela vaut-il la peine de breveter un algorithme si je n'ai pas les moyens de me défendre contre les infractions ?
C'est une excellente question, à laquelle il n'y a pas de bonne réponse. La force d'un brevet vient de la capacité à le faire respecter. Si le titulaire du brevet ne peut pas le faire respecter pour une raison quelconque (par exemple, un manque de financement), le brevet est en fait édenté. Mais vos concurrents ne le sauront probablement pas. Ils peuvent donc être dissuadés d'enfreindre la loi simplement par l'existence d'un brevet et l'hypothèse que vous intenteriez une action en justice. Cet effet dissuasif sur la concurrence peut être précieux pour vous. En outre, en cas de contrefaçon, vous pouvez être en mesure d'obtenir un accord de licence sans qu'il soit nécessaire d'engager une procédure judiciaire. Il peut s'agir d'un modèle commercial très lucratif, qui peut justifier le coût du brevet. Et si un litige semble probable, il existe un domaine naissant, celui du financement des litiges. Même si vos bailleurs de fonds prendront en charge une grande partie des dommages et intérêts, vous pourrez au moins obtenir quelque chose à la fin de l'affaire. Enfin, même si vous ne pouvez pas intenter de procès, quelqu'un d'autre pourrait le faire. Vous pourriez donc obtenir une certaine valeur en vendant votre entreprise à un moment ou à un autre. Dans un certain nombre d'entreprises technologiques, l'essentiel de la valeur provient de leur portefeuille de propriété intellectuelle. Dans l'ensemble, tout dépend donc de la manière dont vous envisagez de procéder. Si vous n'êtes pas sûr de vous, il peut être intéressant de privilégier le brevet : une fois que vous avez divulgué ou utilisé votre invention publiquement, il vous est généralement interdit de la breveter par la suite (sauf pendant une courte période de grâce dans certains pays), alors qu'il est facile d'abandonner un brevet (ou une demande) plus tard si vous le souhaitez.
Vale la pena brevettare un algoritmo se non ho i soldi per difendermi dalle violazioni?
Questa è una grande domanda, che non ha una risposta giusta. La forza di un brevetto deriva dalla capacità di farlo rispettare. Se il titolare del brevetto non è in grado di farlo rispettare per qualsiasi motivo (ad esempio per mancanza di fondi), il brevetto è di fatto privo di valore. Ma i vostri concorrenti probabilmente non lo sanno. Potrebbero quindi essere dissuasi dall'infrazione semplicemente dall'esistenza di un brevetto e dall'ipotesi che voi facciate causa. Un simile effetto di dissuasione della concorrenza può essere prezioso per voi. Inoltre, in caso di violazione, potreste essere in grado di ottenere un accordo di licenza senza dover ricorrere al contenzioso. Questo può essere un modello di business molto redditizio, che può giustificare il costo del brevetto. Se il contenzioso sembra probabile, esiste un campo nascente di finanziamento del contenzioso. Anche se i finanziatori si prenderanno gran parte dei danni, potreste almeno ricavarne qualcosa. Infine, anche se non potete fare causa, qualcun altro potrebbe farlo. Potreste quindi ricavare un discreto valore dalla vendita del prodotto. Ci sono molte aziende tecnologiche il cui valore deriva in gran parte dal loro portafoglio di proprietà intellettuale. Nel complesso, quindi, dipende da come vi vedete procedere. Se non siete sicuri, potrebbe convenire optare per il brevetto: una volta divulgata o utilizzata pubblicamente la vostra invenzione, in genere vi è preclusa la possibilità di brevettarla in seguito (ma in alcuni Paesi è previsto un breve periodo di tolleranza), mentre è facile abbandonare un brevetto (o una domanda) in un secondo momento, se lo desiderate.
14
"I have a ```String[]``` with values like so: ```public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""}; ``` Given ```String s```, is there a good way of testing whether ```VALUES``` contains ```s```?" How do I determine whether an array contains a particular value in Java?
Four Different Ways to Check If an Array Contains a Value: * Using ```List```: ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue); } ``` * Using ```Set```: ```public static boolean useSet(String[] arr, String targetValue) { Set set = new HashSet(Arrays.asList(arr)); return set.contains(targetValue); } ``` * Using a simple loop: ```public static boolean useLoop(String[] arr, String targetValue) { for (String s: arr) { if (s.equals(targetValue)) return true; } return false; } ``` * Using ```Arrays.binarySearch()```: The code below is wrong, it is listed here for completeness. ```binarySearch()``` can ONLY be used on sorted arrays. You will find the result is weird below. This is the best option when array is sorted. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0; } ``` Quick Example: ```String testValue="test"; String newValueNotInList="newValue"; String[] valueArray = { "this", "is", "java" , "test" }; Arrays.asList(valueArray).contains(testValue); // returns true Arrays.asList(valueArray).contains(newValueNotInList); // returns false ```
"Ich habe einen ```String[]`` mit Werten wie diesen: ```public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""}; ``` Gibt es bei einem ````String s``` eine gute Möglichkeit zu testen, ob ```VALUES``` ````` enthält?" Wie kann ich in Java feststellen, ob ein Array einen bestimmten Wert enthält?
Vier verschiedene Möglichkeiten zu prüfen, ob ein Array einen Wert enthält: * Verwendung von ```List```: ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue); } ``` * Verwendung von ```Set```: ```public static boolean useSet(String[] arr, String targetValue) { Menge set = new HashSet(Arrays.asList(arr)); return set.contains(targetValue); } ``` * Verwendung einer einfachen Schleife: ```public static boolean useLoop(String[] arr, String targetValue) { for (String s: arr) { if (s.equals(targetValue)) return true; } return false; } ``` * Verwendung von ```Arrays.binarySearch()```: Der folgende Code ist falsch, er wird hier nur der Vollständigkeit halber aufgeführt. ````binarySearch()``` kann NUR auf sortierte Arrays angewendet werden. Sie werden feststellen, dass das Ergebnis unten seltsam ist. Dies ist die beste Option, wenn das Array sortiert ist. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0; } ``` Schnelles Beispiel: ```String testValue="test"; String newValueNotInList="newValue"; String[] valueArray = { "this", "is", "java" , "test" }; Arrays.asList(valueArray).contains(testValue); // liefert true Arrays.asList(valueArray).contains(newValueNotInList); // gibt false zurück ```
"Tengo una ```String[]`` con valores como los siguientes: ```public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""}; ``` Dada una ``Cadena s``, ¿hay alguna forma de comprobar si ``VALORES`` contiene ```s``?" ¿Cómo puedo determinar si un array contiene un valor concreto en Java?
Cuatro formas diferentes de comprobar si una matriz contiene un valor: * Usando ```List``: ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue); } ``` * Usando ```Set``: ```public static boolean useSet(String[] arr, String targetValue) { Set set = new HashSet(Arrays.asList(arr)); return set.contains(targetValue); } ``` * Usando un bucle simple: ```public static boolean useLoop(String[] arr, String targetValue) { for (String s: arr) { if (s.equals(targetValue)) return true; } return false; } ``` * Usando ```Arrays.binarySearch()``: El código de abajo es incorrecto, se enumera aquí para completar. ```binarySearch()`` SOLO puede usarse en arrays ordenados. Verás que el resultado es raro. Esta es la mejor opción cuando el array está ordenado. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0; } ``` Ejemplo rápido: ```String pruebaValor="prueba"; String nuevoValorNoEnLista="nuevoValor"; String[] valueArray = { "this", "is", "java" , "test" }; Arrays.asList(valueArray).contains(testValue); // devuelve verdadero Arrays.asList(valorMatriz).contains(nuevoValorNoEnLista); // devuelve false ```
"J'ai une ``chaîne[]`` avec des valeurs comme suit : ```public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""} ; ``` Étant donné ``String s``, existe-t-il un bon moyen de tester si ``VALUES`` contient ``s`` ?" Comment déterminer si un tableau contient une valeur particulière en Java ?
Quatre façons différentes de vérifier si un tableau contient une valeur : * En utilisant ``List`` : ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue) ; } ``` * Utilisation de ``Set`` : ```public static boolean useSet(String[] arr, String targetValue) { Set set = new HashSet(Arrays.asList(arr)) ; return set.contains(targetValue) ; } ``` * Utilisation d'une simple boucle : ```public static boolean useLoop(String[] arr, String targetValue) { for (String s : arr) { if (s.equals(targetValue)) return true ; } return false ; } ``` * Utilisation de ``Arrays.binarySearch()`` : Le code ci-dessous est erroné, il est listé ici pour être complet. ``binarySearch()`` ne peut être utilisé que sur des tableaux triés. Vous verrez que le résultat est bizarre ci-dessous. C'est la meilleure option lorsque le tableau est trié. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0 ; } ``` Exemple rapide : ```String testValue="test" ; String newValueNotInList="newValue" ; String[] valueArray = { "this", "is", "java" , "test" } ; Arrays.asList(valueArray).contains(testValue) ; // renvoie vrai Arrays.asList(valueArray).contains(newValueNotInList) ; // retourne false ```
"Ho una ```Stringa[]`` con valori come questi: ``public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""}; ``` Data una ``stringa s```, esiste un buon modo per verificare se ```VALORI`` contiene ```s```?" Come si determina se un array contiene un particolare valore in Java?
Quattro modi diversi per verificare se una matrice contiene un valore: * Utilizzando ```List``: ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue); } ``` * Utilizzo di ```Set``: ```public static boolean useSet(String[] arr, String targetValue) { Set = new HashSet(Arrays.asList(arr)); return set.contains(targetValue); } ``` * Utilizzando un semplice ciclo: ```public static boolean useLoop(String[] arr, String targetValue) { for (String s: arr) { if (s.equals(targetValue)) restituisce true; } return false; } ``` * Utilizzo di ``Arrays.binarySearch()```: Il codice sottostante è errato, ma è riportato qui per completezza. ```binarySearch()`` può essere usato SOLO su array ordinati. Il risultato è strano. Questa è l'opzione migliore quando l'array è ordinato. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0; } ``` Esempio rapido: ```Stringa testValue="test"; String newValueNotInList="newValue"; String[] valueArray = { "this", "is", "java" , "test" }; Arrays.asList(valueArray).contains(testValue); // restituisce true Arrays.asList(valueArray).contains(newValueNotInList); // restituisce false ```
15
Does Java casting introduce overhead? Or the compiler just resolves everything and there is no cost at run time? Is this a general things, or there are different cases?
There are 2 types of casting in Java: Implicit casting, when you cast from a type to a wider type, which is done automatically and there is no overhead: ```String s = "Cast"; Object o = s; // implicit casting ``` Explicit casting, when you go from a wider type to a more narrow one. For this case, you must explicitly use casting like that: ```Object o = someObject; String s = (String) o; // explicit casting ``` In this second case, there is overhead in runtime, because the two types must be checked and in case that casting is not feasible, JVM must throw a ClassCastException. Taken from JavaWorld: The cost of casting > Casting is used to convert between types -- between reference types in particular, for the type of casting operation in which we're interested here. Upcast operations (also called widening conversions in the Java Language Specification) convert a subclass reference to an ancestor class reference. This casting operation is normally automatic, since it's always safe and can be implemented directly by the compiler. Downcast operations (also called narrowing conversions in the Java Language Specification) convert an ancestor class reference to a subclass reference. This casting operation creates execution overhead, since Java requires that the cast be checked at runtime to make sure that it's valid. If the referenced object is not an instance of either the target type for the cast or a subclass of that type, the attempted cast is not permitted and must throw a java.lang.ClassCastException.
Entsteht beim Java-Casting ein Overhead? Oder löst der Compiler einfach alles auf und es entstehen keine Kosten zur Laufzeit? Ist dies eine allgemeine Sache, oder gibt es verschiedene Fälle?
In Java gibt es 2 Arten von Casting: Implizites Casting, wenn Sie von einem Typ zu einem weiteren Typ casten, was automatisch geschieht und keinen Overhead verursacht: ```String s = "Cast"; Object o = s; // implizites Casting ``` Explizites Casting, wenn Sie von einem breiteren Typ zu einem engeren Typ wechseln. In diesem Fall müssen Sie das Casting explizit so verwenden: ```Object o = someObject; String s = (String) o; // explizites Casting ``` In diesem zweiten Fall kommt es zu einem Mehraufwand zur Laufzeit, da die beiden Typen überprüft werden müssen und die JVM eine ClassCastException auslösen muss, falls das Casting nicht durchführbar ist. Entnommen aus JavaWorld: Die Kosten des Castings > Casting wird verwendet, um zwischen Typen zu konvertieren - insbesondere zwischen Referenztypen, für die Art von Casting-Operation, an der wir hier interessiert sind. Upcast-Operationen (in der Java Language Specification auch Widening Conversions genannt) konvertieren eine Unterklassenreferenz in eine Vorgängerklassenreferenz. Diese Casting-Operation erfolgt normalerweise automatisch, da sie immer sicher ist und direkt vom Compiler implementiert werden kann. Downcast-Operationen (in der Java Language Specification auch "Narrowing Conversions" genannt) konvertieren eine Referenz einer Vorgängerklasse in eine Referenz einer Unterklasse. Diese Casting-Operation verursacht einen Ausführungsaufwand, da Java verlangt, dass der Cast zur Laufzeit überprüft wird, um sicherzustellen, dass er gültig ist. Wenn das referenzierte Objekt weder eine Instanz des Zieltyps für den Cast noch eine Unterklasse dieses Typs ist, ist der Cast-Versuch nicht zulässig und muss eine java.lang.ClassCastException auslösen.
¿Introduce el casting de Java sobrecarga? ¿O el compilador simplemente lo resuelve todo y no hay ningún coste en tiempo de ejecución? ¿Se trata de algo general, o hay casos diferentes?
Hay 2 tipos de casting en Java: Casting implícito, cuando se hace un casting de un tipo a otro más amplio, lo que se hace automáticamente y no hay sobrecarga: ```Cadena s = "Cast"; Object o = s; // Casting implícito ``` Casting explícito, cuando se pasa de un tipo más ancho a otro más estrecho. Para este caso, debes usar explícitamente el casting así: ```Objeto o = algúnObjeto; String s = (String) o; // casting explícito ``` En este segundo caso, hay sobrecarga en tiempo de ejecución, porque los dos tipos deben ser comprobados y en caso de que el casting no sea factible, JVM debe lanzar una ClassCastException. Tomado de JavaWorld: El coste del casting > Casting se utiliza para convertir entre tipos -- entre tipos de referencia en particular, para el tipo de operación de casting en la que estamos interesados aquí. Las operaciones de Upcast (también llamadas conversiones de ampliación en la Especificación del Lenguaje Java) convierten una referencia de subclase a una referencia de clase ancestral. Esta operación de casting es normalmente automática, ya que siempre es segura y puede ser implementada directamente por el compilador. Las operaciones de downcast (también llamadas conversiones de estrechamiento en la Especificación del Lenguaje Java) convierten una referencia de clase antecesora en una referencia de subclase. Esta operación crea una sobrecarga de ejecución, ya que Java requiere que la conversión se compruebe en tiempo de ejecución para asegurarse de que es válida. Si el objeto referenciado no es una instancia del tipo de destino de la conversión o una subclase de ese tipo, el intento de conversión no está permitido y debe lanzar una java.lang.ClassCastException.
Le casting Java introduit-il des frais généraux ? Ou bien le compilateur résout tout et il n'y a pas de coût à l'exécution ? S'agit-il d'une question générale ou existe-t-il des cas différents ?
Il existe deux types de distribution en Java : Le casting implicite, lorsque vous effectuez un casting d'un type vers un type plus large, ce qui est fait automatiquement et n'entraîne pas de surcharge : ```Chaîne de caractères s = "Cast" ; Object o = s ; // casting implicite ``` Le casting explicite, lorsque vous passez d'un type plus large à un type plus étroit. Dans ce cas, vous devez utiliser explicitement le casting comme ceci : ```Objet o = someObject ; String s = (String) o ; // explicit casting ``` Dans ce deuxième cas, il y a un surcoût à l'exécution, car les deux types doivent être vérifiés et, si le casting n'est pas possible, la JVM doit lancer une ClassCastException. Tiré de JavaWorld : Le coût du casting > Le casting est utilisé pour convertir entre les types - entre les types de référence en particulier, pour le type d'opération de casting qui nous intéresse ici. Les opérations d'upcast (également appelées conversions d'élargissement dans la spécification du langage Java) convertissent une référence de sous-classe en une référence de classe ancêtre. Cette opération de fonte est normalement automatique, car elle est toujours sûre et peut être mise en œuvre directement par le compilateur. Les opérations de downcast (également appelées conversions narrowing dans la spécification du langage Java) convertissent une référence de classe ancêtre en une référence de sous-classe. Cette opération de fonte crée une surcharge d'exécution, puisque Java exige que la fonte soit vérifiée au moment de l'exécution pour s'assurer qu'elle est valide. Si l'objet référencé n'est pas une instance du type cible de la conversion ou d'une sous-classe de ce type, la tentative de conversion n'est pas autorisée et doit provoquer une exception java.lang.ClassCastException.
Il casting Java introduce un overhead? Oppure il compilatore risolve tutto e non c'è alcun costo in fase di esecuzione? È una cosa generale o ci sono casi diversi?
In Java esistono due tipi di casting: Casting implicito, quando si esegue il cast da un tipo a un tipo più ampio, che viene eseguito automaticamente e non comporta alcun overhead: ```Stringa s = "Cast"; Oggetto o = s; // casting implicito ``` Cast esplicito, quando si passa da un tipo più ampio a uno più stretto. In questo caso, si deve usare esplicitamente il casting in questo modo: ```Oggetto o = someObject; String s = (String) o; // casting esplicito ``` In questo secondo caso, c'è un overhead nel runtime, perché i due tipi devono essere controllati e nel caso in cui il casting non sia fattibile, la JVM deve lanciare una ClassCastException. Tratto da JavaWorld: Il costo del casting > Il casting viene utilizzato per convertire tra tipi, in particolare tra tipi di riferimento, per il tipo di operazione di casting che ci interessa qui. Le operazioni di upcast (chiamate anche conversioni di ampliamento nelle specifiche del linguaggio Java) convertono un riferimento a una sottoclasse in un riferimento a una classe antenata. Questa operazione di casting è normalmente automatica, poiché è sempre sicura e può essere implementata direttamente dal compilatore. Le operazioni di downcast (chiamate anche conversioni di restringimento nelle specifiche del linguaggio Java) convertono un riferimento a una classe antenata in un riferimento a una sottoclasse. Questa operazione di casting crea un overhead di esecuzione, poiché Java richiede che il cast sia controllato in fase di esecuzione per assicurarsi che sia valido. Se l'oggetto referenziato non è un'istanza del tipo di destinazione del cast o di una sottoclasse di quel tipo, il tentativo di cast non è consentito e deve essere lanciata una java.lang.ClassCastException.
16
How can I copy a string (e.g "hello") to the System Clipboard in C#, so next time I press CTRL+V I'll get "hello"?
There are two classes that lives in different assemblies and different namespaces. * WinForms: use following namespace declaration, make sure ```Main``` is marked with ```[STAThread]``` attribute: ```using System.Windows.Forms; ``` * WPF: use following namespace declaration ```using System.Windows; ``` * console: add reference to ```System.Windows.Forms```, use following namespace declaration, make sure ```Main``` is marked with ```[STAThread]``` attribute. Step-by-step guide in another answer ```using System.Windows.Forms; ``` To copy an exact string (literal in this case): ```Clipboard.SetText("Hello, clipboard"); ``` To copy the contents of a textbox either use TextBox.Copy() or get text first and then set clipboard value: ```Clipboard.SetText(txtClipboard.Text); ``` See here for an example. Or... Official MSDN documentation or Here for WPF. Remarks: * Clipboard is desktop UI concept, trying to set it in server side code like ASP.Net will only set value on the server and has no impact on what user can see in they browser. While linked answer lets one to run Clipboard access code server side with ```SetApartmentState``` it is unlikely what you want to achieve. * If after following information in this question code still gets an exception see &quot;Current thread must be set to single thread apartment (STA)&quot; error in copy string to clipboard * This question/answer covers regular .NET, for .NET Core see - .Net Core - copy to clipboard?
Wie kann ich eine Zeichenfolge (z. B. "hallo") in die System-Zwischenablage in C# kopieren, so dass das nächste Mal, wenn ich STRG+V drücke ich "hallo" erhalten wird?
Es gibt zwei Klassen, die in verschiedenen Assemblies und verschiedenen Namespaces leben. * WinForms: Verwenden Sie die folgende Namespace-Deklaration, stellen Sie sicher, dass ```Main`` mit dem ```[STAThread]```-Attribut markiert ist: ,,System.Windows.Forms'' verwenden; ``` * WPF: Verwenden Sie die folgende Namespace-Deklaration ```` Verwenden von System.Windows; ``` * Konsole: Verweis auf ```System.Windows.Forms`` hinzufügen, folgende Namespace-Deklaration verwenden, sicherstellen, dass ```Main`` mit ```[STAThread]```-Attribut markiert ist. Schritt-für-Schritt-Anleitung in einer anderen Antwort ````Verwendung von System.Windows.Forms; ``` Um eine exakte Zeichenkette (in diesem Fall ein Literal) zu kopieren: ```Clipboard.SetText("Hallo, Zwischenablage"); ``` Um den Inhalt eines Textfeldes zu kopieren, verwenden Sie entweder TextBox.Copy() oder holen Sie zuerst den Text und setzen dann den Wert in der Zwischenablage: ````Zwischenablage.SetText(txtZwischenablage.Text); ``` Siehe hier für ein Beispiel. Oder... Offizielle MSDN-Dokumentation oder hier für WPF. Bemerkungen: * Die Zwischenablage ist ein Desktop UI Konzept, der Versuch, es in serverseitigem Code wie ASP.Net zu setzen, wird nur den Wert auf dem Server setzen und hat keinen Einfluss auf das, was der Benutzer im Browser sehen kann. Während die verlinkte Antwort es erlaubt, den Code für den Zugriff auf die Zwischenablage serverseitig mit ```SetApartmentState`` auszuführen, ist es unwahrscheinlich, was Sie erreichen wollen. * Wenn nach den folgenden Informationen in dieser Frage der Code immer noch eine Ausnahme erhält, siehe &quot;Current thread must be set to single thread apartment (STA)&quot; Fehler beim Kopieren von Strings in die Zwischenablage * Diese Frage/Antwort deckt reguläres .NET ab, für .NET Core siehe - .Net Core - in die Zwischenablage kopieren?
¿Cómo puedo copiar una cadena (por ejemplo, "hola") en el Portapapeles del Sistema en C#, para que la próxima vez que pulse CTRL+V me aparezca "hola"?
Hay dos clases que viven en diferentes asambleas y diferentes espacios de nombres. * WinForms: utiliza la siguiente declaración de namespace, asegúrate de que ```Main`` está marcado con el atributo ```[STAThread]```: ```usando System.Windows.Forms; ``` * WPF: utilice la siguiente declaración de espacio de nombres utilizando System.Windows; ``` * console: añada una referencia a ```System.Windows.Forms``, utilice la siguiente declaración de namespace, asegúrese de que ```Main`` está marcado con el atributo ```[STAThread]```. Guía paso a paso en otra respuesta ``utilizando System.Windows.Forms; ``` Para copiar una cadena exacta (literal en este caso): ```Clipboard.SetText("Hola, portapapeles"); ``` Para copiar el contenido de un cuadro de texto se puede utilizar TextBox.Copy() o bien obtener primero el texto y luego establecer el valor del portapapeles: ```Clipboard.SetText(txtClipboard.Text); ``` Mira aquí un ejemplo. O... Documentación oficial de MSDN o Aquí para WPF. Observaciones: * El portapapeles es un concepto de interfaz de usuario de escritorio, tratar de establecerlo en el código del lado del servidor como ASP.Net sólo establecerá el valor en el servidor y no tiene ningún impacto en lo que el usuario puede ver en su navegador. Aunque la respuesta enlazada permite ejecutar código de acceso al Portapapeles en el lado del servidor con ```SetApartmentState``, es poco probable que sea lo que quieres conseguir. * Si después de seguir la información en esta pregunta el código todavía obtiene una excepción ver &quot;Current thread must be set to single thread apartment (STA)&quot; error in copy string to clipboard * Esta pregunta/respuesta cubre .NET regular, para .NET Core ver - .Net Core - ¿copiar al portapapeles?
Comment copier une chaîne de caractères (par exemple "hello") dans le presse-papiers système en C#, de sorte que la prochaine fois que j'appuierai sur CTRL+V, j'obtiendrai "hello" ?
Il y a deux classes qui vivent dans des assemblages différents et dans des espaces de noms différents. * WinForms : utilisez la déclaration d'espace de noms suivante, assurez-vous que ``Main`` est marqué avec l'attribut ``[STAThread]`` : ``utilisant System.Windows.Forms ; ``` * WPF : utiliser la déclaration d'espace de noms suivante ``utilisant System.Windows ; ``` * console : ajouter une référence à ``System.Windows.Forms``, utiliser la déclaration d'espace de noms suivante, s'assurer que ``Main`` est marqué avec l'attribut ``[STAThread]``. Guide étape par étape dans une autre réponse ```Utilisant System.Windows.Forms ; ``` Pour copier une chaîne exacte (littérale dans ce cas) : ```Clipboard.SetText("Bonjour, presse-papiers") ; ``` Pour copier le contenu d'une zone de texte, utilisez TextBox.Copy() ou récupérez d'abord le texte, puis définissez la valeur du presse-papiers : ```Clipboard.SetText(txtClipboard.Text) ; ``` Voir ici pour un exemple. Ou bien... Documentation officielle MSDN ou ici pour WPF. Remarques : * Le presse-papiers est un concept d'interface utilisateur de bureau, essayer de le définir dans un code côté serveur comme ASP.Net ne définira que la valeur sur le serveur et n'aura aucun impact sur ce que l'utilisateur peut voir dans son navigateur. Bien que la réponse liée permette d'exécuter le code d'accès au presse-papiers côté serveur avec ``SetApartmentState``, il est peu probable que cela corresponde à ce que vous voulez obtenir. * Si après avoir suivi les informations de cette question, le code obtient toujours une exception, voir &quot;Current thread must be set to single thread apartment (STA)&quot ; erreur dans la copie de la chaîne dans le presse-papiers * Cette question/réponse couvre la version normale de .NET, pour .NET Core voir - .Net Core - copier dans le presse-papiers ?
Come si può copiare una stringa (ad esempio "hello") negli Appunti di sistema in C#, in modo che la prossima volta che si preme CTRL+V si ottenga "hello"?
Ci sono due classi che vivono in assiemi diversi e in spazi dei nomi diversi. * WinForms: utilizzare la seguente dichiarazione del namespace, assicurandosi che ```Main`` sia contrassegnato dall'attributo ```[STAThread]``: ``utilizzando System.Windows.Forms; ``` * WPF: utilizzare la seguente dichiarazione dello spazio dei nomi ```utilizzando System.Windows; ``` * Console: aggiungere un riferimento a ```System.Windows.Forms``, utilizzare la seguente dichiarazione di namespace, assicurarsi che ```Main`` sia contrassegnato dall'attributo ```[STAThread]``. Guida passo-passo in un'altra risposta ``utilizzando System.Windows.Forms; ``` Per copiare una stringa esatta (letterale in questo caso): ```Clipboard.SetText("Ciao, appunti"); ``` Per copiare il contenuto di una casella di testo, utilizzare TextBox.Copy() o ottenere prima il testo e poi impostare il valore degli appunti: ```Clipboard.SetText(txtClipboard.Text); ``` Vedere qui per un esempio. Oppure... Documentazione ufficiale MSDN o Qui per WPF. Osservazioni: * Gli appunti sono un concetto dell'interfaccia utente del desktop; se si tenta di impostarli in codice lato server come ASP.Net, il valore viene impostato solo sul server e non ha alcun impatto su ciò che l'utente può vedere nel browser. Sebbene la risposta collegata consenta di eseguire il codice di accesso agli Appunti lato server con ```SetApartmentState``, è improbabile che si voglia raggiungere l'obiettivo. * Se dopo aver seguito le informazioni contenute in questa domanda il codice ottiene ancora un'eccezione, si veda &quot;Current thread must be set to single thread apartment (STA)&quot; errore nella copia della stringa negli appunti. * Questa domanda/risposta riguarda il normale .NET, per .NET Core vedere - .Net Core - copy to clipboard?
17
I want to put a draft watermark using the below script but the problem is that the watermark don't come over the images and I want it to come over it. ```\usepackage{draftwatermark} \SetWatermarkText{DRAFT} \SetWatermarkScale{1} ```
The problem is that the ```draftwatermark``` places the material in the background, so other elements (for example, figures and listings) might cover the included material; to prevent this, instead of using the ```draftwatermark``` package, you can use the ```xwatermark``` package; the starred variant of ```\newwatermark``` places the material in the foreground which seems to be what you need. A little example: First, with the unstarred variant (material on the background, so a figure will be placed on top of it): ```\documentclass{article} \usepackage[printwatermark]{xwatermark} \usepackage{xcolor} \usepackage{graphicx} \usepackage{lipsum} \newwatermark[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{document} \lipsum[1-2] \begin{figure}[!ht] \centering \includegraphics[width=3cm]{example-image-a} \end{figure} \lipsum[1-2] \end{document} ``` And now, with the starred variant (material on the foreground, so it will appear on top of figures): ```\documentclass{article} \usepackage[printwatermark]{xwatermark} \usepackage{xcolor} \usepackage{graphicx} \usepackage{lipsum} \newwatermark*[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{document} \lipsum[1-2] \begin{figure}[!ht] \centering \includegraphics[width=3cm]{example-image-a} \end{figure} \lipsum[1-2] \end{document} ```
Ich möchte mit dem unten stehenden Skript ein Entwurfswasserzeichen einfügen, aber das Problem ist, dass das Wasserzeichen nicht über die Bilder kommt, und ich möchte, dass es über die Bilder kommt. ``\usepackage{draftwatermark} \SetWatermarkText{DRAFT} \SetWatermarkScale{1} ```
Das Problem ist, daß ```draftwatermark`` das Material in den Hintergrund stellt, so daß andere Elemente (z.B. Abbildungen und Auflistungen) das enthaltene Material verdecken könnten; um dies zu verhindern, können Sie statt des ```draftwatermark``-Pakets das ```xwatermark``-Paket verwenden; die mit einem Stern versehene Variante von ```newwatermark`` stellt das Material in den Vordergrund, was genau das zu sein scheint, was Sie brauchen. Ein kleines Beispiel: Zuerst mit der unstarred Variante (Material im Hintergrund, so dass eine Figur darauf platziert wird): ```\documentclass{article} \usepackage[printwatermark]{xwatermark} \usepackage{xcolor} \usepackage{graphicx} \usepackage{lipsum} \newwatermark[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{document} \lipsum[1-2] \begin{figure}[!ht] \centering \includegraphics[width=3cm]{beispiel-bild-a} \end{figure} \lipsum[1-2] \end{document} ``` Und nun die Variante mit dem Sternchen (Material im Vordergrund, damit es über den Abbildungen erscheint): ```\documentclass{article} \usepackage[printwatermark]{xwatermark} \usepackage{xcolor} \usepackage{graphicx} \usepackage{lipsum} \newwatermark*[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{document} \lipsum[1-2] \begin{figure}[!ht] \centering \includegraphics[width=3cm]{beispiel-bild-a} \end{figure} \lipsum[1-2] \end{document} ```
Quiero poner una marca de agua de borrador usando el siguiente script pero el problema es que la marca de agua no viene sobre las imagenes y yo quiero que venga sobre ellas. ```usepackage {marca de agua} \Establecer marca de agua Texto Dibujo \SetWatermarkScale{1} ```
El problema es que ```draftwatermark`` coloca el material en segundo plano, por lo que otros elementos (por ejemplo, figuras y listados) podrían tapar el material incluido; para evitarlo, en lugar de usar el paquete ```draftwatermark``, puedes usar el paquete ```xwatermark``; la variante estrellada de ```newwatermark`` coloca el material en primer plano, que parece ser lo que necesitas. Un pequeño ejemplo: Primero, con la variante no estrellada (material en segundo plano, por lo que se colocará una figura encima): ```documentclass{article} \usepackage[printwatermark]{xwatermark} \Usepackage {xcolor} \Usepackage {graphicx} \usepackage{lipsum} \{newwatermark[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{documento} \lipsum[1-2] \begin{figura}[!ht] \centrado \includegraphics[width=3cm]{ejemplo-imagen-a} \fin{figura} \lipsum[1-2] \end{documento} ``` Y ahora, con la variante estrellada (material en primer plano, por lo que aparecerá encima de las figuras): ```documentclass{article} \usepackage[printwatermark]{xwatermark} \Usepackage {xcolor} \Usepackage {graphicx} \usepackage{lipsum} \{newwatermark*[allpages,color=rojo!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{documento} \lipsum[1-2] \begin{figura}[!ht] \centrado \includegraphics[width=3cm]{ejemplo-imagen-a} \fin{figura} \lipsum[1-2] \end{documento} ```
Je veux mettre un filigrane en utilisant le script ci-dessous mais le problème est que le filigrane ne vient pas sur les images et je veux qu'il vienne sur elles. ``"\N-usepackage{draftwatermark} \SetWatermarkText{DRAFT} \SetWatermarkScale{1} ```
Le problème est que le ``draftwatermark`` place le matériel en arrière-plan, de sorte que d'autres éléments (par exemple, les figures et les listes) peuvent couvrir le matériel inclus ; pour éviter cela, au lieu d'utiliser le paquet ``draftwatermark``, vous pouvez utiliser le paquet ``xwatermark`` ; la variante étoilée du ``nouveauwatermark`` place le matériel au premier plan, ce qui semble correspondre à ce dont vous avez besoin. Un petit exemple : D'abord, avec la variante non étoilée (le matériau est à l'arrière-plan, de sorte qu'une figure sera placée au-dessus) : ``"\documentclass{article} \usepackage[printwatermark]{xwatermark} \usepackage{xcolor} \usepackage{graphicx} \usepackage{lipsum} \newwatermark[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{document} \lipsum[1-2] \begin{figure}[!ht] \centering \includegraphics[width=3cm]{example-image-a} \n-end{figure} \n-lipsum[1-2] \n- \n- \n- \n- \n- \n- \n-{document} ``` Et maintenant, avec la variante étoilée (article au premier plan, de sorte qu'il apparaîtra au-dessus des figures) : ``\documentclass{article} \usepackage[printwatermark]{xwatermark} \usepackage{xcolor} \usepackage{graphicx} \usepackage{lipsum} \newwatermark*[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{document} \lipsum[1-2] \begin{figure}[!ht] \centering \includegraphics[width=3cm]{example-image-a} \n-end{figure} \n-lipsum[1-2] \n- \n- \n- \n- \n- \n- \n-{document} ```
Voglio inserire una filigrana di bozza usando lo script seguente, ma il problema è che la filigrana non viene sopra le immagini e io voglio che venga sopra. ``usepackage{draftwatermark} \¿SetWatermarkText{DRAFT} \¿SetWatermarkScale{1} ```
Il problema è che il pacchetto ``draftwatermark`` colloca il materiale sullo sfondo, quindi altri elementi (per esempio, figure ed elenchi) potrebbero coprire il materiale incluso; per evitare questo, invece di usare il pacchetto ``draftwatermark``, si può usare il pacchetto ``xwatermark``; la variante stellata di ```newwatermark`` colloca il materiale in primo piano, il che sembra essere quello che serve. Un piccolo esempio: Per prima cosa, con la variante senza stelle (materiale sullo sfondo, quindi una figura sarà posizionata sopra di esso): ``Documentclass{article} \usepackage[printwatermark]{xwatermark} \usepackage{xcolor} \usepackage{graphicx} \usepackage{lipsum} \newwatermark[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{documento} \lipsum[1-2] \begin{figura}[!ht] \centratura \includegrafica[width=3cm]{esempio-immagine-a} \´fine{figura} \¿lipsum[1-2] \´fine{documento} ``` E ora, con la variante con le stelle (materiale in primo piano, quindi apparirà sopra le figure): ``Documentclass{article} \usepackage[printwatermark]{xwatermark} \usepackage{xcolor} \usepackage{graphicx} \usepackage{lipsum} \newwatermark*[allpages,color=red!50,angle=45,scale=3,xpos=0,ypos=0]{DRAFT} \begin{documento} \lipsum[1-2] \begin{figura}[!ht] \centratura \includegrafica[width=3cm]{esempio-immagine-a} \´fine{figura} \¿lipsum[1-2] \´fine{documento} ```
18
Understanding the Rails Authenticity Token
What is CSRF? The Authenticity Token is a countermeasure to Cross-Site Request Forgery (CSRF). What is CSRF, you ask? It's a way that an attacker can potentially hijack sessions without even knowing session tokens. Scenario: * Visit your bank's site, log in. * Then visit the attacker's site (e.g. sponsored ad from an untrusted organization). * Attacker's page includes form with same fields as the bank's "Transfer Funds" form. * Attacker knows your account info, and has pre-filled form fields to transfer money from your account to attacker's account. * Attacker's page includes Javascript that submits form to your bank. * When form gets submitted, browser includes your cookies for the bank site, including the session token. * Bank transfers money to attacker's account. * The form can be in an iframe that is invisible, so you never know the attack occurred. * This is called Cross-Site Request Forgery (CSRF). CSRF solution: * Server can mark forms that came from the server itself * Every form must contain an additional authentication token as a hidden field. * Token must be unpredictable (attacker can't guess it). * Server provides valid token in forms in its pages. * Server checks token when form posted, rejects forms without proper token. * Example token: session identifier encrypted with server secret key. * Rails automatically generates such tokens: see the authenticity_token input field in every form.
Das Rails-Authentizitäts-Token verstehen
Was ist CSRF? Das Authenticity Token ist eine Gegenmaßnahme zu Cross-Site Request Forgery (CSRF). Was ist CSRF, fragen Sie? Es handelt sich um eine Methode, mit der ein Angreifer potenziell Sitzungen entführen kann, ohne die Sitzungs-Tokens zu kennen. Szenario: * Besuchen Sie die Website Ihrer Bank, melden Sie sich an. * Dann besuchen Sie die Seite des Angreifers (z. B. gesponserte Werbung von einer nicht vertrauenswürdigen Organisation). * Die Seite des Angreifers enthält ein Formular mit denselben Feldern wie das Formular "Überweisung" der Bank. * Der Angreifer kennt Ihre Kontodaten und verfügt über vorausgefüllte Formularfelder, um Geld von Ihrem Konto auf das Konto des Angreifers zu überweisen. * Die Seite des Angreifers enthält Javascript, das das Formular an Ihre Bank sendet. * Wenn das Formular abgeschickt wird, speichert der Browser Ihre Cookies für die Bank-Website, einschließlich des Sitzungs-Tokens. * Die Bank überweist Geld auf das Konto des Angreifers. * Das Formular kann sich in einem unsichtbaren Iframe befinden, so dass Sie den Angriff nicht bemerken. * Dies wird als Cross-Site Request Forgery (CSRF) bezeichnet. CSRF-Lösung: * Der Server kann Formulare markieren, die vom Server selbst stammen. * Jedes Formular muss ein zusätzliches Authentifizierungs-Token als verstecktes Feld enthalten. * Token muss unvorhersehbar sein (Angreifer kann es nicht erraten). * Server stellt gültiges Token in Formularen auf seinen Seiten bereit. * Der Server prüft das Token beim Absenden des Formulars und lehnt Formulare ohne gültiges Token ab. * Beispiel-Token: Sitzungskennung, verschlüsselt mit dem geheimen Schlüssel des Servers. * Rails generiert solche Token automatisch: siehe das authenticity_token Eingabefeld in jedem Formular.
El token de autenticidad de Rails
¿Qué es CSRF? El token de autenticidad es una contramedida contra la falsificación de petición en sitios cruzados (CSRF). ¿Qué es CSRF? Es una forma en la que un atacante puede potencialmente secuestrar sesiones sin siquiera conocer los tokens de sesión. Escenario: * Visita el sitio de tu banco, inicia sesión. * A continuación, visita el sitio del atacante (por ejemplo, un anuncio patrocinado de una organización que no es de confianza). * La página del atacante incluye un formulario con los mismos campos que el formulario de "Transferencia de fondos" del banco. * El atacante conoce la información de su cuenta y ha rellenado previamente los campos del formulario para transferir dinero de su cuenta a la cuenta del atacante. * La página del atacante incluye Javascript que envía el formulario a su banco. * Cuando el formulario es enviado, el navegador incluye sus cookies para el sitio del banco, incluyendo el token de sesión. * El banco transfiere el dinero a la cuenta del atacante. * El formulario puede estar en un iframe que es invisible, por lo que nunca se sabe que el ataque se produjo. * Esto se llama Falsificación de Petición de Sitio Cruzado (CSRF). Solución CSRF: * El servidor puede marcar los formularios que provienen del propio servidor. * Cada formulario debe contener un token de autenticación adicional como campo oculto. * El token debe ser impredecible (el atacante no puede adivinarlo). * El servidor proporciona un token válido en los formularios de sus páginas. * El servidor comprueba el token cuando se publica el formulario y rechaza los formularios sin el token adecuado. * Ejemplo de token: identificador de sesión encriptado con la clave secreta del servidor. * Rails genera automáticamente estos tokens: véase el campo authenticity_token en cada formulario.
Comprendre le jeton d'authenticité de Rails
Qu'est-ce que le CSRF ? Le jeton d'authenticité est une contre-mesure au Cross-Site Request Forgery (CSRF). Qu'est-ce que CSRF ? Il s'agit d'un moyen par lequel un attaquant peut potentiellement détourner des sessions sans même connaître les jetons de session. Scénario : * Vous vous rendez sur le site de votre banque, vous vous connectez. * Vous visitez ensuite le site de l'attaquant (par exemple, une publicité sponsorisée par une organisation non fiable). * La page de l'attaquant contient un formulaire avec les mêmes champs que le formulaire de "transfert de fonds" de la banque. * L'attaquant connaît les informations relatives à votre compte et dispose de champs pré-remplis pour transférer de l'argent de votre compte à celui de l'attaquant. * La page de l'attaquant contient du Javascript qui soumet le formulaire à votre banque. * Lorsque le formulaire est soumis, le navigateur inclut vos cookies pour le site de la banque, y compris le jeton de session. * La banque transfère l'argent sur le compte de l'attaquant. * Le formulaire peut se trouver dans une iframe invisible, de sorte que vous ne saurez jamais que l'attaque a eu lieu. * C'est ce qu'on appelle le Cross-Site Request Forgery (CSRF). Solution CSRF : * Le serveur peut marquer les formulaires qui proviennent du serveur lui-même. * Chaque formulaire doit contenir un jeton d'authentification supplémentaire dans un champ caché. * Le jeton doit être imprévisible (l'attaquant ne peut pas le deviner). * Le serveur fournit un jeton valide dans les formulaires de ses pages. * Le serveur vérifie le jeton lorsque le formulaire est affiché et rejette les formulaires qui ne contiennent pas le jeton approprié. * Exemple de jeton : identifiant de session crypté avec la clé secrète du serveur. * Rails génère automatiquement de tels jetons : voir le champ de saisie authenticity_token dans chaque formulaire.
Capire il token di autenticità di Rails
Che cos'è il CSRF? Il token di autenticità è una contromisura contro la Cross-Site Request Forgery (CSRF). Che cos'è il CSRF, vi chiederete? È un modo in cui un aggressore può potenzialmente dirottare le sessioni senza nemmeno conoscere i token di sessione. Scenario: * Visita il sito della tua banca, accedi. * Poi visitate il sito dell'aggressore (ad esempio un annuncio sponsorizzato da un'organizzazione non attendibile). * La pagina dell'aggressore include un modulo con gli stessi campi del modulo "Trasferimento di fondi" della banca. * L'aggressore conosce i dati del vostro conto e ha campi precompilati per trasferire denaro dal vostro conto a quello dell'aggressore. * La pagina dell'aggressore include un Javascript che invia il modulo alla banca. * Quando il modulo viene inviato, il browser include i cookie del sito della banca, compreso il token di sessione. * La banca trasferisce il denaro al conto dell'aggressore. * Il modulo può trovarsi in un iframe invisibile, in modo che l'utente non si accorga dell'attacco. * Si tratta del cosiddetto Cross-Site Request Forgery (CSRF). Soluzione CSRF: * Il server può contrassegnare i moduli che provengono dal server stesso. * Ogni modulo deve contenere un token di autenticazione aggiuntivo come campo nascosto. * Il token deve essere imprevedibile (l'attaccante non può indovinarlo). * Il server fornisce un token valido nei moduli delle sue pagine. * Il server controlla il token al momento della pubblicazione del modulo, rifiutando i moduli privi di token corretto. * Esempio di token: identificatore di sessione criptato con la chiave segreta del server. * Rails genera automaticamente tali token: si veda il campo di input authenticity_token in ogni modulo.
19
Why is FIFA against adding instant replay to the game?
There are a few fundamental considerations: * Uncertainty is a part of the game. The referee and linesmen are the arbiters of the action. Instant replay would limit their authority. * Football is global. Many places do not have access to the technology necessary to implement instant replay. * Football is a fast-paced game with few opportunities for stoppage. Instant replay would unnecessarily slow the pace. In 2008, FiFA President Sepp Blatter said: "Let it be as it is and let's leave [football] with errors. The television companies will have the right to say [the referee] was right or wrong, but still the referee makes the decision – a man, not a machine." Blatter and others at FIFA have repeatedly argued against using instant replay. But lately, FIFA has begun to come around on the idea. At FIFA's Congress in São Paulo prior to the 2014 World Cup, Blatter proposed allowing managers 2 challenges per game, much like the NFL handles challenges today. Although it's not quite "instant replay," in 2012 FIFA approved two different goal-line technologies to improve referee accuracy: "Hawk-Eye" -- which uses visual triangulation to determine ball location -- and "GoalRef" -- which uses a microchip in the ball and magnetic sensors within goalposts. (Many say FIFA approved the technologies in response to Frank Lampard's snubbed "goal" against Germany in the 2010 World Cup.) In 2013, FIFA announced it would use GoalControl, a German competitor to Hawk-Eye, at the Confederations Cup, basically a rehearsal for the World Cup. After a successful run at that tournament, FIFA announced it would implement GoalControl at the 2014 World Cup. The Guardian provides a pretty helpful FAQ on the technology. FIFA may choose to implement further changes to approved goal-line technology and referee rules when it meets again after the World Cup.
Warum ist die FIFA gegen eine sofortige Wiederholung des Spiels?
Es gibt ein paar grundsätzliche Überlegungen: * Ungewissheit ist Teil des Spiels. Der Schiedsrichter und die Linienrichter sind die Schiedsrichter des Geschehens. Die sofortige Wiederholung würde ihre Autorität einschränken. * Fußball ist global. Viele Orte haben keinen Zugang zu der für eine sofortige Wiederholung erforderlichen Technologie. * Fußball ist ein schnelles Spiel mit wenigen Gelegenheiten zur Unterbrechung. Eine sofortige Wiederholung würde das Tempo unnötig verlangsamen. 2008 sagte FiFA-Präsident Sepp Blatter: "Lassen wir es so sein, wie es ist, und belassen wir [den Fußball] bei Fehlern. Die Fernsehanstalten werden das Recht haben zu sagen, dass [der Schiedsrichter] richtig oder falsch lag, aber die Entscheidung trifft immer noch der Schiedsrichter - ein Mensch, keine Maschine". Blatter und andere FIFA-Mitglieder haben sich wiederholt gegen die sofortige Wiederholung ausgesprochen. Doch in letzter Zeit hat die FIFA begonnen, sich mit der Idee anzufreunden. Auf dem FIFA-Kongress in São Paulo vor der Weltmeisterschaft 2014 schlug Blatter vor, den Managern zwei Anfechtungen pro Spiel zu erlauben, ähnlich wie es die NFL heute handhabt. Obwohl es sich nicht um eine "sofortige Wiederholung" handelt, genehmigte die FIFA 2012 zwei verschiedene Torlinientechnologien, um die Genauigkeit der Schiedsrichter zu verbessern: "Hawk-Eye" - das visuelle Triangulation zur Bestimmung der Ballposition verwendet - und "GoalRef" - das einen Mikrochip im Ball und Magnetsensoren in den Torpfosten verwendet. (Viele sagen, die FIFA habe die Technologien als Reaktion auf das "Tor" von Frank Lampard gegen Deutschland bei der WM 2010 genehmigt). Im Jahr 2013 kündigte die FIFA an, GoalControl, ein deutsches Konkurrenzprodukt zu Hawk-Eye, beim Konföderationen-Pokal einzusetzen, der im Grunde eine Generalprobe für die Weltmeisterschaft ist. Nach einem erfolgreichen Einsatz bei diesem Turnier kündigte die FIFA an, GoalControl bei der Weltmeisterschaft 2014 einzusetzen. Der Guardian bietet eine sehr hilfreiche FAQ zu dieser Technologie. Die FIFA kann weitere Änderungen an der zugelassenen Torlinientechnologie und an den Schiedsrichterregeln vornehmen, wenn sie nach der Weltmeisterschaft erneut zusammentritt.
¿Por qué se opone la FIFA a la repetición instantánea?
Hay algunas consideraciones fundamentales: * La incertidumbre forma parte del juego. El árbitro y los jueces de línea son los árbitros de la acción. La repetición instantánea limitaría su autoridad. * El fútbol es global. Muchos lugares no tienen acceso a la tecnología necesaria para implantar la repetición instantánea. * El fútbol es un juego rápido con pocas oportunidades de interrupción. La repetición instantánea ralentizaría innecesariamente el ritmo. En 2008, el Presidente de la FiFA, Sepp Blatter, declaró: "Dejémoslo como está y dejemos [al fútbol] los errores. Las televisiones tendrán derecho a decir que [el árbitro] tenía razón o no, pero aun así, el árbitro toma la decisión: un hombre, no una máquina". Blatter y otros miembros de la FIFA se han opuesto repetidamente al uso de la repetición instantánea. Pero últimamente, la FIFA ha empezado a cambiar de opinión. En el Congreso de la FIFA celebrado en São Paulo antes de la Copa Mundial de 2014, Blatter propuso que se permitiera a los seleccionadores dos impugnaciones por partido, de forma muy parecida a como la NFL gestiona las impugnaciones en la actualidad. Aunque no se trata de una "repetición instantánea", en 2012 la FIFA aprobó dos tecnologías diferentes en la línea de gol para mejorar la precisión de los árbitros: "Hawk-Eye", que utiliza la triangulación visual para determinar la ubicación del balón, y "GoalRef", que utiliza un microchip en el balón y sensores magnéticos en los postes. (Muchos dicen que la FIFA aprobó estas tecnologías en respuesta al "gol" desairado de Frank Lampard contra Alemania en el Mundial de 2010). En 2013, la FIFA anunció que utilizaría GoalControl, un competidor alemán del Ojo de Halcón, en la Copa Confederaciones, básicamente un ensayo para el Mundial. Tras un exitoso paso por ese torneo, la FIFA anunció que implementaría GoalControl en el Mundial de 2014. The Guardian ofrece un FAQ bastante útil sobre la tecnología. Es posible que la FIFA decida introducir más cambios en la tecnología aprobada para la línea de gol y en las reglas de arbitraje cuando vuelva a reunirse después del Mundial.
Pourquoi la FIFA s'oppose-t-elle à l'introduction de la retransmission instantanée des matches ?
Il y a quelques considérations fondamentales à prendre en compte : * L'incertitude fait partie du jeu. L'arbitre et les juges de ligne sont les arbitres de l'action. La relecture instantanée limiterait leur autorité. * Le football est mondial. De nombreux endroits n'ont pas accès à la technologie nécessaire pour mettre en œuvre la retransmission instantanée. * Le football est un jeu rapide avec peu d'occasions de s'arrêter. La reprise instantanée ralentirait inutilement le rythme. En 2008, le président de la FIFA, Sepp Blatter, a déclaré : "Laissons les choses telles qu'elles sont et laissons [le football] aux erreurs. Les chaînes de télévision auront le droit de dire que [l'arbitre] avait raison ou tort, mais c'est toujours l'arbitre qui prend la décision - un homme, pas une machine". M. Blatter et d'autres membres de la FIFA se sont à maintes reprises opposés à l'utilisation de la retransmission instantanée. Mais récemment, la FIFA a commencé à se rallier à l'idée. Lors du congrès de la FIFA à São Paulo avant la Coupe du monde 2014, M. Blatter a proposé d'autoriser les managers à contester deux fois par match, un peu comme la NFL le fait aujourd'hui. Bien qu'il ne s'agisse pas tout à fait de "relecture instantanée", la FIFA a approuvé en 2012 deux technologies différentes pour améliorer la précision des arbitres sur la ligne de but : "Hawk-Eye", qui utilise la triangulation visuelle pour déterminer l'emplacement du ballon, et "GoalRef", qui utilise une puce dans le ballon et des capteurs magnétiques dans les poteaux de but. (Beaucoup disent que la FIFA a approuvé ces technologies en réponse au "but" refusé de Frank Lampard contre l'Allemagne lors de la Coupe du monde 2010). En 2013, la FIFA a annoncé qu'elle utiliserait GoalControl, un concurrent allemand de Hawk-Eye, lors de la Coupe des confédérations, qui est en fait une répétition de la Coupe du monde. Après une expérience réussie lors de ce tournoi, la FIFA a annoncé qu'elle mettrait en œuvre GoalControl lors de la Coupe du monde 2014. Le Guardian propose une FAQ très utile sur cette technologie. La FIFA peut décider d'apporter d'autres modifications à la technologie approuvée pour la ligne de but et aux règles d'arbitrage lorsqu'elle se réunira à nouveau après la Coupe du monde.
Perché la FIFA è contraria all'aggiunta dell'instant replay al gioco?
Ci sono alcune considerazioni fondamentali: * L'incertezza fa parte del gioco. L'arbitro e i guardalinee sono gli arbitri dell'azione. Il replay istantaneo limiterebbe la loro autorità. * Il calcio è globale. Molti luoghi non hanno accesso alla tecnologia necessaria per implementare l'instant replay. * Il calcio è un gioco veloce con poche opportunità di interruzione. Il replay istantaneo rallenterebbe inutilmente il ritmo. Nel 2008, il presidente della FIFA Sepp Blatter ha dichiarato: "Lasciamolo così com'è e lasciamo [il calcio] agli errori. Le televisioni avranno il diritto di dire che [l'arbitro] aveva ragione o torto, ma è comunque l'arbitro a prendere la decisione - un uomo, non una macchina". Blatter e altri dirigenti della FIFA si sono ripetutamente schierati contro l'uso dell'instant replay. Ultimamente, però, la FIFA ha iniziato a cambiare idea. Al Congresso della FIFA a San Paolo, prima della Coppa del Mondo 2014, Blatter ha proposto di consentire ai dirigenti di effettuare due sfide per partita, proprio come avviene oggi nella NFL. Anche se non si tratta di un vero e proprio "instant replay", nel 2012 la FIFA ha approvato due diverse tecnologie per migliorare l'accuratezza degli arbitri: "Hawk-Eye" - che utilizza la triangolazione visiva per determinare la posizione del pallone - e "GoalRef" - che utilizza un microchip nel pallone e sensori magnetici all'interno dei pali della porta. (Molti sostengono che la FIFA abbia approvato queste tecnologie in risposta al "gol" annullato di Frank Lampard contro la Germania nella Coppa del Mondo 2010). Nel 2013, la FIFA ha annunciato che avrebbe utilizzato GoalControl, un concorrente tedesco di Hawk-Eye, alla Confederations Cup, in pratica una prova generale della Coppa del Mondo. Dopo il successo di quel torneo, la FIFA ha annunciato che avrebbe implementato GoalControl nella Coppa del Mondo 2014. Il Guardian fornisce una FAQ piuttosto utile sulla tecnologia. La FIFA potrebbe decidere di apportare ulteriori modifiche alla tecnologia approvata per le linee di porta e alle regole degli arbitri quando si riunirà nuovamente dopo la Coppa del Mondo.
20
If we should encrypt the message rather than the method of transfer, why do we care about wifi security? Is this just security theatre?
Network encryption protects against different set of threats than application layer encryption like TLS. In particular, network encryption like Wifi encryption are primarily designed to protect from a local attacker from being able to watch network patterns (by recording who you're making connections with, and discovering what devices are on the local network), observing/tampering of low level messages like ARP/DNS, and protecting network broadcasts from devices that aren't supposed to be in the network, and from tampering or selective interference. TLS doesn't protect the low level TCP/IP packets, which leaks information like the IP address of the machine you're connecting with, and the TLS handshake also by design leaks a number of information about the connection like Server Name Indication (SNI) header. The side effect of needing to do all this is that Wifi hardware already need to have enough code and processing power to handle encryption, so it becomes easier to just encrypt all wifi packets rather than selectively figuring out what needs protection or not. This come also with the side benefit that unsecured HTTP connection will still be at least marginally protected, even if at least to protect users of the infrastructure from each other, but not from the infrastructure provider. Network encryption is designed to protect the network, not the service. Application encryption is designed to protect the connection to the service, but it doesn't protect the network. They complement each other, but neither completely makes the other unnecessary.
Wenn wir eher die Nachricht als die Übertragungsmethode verschlüsseln sollten, warum kümmern wir uns dann um die Sicherheit des WLANs? Ist das nur ein Sicherheitstheater?
Die Netzwerkverschlüsselung schützt vor anderen Bedrohungen als die Verschlüsselung auf der Anwendungsebene wie TLS. Insbesondere die Netzwerkverschlüsselung wie die WLAN-Verschlüsselung soll in erster Linie vor einem lokalen Angreifer schützen, der in der Lage ist, Netzwerkmuster zu beobachten (indem er aufzeichnet, mit wem Sie Verbindungen herstellen, und herausfindet, welche Geräte sich im lokalen Netzwerk befinden), Low-Level-Nachrichten wie ARP/DNS zu beobachten/manipulieren und Netzwerkübertragungen von Geräten zu schützen, die nicht im Netzwerk sein sollen, sowie vor Manipulationen oder selektiven Störungen. TLS schützt die TCP/IP-Pakete auf niedriger Ebene nicht, wodurch Informationen wie die IP-Adresse des Rechners, mit dem Sie eine Verbindung herstellen, durchsickern, und auch der TLS-Handshake lässt eine Reihe von Informationen über die Verbindung durchsickern, z. B. den SNI-Header (Server Name Indication). Der Nebeneffekt dieser Notwendigkeit ist, dass die WLAN-Hardware bereits über genügend Code und Verarbeitungsleistung für die Verschlüsselung verfügen muss, so dass es einfacher ist, einfach alle WLAN-Pakete zu verschlüsseln, anstatt selektiv herauszufinden, was geschützt werden muss und was nicht. Dies hat auch den Nebeneffekt, dass eine ungesicherte HTTP-Verbindung zumindest geringfügig geschützt ist, wenn auch nur, um die Nutzer der Infrastruktur voreinander zu schützen, nicht aber vor dem Infrastrukturanbieter. Die Netzverschlüsselung dient dem Schutz des Netzes, nicht des Dienstes. Die Anwendungsverschlüsselung dient dem Schutz der Verbindung zum Dienst, nicht aber dem Schutz des Netzes. Sie ergänzen sich gegenseitig, aber keine macht die andere völlig überflüssig.
Si debemos cifrar el mensaje en lugar del método de transferencia, ¿por qué nos preocupamos por la seguridad wifi? ¿Es sólo teatro de seguridad?
El cifrado de red protege contra un conjunto diferente de amenazas que el cifrado de la capa de aplicación como TLS. En particular, el cifrado de red como el cifrado Wifi están diseñados principalmente para proteger de un atacante local que sea capaz de observar los patrones de red (mediante el registro de con quién estás haciendo conexiones, y descubrir qué dispositivos están en la red local), la observación/manipulación de mensajes de bajo nivel como ARP/DNS, y la protección de las transmisiones de red de los dispositivos que no se supone que están en la red, y de la manipulación o interferencia selectiva. TLS no protege los paquetes TCP/IP de bajo nivel, lo que filtra información como la dirección IP de la máquina con la que te estás conectando, y el handshake TLS también filtra por diseño una serie de información sobre la conexión como la cabecera Server Name Indication (SNI). El efecto secundario de tener que hacer todo esto es que el hardware Wifi ya necesita tener suficiente código y potencia de procesamiento para manejar el cifrado, por lo que se hace más fácil simplemente cifrar todos los paquetes wifi en lugar de averiguar selectivamente lo que necesita protección o no. Esto viene también con el beneficio secundario de que la conexión HTTP no segura seguirá estando al menos marginalmente protegida, aunque sea para proteger a los usuarios de la infraestructura entre sí, pero no del proveedor de la infraestructura. El cifrado de red está diseñado para proteger la red, no el servicio. El cifrado de aplicaciones está diseñado para proteger la conexión al servicio, pero no protege la red. Se complementan, pero ninguno de los dos hace totalmente innecesario el otro.
Si nous devons crypter le message plutôt que la méthode de transfert, pourquoi nous soucier de la sécurité du wifi ? S'agit-il d'un simple théâtre de la sécurité ?
Le chiffrement de réseau protège contre un ensemble de menaces différent du chiffrement de la couche d'application comme TLS. En particulier, le chiffrement du réseau, comme le chiffrement Wifi, est principalement conçu pour protéger un attaquant local contre la possibilité d'observer les modèles de réseau (en enregistrant les personnes avec lesquelles vous établissez des connexions et en découvrant les appareils présents sur le réseau local), l'observation/la falsification des messages de bas niveau comme ARP/DNS, et la protection des émissions de réseau provenant d'appareils qui ne sont pas censés se trouver sur le réseau, ainsi que contre la falsification ou l'interférence sélective. TLS ne protège pas les paquets TCP/IP de bas niveau, qui laissent échapper des informations telles que l'adresse IP de la machine avec laquelle vous vous connectez, et la poignée de main TLS laisse également échapper, de par sa conception, un certain nombre d'informations sur la connexion, telles que l'en-tête Server Name Indication (SNI). L'effet secondaire de la nécessité de faire tout cela est que le matériel Wifi doit déjà avoir suffisamment de code et de puissance de traitement pour gérer le cryptage, de sorte qu'il devient plus facile de crypter tous les paquets Wifi plutôt que de déterminer sélectivement ce qui a besoin d'être protégé ou non. Cela présente également l'avantage que les connexions HTTP non sécurisées seront toujours au moins marginalement protégées, même si c'est au moins pour protéger les utilisateurs de l'infrastructure les uns contre les autres, mais pas contre le fournisseur de l'infrastructure. Le chiffrement du réseau est conçu pour protéger le réseau, pas le service. Le chiffrement des applications est conçu pour protéger la connexion au service, mais il ne protège pas le réseau. Ils se complètent l'un l'autre, mais aucun ne rend l'autre complètement inutile.
Se dobbiamo criptare il messaggio piuttosto che il metodo di trasferimento, perché ci preoccupiamo della sicurezza del wifi? È solo un teatro sulla sicurezza?
La crittografia di rete protegge da una serie di minacce diverse rispetto alla crittografia a livello di applicazione come TLS. In particolare, la crittografia di rete, come la crittografia Wifi, è progettata principalmente per proteggere un aggressore locale dalla possibilità di osservare gli schemi di rete (registrando le persone con cui ci si connette e scoprendo quali dispositivi sono presenti sulla rete locale), dall'osservazione/manomissione di messaggi di basso livello come ARP/DNS e dalla protezione delle trasmissioni di rete da dispositivi che non dovrebbero essere presenti nella rete e da manomissioni o interferenze selettive. TLS non protegge i pacchetti TCP/IP di basso livello, facendo trapelare informazioni come l'indirizzo IP della macchina con cui ci si sta connettendo, e anche l'handshake TLS, per sua stessa concezione, fa trapelare una serie di informazioni sulla connessione, come l'intestazione del nome del server (SNI). L'effetto collaterale della necessità di fare tutto questo è che l'hardware Wifi deve già avere abbastanza codice e potenza di elaborazione per gestire la crittografia, quindi diventa più facile crittografare tutti i pacchetti Wifi piuttosto che capire selettivamente cosa deve essere protetto o meno. Questo comporta anche il vantaggio che le connessioni HTTP non protette saranno comunque almeno marginalmente protette, anche se almeno per proteggere gli utenti dell'infrastruttura gli uni dagli altri, ma non dal fornitore dell'infrastruttura. La crittografia della rete è progettata per proteggere la rete, non il servizio. La crittografia delle applicazioni è progettata per proteggere la connessione al servizio, ma non protegge la rete. Si completano a vicenda, ma nessuna delle due rende completamente superflua l'altra.
21
Applying filter in scipy.signal: Use lfilter or filtfilt?
* ```filtfilt``` is zero-phase filtering, which doesn't shift the signal as it filters. Since the phase is zero at all frequencies, it is also linear-phase. Filtering backwards in time requires you to predict the future, so it can't be used in "online" real-life applications, only for offline processing of recordings of signals. * ```lfilter``` is causal forward-in-time filtering only, similar to a real-life electronic filter. It can't be zero-phase. It can be linear-phase (symmetrical FIR), but usually isn't. Usually it adds different amounts of delay at different frequencies. An example and image should make it obvious. Although the magnitude of the frequency response of the filters is identical (top left and top right), the zero-phase lowpass lines up with the original signal, just without high frequency content, while the minimum phase filtering delays the signal in a causal way: ```from __future__ import division, print_function import numpy as np from numpy.random import randn from numpy.fft import rfft from scipy import signal import matplotlib.pyplot as plt b, a = signal.butter(4, 0.03, analog=False) # Show that frequency response is the same impulse = np.zeros(1000) impulse[500] = 1 # Applies filter forward and backward in time imp_ff = signal.filtfilt(b, a, impulse) # Applies filter forward in time twice (for same frequency response) imp_lf = signal.lfilter(b, a, signal.lfilter(b, a, impulse)) plt.subplot(2, 2, 1) plt.semilogx(20*np.log10(np.abs(rfft(imp_lf)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('lfilter') plt.subplot(2, 2, 2) plt.semilogx(20*np.log10(np.abs(rfft(imp_ff)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('filtfilt') sig = np.cumsum(randn(800)) # Brownian noise sig_ff = signal.filtfilt(b, a, sig) sig_lf = signal.lfilter(b, a, signal.lfilter(b, a, sig)) plt.subplot(2, 1, 2) plt.plot(sig, color='silver', label='Original') plt.plot(sig_ff, color='#3465a4', label='filtfilt') plt.plot(sig_lf, color='#cc0000', label='lfilter') plt.grid(True, which='both') plt.legend(loc="best") ```
Anwenden von Filtern in scipy.signal: lfilter oder filtfilt verwenden?
* ```Filtfilt`` ist eine phasenlose Filterung, die das Signal beim Filtern nicht verschiebt. Da die Phase bei allen Frequenzen gleich Null ist, ist sie auch linearphasig. Die Rückwärtsfilterung in der Zeit erfordert eine Vorhersage der Zukunft, so dass sie nicht in "Online"-Anwendungen im wirklichen Leben verwendet werden kann, sondern nur für die Offline-Verarbeitung von Signalaufzeichnungen. * Der ```lfilter`` ist ein kausales Filter, das nur vorwärts in der Zeit filtert, ähnlich wie ein elektronisches Filter. Er kann nicht nullphasig sein. Es kann linear-phasig sein (symmetrisches FIR), ist es aber normalerweise nicht. Normalerweise fügt er bei verschiedenen Frequenzen unterschiedliche Verzögerungswerte hinzu. Ein Beispiel und ein Bild sollen dies verdeutlichen. Obwohl der Betrag des Frequenzgangs der Filter identisch ist (oben links und oben rechts), entspricht der phasenreine Tiefpass dem Originalsignal, nur ohne die hohen Frequenzen, während die phasenminimale Filterung das Signal in kausaler Weise verzögert: ```from __future__ import division, print_function importiere numpy as np from numpy.random import randn von numpy.fft importieren rfft aus scipy importieren signal import matplotlib.pyplot as plt b, a = signal.butter(4, 0.03, analog=False) # Zeigen, dass der Frequenzgang gleich ist impulse = np.zeros(1000) impulse[500] = 1 # Filter vorwärts und rückwärts in der Zeit anwenden imp_ff = signal.filtfilt(b, a, impulse) # Wendet den Filter zweimal vorwärts in der Zeit an (für denselben Frequenzgang) imp_lf = signal.lfilter(b, a, signal.lfilter(b, a, impuls)) plt.subplot(2, 2, 1) plt.semilogx(20*np.log10(np.abs(rfft(imp_lf)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('lfilter') plt.subplot(2, 2, 2) plt.semilogx(20*np.log10(np.abs(rfft(imp_ff)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('filtfilt') sig = np.cumsum(randn(800)) # Brownsches Rauschen sig_ff = signal.filtfilt(b, a, sig) sig_lf = signal.lfilter(b, a, signal.lfilter(b, a, sig)) plt.subplot(2, 1, 2) plt.plot(sig, color='silver', label='Original') plt.plot(sig_ff, color='#3465a4', label='filtfilt') plt.plot(sig_lf, color='#cc0000', label='lfilter') plt.grid(True, which='both') plt.legend(loc="best") ```
Aplicar filtro en scipy.signal: ¿Usar lfilter o filtfilt?
* ```filtfilt`` es un filtrado de fase cero, que no desplaza la señal mientras filtra. Como la fase es cero en todas las frecuencias, también es de fase lineal. Filtrar hacia atrás en el tiempo requiere predecir el futuro, por lo que no se puede utilizar en aplicaciones "online" de la vida real, sólo para el procesamiento offline de grabaciones de señales. * ```lfilter`` es sólo un filtro causal hacia adelante en el tiempo, similar a un filtro electrónico de la vida real. No puede ser de fase cero. Puede ser de fase lineal (FIR simétrico), pero normalmente no lo es. Normalmente añade diferentes cantidades de retardo a diferentes frecuencias. Un ejemplo y una imagen deberían hacerlo evidente. Aunque la magnitud de la respuesta en frecuencia de los filtros es idéntica (arriba a la izquierda y arriba a la derecha), el paso bajo de fase cero se alinea con la señal original, sólo que sin contenido de alta frecuencia, mientras que el filtrado de fase mínima retrasa la señal de forma causal: ```from __future__ import division, print_function import numpy as np from numpy.random import randn from numpy.fft import rfft from scipy import signal import matplotlib.pyplot as plt b, a = signal.butter(4, 0.03, analog=False) # Mostrar que la respuesta en frecuencia es la misma impulso = np.ceros(1000) impulso[500] = 1 # Aplica el filtro hacia adelante y hacia atrás en el tiempo imp_ff = signal.filtfilt(b, a, impulse) # Aplica el filtro hacia delante en el tiempo dos veces (para la misma respuesta en frecuencia) imp_lf = signal.lfilter(b, a, signal.lfilter(b, a, impulse)) plt.subplot(2, 2, 1) plt.semilogx(20*np.log10(np.abs(rfft(imp_lf)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('lfilter') plt.subplot(2, 2, 2) plt.semilogx(20*np.log10(np.abs(rfft(imp_ff)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('filtfilt') sig = np.cumsum(randn(800)) # Ruido browniano sig_ff = signal.filtfilt(b, a, sig) sig_lf = signal.lfilter(b, a, signal.lfilter(b, a, sig)) plt.subplot(2, 1, 2) plt.plot(sig, color='plata', label='Original') plt.plot(sig_ff, color='#3465a4', label='filtfilt') plt.plot(sig_lf, color='#cc0000', label='lfilter') plt.grid(True, which='both') plt.legend(loc="mejor") ```
Application d'un filtre dans scipy.signal : Utiliser lfilter ou filtfilt ?
* Le ``filtfilt`` est un filtrage en phase zéro, qui ne décale pas le signal pendant le filtrage. Comme la phase est nulle à toutes les fréquences, il s'agit également d'un filtrage en phase linéaire. Le filtrage à rebours dans le temps nécessite de prédire l'avenir, il ne peut donc pas être utilisé dans des applications réelles "en ligne", mais seulement pour le traitement hors ligne d'enregistrements de signaux. * ``lfiltre`` est un filtrage causal en avant dans le temps uniquement, similaire à un filtre électronique réel. Il ne peut pas être en phase zéro. Il peut être en phase linéaire (FIR symétrique), mais ce n'est généralement pas le cas. En général, il ajoute différentes quantités de retard à différentes fréquences. Un exemple et une image devraient le montrer clairement. Bien que l'ampleur de la réponse en fréquence des filtres soit identique (en haut à gauche et en haut à droite), le filtre passe-bas à phase nulle s'aligne sur le signal original, mais sans les hautes fréquences, tandis que le filtrage à phase minimale retarde le signal de manière causale : ```de __future__ import division, print_function import numpy as np from numpy.random import randn from numpy.fft import rfft from scipy import signal import matplotlib.pyplot as plt b, a = signal.butter(4, 0.03, analog=False) # Montrer que la réponse en fréquence est la même impulse = np.zeros(1000) impulse[500] = 1 # Applique le filtre en avant et en arrière dans le temps imp_ff = signal.filtfilt(b, a, impulse) # Applique le filtre en avant dans le temps deux fois (pour la même réponse en fréquence) imp_lf = signal.lfilter(b, a, signal.lfilter(b, a, impulse)) plt.subplot(2, 2, 1) plt.semilogx(20*np.log10(np.abs(rfft(imp_lf)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('lfilter') plt.subplot(2, 2, 2) plt.semilogx(20*np.log10(np.abs(rfft(imp_ff)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('filtfilt') sig = np.cumsum(randn(800)) # bruit brownien sig_ff = signal.filtfilt(b, a, sig) sig_lf = signal.lfilter(b, a, signal.lfilter(b, a, sig)) plt.subplot(2, 1, 2) plt.plot(sig, color='silver', label='Original') plt.plot(sig_ff, color='#3465a4', label='filtfilt') plt.plot(sig_lf, color='#cc0000', label='lfilter') plt.grid(True, which='both') plt.legend(loc="best") ```
Applicazione del filtro in scipy.signal: Usare lfilter o filtfilt?
* Il ``filtfilt'' è un filtraggio a fase zero, che non sposta il segnale mentre lo filtra. Poiché la fase è zero a tutte le frequenze, è anche a fase lineare. Il filtraggio a ritroso nel tempo richiede la previsione del futuro, quindi non può essere utilizzato in applicazioni reali "online", ma solo per l'elaborazione offline di registrazioni di segnali. * ``lfiltro`` è un filtro causale solo in avanti nel tempo, simile a un filtro elettronico reale. Non può essere a fase zero. Può essere a fase lineare (FIR simmetrico), ma di solito non lo è. Di solito aggiunge quantità diverse di ritardo a frequenze diverse. Un esempio e un'immagine dovrebbero renderlo evidente. Sebbene l'entità della risposta in frequenza dei filtri sia identica (in alto a sinistra e in alto a destra), il passa-basso a fase zero si allinea al segnale originale, solo senza il contenuto ad alta frequenza, mentre il filtraggio a fase minima ritarda il segnale in modo causale: ```from __future__ import division, print_function importare numpy come np da numpy.random importare randn da numpy.fft importare rfft da scipy import signal importare matplotlib.pyplot come plt b, a = signal.butter(4, 0.03, analog=False) # Mostra che la risposta in frequenza è la stessa impulso = np.zeros(1000) impulso[500] = 1 # Applica il filtro in avanti e indietro nel tempo imp_ff = signal.filtfilt(b, a, impulso) # Applica il filtro in avanti nel tempo due volte (per la stessa risposta in frequenza) imp_lf = signal.lfilter(b, a, signal.lfilter(b, a, impulso)) plt.subplot(2, 2, 1) plt.semilogx(20*np.log10(np.abs(rfft(imp_lf)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('lfiltro') plt.subplot(2, 2, 2) plt.semilogx(20*np.log10(np.abs(rfft(imp_ff)))) plt.ylim(-100, 20) plt.grid(True, which='both') plt.title('filtfilt') sig = np.cumsum(randn(800)) # Rumore browniano sig_ff = signal.filtfilt(b, a, sig) sig_lf = signal.lfilter(b, a, signal.lfilter(b, a, sig)) plt.subplot(2, 1, 2) plt.plot(sig, color='silver', label='Original') plt.plot(sig_ff, color='#3465a4', label='filtfilt') plt.plot(sig_lf, colore='#cc0000', etichetta='lfiltro') plt.grid(True, which='both') plt.legend(loc="best") ```
22
What do different people in the department expect from a postdoc? By different people I mean the advisor, graduate students and PhD students. I know it mainly depends on the job description but there are few basic things that a postdoc must be expected to do. How aggressive (proactive) must one be? This question is important since a postdoc cannot just wait for the adviser to give him/her inputs. Rather the postdoc must take the project(s) as another PhD research of his own but be completely accountable to the adviser in terms of what he/she is doing and how is he/she doing that. The above are my thoughts. My question is divided into the following sub-parts: * What would you as a professor expect from your postdoc? * What preparation one must do to rise to the expected level? * Is the preparation merely restricted to having sound academic record and experience?
You'll very quickly learn that being an academic involves more than just writing research papers. Your time as a postdoc is when you can start learning about these other aspects, while building your own profile. A postdoc needs to do the following: * Build a publication record. This will involve both what you are paid to do and your own line of research. * Get involved with supervising students. Help with the PhDs in the lab, and get involved in supervising masters students. * Get involved with obtaining funding. This can either be by helping your employer or (ideally) obtaining your own funding. * Build an international reputation. * Start collaborating with external parties. * Gain some teaching experience. This is absolutely crucial if you want a faculty position. * Learn how to manage projects and a lab. This includes overseeing the progress of projects, allocating your time (and others), presenting results at meetings and writing deliverables. If you are in a lab setting, you will need to learn how to fix/calibrate/maintain critical equipment and software so that you can start your own lab some day, and you will need to become proficient in teaching more junior members on how to use that equipment. * Start to devise a strategic research plan. While it is fun to do opportunistic research, solving a problem that comes along or investigating any idea that pops into your head, a better long term strategy is to formulate an interesting long term research plan and follow it, building result upon result. Be as proactive as humanly possible, without being annoying. Talk to everyone in the department, especially people whose research interests are close to your. Go to conferences and sit down and work with interesting people (not necessarily the superstars).
Was erwarten die verschiedenen Personen in der Abteilung von einem Postdoc? Mit verschiedenen Personen meine ich den Berater, die Doktoranden und die Doktoranden. Ich weiß, dass es hauptsächlich von der Stellenbeschreibung abhängt, aber es gibt ein paar grundlegende Dinge, die von einem Postdoc erwartet werden müssen. Wie aggressiv (proaktiv) muss man sein? Diese Frage ist wichtig, da ein Postdoc nicht einfach darauf warten kann, dass der Betreuer ihm Input gibt. Vielmehr muss der Postdoc das/die Projekt(e) als eine weitere eigene Doktorarbeit betrachten, aber dem Betreuer gegenüber vollständig rechenschaftspflichtig sein, was er/sie tut und wie er/sie es tut. Dies sind meine Überlegungen. Meine Frage gliedert sich in die folgenden Teilbereiche: * Was würden Sie als Professor von Ihrem Postdoc erwarten? * Wie muss man sich vorbereiten, um das erwartete Niveau zu erreichen? * Beschränkt sich die Vorbereitung lediglich auf gute akademische Leistungen und Erfahrung?
Sie werden sehr schnell lernen, dass das Leben eines Wissenschaftlers mehr umfasst als nur das Schreiben von Forschungsarbeiten. In Ihrer Zeit als Postdoc können Sie diese anderen Aspekte kennenlernen und gleichzeitig Ihr eigenes Profil aufbauen. Ein Postdoc muss Folgendes tun: * Eine Publikationsliste erstellen. Dies betrifft sowohl die Arbeit, für die Sie bezahlt werden, als auch Ihre eigene Forschungstätigkeit. * Sich an der Betreuung von Studenten beteiligen. Helfen Sie bei der Betreuung der Doktoranden im Labor und engagieren Sie sich bei der Betreuung von Masterstudenten. * Beteiligen Sie sich an der Beschaffung von Finanzmitteln. Dies kann entweder durch die Unterstützung Ihres Arbeitgebers oder (idealerweise) durch die Einwerbung eigener Mittel geschehen. * Bauen Sie einen internationalen Ruf auf. * Beginnen Sie, mit externen Parteien zusammenzuarbeiten. * Sammeln Sie Lehrerfahrung. Dies ist absolut entscheidend, wenn Sie eine Stelle als Dozent anstreben. * Lernen Sie, wie man Projekte und ein Labor leitet. Dazu gehören die Überwachung des Projektfortschritts, die Einteilung Ihrer Zeit (und der anderer), die Präsentation von Ergebnissen auf Sitzungen und das Verfassen von Berichten. Wenn Sie in einem Labor arbeiten, müssen Sie lernen, wie man wichtige Geräte und Software repariert, kalibriert und wartet, damit Sie eines Tages Ihr eigenes Labor eröffnen können, und Sie müssen in der Lage sein, jüngere Mitglieder in der Verwendung dieser Geräte zu unterrichten. * Beginnen Sie mit der Ausarbeitung eines strategischen Forschungsplans. Es macht zwar Spaß, opportunistisch zu forschen, ein Problem zu lösen, das sich gerade ergibt, oder irgendeine Idee zu untersuchen, die einem in den Sinn kommt, aber eine bessere langfristige Strategie ist es, einen interessanten langfristigen Forschungsplan zu formulieren und ihm zu folgen, indem man Ergebnis auf Ergebnis aufbaut. Seien Sie so proaktiv wie möglich, ohne lästig zu sein. Sprechen Sie mit jedem in der Abteilung, vor allem mit Leuten, deren Forschungsinteressen Ihnen nahe stehen. Gehen Sie zu Konferenzen und arbeiten Sie mit interessanten Leuten zusammen (nicht unbedingt mit den Superstars).
¿Qué esperan las diferentes personas del departamento de un postdoc? Por diferentes personas me refiero al asesor, a los estudiantes de posgrado y a los estudiantes de doctorado. Sé que depende principalmente de la descripción del trabajo, pero hay algunas cosas básicas que se espera que haga un postdoc. ¿Hasta qué punto hay que ser agresivo (proactivo)? Esta pregunta es importante, ya que un postdoc no puede limitarse a esperar a que el asesor le dé información. Más bien, el postdoc debe tomarse el proyecto o proyectos como otra investigación de doctorado propia, pero siendo completamente responsable ante el asesor en cuanto a lo que está haciendo y cómo lo está haciendo. Estas son mis reflexiones. Mi pregunta se divide en las siguientes subpartes: * ¿Qué esperaría usted como profesor de su postdoc? * ¿Qué preparación hay que hacer para alcanzar el nivel esperado? * ¿La preparación se limita a tener un buen expediente académico y experiencia?
Aprenderá muy pronto que ser académico implica algo más que escribir artículos de investigación. En tu etapa de postdoctorado podrás empezar a conocer estos otros aspectos, al tiempo que construyes tu propio perfil. Un postdoc debe hacer lo siguiente: * Construir un historial de publicaciones. Esto implicará tanto lo que te pagan por hacer como tu propia línea de investigación. * Implicarse en la supervisión de estudiantes. Ayudar con los doctorados en el laboratorio, y participar en la supervisión de los estudiantes de máster. * Involúcrate en la obtención de financiación. Ya sea ayudando a tu empleador o (idealmente) obteniendo tu propia financiación. * Construye una reputación internacional. * Empieza a colaborar con terceros. * Adquirir experiencia docente. Esto es absolutamente crucial si quieres un puesto en la facultad. * Aprende a gestionar proyectos y un laboratorio. Esto incluye supervisar el progreso de los proyectos, asignar tu tiempo (y el de los demás), presentar resultados en reuniones y redactar entregables. Si trabajas en un laboratorio, tendrás que aprender a reparar, calibrar y mantener equipos y programas informáticos esenciales para poder crear tu propio laboratorio algún día, y tendrás que ser capaz de enseñar a otros miembros más jóvenes a utilizar esos equipos. * Empieza a diseñar un plan estratégico de investigación. Aunque es divertido hacer investigación oportunista, resolviendo un problema que surja o investigando cualquier idea que se te pase por la cabeza, una mejor estrategia a largo plazo es formular un interesante plan de investigación a largo plazo y seguirlo, construyendo resultado sobre resultado. Sé tan proactivo como sea humanamente posible, sin ser molesto. Hable con todo el mundo en el departamento, especialmente con las personas cuyos intereses de investigación sean afines a los suyos. Vaya a conferencias y siéntese a trabajar con gente interesante (no necesariamente las superestrellas).
Qu'est-ce que les différentes personnes du département attendent d'un postdoc ? Par différentes personnes, j'entends le conseiller, les étudiants diplômés et les doctorants. Je sais que cela dépend principalement de la description du poste, mais il y a certaines choses fondamentales que l'on attend d'un postdoc. Dans quelle mesure doit-il être agressif (proactif) ? Cette question est importante car un postdoc ne peut pas se contenter d'attendre que son conseiller lui fournisse des informations. Le postdoc doit plutôt considérer le(s) projet(s) comme une autre recherche de doctorat qui lui est propre, mais il doit rendre compte au conseiller de ce qu'il/elle fait et de la manière dont il/elle le fait. Voilà ce que je pense. Ma question se divise en plusieurs parties : * Qu'attendez-vous, en tant que professeur, de votre postdoc ? * Quelle préparation doit-on faire pour atteindre le niveau attendu ? * La préparation se limite-t-elle simplement à un bon dossier académique et à une bonne expérience ?
Vous apprendrez très vite que le métier d'universitaire ne se résume pas à la rédaction d'articles de recherche. C'est en tant que postdoc que vous pourrez commencer à découvrir ces autres aspects, tout en construisant votre propre profil. Un postdoc doit faire ce qui suit : * Se constituer un dossier de publications. Cela concerne à la fois ce pour quoi vous êtes payé et votre propre ligne de recherche. * S'impliquer dans la supervision des étudiants. Aidez les doctorants du laboratoire et participez à l'encadrement des étudiants en master. * S'impliquer dans l'obtention de financements. Il peut s'agir d'aider votre employeur ou (idéalement) d'obtenir votre propre financement. * Construire une réputation internationale. * Commencer à collaborer avec des parties externes. * Acquérir de l'expérience dans l'enseignement. C'est absolument crucial si vous souhaitez obtenir un poste de professeur. * Apprendre à gérer des projets et un laboratoire. Il s'agit notamment de superviser l'avancement des projets, de répartir votre temps (et celui des autres), de présenter les résultats lors de réunions et de rédiger les documents à fournir. Si vous travaillez dans un laboratoire, vous devrez apprendre à réparer/étalonner/maintenir les équipements et les logiciels essentiels afin de pouvoir un jour créer votre propre laboratoire, et vous devrez devenir compétent pour enseigner aux membres plus jeunes comment utiliser ces équipements. * Commencez à élaborer un plan de recherche stratégique. Bien qu'il soit agréable de faire de la recherche opportuniste, de résoudre un problème qui se présente ou d'étudier n'importe quelle idée qui vous passe par la tête, une meilleure stratégie à long terme consiste à formuler un plan de recherche intéressant à long terme et à le suivre, en construisant résultat après résultat. Soyez aussi proactif qu'il est humainement possible de l'être, sans être ennuyeux. Parlez à tout le monde dans le département, en particulier aux personnes dont les intérêts de recherche sont proches des vôtres. Participez à des conférences, asseyez-vous et travaillez avec des personnes intéressantes (pas nécessairement les superstars).
Cosa si aspettano le diverse persone del dipartimento da un postdoc? Per persone diverse intendo il consulente, gli studenti laureati e i dottorandi. So che dipende principalmente dalla descrizione del lavoro, ma ci sono alcune cose fondamentali che un postdoc deve fare. Quanto deve essere aggressivo (proattivo)? Questa domanda è importante perché un postdoc non può semplicemente aspettare che il consulente gli dia degli input. Piuttosto, il postdoc deve considerare il progetto (o i progetti) come un'altra ricerca di dottorato propria, ma deve rendere conto al consulente di ciò che sta facendo e di come lo sta facendo. Questi sono i miei pensieri. La mia domanda è suddivisa nelle seguenti sottoparti: * Cosa vi aspettate, come professore, dal vostro postdoc? * Quale preparazione si deve fare per raggiungere il livello atteso? * La preparazione si limita semplicemente ad avere un buon curriculum accademico e una buona esperienza?
Imparerete molto presto che essere un accademico non significa solo scrivere articoli di ricerca. Il periodo di postdoc è il momento in cui potete iniziare a conoscere questi altri aspetti, costruendo al contempo il vostro profilo personale. Un postdoc deve fare quanto segue: * Costruire un record di pubblicazioni. Questo riguarda sia ciò che si è pagati per fare sia la propria linea di ricerca. * Partecipare alla supervisione degli studenti. Aiutare i dottorandi del laboratorio e partecipare alla supervisione di studenti di master. * Partecipare all'ottenimento di finanziamenti. Questo può avvenire aiutando il vostro datore di lavoro o (idealmente) ottenendo finanziamenti propri. * Costruire una reputazione internazionale. * Iniziare a collaborare con soggetti esterni. * Acquisire esperienza nell'insegnamento. Questo è assolutamente fondamentale se si vuole ottenere una posizione in facoltà. * Imparare a gestire progetti e un laboratorio. Questo include la supervisione dell'avanzamento dei progetti, l'allocazione del vostro tempo (e di quello degli altri), la presentazione dei risultati alle riunioni e la stesura dei risultati. Se lavorate in un laboratorio, dovrete imparare a riparare/calibrare/mantenere le apparecchiature e i software più importanti, in modo da poter avviare un giorno un vostro laboratorio, e dovrete diventare abili nell'insegnare ai membri più giovani come utilizzare tali apparecchiature. * Iniziare a elaborare un piano di ricerca strategico. Sebbene sia divertente fare ricerca in modo opportunistico, risolvendo i problemi che si presentano o indagando su qualsiasi idea vi venga in mente, una strategia migliore a lungo termine consiste nel formulare un interessante piano di ricerca a lungo termine e seguirlo, costruendo risultati su risultati. Siate il più proattivi possibile, senza essere fastidiosi. Parlate con tutti i membri del dipartimento, soprattutto con le persone i cui interessi di ricerca sono vicini ai vostri. Andate alle conferenze e sedetevi a lavorare con persone interessanti (non necessariamente le superstar).
23
Can someone explain to me what the ```contentInset``` property in a ```UIScrollView``` instance is used for? And maybe provide an example?
While jball's answer is an excellent description of content insets, it doesn't answer the question of when to use it. I'll borrow from his diagrams: ``` _|←_cW_→_|_↓_ | | --------------- |content| ↑ ↑ |content| contentInset.top cH |content| ↓ |content| contentInset.bottom |content| ↓ --------------- |content| -------------↑- ``` That's what you get when you do it, but the usefulness of it only shows when you scroll: ``` _|←_cW_→_|_↓_ |content| ← content is still visible --------------- |content| ↑ ↑ |content| contentInset.top cH |content| ↓ |content| contentInset.bottom |content| ↓ --------------- _|_______|___ ↑ ``` That top row of content will still be visible because it's still inside the frame of the scroll view. One way to think of the top offset is "how much to shift the content down the scroll view when we're scrolled all the way to the top" To see a place where this is actually used, look at the build-in Photos app on the iphone. The Navigation bar and status bar are transparent, and the contents of the scroll view are visible underneath. That's because the scroll view's frame extends out that far. But if it wasn't for the content inset, you would never be able to have the top of the content clear that transparent navigation bar when you go all the way to the top.
Kann mir jemand erklären, wofür die Eigenschaft ```ContentInset`` in einer ``UIScrollView``-Instanz verwendet wird? Und vielleicht ein Beispiel geben?
Die Antwort von jball ist zwar eine hervorragende Beschreibung der Inhaltseinschübe, beantwortet aber nicht die Frage, wann man sie verwenden sollte. Ich werde mir seine Diagramme ausleihen: ``←_cW_→_|↓_ | | --------------- |inhalt| ↑ ↑ |Inhalt| contentInset.top cH |content| ↓ |content| contentInset.bottom |content| ↓ --------------- |content| -------------↑- ``` Das erhält man, wenn man es macht, aber die Nützlichkeit davon zeigt sich nur, wenn man scrollt: |Inhalt| ← Inhalt ist noch sichtbar --------------- |content| ↑ ↑ |Inhalt| contentInset.top cH |content| ↓ |content| contentInset.bottom |content| ↓ --------------- _|_______|___ ↑ ``` Die oberste Zeile des Inhalts ist immer noch sichtbar, da sie sich immer noch innerhalb des Rahmens der Bildlaufansicht befindet. Eine Möglichkeit, sich den oberen Versatz vorzustellen, ist die Frage, um wie viel der Inhalt in der Bildlaufansicht nach unten verschoben werden soll, wenn wir ganz nach oben gescrollt haben. Um zu sehen, wo dies tatsächlich verwendet wird, schauen Sie sich die eingebaute Fotos-App auf dem iPhone an. Die Navigationsleiste und die Statusleiste sind transparent, und der Inhalt der Bildlaufansicht ist darunter sichtbar. Das liegt daran, dass der Rahmen der Bildlaufansicht so weit nach außen reicht. Aber wenn es nicht für den Inhalt einfügen, würden Sie nie in der Lage sein, die Oberseite des Inhalts haben klar, dass transparente Navigationsleiste, wenn Sie den ganzen Weg nach oben gehen.
¿Puede alguien explicarme para qué sirve la propiedad ``contentInset`` en una instancia ```UIScrollView``? ¿Y quizá algún ejemplo?
Aunque la respuesta de jball es una excelente descripción de las inserciones de contenido, no responde a la pregunta de cuándo utilizarlas. Voy a tomar prestado de sus diagramas: ``` _|←_cW_→_|_↓_ | | --------------- |"Contenido". ↑ |content| contentInset.top cH |content| ↓ |content| contentInset.bottom |Contenido ↓ --------------- |Contenido -------------↑- ``` Eso es lo que te sale cuando lo haces, pero su utilidad sólo se ve cuando haces scroll: ``` _|←_cW_→_|_↓_ |content| ← el contenido sigue siendo visible --------------- |content| ↑ ↑ |content| contentInset.top cH |content| ↓ |content| contentInset.bottom |Contenido ↓ --------------- _|_______|___ ↑ ``` Esa fila superior de contenido seguirá siendo visible porque todavía está dentro del marco de la vista de desplazamiento. Una forma de pensar en el desplazamiento superior es "cuánto desplazar el contenido hacia abajo en la vista de desplazamiento cuando nos hemos desplazado hasta arriba" Para ver un lugar donde esto se utiliza realmente, mira la aplicación Fotos del iphone. La barra de navegación y la barra de estado son transparentes, y el contenido de la vista de desplazamiento es visible debajo. Esto se debe a que el marco de la vista de desplazamiento se extiende tanto. Pero si no fuera por la inserción del contenido, nunca serías capaz de tener la parte superior del contenido claro que la barra de navegación transparente cuando usted va todo el camino hasta la parte superior.
Quelqu'un peut-il m'expliquer à quoi sert la propriété ``contentInset`` dans une instance ``UIScrollView`` ? Et peut-être fournir un exemple ?
Bien que la réponse de jball soit une excellente description des inserts de contenu, elle ne répond pas à la question de savoir quand les utiliser. J'emprunterai ses diagrammes : ``` _|←_cW_→_|_↓_ --------------- ↑ ↑ |content| contentInset.top cH |content| ↓ |content| contentInset.bottom |content| ↓ --------------- |ContentInset.bottom -------------↑- ``` C'est ce qu'on obtient quand on le fait, mais l'utilité n'apparaît que quand on fait défiler : ``` _|←_cW_→_|_↓_ |content| ← le contenu est toujours visible --------------- |Le contenu est toujours visible. ↑ |content| contentInset.top cH |content| ↓ |content| contentInset.bottom |content| ↓ --------------- _|_______|___ ↑ ``` La ligne supérieure du contenu sera toujours visible parce qu'elle se trouve toujours dans le cadre de la vue de défilement. Une façon de considérer le décalage du haut est de savoir "de combien il faut décaler le contenu vers le bas de la vue de défilement lorsque l'on a fait défiler le contenu jusqu'en haut" Pour voir un exemple d'utilisation de ce principe, regardez l'application Photos intégrée à l'iPhone. La barre de navigation et la barre d'état sont transparentes, et le contenu de la fenêtre de défilement est visible en dessous. C'est parce que le cadre de la fenêtre de défilement s'étend jusqu'à cette distance. Mais s'il n'y avait pas l'insertion du contenu, il ne serait jamais possible de faire en sorte que le haut du contenu efface la barre de navigation transparente lorsque vous allez jusqu'en haut de l'écran.
Qualcuno può spiegarmi a cosa serve la proprietà ```contentInset`` in un'istanza di ``UIScrollView``? E magari fornire un esempio?
La risposta di jball è un'eccellente descrizione degli inserti di contenuto, ma non risponde alla domanda su quando usarli. Prendo in prestito i suoi diagrammi: ``` _|←_cW_→_|_↓_ | | --------------- |Contenuto ↑ |content| contentInset.top cH |contenuto| ↓ |content| contentInset.bottom |contenuto| ↓ --------------- |Contenuto -------------↑- ``` Questo è ciò che si ottiene quando lo si fa, ma l'utilità si manifesta solo quando si scorre: ``` _|←_cW_→_|_↓_ |Il contenuto è ancora visibile. --------------- |Contenuto ↑ Contenuto: contentInset.top cH |contenuto| ↓ |content| contentInset.bottom |contenuto| ↓ --------------- _|_______|___ ↑ ``` La riga superiore del contenuto sarà ancora visibile perché si trova ancora all'interno della cornice della vista a scorrimento. Un modo per pensare all'offset superiore è "di quanto spostare il contenuto verso il basso nella vista di scorrimento quando si scorre fino in cima". Per vedere un luogo in cui questa funzione viene effettivamente utilizzata, guardate l'applicazione Photos dell'iPhone. La barra di navigazione e la barra di stato sono trasparenti, mentre il contenuto della vista di scorrimento è visibile al di sotto. Questo perché la cornice della visualizzazione a scorrimento si estende fino a quel punto. Ma se non fosse per l'inserto del contenuto, non si riuscirebbe mai a far sì che la parte superiore del contenuto sia visibile dalla barra di navigazione trasparente quando si va fino in cima.
24
How is arc defined in TikZ?
```\draw (x,y) arc (start:stop:radius);``` draws an arc * with radius ```radius``` * starts from ```(x,y)``` * with center ```(x-r*cos(start), y-r*sin(start))``` and * ends at ```(x-r*cos(start)+r*cos(stop), y-r*sin(start)+r*sin(stop))```. For example, ``` \draw[red] (0,0) arc (30:60:3); ``` draws an arc * of radius ```3``` * starting from ```(0,0)``` * with center ```(0-3*cos(30),0-3*sin(30))``` and * ending at ```(0-3*cos(30)+3*cos(60),0-3*sin(30)+3*sin(60))```. ```\draw[blue] (0,0) -- ++(30+180:3) -- +(60:3); ``` draw a blue line to the arc to make a complete sector. Minimal Working Example ```\documentclass[tikz,border=12pt]{standalone} \begin{document} \foreach \start/\stop in {30/60,45/90,135/180,0/180,45/315} { \begin{tikzpicture} \draw[lightgray,ultra thin] (-6,-6) grid (6,6); \draw[red] (0,0) arc (\start:\stop:3); \draw[blue] (0,0) -- ++(\start+180:3) -- +(\stop:3); \node[anchor=north] at (0,6) {$(\start:\stop:3)$}; \end{tikzpicture} } \end{document} ```
Wie wird der Bogen in TikZ definiert?
```\draw (x,y) arc (start:stop:radius);``` zeichnet einen Bogen * mit Radius ```Radius`` * startet von ```(x,y)``` * mit Zentrum ```(x-r*cos(start), y-r*sin(start))``` und * endet bei ```(x-r*cos(start)+r*cos(stop), y-r*sin(start)+r*sin(stop))```. Zum Beispiel, ```` \draw[red] (0,0) arc (30:60:3); ``` zeichnet einen Bogen * mit dem Radius ```3``` * ausgehend von ```(0,0)``` * mit dem Mittelpunkt ``(0-3*cos(30),0-3*sin(30))``` und * endend bei ```(0-3*cos(30)+3*cos(60),0-3*sin(30)+3*sin(60))```. ```\draw[blue] (0,0) -- ++(30+180:3) -- +(60:3); ``` Ziehe eine blaue Linie zum Bogen, um einen vollständigen Sektor zu erhalten. Minimales Arbeitsbeispiel ```\documentclass[tikz,border=12pt]{standalone} \begin{document} \foreach \start/\stop in {30/60,45/90,135/180,0/180,45/315} { \begin{tikzpicture} \draw[lightgray,ultra thin] (-6,-6) grid (6,6); \draw[rot] (0,0) Bogen (\start:\stop:3); \draw[blau] (0,0) -- ++(\start+180:3) -- +(\stop:3); \node[anchor=north] at (0,6) {$(\start:\stop:3)$}; \end{tikzpicture} } \end{document} ```
¿Cómo se define el arco en TikZ?
```draw (x,y) arc (start:stop:radius);``` dibuja un arco * con radio ``radio`` * empieza en ``(x,y)`` * con centro ```(x-r*cos(inicio), y-r*sin(inicio))``` y * termina en ```(x-r*cos(inicio)+r*cos(fin), y-r*sin(inicio)+r*sin(fin))```. Por ejemplo, ``` \draw[red] (0,0) arc (30:60:3); ``` dibuja un arco * de radio ```3`` * partiendo de ``(0,0)``` * con centro ``(0-3*cos(30),0-3*sin(30))``` y * terminando en ```(0-3*cos(30)+3*cos(60),0-3*sin(30)+3*sin(60))```. ```draw[blue] (0,0) -- ++(30+180:3) -- +(60:3); ``` dibujar una línea azul al arco para hacer un sector completo. Ejemplo de trabajo mínimo ```documentclass[tikz,border=12pt]{standalone} \begin{documento} \foreach \start/\stop in {30/60,45/90,135/180,0/180,45/315} { \begin{tikzpicture} \draw[lightgray,ultra thin] (-6,-6) cuadrícula (6,6); \draw[red] (0,0) arco (\start:\stop:3); \draw[blue] (0,0) -- ++(\start+180:3) -- +(\stop:3); \nodo[ancla=norte] en (0,6) {$(\start:\stop:3)$}; \end{tikzpicture} } \end{document} ```
Comment l'arc est-il défini dans TikZ ?
```draw (x,y) arc (start:stop:radius);``` dessine un arc * avec un rayon ``radius`` * commence à partir de ``(x,y)```` * avec pour centre ``(x-r*cos(start), y-r*sin(start))`` et * se termine à ``(x-r*cos(start)+r*cos(stop), y-r*sin(start)+r*sin(stop))``. Par exemple, ``` \draw[red] (0,0) arc (30:60:3) ; ``` dessine un arc * de rayon ``3``` * partant de ``(0,0)`` * avec pour centre ``(0-3*cos(30),0-3*sin(30))`` et * se terminant à ``(0-3*cos(30)+3*cos(60),0-3*sin(30)+3*sin(60))``. ```{Dessin[bleu] (0,0) -- ++(30+180:3) -- +(60:3) ; ``` Tracez une ligne bleue jusqu'à l'arc pour obtenir un secteur complet. Exemple de travail minimal ```\documentclass[tikz,border=12pt]{standalone} \begin{document} \foreach \start/\stop in {30/60,45/90,135/180,0/180,45/315} { \begin{tikzpicture} \draw[lightgray,ultra thin] (-6,-6) grid (6,6) ; \draw[red] (0,0) arc (\start:\stop:3) ; \draw[blue] (0,0) -- ++(\start+180:3) -- +(\stop:3) ; \node[anchor=north] at (0,6) {$(\start:\stop:3)$} ; \end{tikzpicture} } \n- \n- \n- \n- \n- \n- \n-{document} ```
Come viene definito l'arco in TikZ?
``Disegna (x,y) arco (start:stop:raggio);`` disegna un arco * con raggio ```radius``` * parte da ```(x,y)```` * con centro ```(x-r*cos(start), y-r*sin(start))`` e * termina in ```(x-r*cos(start)+r*cos(stop), y-r*sin(start)+r*sin(stop))```. Ad esempio, ```disegna[rosso] (0,0) arco (30:60:3); ``` disegna un arco * di raggio ```3``` * a partire da ```(0,0)```` * con centro ```(0-3*cos(30),0-3*sin(30))`` e * che termina in ```(0-3*cos(30)+3*cos(60),0-3*sin(30)+3*sin(60))```. ``Disegna[blu] (0,0) -- ++(30+180:3) -- +(60:3); ``` tracciare una linea blu sull'arco per ottenere un settore completo. Esempio di lavoro minimo ``documentclass[tikz,border=12pt]{standalone} \´inizio{documento} \per ogni inizio/arresto in {30/60,45/90,135/180,0/180,45/315} { \begin{tikzpicture} \Disegno[grigio chiaro, ultra sottile] (-6,-6) griglia (6,6); \draw[red] (0,0) arco (\start:\stop:3); \draw[blue] (0,0) -- ++(\start+180:3) -- +(\stop:3); \node[anchor=north] a (0,6) {$(\start:\stop:3)$}; \´fine{tikzpicture} } \´fine{documento} ```
25
How to connect mysql workbench to running mysql inside docker?
By default after deployment MySQL has following connection restrictions: ```mysql> select host, user from mysql.user; +-----------+---------------+ | host | user | +-----------+---------------+ | localhost | healthchecker | | localhost | mysql.session | | localhost | mysql.sys | | localhost | root | +-----------+---------------+ 4 rows in set (0.00 sec) ``` Apparently, for the security purposes you will not be able to connect to it outside of the docker image. If you need to change that to allow root to connect from any host (say, for development purposes), do: * Start your mysql image with all port mappings required: ```docker run -p 3306:3306 --name=mysql57 -d mysql/mysql-server:5.7``` or, if the complete port mapping is required: ```docker run -p 3306:3306 -p 33060:33060 --name=mysql57 -d mysql/mysql-server:5.7 ``` * If this is the fresh installation - grab the default password: ```docker logs mysql57 2>&1 | grep GENERATED``` * Connect using ```mysql``` client directly to the mysqld in docker: ```docker exec -it mysql57 mysql -uroot -p``` * If this is the fresh installation you will be asked to change the password using ```ALTER USER``` command. Do it. * Run SQL: ```update mysql.user set host = '%' where user='root';``` * Quit the ```mysql``` client. * Restart the container: ```docker restart mysql57``` Now you will be able to connect from MySQL Workbench to ```host: `0.0.0.0` port: `3306` ``` After all the changes the query will show: ```select host, user from mysql.user; +-----------+---------------+ | host | user | +-----------+---------------+ | % | root | | localhost | healthchecker | | localhost | mysql.session | | localhost | mysql.sys | +-----------+---------------+ ```
Wie verbindet man mysql workbench mit dem laufenden mysql in Docker?
Standardmäßig hat MySQL nach der Installation folgende Verbindungsbeschränkungen: ```mysql> select host, user from mysql.user; +-----------+---------------+ | host | user | +-----------+---------------+ | localhost | healthchecker | | localhost | mysql.session | | localhost | mysql.sys | | localhost | root | +-----------+---------------+ 4 Zeilen im Satz (0.00 sec) ``` Offensichtlich können Sie aus Sicherheitsgründen keine Verbindung außerhalb des Docker-Images herstellen. Wenn Sie dies ändern müssen, um root eine Verbindung von einem beliebigen Host aus zu ermöglichen (z. B. für Entwicklungszwecke), tun Sie dies: * Starten Sie Ihr mysql-Image mit allen erforderlichen Port-Zuordnungen: ``docker run -p 3306:3306 --name=mysql57 -d mysql/mysql-server:5.7``` oder, wenn die vollständige Portzuordnung erforderlich ist: ```docker run -p 3306:3306 -p 33060:33060 --name=mysql57 -d mysql/mysql-server:5.7 ``` * Wenn dies eine Neuinstallation ist, nehmen Sie das Standardpasswort: ````docker logs mysql57 2>&1 | grep GENERATED`` * Verbinden Sie sich mit dem ```mysql``-Client direkt mit dem mysqld in Docker: ````docker exec -it mysql57 mysql -uroot -p``` * Wenn dies eine Neuinstallation ist, werden Sie aufgefordert, das Passwort mit dem Befehl ``ALTER USER`` zu ändern. Tun Sie es. * Starten Sie SQL: ```update mysql.user set host = '%' where user='root';``` * Beenden Sie den ```mysql``-Client. * Starten Sie den Container neu: ```docker restart mysql57``` Nun koennen Sie sich von der MySQL Workbench aus mit ```Host: `0.0.0.0`` port: `3306` ``` Nach allen Aenderungen wird die Abfrage zeigen: ```select host, user from mysql.user; +-----------+---------------+ | host | user | +-----------+---------------+ | % | root | | localhost | healthchecker | | localhost | mysql.session | | localhost | mysql.sys | +-----------+---------------+ ```
¿Cómo conectar mysql workbench para ejecutar mysql dentro de docker?
Por defecto después del despliegue MySQL tiene las siguientes restricciones de conexión: ```mysql> select host, user from mysql.user; +-----------+---------------+ | host | user | +-----------+---------------+ | Localhost Healthchecker | localhost mysql.session | localhost mysql.sys | localhost root +-----------+---------------+ 4 filas en conjunto (0.00 seg) ``` Aparentemente, por motivos de seguridad no podrás conectarte fuera de la imagen docker. Si necesitas cambiar eso para permitir que root se conecte desde cualquier host (digamos, para propósitos de desarrollo), hazlo: * Inicie su imagen mysql con todas las asignaciones de puerto requeridas: ```docker run -p 3306:3306 --name=mysql57 -d mysql/mysql-server:5.7``` o, si se requiere la asignación de puertos completa: ``docker run -p 3306:3306 -p 33060:33060 --name=mysql57 -d mysql/mysql-server:5.7 ``` * Si esta es la instalación fresca - coge la contraseña por defecto: ``docker logs mysql57 2>&1 | grep GENERATED``` * Conéctate usando el cliente ```mysql`` directamente al mysqld en docker: ``docker exec -it mysql57 mysql -uroot -p``` * Si esta es una instalación nueva, se te pedirá que cambies la contraseña usando el comando ```ALTER USER``. Hágalo. * Ejecute SQL: ```update mysql.user set host = '%' where user='root';``` * Sal del cliente ```mysql``. * Reinicia el contenedor: ``docker restart mysql57``` Ahora podrás conectarte desde MySQL Workbench a ```host: ``0.0.0.0`` port: `3306` ``` Después de todos los cambios la consulta mostrará: ```select host, user from mysql.user; +-----------+---------------+ | host | user | +-----------+---------------+ | % | root | | Localhost Healthchecker | localhost mysql.session | Localhost mysql.sys +-----------+---------------+ ```
Comment connecter mysql workbench à mysql en cours d'exécution dans docker ?
Par défaut, après le déploiement, MySQL a les restrictions de connexion suivantes : ```mysql> select host, user from mysql.user ; +-----------+---------------+ | hôte | utilisateur | +-----------+---------------+ | localhost | healthchecker | | mysql.session | localhost | mysql.session | mysql.session | mysql.session | mysql.sys | localhost | mysql.sys | localhost | root | mysql.sys | mysql.sys | mysql.sys | localhost | root | +-----------+---------------+ 4 lignes dans le jeu (0.00 sec) ``` Apparemment, pour des raisons de sécurité, vous ne pourrez pas vous y connecter en dehors de l'image docker. Si vous avez besoin de changer cela pour permettre à root de se connecter depuis n'importe quel hôte (par exemple, à des fins de développement), faites-le : * Démarrez votre image mysql avec tous les mappages de ports requis : ``docker run -p 3306:3306 --name=mysql57 -d mysql/mysql-server:5.7```` ou, si le mappage complet des ports est requis : ``docker run -p 3306:3306 -p 33060:33060 --name=mysql57 -d mysql/mysql-server:5.7 ``` * S'il s'agit d'une nouvelle installation, saisissez le mot de passe par défaut : ``docker logs mysql57 2>&1 | grep GENERATED```` * Se connecter en utilisant le client ``mysql`` directement au mysqld dans docker : ``docker exec -it mysql57 mysql -uroot -p```` * Si c'est une nouvelle installation, on vous demandera de changer le mot de passe en utilisant la commande ``ALTER USER``. Faites-le. * Exécutez SQL : ``update mysql.user set host = '%' where user='root';``` * Quittez le client ``mysql``. * Redémarrer le conteneur : ``docker restart mysql57```. Maintenant, vous pourrez vous connecter depuis MySQL Workbench à ``Host : `0.0.0.0` port : `3306` ``` Après toutes les modifications, la requête sera affichée : ``Sélectionner l'hôte, l'utilisateur dans mysql.user ; +-----------+---------------+ | host | user | +-----------+---------------+ | % | root | | localhost | healthchecker | | mysql.session | mysql.sys | localhost | mysql.sys | localhost | mysql.sys | mysql.session | localhost | mysql.sys | +-----------+---------------+ ```
Come collegare mysql workbench a mysql in esecuzione all'interno di docker?
Per impostazione predefinita, dopo la distribuzione MySQL ha le seguenti restrizioni di connessione: ```mysql> select host, user from mysql.user; +-----------+---------------+ | Host | utente | +-----------+---------------+ | localhost | healthchecker | | localhost | mysql.session | | localhost | mysql.sys | | localhost | root | +-----------+---------------+ 4 righe nel set (0,00 sec) ``` A quanto pare, per motivi di sicurezza non sarà possibile connettersi al di fuori dell'immagine docker. Se si desidera modificare questa impostazione per consentire a root di connettersi da qualsiasi host (ad esempio, per scopi di sviluppo), farlo: * Avviare l'immagine mysql con tutte le mappature delle porte richieste: ``docker run -p 3306:3306 --name=mysql57 -d mysql/mysql-server:5.7``` oppure, se è richiesta la mappatura completa delle porte: ```docker run -p 3306:3306 -p 33060:33060 --name=mysql57 -d mysql/mysql-server:5.7 ``` * Se si tratta di una nuova installazione, prendere la password predefinita: ``docker logs mysql57 2>&1 | grep GENERATED``` * Connettersi usando il client ``mysql`` direttamente a mysqld in docker: ``docker exec -it mysql57 mysql -uroot -p``` * Se si tratta di una nuova installazione, verrà chiesto di cambiare la password usando il comando ``ALTER USER``. Eseguirlo. * Eseguire l'SQL: ```aggiorna mysql.user set host = '%' where user='root'';``` * Chiudere il client ```mysql``. * Riavviare il contenitore: ``docker restart mysql57``` Ora sarà possibile connettersi da MySQL Workbench a host: 0.0.0.0 porta: `3306` ``` Dopo tutte le modifiche la query mostrerà: ```seleziona host, utente da mysql.user; +-----------+---------------+ | host | utente | +-----------+---------------+ | % | root | | localhost | healthchecker | | localhost | mysql.session | | localhost | mysql.sys | +-----------+---------------+ ```
26
Can meat spoil outside the fridge if it's baked into bread as a filling?
There are two differences between your buns and a tin can. First, your buns were heated to a core temperature of under 100°C. Yes, your oven was probably set way higher, but the water content in your filling prevents it from getting hotter than boiling water. Commercial canning is done in the vicinity of 120-130°C, which is possible because the cans are cooked under pressure. So unlike in a can, most pathogens were destroyed, but not necessarily all of them. For human consumption, that’s perfectly fine as long as the remaining ones don’t get the time-temperature combo to regrow. Second, a bread dough may be dense (although the aim is usually something different), but by no means airtight. Interestingly, wrapping meat in dense dough was used as preservation method in medieval times - the “ancestor” of today’s pork pies and pastries. But while the hard flour crust (not intended to be eaten originally) did form a protective layer and usually extended the shelf life more or less, it was by no means food safe judged by modern standards - although some pies were stored for months. But your fluffy buns are truly not a protective layer. Which means you should refrigerate your buns, but also that you get to enjoy the whole dish.
Kann Fleisch außerhalb des Kühlschranks verderben, wenn es als Füllung in Brot eingebacken wird?
Es gibt zwei Unterschiede zwischen Ihren Brötchen und einer Blechdose. Erstens wurden Ihre Brötchen auf eine Kerntemperatur von unter 100 °C erhitzt. Ja, Ihr Ofen war wahrscheinlich viel höher eingestellt, aber der Wassergehalt in Ihrer Füllung verhindert, dass sie heißer als kochendes Wasser wird. Kommerzielle Konserven werden in der Nähe von 120-130°C hergestellt, was möglich ist, weil die Dosen unter Druck gegart werden. Anders als in einer Dose wurden also die meisten Krankheitserreger abgetötet, aber nicht unbedingt alle. Für den menschlichen Verzehr ist das völlig in Ordnung, solange die verbleibenden Keime nicht die Zeit-Temperatur-Kombination erhalten, um wieder zu wachsen. Zweitens kann ein Brotteig zwar dicht sein (obwohl das Ziel meist ein anderes ist), aber keineswegs luftdicht. Interessanterweise wurde das Einwickeln von Fleisch in dichten Teig im Mittelalter als Konservierungsmethode verwendet - der "Vorläufer" der heutigen Schweinefleischpasteten und -pasteten. Die harte Mehlkruste (die ursprünglich nicht zum Verzehr gedacht war) bildete zwar eine Schutzschicht und verlängerte in der Regel die Haltbarkeit mehr oder weniger, war aber nach modernen Maßstäben keineswegs lebensmittelecht - obwohl manche Pasteten monatelang gelagert wurden. Aber Ihre flauschigen Brötchen sind nun wirklich keine Schutzschicht. Das bedeutet, dass Sie Ihre Brötchen im Kühlschrank aufbewahren sollten, aber auch, dass Sie das ganze Gericht genießen können.
¿Puede estropearse la carne fuera del frigorífico si se introduce en el pan como relleno?
Hay dos diferencias entre sus bollos y una lata. En primer lugar, los bollos se calentaron a una temperatura central de menos de 100°C. Sí, probablemente tu horno estaba a una temperatura mucho más alta, pero el contenido de agua de tu relleno impide que se caliente más que el agua hirviendo. El enlatado comercial se realiza a una temperatura cercana a los 120-130°C, lo que es posible porque las latas se cuecen a presión. Así que, a diferencia de lo que ocurre en una lata, la mayoría de los patógenos se destruyen, pero no necesariamente todos. Para el consumo humano, eso está perfectamente bien siempre que los que queden no tengan el combo tiempo-temperatura para volver a crecer. En segundo lugar, una masa de pan puede ser densa (aunque el objetivo suele ser otro), pero de ningún modo hermética. Curiosamente, envolver la carne en una masa densa se utilizaba como método de conservación en la época medieval, el "antepasado" de los actuales pasteles y empanadas de carne de cerdo. Pero aunque la dura corteza de harina (que originalmente no estaba pensada para comerse) formaba una capa protectora y solía alargar más o menos la vida útil, no era en absoluto un alimento seguro según los estándares modernos, aunque algunos pasteles se conservaban durante meses. Pero sus esponjosos bollos no son realmente una capa protectora. Lo que significa que debes refrigerar tus bollos, pero también que puedes disfrutar de todo el plato.
La viande peut-elle se détériorer en dehors du réfrigérateur si elle est incorporée dans du pain en tant que garniture ?
Il existe deux différences entre vos petits pains et une boîte de conserve. Tout d'abord, vos petits pains ont été chauffés à une température à cœur inférieure à 100°C. Certes, votre four était probablement réglé à une température beaucoup plus élevée, mais la teneur en eau de votre garniture l'empêche d'atteindre une température supérieure à celle de l'eau bouillante. Les conserves commerciales sont chauffées à une température avoisinant les 120-130°C, ce qui est possible parce que les conserves sont cuites sous pression. Ainsi, contrairement à ce qui se passe dans une boîte de conserve, la plupart des agents pathogènes ont été détruits, mais pas nécessairement tous. Pour la consommation humaine, c'est tout à fait acceptable tant que les pathogènes restants ne bénéficient pas d'un combo temps-température pour se régénérer. Deuxièmement, une pâte à pain peut être dense (bien que l'objectif soit généralement différent), mais elle n'est en aucun cas hermétique. Il est intéressant de noter que l'emballage de la viande dans une pâte dense était utilisé comme méthode de conservation à l'époque médiévale - l'"ancêtre" des tourtes et pâtisseries au porc d'aujourd'hui. Mais si la croûte de farine dure (qui n'était pas destinée à être mangée à l'origine) formait une couche protectrice et prolongeait plus ou moins la durée de conservation, elle n'était en aucun cas sûre d'un point de vue alimentaire selon les normes modernes - bien que certaines tourtes aient été conservées pendant des mois. Mais vos petits pains moelleux ne constituent vraiment pas une couche protectrice. Cela signifie que vous devez réfrigérer vos brioches, mais aussi que vous pouvez déguster le plat dans son intégralité.
La carne può rovinarsi fuori dal frigorifero se viene cotta nel pane come ripieno?
Ci sono due differenze tra i vostri panini e una lattina. In primo luogo, i vostri panini sono stati riscaldati a una temperatura interna inferiore ai 100°C. Sì, il vostro forno era probabilmente impostato su una temperatura molto più alta, ma il contenuto d'acqua del vostro ripieno impedisce che si scaldi più dell'acqua bollente. Le conserve commerciali vengono fatte intorno ai 120-130°C, il che è possibile perché i barattoli vengono cotti sotto pressione. Quindi, a differenza della lattina, la maggior parte degli agenti patogeni viene distrutta, ma non necessariamente tutti. Per il consumo umano, questo va benissimo, purché i rimanenti non abbiano la combinazione tempo-temperatura per ricrescere. In secondo luogo, l'impasto del pane può essere denso (anche se lo scopo è di solito diverso), ma non è assolutamente ermetico. È interessante notare che l'avvolgimento della carne in un impasto denso veniva utilizzato come metodo di conservazione in epoca medievale - l'"antenato" degli odierni pasticci e pasticcini di maiale. Tuttavia, anche se la crosta di farina dura (non destinata a essere mangiata) formava uno strato protettivo e di solito prolungava più o meno la durata di conservazione, non era assolutamente sicura per gli alimenti secondo gli standard moderni, anche se alcuni pasticci venivano conservati per mesi. Ma i vostri soffici panini non sono davvero uno strato protettivo. Ciò significa che dovreste conservare i vostri panini in frigorifero, ma anche che potrete godervi l'intero piatto.
27
I'm wondering how the XML Schema specification handles these cases: ``` ``` No maxOccurs given -> Is this the cardinality [1..1]? ``` ``` I suppose this is simply invalid? ``` ``` Is this the cardinality [0..2] or [1..2]? Is there an "official" definition on how the XML Schema spec handles these cases?
New, expanded answer to an old, commonly asked question... Default Values * Occurrence constraints ```minOccurs``` and ```maxOccurs``` default to ```1```. Common Cases Explained ``` ``` means ```A``` is required and must appear exactly once. ``` ``` means ```A``` is optional and may appear at most once. ``` ``` means ```A``` is required and may repeat an unlimited number of times. ``` ``` means ```A``` is optional and may repeat an unlimited number of times. See Also * W3C XML Schema Part 0: Primer In general, an element is required to appear when the value of minOccurs is 1 or more. The maximum number of times an element may appear is determined by the value of a maxOccurs attribute in its declaration. This value may be a positive integer such as 41, or the term unbounded to indicate there is no maximum number of occurrences. The default value for both the minOccurs and the maxOccurs attributes is 1. Thus, when an element such as comment is declared without a maxOccurs attribute, the element may not occur more than once. Be sure that if you specify a value for only the minOccurs attribute, it is less than or equal to the default value of maxOccurs, i.e. it is 0 or 1. Similarly, if you specify a value for only the maxOccurs attribute, it must be greater than or equal to the default value of minOccurs, i.e. 1 or more. If both attributes are omitted, the element must appear exactly once. * W3C XML Schema Part 1: Structures Second Edition ```<element maxOccurs = (nonNegativeInteger | unbounded) : 1 minOccurs = nonNegativeInteger : 1 > ```
Ich frage mich, wie die XML-Schema-Spezifikation mit diesen Fällen umgeht: ``` ``` Kein maxOccurs angegeben -> Ist dies die Kardinalität [1..1]? ``` ``` Ich nehme an, dies ist einfach ungültig? ``` ``` Ist dies die Kardinalität [0..2] oder [1..2]? Gibt es eine "offizielle" Definition, wie die XML-Schema-Spezifikation diese Fälle behandelt?
Neue, erweiterte Antwort auf eine alte, häufig gestellte Frage... Standardwerte * Die Beschränkungen ``minOccurs`` und ``maxOccurs`` sind standardmäßig auf ``1`` gesetzt. Häufige Fälle werden erklärt ``` ``` bedeutet, dass ```A`` erforderlich ist und genau einmal vorkommen muss. ``` ``` bedeutet, dass ```A``` optional ist und höchstens einmal vorkommen darf. ``` ``` bedeutet, dass ```A``` erforderlich ist und beliebig oft wiederholt werden kann. ``` ``` bedeutet ```A``` ist optional und kann beliebig oft wiederholt werden. Siehe auch * W3C XML Schema Teil 0: Fibel Im Allgemeinen muss ein Element erscheinen, wenn der Wert von minOccurs 1 oder mehr beträgt. Die maximale Häufigkeit, mit der ein Element wird durch den Wert eines maxOccurs-Attributs in seiner Deklaration bestimmt. Deklaration bestimmt. Dieser Wert kann eine positive ganze Zahl wie 41 sein, oder der Begriff unbounded sein, um anzugeben, dass es keine maximale Anzahl von Vorkommen gibt. Der Standardwert sowohl für das minOccurs- als auch für das maxOccurs-Attribut ist 1. ist 1. Wenn also ein Element wie comment ohne ein maxOccurs-Attribut deklariert wird, darf das Element nicht mehr als einmal vorkommen. Achten Sie darauf dass, wenn Sie einen Wert nur für das minOccurs-Attribut angeben, dieser kleiner oder gleich dem Standardwert von maxOccurs ist, d.h. 0 oder 1 ist. Wenn Sie einen Wert nur für das Attribut maxOccurs angeben, muss dieser größer oder gleich dem Standardwert von minOccurs sein, d. h. 1 oder mehr. Wenn beide Attribute weggelassen werden, muss das Element genau einmal vorkommen. * W3C XML Schema Part 1: Structures Second Edition ```<Element maxOccurs = (nonNegativeInteger | unbounded) : 1 minOccurs = nonNegativeInteger : 1 > ```
Me pregunto cómo trata la especificación XML Schema estos casos: ``` ``` No maxOccurs given -> ¿Es la cardinalidad [1..1]? ``` ``` ¿Supongo que esto es simplemente inválido? ``` ``` ¿Se trata de la cardinalidad [0..2] o [1..2]? ¿Existe una definición "oficial" sobre cómo la especificación XML Schema maneja estos casos?
Nueva respuesta ampliada a una vieja pregunta frecuente... Valores por defecto * Las restricciones de ocurrencia ``minOccurs`` y ``maxOccurs`` son por defecto ```1``. Explicación de casos comunes ``` ``` significa que ```A`` es obligatorio y debe aparecer exactamente una vez. ``` ``` significa que ```A`` es opcional y puede aparecer como máximo una vez. ``` ``` significa que ```A`` es obligatorio y puede repetirse un número ilimitado de veces. ``` ``` significa que ```A`` es opcional y puede repetirse un número ilimitado de veces. Véase también * Esquema XML del W3C, parte 0: introducción En general, un elemento debe aparecer cuando el valor de minOccurs es 1 o más. El número máximo de veces que un elemento puede aparecer está determinado por el valor del atributo maxOccurs en su declaración. en su declaración. Este valor puede ser un número entero positivo, como 41, o el término para indicar que no existe un número máximo de apariciones. El valor por defecto de los atributos minOccurs y maxOccurs es 1. Por lo tanto, cuando un elemento como comment se declara sin un atributo maxOccurs, el elemento no puede aparecer más de una vez. Asegúrese de que de que si especifica un valor sólo para el atributo minOccurs, éste sea sea menor o igual que el valor predeterminado de maxOccurs, es decir, que sea 0 o 1. Del mismo modo, si especifica un valor sólo para el atributo maxOccurs, debe ser mayor o igual que el valor predeterminado de minOccurs, es decir, 1 o más. Si se omiten ambos atributos, el elemento debe aparecer exactamente una vez. * W3C XML Schema Part 1: Structures Second Edition ```<elemento maxOccurs = (nonNegativeInteger | unbounded) : 1 minOccurs = nonNegativeInteger : 1 > ```
Je me demande comment la spécification XML Schema traite ces cas : ``` ``` Pas de maxOccurs donné -> Est-ce la cardinalité [1..1] ? ``` ``` Je suppose que c'est simplement invalide ? ``` ``` S'agit-il de la cardinalité [0..2] ou [1..2] ? Existe-t-il une définition "officielle" de la manière dont la spécification XML Schema traite ces cas ?
Une nouvelle réponse élargie à une ancienne question fréquemment posée... Valeurs par défaut * Les contraintes d'occurrence ``minOccurs`` et ``maxOccurs`` sont par défaut à ``1``. Explication des cas courants ``` ``` signifie que ``A`` est obligatoire et doit apparaître exactement une fois. ``` ``` signifie que ``A`` est optionnel et peut apparaître au plus une fois. ``` ``` signifie que ``A``` est obligatoire et peut être répété un nombre illimité de fois. ``` ``` signifie que "A" est facultatif et peut être répété un nombre illimité de fois. Voir aussi * W3C XML Schema Part 0 : Primer (en anglais) En général, un élément doit apparaître lorsque la valeur de minOccurs est égale ou supérieure à 1. Le nombre maximum de fois qu'un élément peut apparaître est déterminé par la valeur de l'attribut maxOccurs dans sa dans sa déclaration. Cette valeur peut être un nombre entier positif tel que 41, ou le terme pour indiquer qu'il n'y a pas de nombre maximal d'occurrences. La valeur par défaut des attributs minOccurs et maxOccurs est 1. est de 1. Ainsi, lorsqu'un élément tel que comment est déclaré sans attribut maxOccurs, l'élément ne peut pas apparaître plus d'une fois. Assurez-vous que si vous spécifiez une valeur pour l'attribut minOccurs uniquement, elle est inférieure ou égale à la valeur par défaut de l'attribut maxOccurs. inférieure ou égale à la valeur par défaut de maxOccurs, c'est-à-dire 0 ou 1. De même, si vous spécifiez une valeur pour l'attribut maxOccurs uniquement, elle doit être supérieure ou égale à la valeur par défaut de minOccurs, c'est-à-dire 1 ou plus. Si les deux attributs sont omis, l'élément doit apparaître exactement une fois. apparaître exactement une fois. * W3C XML Schema Part 1 : Structures Second Edition ```<élément maxOccurs = (nonNegativeInteger | unbounded) : 1 minOccurs = nonNegativeInteger : 1 > ```
Mi chiedo come le specifiche di XML Schema gestiscano questi casi: ``` ``` Nessun maxOccurs indicato -> È la cardinalità [1..1]? ``` ``` Suppongo che questo sia semplicemente non valido? ``` ``` Si tratta della cardinalità [0..2] o [1..2]? Esiste una definizione "ufficiale" di come le specifiche di XML Schema gestiscono questi casi?
Una nuova risposta ampliata a una vecchia domanda comune... Valori predefiniti * I vincoli di ricorrenza ``minOccurs`` e ```maxOccurs`` sono predefiniti a ```1``. Casi comuni spiegati ``` ``` significa che ```A`` è richiesto e deve comparire esattamente una volta. ``` ``` significa che ```A`` è opzionale e può comparire al massimo una volta. ``` ``` significa che ```A`` è obbligatorio e può essere ripetuto un numero illimitato di volte. ``` ``` significa che ```A`` è facoltativo e può essere ripetuto un numero illimitato di volte. Vedere anche * W3C XML Schema Parte 0: Primer In generale, è necessario che un elemento appaia quando il valore di minOccurs è pari o superiore a 1. Il numero massimo di volte in cui un elemento può elemento può apparire è determinato dal valore dell'attributo maxOccurs nella sua dichiarazione. nella sua dichiarazione. Questo valore può essere un numero intero positivo, come 41, o il termine per indicare che non esiste un numero massimo di occorrenze. Il valore predefinito per entrambi gli attributi minOccurs e maxOccurs è 1. Pertanto, quando un elemento viene inserito in un'etichetta, il suo numero massimo di occorrenze è 1. è 1. Pertanto, quando un elemento come comment viene dichiarato senza l'attributo maxOccurs, l'elemento non può essere presente più di una volta. Assicurarsi che che se si specifica un valore per il solo attributo minOccurs, questo sia inferiore o uguale al valore predefinito. sia inferiore o uguale al valore predefinito di maxOccurs, ovvero sia 0 o 1. Allo stesso modo, se si specifica un valore per il solo attributo maxOccurs, questo deve essere maggiore o uguale al valore predefinito di minOccurs, cioè 1 o più. Se entrambi gli attributi vengono omessi, l'elemento deve deve apparire esattamente una volta. * W3C XML Schema Parte 1: Strutture Seconda Edizione ```<elemento maxOccurs = (nonNegativeInteger | unbounded) : 1 minOccurs = nonNegativeInteger : 1 > ```
28
Were there any flying dinosaurs?
Birds are both flying dinosaurs and flying reptiles. Yes, that's potentially confusing. To understand the apparent contradiction, you have to understand how modern classification of organisms works (phylogenetic systematics). Under the old (Linnean) classification system, Reptilia (reptiles) was an order and Aves (birds) was a separate order. Phylogenetic systematics, which has completely replaced the Linnean system, views all organisms as interrelated in a nested set of monophyletic groups (clades). It's like a set of venn diagrams, where all organisms fall into a giant circle and then successively smaller circles classify more and more specific groups. The clade Reptilia includes snakes, lizards, crocodiles, and lots of extinct groups, including dinosaurs. So all dinosaurs are reptiles. The clade Dinosauria includes all the extinct dinosaurs (Stegosaurus, Triceratops, sauropods, etc.), including theropod dinosaurs, which include well known dinosaurs like Tyrannosaurus and Allosaurus. Based on a mountain on anatomical evidence, including lots of transitional fossils, living birds are a sub-group of theropod dinosaurs. So all birds (Aves) are theropod dinosaurs (Dinosauria: Theropoda). All dinosaurs are reptiles. Therefore, birds are dinosaurs and reptiles. They are just more closely related to dinosaurs than to other reptiles. The tricky part is that most people have an intuitive idea of what "reptiles" and "dinosaurs" are. To a systematist, whose job it is to classify organisms, these terms don't mean the same thing as they do to most people. Systematists think about groups like Reptilia and Dinosauria and how those groups are related to one another. So they have no problem saying that birds are dinosaurs and reptiles, because birds are nested within both of those groups. A few words about pterosaurs Along with birds and bats, pterosaurs are the other clade of vertebrates capable of powered, flapping flight. Pterosaurs fall within Reptilia (and Diapsida and Archosauria) along with Dinosauria, which includes birds. There are a lot of other extinct lineages in the tree that are not shown, e.g., ornithodirans that are not dinosaurs and not pterosaurs. Pterosaurs and birds share anatomical features that all reptiles, diapsids, archosaurs, and ornithodirans have, which is how we know that they are more closely related to each other than to other groups, like crocodiles. But their flight structures evolved independently and are anatomically distinct fro one another. So pterosaurs are flying reptiles but not flying dinosaurs. These images might help you understand the above explanation.
Gab es auch fliegende Dinosaurier?
Vögel sind sowohl fliegende Dinosaurier als auch fliegende Reptilien. Ja, das kann verwirrend sein. Um den scheinbaren Widerspruch zu verstehen, muss man wissen, wie die moderne Klassifizierung von Organismen funktioniert (phylogenetische Systematik). Nach dem alten (Linne'schen) Klassifizierungssystem waren die Reptilien (Reptilia) eine Ordnung und die Vögel (Aves) eine eigene Ordnung. Die phylogenetische Systematik, die das Linne'sche System vollständig ersetzt hat, betrachtet alle Organismen als miteinander verbunden in einer verschachtelten Reihe von monophyletischen Gruppen (Kladen). Es ist wie eine Reihe von Venn-Diagrammen, bei denen alle Organismen in einen großen Kreis fallen und dann sukzessive kleinere Kreise immer spezifischere Gruppen klassifizieren. Die Gruppe Reptilia umfasst Schlangen, Eidechsen, Krokodile und viele ausgestorbene Gruppen, darunter auch Dinosaurier. Alle Dinosaurier sind also Reptilien. Zur Gruppe der Dinosauria gehören alle ausgestorbenen Dinosaurier (Stegosaurus, Triceratops, Sauropoden usw.), einschließlich der Theropoden, zu denen bekannte Dinosaurier wie Tyrannosaurus und Allosaurus gehören. Ausgehend von einem Berg an anatomischen Beweisen, einschließlich vieler Übergangsfossilien, sind die lebenden Vögel eine Untergruppe der theropoden Dinosaurier. Alle Vögel (Aves) sind also Theropoda-Dinosaurier (Dinosauria: Theropoda). Alle Dinosaurier sind Reptilien. Vögel sind also Dinosaurier und Reptilien. Sie sind nur enger mit Dinosauriern verwandt als mit anderen Reptilien. Das Schwierige daran ist, dass die meisten Menschen eine intuitive Vorstellung davon haben, was "Reptilien" und "Dinosaurier" sind. Für einen Systematiker, dessen Aufgabe es ist, Organismen zu klassifizieren, haben diese Begriffe nicht dieselbe Bedeutung wie für die meisten Menschen. Systematiker denken über Gruppen wie Reptilia und Dinosauria nach und wie diese Gruppen miteinander verwandt sind. Sie haben also kein Problem damit zu sagen, dass Vögel Dinosaurier und Reptilien sind, weil Vögel in diese beiden Gruppen eingebettet sind. Ein paar Worte über Pterosaurier Neben den Vögeln und den Fledermäusen sind die Flugsaurier die zweite Gruppe von Wirbeltieren, die zum motorisierten Flügelschlag fähig sind. Pterosaurier gehören zu den Reptilia (und Diapsida und Archosauria) zusammen mit den Dinosauria, zu denen auch die Vögel gehören. Es gibt viele andere ausgestorbene Abstammungslinien im Stammbaum, die nicht gezeigt werden, z. B. Ornithodiren, die keine Dinosaurier und keine Pterosaurier sind. Pterosaurier und Vögel haben anatomische Merkmale, die alle Reptilien, Diapsiden, Archosaurier und Ornithodiren aufweisen, weshalb wir wissen, dass sie enger miteinander verwandt sind als mit anderen Gruppen wie Krokodilen. Ihre Flugstrukturen haben sich jedoch unabhängig voneinander entwickelt und unterscheiden sich anatomisch voneinander. Pterosaurier sind also fliegende Reptilien, aber keine fliegenden Dinosaurier. Diese Bilder könnten Ihnen helfen, die obige Erklärung zu verstehen.
¿Hubo dinosaurios voladores?
Las aves son a la vez dinosaurios voladores y reptiles voladores. Sí, eso es potencialmente confuso. Para entender la aparente contradicción, hay que comprender cómo funciona la clasificación moderna de los organismos (sistemática filogenética). En el antiguo sistema de clasificación (linneano), Reptilia (reptiles) era un orden y Aves (aves) era un orden aparte. La sistemática filogenética, que ha sustituido por completo al sistema linneano, considera que todos los organismos están interrelacionados en un conjunto anidado de grupos monofiléticos (clados). Es como un conjunto de diagramas de Venn, donde todos los organismos caen en un círculo gigante y luego círculos sucesivamente más pequeños clasifican grupos cada vez más específicos. El clado Reptilia incluye serpientes, lagartos, cocodrilos y muchos grupos extintos, incluidos los dinosaurios. Por tanto, todos los dinosaurios son reptiles. El clado Dinosauria incluye todos los dinosaurios extintos (estegosaurios, triceratops, saurópodos, etc.), incluidos los dinosaurios terópodos, que incluyen dinosaurios bien conocidos como el Tyrannosaurus y el Allosaurus. Basándose en una montaña de pruebas anatómicas, entre las que se incluyen montones de fósiles transicionales, las aves vivas son un subgrupo de los dinosaurios terópodos. Así que todas las aves (Aves) son dinosaurios terópodos (Dinosauria: Theropoda). Todos los dinosaurios son reptiles. Por lo tanto, las aves son dinosaurios y reptiles. Simplemente están más emparentadas con los dinosaurios que con otros reptiles. Lo complicado es que la mayoría de la gente tiene una idea intuitiva de lo que son los "reptiles" y los "dinosaurios". Para un sistemático, cuyo trabajo consiste en clasificar organismos, estos términos no significan lo mismo que para la mayoría de la gente. Los sistemáticos piensan en grupos como Reptilia y Dinosauria y en cómo se relacionan entre sí. Así que no tienen ningún problema en decir que las aves son dinosaurios y reptiles, porque las aves están anidadas dentro de esos dos grupos. Unas palabras sobre los pterosaurios Junto con las aves y los murciélagos, los pterosaurios son el otro clado de vertebrados capaces de realizar vuelos con motor y aleteo. Los pterosaurios forman parte de Reptilia (y Diapsida y Archosauria) junto con Dinosauria, que incluye a las aves. Hay muchos otros linajes extintos en el árbol que no se muestran, por ejemplo, los ornitodiranos que no son dinosaurios ni pterosaurios. Los pterosaurios y las aves comparten características anatómicas que tienen todos los reptiles, los diápsidos, los arcosaurios y los ornitodiros, por lo que sabemos que están más emparentados entre sí que con otros grupos, como los cocodrilos. Pero sus estructuras de vuelo evolucionaron de forma independiente y son anatómicamente distintas entre sí. Así pues, los pterosaurios son reptiles voladores, pero no dinosaurios voladores. Estas imágenes pueden ayudarle a entender la explicación anterior.
Y avait-il des dinosaures volants ?
Les oiseaux sont à la fois des dinosaures et des reptiles volants. Oui, cela peut prêter à confusion. Pour comprendre la contradiction apparente, il faut comprendre comment fonctionne la classification moderne des organismes (systématique phylogénétique). Dans l'ancien système de classification (linnéen), les Reptilia (reptiles) constituaient un ordre et les Aves (oiseaux) un ordre distinct. La systématique phylogénétique, qui a complètement remplacé le système linnéen, considère que tous les organismes sont liés entre eux dans un ensemble emboîté de groupes monophylétiques (clades). C'est comme un ensemble de diagrammes de Venn, où tous les organismes sont regroupés dans un cercle géant, puis des cercles de plus en plus petits classent des groupes de plus en plus spécifiques. Le clade Reptilia comprend les serpents, les lézards, les crocodiles et de nombreux groupes éteints, dont les dinosaures. Tous les dinosaures sont donc des reptiles. Le clade Dinosauria comprend tous les dinosaures éteints (Stegosaurus, Triceratops, sauropodes, etc.), y compris les dinosaures théropodes, qui comprennent des dinosaures bien connus comme Tyrannosaurus et Allosaurus. Sur la base d'une montagne de preuves anatomiques, y compris de nombreux fossiles de transition, les oiseaux vivants constituent un sous-groupe de dinosaures théropodes. Tous les oiseaux (Aves) sont donc des dinosaures théropodes (Dinosauria : Theropoda). Tous les dinosaures sont des reptiles. Par conséquent, les oiseaux sont à la fois des dinosaures et des reptiles. Ils sont simplement plus étroitement liés aux dinosaures qu'aux autres reptiles. La difficulté réside dans le fait que la plupart des gens ont une idée intuitive de ce que sont les "reptiles" et les "dinosaures". Pour un systématicien, dont le travail consiste à classer les organismes, ces termes n'ont pas la même signification que pour la plupart des gens. Les systématiciens pensent à des groupes tels que les Reptilia et les Dinosauria et à la manière dont ces groupes sont liés les uns aux autres. Ils n'ont donc aucun problème à dire que les oiseaux sont des dinosaures et des reptiles, parce que les oiseaux sont imbriqués dans ces deux groupes. Quelques mots sur les ptérosaures Avec les oiseaux et les chauves-souris, les ptérosaures constituent l'autre clade de vertébrés capables de voler en battant des ailes. Les ptérosaures font partie des Reptilia (ainsi que des Diapsida et des Archosauria) et des Dinosauria, qui comprennent les oiseaux. L'arbre comporte de nombreuses autres lignées éteintes qui ne sont pas représentées, par exemple les ornithodiriens qui ne sont ni des dinosaures ni des ptérosaures. Les ptérosaures et les oiseaux partagent des caractéristiques anatomiques que possèdent tous les reptiles, les diapsides, les archosaures et les ornithodiriens, ce qui nous permet de savoir qu'ils sont plus étroitement apparentés les uns aux autres qu'à d'autres groupes, comme les crocodiles. Mais leurs structures de vol ont évolué indépendamment et sont anatomiquement distinctes les unes des autres. Les ptérosaures sont donc des reptiles volants, mais pas des dinosaures volants. Ces images peuvent vous aider à comprendre l'explication ci-dessus.
Esistevano dinosauri volanti?
Gli uccelli sono sia dinosauri che rettili volanti. Sì, questo è potenzialmente fonte di confusione. Per comprendere l'apparente contraddizione, bisogna capire come funziona la moderna classificazione degli organismi (sistematica filogenetica). Secondo il vecchio sistema di classificazione (linneano), Reptilia (rettili) era un ordine e Aves (uccelli) era un ordine separato. La sistematica filogenetica, che ha completamente sostituito il sistema linneano, considera tutti gli organismi come interrelati in un insieme annidato di gruppi monofiletici (cladi). È come un insieme di diagrammi di Venn, dove tutti gli organismi rientrano in un cerchio gigante e poi cerchi più piccoli classificano gruppi sempre più specifici. Il clade Reptilia comprende serpenti, lucertole, coccodrilli e molti gruppi estinti, tra cui i dinosauri. Quindi tutti i dinosauri sono rettili. Il clade Dinosauria comprende tutti i dinosauri estinti (Stegosauro, Triceratopo, sauropodi, ecc.), compresi i dinosauri teropodi, che includono dinosauri ben noti come Tirannosauro e Allosauro. Sulla base di una montagna di prove anatomiche, tra cui molti fossili di transizione, gli uccelli viventi sono un sottogruppo di dinosauri teropodi. Quindi tutti gli uccelli (Aves) sono dinosauri teropodi (Dinosauria: Theropoda). Tutti i dinosauri sono rettili. Pertanto, gli uccelli sono dinosauri e rettili. Sono solo più strettamente imparentati con i dinosauri che con gli altri rettili. La parte difficile è che la maggior parte delle persone ha un'idea intuitiva di cosa siano "rettili" e "dinosauri". Per un sistematico, il cui compito è classificare gli organismi, questi termini non hanno lo stesso significato che hanno per la maggior parte delle persone. I sistematici pensano a gruppi come Reptilia e Dinosauria e a come questi gruppi siano correlati tra loro. Quindi non hanno problemi a dire che gli uccelli sono dinosauri e rettili, perché gli uccelli sono annidati all'interno di entrambi i gruppi. Qualche parola sugli pterosauri Insieme agli uccelli e ai pipistrelli, gli pterosauri sono l'altro clade di vertebrati in grado di spiccare il volo. Gli pterosauri rientrano nei Reptilia (e Diapsida e Archosauria) insieme ai Dinosauria, che comprendono gli uccelli. Ci sono molti altri lignaggi estinti nell'albero che non sono mostrati, ad esempio gli ornitodirani che non sono dinosauri e non sono pterosauri. Gli pterosauri e gli uccelli condividono caratteristiche anatomiche che hanno tutti i rettili, i diapsidi, gli arcosauri e gli ornitodirani, ed è per questo che sappiamo che sono più strettamente imparentati tra loro che con altri gruppi, come i coccodrilli. Ma le loro strutture di volo si sono evolute in modo indipendente e sono anatomicamente distinte l'una dall'altra. Gli pterosauri sono quindi rettili volanti, ma non dinosauri volanti. Queste immagini possono aiutarvi a capire la spiegazione di cui sopra.
29
Say, a table ```car``` has one-to-one relationship to tables ```electric_car```, ```gas_car```, and ```hybrid_car```. If a ```car``` is ```electric_car```, it can no longer appear in ```gas_car``` or a ```hybrid_car```, etc. Is it a bad practice to have several mutually exclusive one-to-one relationships in database design?
The different types of cars are an instance of a general problem that surfaces over and over again in data modeling. It is called "generalization/specialization" in ER modeling, and "superclass/subclass" in object modeling. An object modeler uses the inheritance features built into the object model to solve the problem quite easily. The subclasses simply extend the superclass. The relational modeler is faced with a problem. how to design the tables so as to emulate the benefits that one would get from inheritance? The simplest technique is called single table inheritance. Data about all types of cars are grouped into a single table for cars. There is a column, car_type, that groups together all the cars of a single type. No car can belong to more than one type. If a column is irrelevant to, say, electric cars, it will be left NULL in the rows that pertain to electric cars. This simple solution works well for the smaller and simpler cases. The presence of a lot of NULLs adds a tiny bit to storage overhead, and a little bit to retrieval overhead. The developer may have to learn SQL three-valued logic if boolean tests are done on nullable columns. This can be baffling at first, but one gets used to it. There is another technique, called class table inheritance. In this design, there are separate tables for gas_car, electric_car, and hybrid_car, in addition to a combined table, car, for all of them. When you want all of the data about a specific kind of car, you join the car table with the appropriate specialized table. There are fewer NULLs in this design, but you do more joining. This technique works better in the larger and more complex cases. There is a third technique called shared primary key. This technique is often used in conjunction with class table inheritance. The specialized tables for the subclasses have, as their primary key, a copy of the primary key of the corresponding entry in the car table. This id column can be declared to be both the primary key and a foreign key. This involves a little extra programming when new cars are to be added, but it makes the joins simple, easy, and fast. Superclasses and subclasses happen all the time in the real world. Don't be afraid. But do test your initial design for performance. If your first attempt is simple and sound, you'll be able to tweak it to speed it up.
Angenommen, eine Tabelle ```Auto`` hat eine eins-zu-eins-Beziehung zu den Tabellen ```Elektroauto``, ```Gasauto`` und ```Hybridauto``. Wenn ein ``Auto`` ein ``Elektroauto`` ist, kann es nicht mehr in einem ``Gasauto`` oder einem ``Hybridauto`` vorkommen, usw. Ist es eine schlechte Praxis, mehrere sich gegenseitig ausschließende Eins-zu-Eins-Beziehungen im Datenbankdesign zu haben?
Die verschiedenen Autotypen sind ein Beispiel für ein allgemeines Problem, das bei der Datenmodellierung immer wieder auftaucht. In der ER-Modellierung wird es "Generalisierung/Spezialisierung" genannt, in der Objektmodellierung "Oberklasse/Unterklasse". Ein Objektmodellierer nutzt die in das Objektmodell eingebauten Vererbungsfunktionen, um das Problem recht einfach zu lösen. Die Unterklassen erweitern einfach die Oberklasse. Der relationale Modellierer steht vor dem Problem, wie er die Tabellen so gestalten kann, dass die Vorteile der Vererbung zum Tragen kommen. Die einfachste Technik ist die Einzeltabellenvererbung. Daten über alle Arten von Autos werden in einer einzigen Tabelle für Autos zusammengefasst. Es gibt eine Spalte car_type, in der alle Autos eines Typs zusammengefasst sind. Kein Auto kann zu mehr als einem Typ gehören. Wenn eine Spalte z. B. für Elektroautos irrelevant ist, wird sie in den Zeilen, die sich auf Elektroautos beziehen, NULL gelassen. Diese einfache Lösung funktioniert gut für die kleineren und einfacheren Fälle. Das Vorhandensein vieler NULLs erhöht den Speicher- und den Abfrage-Overhead um ein kleines bisschen. Der Entwickler muss unter Umständen die dreiwertige Logik von SQL erlernen, wenn boolesche Tests auf nullbare Spalten durchgeführt werden. Dies kann anfangs verwirrend sein, aber man gewöhnt sich daran. Es gibt eine weitere Technik, die so genannte Klassentabellenvererbung. In diesem Entwurf gibt es separate Tabellen für gas_car, electric_car und hybrid_car, zusätzlich zu einer kombinierten Tabelle car für alle. Wenn Sie alle Daten über eine bestimmte Art von Auto benötigen, verknüpfen Sie die Tabelle car mit der entsprechenden spezialisierten Tabelle. Bei diesem Entwurf gibt es weniger NULLs, aber Sie führen mehr Verknüpfungen durch. Diese Technik funktioniert besser in größeren und komplexeren Fällen. Es gibt eine dritte Technik, die als gemeinsamer Primärschlüssel bezeichnet wird. Diese Technik wird oft in Verbindung mit der Vererbung von Klassentabellen verwendet. Die spezialisierten Tabellen für die Unterklassen haben als Primärschlüssel eine Kopie des Primärschlüssels des entsprechenden Eintrags in der Autotabelle. Diese id-Spalte kann sowohl als Primärschlüssel als auch als Fremdschlüssel deklariert werden. Dies erfordert ein wenig zusätzliche Programmierung, wenn neue Autos hinzugefügt werden sollen, aber es macht die Verknüpfungen einfach, leicht und schnell. Superklassen und Unterklassen kommen in der Praxis ständig vor. Haben Sie keine Angst. Testen Sie jedoch Ihren ersten Entwurf auf seine Leistungsfähigkeit. Wenn Ihr erster Versuch einfach und solide ist, können Sie ihn optimieren, um ihn zu beschleunigen.
Digamos que una tabla ``coche`` tiene una relación de uno a uno con las tablas ``coche_eléctrico``, ``coche_gas`` y ``coche_híbrido``. Si un ``coche`` es ``coche_eléctrico``, ya no puede aparecer en ``coche_gas`` o en ``coche_híbrido``, etc. ¿Es una mala práctica tener varias relaciones uno a uno mutuamente excluyentes en el diseño de bases de datos?
Los distintos tipos de coches son un ejemplo de un problema general que aparece una y otra vez en el modelado de datos. Se denomina "generalización/especialización" en el modelado ER, y "superclase/subclase" en el modelado de objetos. Un modelador de objetos utiliza las características de herencia integradas en el modelo de objetos para resolver el problema con bastante facilidad. Las subclases simplemente extienden la superclase. El modelador relacional se enfrenta a un problema: ¿cómo diseñar las tablas para emular las ventajas que se obtendrían de la herencia? La técnica más sencilla se denomina herencia de tabla única. Los datos sobre todos los tipos de coches se agrupan en una única tabla para coches. Hay una columna, tipo_coche, que agrupa todos los coches de un mismo tipo. Ningún coche puede pertenecer a más de un tipo. Si una columna es irrelevante para, por ejemplo, los coches eléctricos, se dejará NULL en las filas que pertenezcan a coches eléctricos. Esta sencilla solución funciona bien para los casos más pequeños y simples. La presencia de muchos NULL añade un poco de sobrecarga de almacenamiento y un poco de sobrecarga de recuperación. Es posible que el desarrollador tenga que aprender la lógica de tres valores de SQL si se realizan pruebas booleanas en columnas anulables. Esto puede ser desconcertante al principio, pero uno se acostumbra. Existe otra técnica, denominada herencia de tablas de clases. En este diseño, hay tablas separadas para coche_gasolina, coche_eléctrico y coche_híbrido, además de una tabla combinada, coche, para todos ellos. Cuando se quieren todos los datos sobre un tipo específico de coche, se une la tabla coche con la tabla especializada apropiada. Hay menos NULLs en este diseño, pero se hacen más uniones. Esta técnica funciona mejor en los casos más grandes y complejos. Existe una tercera técnica llamada clave primaria compartida. Esta técnica se utiliza a menudo junto con la herencia de tablas de clases. Las tablas especializadas para las subclases tienen, como clave primaria, una copia de la clave primaria de la entrada correspondiente en la tabla del coche. Esta columna id puede declararse como clave primaria y como clave externa. Esto implica un poco de programación extra cuando se añaden nuevos coches, pero hace que las uniones sean simples, fáciles y rápidas. En el mundo real, las superclases y las subclases son frecuentes. No tengas miedo. Pero comprueba el rendimiento de tu diseño inicial. Si tu primer intento es simple y sólido, podrás modificarlo para acelerarlo.
Disons qu'une table ``car`` a une relation biunivoque avec les tables ``car_électrique``, ``car_essence``, et ``car_hybride``. Si une ``voiture`` est ``voiture_électrique``, elle ne peut plus apparaître dans ``voiture_gaz`` ou ``voiture_hybride``, etc. Est-ce une mauvaise pratique d'avoir plusieurs relations univoques mutuellement exclusives dans la conception d'une base de données ?
Les différents types de voitures sont un exemple d'un problème général qui revient sans cesse dans la modélisation des données. Ce problème est appelé "généralisation/spécialisation" dans la modélisation ER, et "superclasse/sous-classe" dans la modélisation d'objets. Un modélisateur d'objets utilise les fonctions d'héritage intégrées dans le modèle d'objets pour résoudre le problème assez facilement. Les sous-classes étendent simplement la super-classe. Le modélisateur relationnel est confronté à un problème : comment concevoir les tables de manière à reproduire les avantages de l'héritage ? La technique la plus simple est celle de l'héritage d'une seule table. Les données relatives à tous les types de voitures sont regroupées dans une table unique consacrée aux voitures. Une colonne, car_type, regroupe toutes les voitures d'un même type. Aucune voiture ne peut appartenir à plus d'un type. Si une colonne n'est pas pertinente, par exemple pour les voitures électriques, elle sera laissée à NULL dans les lignes qui concernent les voitures électriques. Cette solution simple fonctionne bien pour les cas les plus petits et les plus simples. La présence d'un grand nombre de NULL ajoute un tout petit peu à la surcharge de stockage et un petit peu à la surcharge d'extraction. Le développeur peut être amené à apprendre la logique SQL à trois valeurs si des tests booléens sont effectués sur des colonnes nullables. Cela peut être déconcertant au début, mais on s'y habitue. Il existe une autre technique, appelée héritage de table de classe. Dans cette conception, il existe des tables distinctes pour les voitures à essence, les voitures électriques et les voitures hybrides, en plus d'une table combinée, voiture, pour toutes ces voitures. Lorsque vous souhaitez obtenir toutes les données relatives à un type de voiture spécifique, vous joignez la table car à la table spécialisée appropriée. Il y a moins de NULL dans cette conception, mais vous faites plus de jointures. Cette technique fonctionne mieux dans les cas plus importants et plus complexes. Il existe une troisième technique appelée clé primaire partagée. Cette technique est souvent utilisée en conjonction avec l'héritage de tables de classes. Les tables spécialisées des sous-classes ont, comme clé primaire, une copie de la clé primaire de l'entrée correspondante dans la table des voitures. Cette colonne id peut être déclarée comme étant à la fois la clé primaire et une clé étrangère. Cela implique un peu de programmation supplémentaire lorsque de nouvelles voitures doivent être ajoutées, mais cela rend les jointures simples, faciles et rapides. Les superclasses et les sous-classes sont monnaie courante dans le monde réel. N'ayez pas peur. Mais testez les performances de votre conception initiale. Si votre première tentative est simple et solide, vous pourrez la modifier pour l'accélérer.
Ad esempio, una tabella ```car`` ha una relazione uno-a-uno con le tabelle ```electric_car``, ```gas_car`` e ```hybrid_car``. Se una ``autovettura'' è ``autovettura_elettrica'', non può più apparire in ``autovettura_gas'' o in ``autovettura_ibrida'', ecc. È una cattiva pratica avere diverse relazioni uno-a-uno mutuamente esclusive nella progettazione di un database?
I diversi tipi di auto sono un esempio di un problema generale che si ripresenta continuamente nella modellazione dei dati. Si chiama "generalizzazione/specializzazione" nella modellazione ER e "superclasse/sottoclasse" nella modellazione a oggetti. Un modellatore di oggetti usa le caratteristiche di ereditarietà incorporate nel modello a oggetti per risolvere il problema abbastanza facilmente. Le sottoclassi estendono semplicemente la superclasse. Il modellatore relazionale si trova di fronte a un problema: come progettare le tabelle in modo da emulare i vantaggi che si otterrebbero dall'ereditarietà? La tecnica più semplice è chiamata ereditarietà di una singola tabella. I dati relativi a tutti i tipi di auto sono raggruppati in un'unica tabella per le auto. C'è una colonna, tipo_auto, che raggruppa tutte le auto di un singolo tipo. Nessuna auto può appartenere a più di un tipo. Se una colonna è irrilevante, ad esempio per le auto elettriche, verrà lasciata NULL nelle righe relative alle auto elettriche. Questa semplice soluzione funziona bene per i casi più piccoli e semplici. La presenza di molti NULL aggiunge un piccolo sovraccarico di memorizzazione e un piccolo sovraccarico di recupero. Lo sviluppatore potrebbe dover imparare la logica a tre valori di SQL se i test booleani vengono eseguiti su colonne nullable. All'inizio può essere sconcertante, ma poi ci si abitua. Esiste un'altra tecnica, chiamata ereditarietà delle tabelle di classe. In questo progetto, ci sono tabelle separate per auto_benzina, auto_elettrica e auto_ibrida, oltre a una tabella combinata, auto, per tutte. Quando si desiderano tutti i dati relativi a un tipo specifico di auto, si unisce la tabella auto con la tabella specializzata appropriata. In questo modo si ottiene un minor numero di NULL, ma si effettua un maggior numero di unioni. Questa tecnica funziona meglio nei casi più grandi e complessi. Esiste una terza tecnica, chiamata chiave primaria condivisa. Questa tecnica è spesso usata insieme all'ereditarietà delle tabelle di classe. Le tabelle specializzate per le sottoclassi hanno come chiave primaria una copia della chiave primaria della voce corrispondente nella tabella auto. Questa colonna id può essere dichiarata sia come chiave primaria che come chiave esterna. Questo comporta un po' di programmazione in più quando si devono aggiungere nuove auto, ma rende le giunzioni semplici, facili e veloci. Superclassi e sottoclassi sono sempre presenti nel mondo reale. Non abbiate paura. Ma testate il vostro progetto iniziale per verificarne le prestazioni. Se il vostro primo tentativo è semplice e valido, potrete modificarlo per velocizzarlo.
30
I see a low use of Mathematica in Kaggle competitions. Why would one use the Wolfram Language versus R, Python, or Julia for machine learning? Besides prettier plots and the Manipulate function, do we have something that is useful for ML that other languages are lacking?
Mathematica doesn't have the depth of algorithm support that is present in R or Python. Julia has much more limited algorithm support but does exhibit a good turn of speed. The few algorithms that Mathematica does support are not particularly well exposed for the type of tweaking needed to win Kaggle competitions. Mathematica, as of version 10, supports the following classifiers: "LogisticRegression", "Markov", "NaiveBayes", "NearestNeighbors", "NeuralNetwork", "RandomForest", "SupportVectorMachine". Whilst it does offer one ensemble method, RandomForest, it lacks both Bagging and any flavour of boosting, such as Adaboost. These latter general ensemble methods allow you to leverage the power of a base classifier, either built-in or, of greater utility when exploring performance improvements, of your own design. This limits significantly the potential for creating novel methods within the existing machine learning framework. Mathematica's strengths lay with it's expressive, compact, language, strong visualisation capabilities and easy parallelization. These make it very efficient to explore new strategies and combinations of ML algorithms you may already have implemented. A less often mentioned benefit is that use of Mathematica in a functional programming style tends to lead to fewer bugs in the final code.
Ich sehe, dass Mathematica bei Kaggle-Wettbewerben kaum verwendet wird. Warum sollte man die Wolfram Language im Vergleich zu R, Python oder Julia für maschinelles Lernen verwenden? Haben wir neben hübscheren Diagrammen und der Funktion "Manipulieren" noch etwas, das für ML nützlich ist und anderen Sprachen fehlt?
Mathematica verfügt nicht über eine so umfangreiche Algorithmenunterstützung wie R oder Python. Julia hat eine viel begrenztere Algorithmenunterstützung, ist aber sehr schnell. Die wenigen Algorithmen, die Mathematica unterstützt, sind nicht besonders gut für die Art von Optimierungen geeignet, die für den Gewinn von Kaggle-Wettbewerben erforderlich sind. Mathematica unterstützt in der Version 10 die folgenden Klassifikatoren: "LogisticRegression", "Markov", "NaiveBayes", "NearestNeighbors", "NeuralNetwork", "RandomForest", "SupportVectorMachine". Es bietet zwar eine Ensemble-Methode, RandomForest, aber weder Bagging noch irgendeine Art von Boosting, wie z. B. Adaboost. Diese letztgenannten allgemeinen Ensemble-Methoden ermöglichen es Ihnen, die Leistung eines Basisklassifikators zu nutzen, der entweder eingebaut ist oder - was bei der Erforschung von Leistungsverbesserungen von größerem Nutzen ist - von Ihnen selbst entwickelt wurde. Dies schränkt das Potenzial für die Entwicklung neuer Methoden innerhalb des bestehenden Rahmens für maschinelles Lernen erheblich ein. Die Stärken von Mathematica liegen in seiner ausdrucksstarken, kompakten Sprache, seinen starken Visualisierungsmöglichkeiten und seiner einfachen Parallelisierung. Dies macht es sehr effizient, neue Strategien und Kombinationen von ML-Algorithmen zu erforschen, die Sie möglicherweise bereits implementiert haben. Ein weniger oft erwähnter Vorteil ist, dass die Verwendung von Mathematica in einem funktionalen Programmierstil zu weniger Fehlern im endgültigen Code führt.
Veo un bajo uso de Mathematica en las competiciones Kaggle. ¿Por qué uno usaría Wolfram Language en lugar de R, Python o Julia para aprendizaje automático? Además de gráficos más bonitos y la función Manipulate, ¿tenemos algo que sea útil para ML que otros lenguajes no tengan?
Mathematica no tiene la profundidad de soporte de algoritmos que está presente en R o Python. Julia tiene un soporte de algoritmos mucho más limitado pero exhibe un buen giro de velocidad. Los pocos algoritmos que Mathematica soporta no están particularmente bien expuestos para el tipo de ajustes necesarios para ganar las competencias Kaggle. Mathematica, a partir de la versión 10, soporta los siguientes clasificadores: "LogisticRegression", "Markov", "NaiveBayes", "NearestNeighbors", "NeuralNetwork", "RandomForest", "SupportVectorMachine". Aunque ofrece un método de ensamblaje, RandomForest, carece de Bagging y de cualquier tipo de boosting, como Adaboost. Estos últimos métodos generales de ensamblaje le permiten aprovechar la potencia de un clasificador base, ya sea incorporado o, de mayor utilidad cuando se exploran mejoras de rendimiento, de su propio diseño. Esto limita significativamente el potencial para crear nuevos métodos dentro del marco existente de aprendizaje automático. Los puntos fuertes de Mathematica residen en su lenguaje expresivo y compacto, sus potentes capacidades de visualización y su fácil paralelización. Esto lo hace muy eficiente para explorar nuevas estrategias y combinaciones de algoritmos de ML que usted ya haya implementado. Un beneficio menos mencionado es que el uso de Mathematica en un estilo de programación funcional tiende a conducir a menos errores en el código final.
Je constate que Mathematica est peu utilisé dans les compétitions Kaggle. Pourquoi utiliser le langage Wolfram plutôt que R, Python ou Julia pour l'apprentissage automatique ? En dehors de graphiques plus jolis et de la fonction Manipulate, avons-nous quelque chose d'utile pour l'apprentissage machine que les autres langages n'ont pas ?
Mathematica ne dispose pas d'un support algorithmique aussi complet que R ou Python. Julia a un support d'algorithme beaucoup plus limité mais présente une bonne vitesse d'exécution. Les quelques algorithmes pris en charge par Mathematica ne sont pas particulièrement bien exposés pour le type de modification nécessaire pour gagner les concours Kaggle. Mathematica, à partir de la version 10, prend en charge les classificateurs suivants : "LogisticRegression", Markov", NaiveBayes", NearestNeighbors", NeuralNetwork", RandomForest", SupportVectorMachine". Bien qu'il propose une méthode d'ensemble, RandomForest, il ne propose ni Bagging ni aucun type de boosting, tel qu'Adaboost. Ces dernières méthodes d'ensemble générales vous permettent d'exploiter la puissance d'un classificateur de base, qu'il soit intégré ou, ce qui est plus utile pour explorer les améliorations de performance, de votre propre conception. Cela limite considérablement le potentiel de création de nouvelles méthodes dans le cadre existant de l'apprentissage automatique. Les forces de Mathematica résident dans son langage expressif et compact, ses fortes capacités de visualisation et sa parallélisation aisée. Ces atouts permettent d'explorer très efficacement de nouvelles stratégies et combinaisons d'algorithmes d'apprentissage automatique que vous avez peut-être déjà mis en œuvre. Un avantage moins souvent mentionné est que l'utilisation de Mathematica dans un style de programmation fonctionnelle tend à réduire le nombre de bogues dans le code final.
Vedo uno scarso utilizzo di Mathematica nelle competizioni Kaggle. Perché si dovrebbe usare il linguaggio Wolfram rispetto a R, Python o Julia per l'apprendimento automatico? Oltre a grafici più belli e alla funzione Manipulate, abbiamo qualcosa di utile per il ML che manca ad altri linguaggi?
Mathematica non ha la profondità del supporto agli algoritmi presente in R o Python. Julia ha un supporto di algoritmi molto più limitato, ma presenta un buon livello di velocità. I pochi algoritmi supportati da Mathematica non sono particolarmente adatti alle modifiche necessarie per vincere le competizioni Kaggle. Mathematica, a partire dalla versione 10, supporta i seguenti classificatori: "LogisticRegression", "Markov", "NaiveBayes", "NearestNeighbors", "NeuralNetwork", "RandomForest", "SupportVectorMachine". Sebbene offra un metodo di ensemble, RandomForest, manca di Bagging e di qualsiasi tipo di boosting, come Adaboost. Questi ultimi metodi generali di ensemble consentono di sfruttare la potenza di un classificatore di base, incorporato o, cosa più utile quando si esplorano i miglioramenti delle prestazioni, di propria progettazione. Questo limita in modo significativo il potenziale di creazione di nuovi metodi all'interno del quadro di apprendimento automatico esistente. I punti di forza di Mathematica sono il linguaggio espressivo e compatto, le forti capacità di visualizzazione e la facile parallelizzazione. Ciò rende molto efficiente l'esplorazione di nuove strategie e combinazioni di algoritmi di ML già implementati. Un vantaggio meno citato è che l'uso di Mathematica in uno stile di programmazione funzionale tende a portare a un minor numero di bug nel codice finale.
31
I'm using wp_nav_menu and am trying to create custom output for the sub-level drop downs. I came across the "items_wrap" argument but there's really not much information as to what it is, how it works, and what kind of things can be done with it. What exactly is "%1$s" and "%2$s"? (Can anyone explain it in layman's terms?)
The parameter ```'items_wrap'``` for ```wp_nav_menu()``` defaults to: ```'%3$s' ``` This a a template that is parsed with ```sprintf()```: ```$nav_menu .= sprintf( $args->items_wrap , esc_attr( $wrap_id ) // %1$s , esc_attr( $wrap_class ) // %2$s , $items // %3$s ); ``` The numbered placeholders – ```%1$s```, ```%2$s```, ```%3$s``` – refer to the arguments after the first argument in ```sprintf()```. The percent sign marks a placeholder, the number the position and the type ```s``` means it should be treated as a string. Do not change the type unless you really know what you do. :) * ```$wrap_id``` is the parameter ```'menu_id'``` if you have it set, else it is ```'menu-' . $menu->slug```. * ```$wrap_class``` is the parameter ```'menu_class'``` if you have it set, else it is empty. * ```$items``` is a string of the inner content of the menu. Let’s say you don’t need a ```class```. Just omit the second string: ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ); ``` If you don’t need the ```class``` and the ```id```, and you want another container (because you used a custom walker): ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ); ``` The main point is: You have to use the numbers for the replacements given in ```wp_nav_menu()```. ```%3$s``` is always the list of items.
Ich benutze wp_nav_menu und versuche, benutzerdefinierte Ausgabe für die Unterebene Dropdowns zu erstellen. Ich stieß auf das Argument "items_wrap", aber es gibt wirklich nicht viele Informationen darüber, was es ist, wie es funktioniert und welche Art von Dingen damit getan werden kann. Was genau ist "%1$s" und "%2$s"? (Kann das jemand in Laiensprache erklären?)
Der Parameter ```'items_wrap'``` für ```wp_nav_menu()``` steht standardmäßig auf: ```'%3$s' ``` Dies ist eine Vorlage, die mit ```sprintf()`` geparst wird: ```$nav_menu .= sprintf( $args->items_wrap , esc_attr( $wrap_id ) // %1$s , esc_attr( $wrap_class ) // %2$s , $items // %3$s ); ``` Die nummerierten Platzhalter - ```%1$s``, ```%2$s``, ```%3$s``` - beziehen sich auf die Argumente nach dem ersten Argument in ```sprintf()```. Das Prozentzeichen markiert einen Platzhalter, die Zahl die Position und der Typ `````` bedeutet, dass es als String behandelt werden soll. Ändern Sie den Typ nicht, wenn Sie nicht wirklich wissen, was Sie tun :) * ```$wrap_id`` ist der Parameter ```'menu_id'```, wenn Sie ihn gesetzt haben, sonst ist es ```'menu-' . $menu->slug``. * ```$wrap_class`` ist der Parameter ```'menu_class``, wenn Sie ihn gesetzt haben, ansonsten ist er leer. * ```$items`` ist eine Zeichenkette mit dem inneren Inhalt des Menüs. Nehmen wir an, Sie brauchen keine ```Klasse``. Lassen Sie einfach die zweite Zeichenkette weg: ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ); ``` Wenn Sie die ```class`` und die ```id`` nicht brauchen und einen anderen Container wollen (weil Sie einen eigenen Walker benutzt haben): ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ); ``` Der wichtigste Punkt ist: Sie müssen die in ```wp_nav_menu()``` angegebenen Zahlen für die Ersetzungen verwenden. ```%3$s``` ist immer die Liste der Einträge.
Estoy usando wp_nav_menu y estoy tratando de crear una salida personalizada para los desplegables de subnivel. Me encontré con el argumento "items_wrap" pero realmente no hay mucha información en cuanto a lo que es, cómo funciona y qué tipo de cosas se pueden hacer con él. ¿Qué es exactamente "%1$s" y "%2$s"? (¿Puede alguien explicarlo en términos sencillos?)
El parámetro ```'items_wrap'`` de ```wp_nav_menu()`` es por defecto: ```'%3$s' ``` Esta es una plantilla que se analiza con ```sprintf()``: ```$nav_menu .= sprintf( $args->items_wrap , esc_attr( $wrap_id ) // %1$s , esc_attr( $wrap_class ) // %2$s , $items // %3$s ); ``` Los marcadores de posición numerados - ``%1$s``, ``%2$s``, ``%3$s`` - se refieren a los argumentos posteriores al primer argumento de ```sprintf()```. El signo de porcentaje marca un marcador de posición, el número la posición y el tipo ```s``` significa que debe tratarse como una cadena. No cambies el tipo a menos que realmente sepas lo que haces :) * ```$wrap_id`` es el parámetro ```'menu_id'`` si lo tienes puesto, sino es ```'menu-' . $menu->slug``. * ```$wrap_class`` es el parámetro ```'menu_class'`` si lo tienes configurado, sino está vacío. * ```$items`` es una cadena del contenido interno del menú. Digamos que no necesitas una ```class``. Simplemente omite la segunda cadena: ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ); ``` Si no necesitas la ```class`` y el ```id``, y quieres otro contenedor (porque usaste un caminador personalizado): ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ); ``` El punto principal es: Tienes que usar los números para los reemplazos dados en ```wp_nav_menu()```. ```%3$s`` es siempre la lista de elementos.
J'utilise wp_nav_menu et j'essaie de créer une sortie personnalisée pour les menus déroulants des sous-niveaux. Je suis tombé sur l'argument "items_wrap" mais il n'y a pas beaucoup d'informations sur ce que c'est, comment ça marche et quel genre de choses on peut faire avec. Qu'est-ce que "%1$s" et "%2$s" exactement ? (Quelqu'un peut-il l'expliquer en termes simples ?)
Le paramètre ```'items_wrap'``` pour ``wp_nav_menu()`` est par défaut : ```'%3$s' ``` Ceci est un modèle qui est analysé avec ``sprintf()`` : ``$nav_menu .= sprintf( $args->items_wrap , esc_attr( $wrap_id ) // %1$s , esc_attr( $wrap_class ) // %2$s , $items // %3$s ) ; ``` Les espaces réservés numérotés - ``%1$s``, ``%2$s``, ``%3$s`` - font référence aux arguments après le premier argument de ``sprintf()``. Le signe pour cent indique un espace réservé, le nombre la position et le type ``s``` signifie qu'il doit être traité comme une chaîne de caractères. Ne changez pas le type à moins que vous ne sachiez vraiment ce que vous faites :) * ``$wrap_id`` est le paramètre ``'menu_id'`` si vous l'avez défini, sinon c'est ``'menu-' . $menu->slug``. * ``$wrap_class`` est le paramètre ```'menu_class'``` si vous l'avez défini, sinon il est vide. * ``$items`` est une chaîne du contenu interne du menu. Disons que vous n'avez pas besoin de ``classe``. Il suffit d'omettre la deuxième chaîne : ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ) ; ``` Si vous n'avez pas besoin de la ``classe`` et de l'``id``, et que vous voulez un autre conteneur (parce que vous avez utilisé un walker personnalisé) : ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ) ; ``` L'essentiel est là : Vous devez utiliser les nombres pour les remplacements donnés dans ``wp_nav_menu()``. ``%3$s`` est toujours la liste des éléments.
Sto usando wp_nav_menu e sto cercando di creare un output personalizzato per i drop down dei livelli secondari. Mi sono imbattuto nell'argomento "items_wrap", ma non ci sono molte informazioni su cosa sia, come funzioni e che tipo di cose si possano fare con esso. Cosa sono esattamente "%1$s" e "%2$s"? (Qualcuno può spiegarlo in termini profani?).
Il parametro ```'items_wrap'' per ```wp_nav_menu()`` è predefinito a: ```'%3$s' ``` Questo è un modello che viene analizzato con ``sprintf()``: ```$nav_menu .= sprintf( $args->items_wrap , esc_attr( $wrap_id ) // %1$s , esc_attr( $wrap_class ) // %2$s , $items // %3$s ); ``` I segnaposto numerati - ```%1$s```, ```%2$s```, ```%3$s``` - si riferiscono agli argomenti successivi al primo in ```sprintf()```. Il segno di percentuale indica un segnaposto, il numero la posizione e il tipo ```s```` significa che deve essere trattato come una stringa. Non cambiate il tipo a meno che non sappiate davvero cosa state facendo. :) * ```$wrap_id`` è il parametro ```'menu_id'`` se è stato impostato, altrimenti è ```'menu-'' . $menu->slug``. * ```$wrap_class`` è il parametro ```'menu_class'`` se è stato impostato, altrimenti è vuoto. * ```$items``` è una stringa del contenuto interno del menu. Supponiamo di non aver bisogno di una ``classe''. Basta omettere la seconda stringa: ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ); ``` Se non si ha bisogno della ``classe'' e dell' ```id'' e si vuole un altro contenitore (perché si è usato un walker personalizzato): ```wp_nav_menu( array( 'items_wrap' => '%3$s' ) ); ``` Il punto principale è: Bisogna usare i numeri per le sostituzioni dati in ``wp_nav_menu()```. ```%3$s``` è sempre l'elenco degli elementi.
32
I've noticed that people on YouTube and even on TV would sometimes say things like "I used to take lots of coke a few years ago" or "I used to smoke weed daily until this and that" or "Yea, I smoke weed every once in a while," or "I used to pirate games a lot when I was a bit younger" or "I used pirated Windows and Photoshop until I got a job," etc., etc.. Basically they are confessing to a crime, on public record, couldn't anyone come after them? They've already confessed - technically all that would have to be done is a trial. How do people publicly admit to criminal activity and not typically get arrested?
Unless the Youtube Video shows them committing a crime, then no, they couldn't be arrested and tried for a crime. Them saying it, not under oath, is just hearsay that has no evidentiary value unless there is already other evidence they have committed a crime. In that case, its an admission. But there must be other, either circumstantial, or actual physical evidence of a crime. Past intoxication is not a crime, either. Possession of drugs, if caught with them is. But saying you got high is not. People have walked into police stations and confessed to murders. But with no evidence, no body, no name of a missing person, they can't even be held after the holding period for investigatory purposes expires. If the video shows them committing assault, or breaking and entering (there actually are idiots who post this stuff), the video is actual evidence of a crime and it is often used against them. The statements can be used to begin an investigation, but people don't usually confess to anything worth pursuing even an investigation. The fact that someone says they used to do something criminal is not enough. For all you ( meaning anyone ) knows, the statute of limitations has expired because they "pirated games" 10 years ago. Your comment is right on.
Mir ist aufgefallen, dass Leute auf YouTube und sogar im Fernsehen manchmal Dinge sagen wie "Ich habe vor ein paar Jahren viel Koks genommen" oder "Ich habe bis zu diesem und jenem täglich Gras geraucht" oder "Ja, ich rauche ab und zu Gras" oder "Ich habe viel Raubkopien von Spielen gemacht, als ich etwas jünger war" oder "Ich habe Raubkopien von Windows und Photoshop benutzt, bis ich einen Job bekam" usw. usw. Im Grunde gestehen sie damit ein Verbrechen, das öffentlich bekannt ist, und niemand kann sie verfolgen. Sie haben bereits ein Geständnis abgelegt - technisch gesehen müsste es nur noch zu einem Prozess kommen. Wie kommt es, dass Menschen öffentlich kriminelle Handlungen zugeben und in der Regel nicht verhaftet werden?
Wenn das Youtube-Video nicht zeigt, dass sie eine Straftat begehen, können sie nicht verhaftet und wegen einer Straftat verurteilt werden. Wenn sie das sagen, ohne unter Eid zu stehen, ist das nur Hörensagen, das keinen Beweiswert hat, es sei denn, es gibt bereits andere Beweise dafür, dass sie ein Verbrechen begangen haben. In diesem Fall ist es ein Geständnis. Aber es muss andere Beweise geben, entweder Indizien oder tatsächliche physische Beweise für ein Verbrechen. Auch eine frühere Trunkenheit ist kein Verbrechen. Der Besitz von Drogen, wenn man mit ihnen erwischt wird, schon. Aber zu sagen, dass man high war, ist es nicht. Es sind schon Leute auf die Polizeiwache gekommen und haben Morde gestanden. Aber ohne Beweise, ohne Leiche, ohne den Namen einer vermissten Person, können sie nicht einmal nach Ablauf der Untersuchungshaft festgehalten werden. Wenn auf dem Video zu sehen ist, wie sie eine Körperverletzung oder einen Einbruch begehen (es gibt tatsächlich Idioten, die so etwas veröffentlichen), ist das Video der eigentliche Beweis für ein Verbrechen und wird oft gegen sie verwendet. Die Aussagen können zur Einleitung von Ermittlungen herangezogen werden, aber in der Regel gestehen die Leute nichts, was auch nur eine Ermittlung wert wäre. Die Tatsache, dass jemand sagt, er habe früher etwas Kriminelles getan, reicht nicht aus. Soweit Sie (d. h. jeder) wissen, ist die Verjährungsfrist abgelaufen, weil sie vor 10 Jahren "Spiele raubkopiert" haben. Ihr Kommentar ist sehr treffend.
Me he dado cuenta de que la gente en YouTube e incluso en la televisión a veces dice cosas como "Solía tomar mucha cocaína hace unos años" o "Solía fumar hierba a diario hasta que esto y aquello" o "Sí, fumo hierba de vez en cuando" o "Solía piratear juegos mucho cuando era un poco más joven" o "Usaba Windows y Photoshop pirateados hasta que conseguí un trabajo", etc., etc... Básicamente están confesando un delito, en un registro público, ¿nadie podría ir a por ellos? Ya han confesado - técnicamente todo lo que habría que hacer es un juicio. ¿Cómo admite la gente públicamente una actividad delictiva y no suele ser detenida?
A menos que el vídeo de Youtube muestre que han cometido un delito, entonces no, no podrían ser detenidos y juzgados por un delito. Que lo digan, no bajo juramento, es sólo un rumor que no tiene valor probatorio a menos que ya haya otras pruebas de que han cometido un delito. En ese caso, es una admisión. Pero debe haber otras pruebas, circunstanciales o físicas, de un delito. La intoxicación previa tampoco es un delito. La posesión de drogas, si te pillan con ellas, sí lo es. Pero decir que te drogaste no lo es. Ha habido gente que ha entrado en comisarías y ha confesado asesinatos. Pero sin pruebas, sin cadáver, sin el nombre de una persona desaparecida, ni siquiera pueden ser retenidos después de que expire el periodo de retención con fines de investigación. Si el vídeo les muestra cometiendo agresiones, o allanando moradas (de hecho hay idiotas que publican estas cosas), el vídeo es una prueba real de un delito y a menudo se utiliza contra ellos. Las declaraciones pueden servir para iniciar una investigación, pero la gente no suele confesar nada por lo que merezca la pena seguir siquiera una investigación. El hecho de que alguien diga que solía hacer algo delictivo no es suficiente. Por lo que tú ( o sea, cualquiera ) sabe, el delito ha prescrito porque "pirateaban juegos" hace 10 años. Tu comentario da en el clavo.
J'ai remarqué que les gens sur YouTube et même à la télévision disaient parfois des choses comme "J'ai pris beaucoup de coke il y a quelques années" ou "Je fumais de l'herbe tous les jours jusqu'à ceci et cela" ou "Oui, je fume de l'herbe de temps en temps" ou "J'ai beaucoup piraté des jeux quand j'étais un peu plus jeune" ou "J'ai utilisé des Windows et Photoshop piratés jusqu'à ce que je trouve un emploi", etc. En fait, ils avouent un crime, sur la place publique, et personne ne pourrait les poursuivre ? Ils ont déjà avoué - techniquement, tout ce qu'il y aurait à faire, c'est un procès. Comment les gens peuvent-ils admettre publiquement une activité criminelle sans se faire arrêter ?
À moins que la vidéo de Youtube ne les montre en train de commettre un crime, alors non, ils ne pourraient pas être arrêtés et jugés pour un crime. Le fait qu'ils le disent, sans prêter serment, n'est qu'un ouï-dire qui n'a aucune valeur probante, à moins qu'il n'existe déjà d'autres preuves qu'ils ont commis un crime. Dans ce cas, il s'agit d'un aveu. Mais il doit y avoir d'autres preuves, circonstancielles ou physiques, d'un crime. L'ivresse passée n'est pas non plus un délit. La possession de drogues, si l'on est pris en flagrant délit, l'est. Mais dire qu'on s'est défoncé ne l'est pas. Des gens sont entrés dans des commissariats de police et ont avoué des meurtres. Mais sans preuve, sans corps, sans nom de personne disparue, ils ne peuvent même pas être détenus après l'expiration de la période de détention à des fins d'enquête. Si la vidéo les montre en train de commettre une agression ou une effraction (il y a vraiment des idiots qui postent ce genre de choses), la vidéo est une preuve réelle d'un crime et elle est souvent utilisée contre eux. Les déclarations peuvent être utilisées pour ouvrir une enquête, mais les gens n'avouent généralement rien qui vaille la peine d'être poursuivi, même dans le cadre d'une enquête. Le fait que quelqu'un dise qu'il avait l'habitude de faire quelque chose de criminel n'est pas suffisant. Pour ce que vous (c'est-à-dire n'importe qui) en savez, le délai de prescription a expiré parce qu'ils ont "piraté des jeux" il y a 10 ans. Votre commentaire est juste.
Ho notato che le persone su YouTube e persino in TV a volte dicono cose come "Qualche anno fa mi facevo di coca" o "Fumavo erba tutti i giorni fino a questo e quello" o "Sì, fumo erba ogni tanto" o "Quando ero un po' più giovane piratavo spesso i giochi" o "Ho usato Windows e Photoshop piratati fino a quando non ho trovato un lavoro", ecc. In pratica stanno confessando un crimine, su un registro pubblico, nessuno potrebbe perseguirli? Hanno già confessato - tecnicamente tutto ciò che dovrebbe essere fatto è un processo. Come fanno le persone ad ammettere pubblicamente un'attività criminale senza essere arrestate?
A meno che il video di Youtube non mostri che hanno commesso un crimine, allora no, non possono essere arrestati e processati per un crimine. Il fatto che lo dicano, non sotto giuramento, è solo un sentito dire che non ha valore probatorio, a meno che non ci siano già altre prove che abbiano commesso un crimine. In tal caso, si tratta di un'ammissione. Ma devono esserci altre prove, circostanziali o fisiche, di un crimine. Anche l'intossicazione pregressa non è un reato. Il possesso di droghe, se si viene sorpresi con esse, lo è. Ma dire di essersi fatti non lo è. Ci sono persone che sono entrate nelle stazioni di polizia e hanno confessato degli omicidi. Ma senza prove, senza un corpo, senza il nome di una persona scomparsa, non possono nemmeno essere trattenute dopo la scadenza del periodo di detenzione a fini investigativi. Se il video mostra che hanno commesso un'aggressione o un'effrazione (ci sono davvero degli idioti che pubblicano queste cose), il video è una vera e propria prova di un crimine e viene spesso usato contro di loro. Le dichiarazioni possono essere utilizzate per avviare un'indagine, ma di solito le persone non confessano nulla che valga la pena di portare avanti anche solo un'indagine. Il fatto che qualcuno dica di aver fatto qualcosa di criminale non è sufficiente. Per quanto ne sapete voi (cioè chiunque), la prescrizione è scaduta perché hanno "piratato giochi" 10 anni fa. Il tuo commento è giusto.
33
Did two dissenting Supreme Court justices agree that Trump was "absolutely immune" to the Manhattan DA's subpoena?
If you are interested in the gory details, please see the full decision in Trump v. Vance. The first half of the linked document contains the Court's majority opinion and the concurring opinion of Justices Kavanaugh and Gorsuch, followed by the separate dissenting opinions of Justices Thomas and Alito. Based on a quick read, it's apparent that Justice Thomas agrees with the general court's opinion that a sitting President &quot;is not entitled to absolute immunity from issuance of [a] subpoena&quot;. Thomas dissents on the grounds that the President &quot;may be entitled to relief against [a subpoena's] enforcement&quot; based on his special status as president. Thomas argues (agreeing with the president) that the case should be vacated and returned to the lower court, so that the President can argue that his duties to the nation take up all of his time and attention and he thus deserves relief from the subpoena. Justice Alito makes a stronger dissent. While he agrees that a sitting President is not absolutely immune from a state subpoena, he argues that such a subpoena should not be enforced unless it meets a stringent legal test, such that: * It does not interfere with the President's execution of his duties of office, and * It carries a weight of urgency — e.g., subpoenaing information related to suspected treason — as a guarantee it is not merely issued to harass. In the absence of those conditions, in Alito's opinion, the President is only subject to the constitutional process of impeachment and trial in Congress. So no, neither dissenting Justice suggests that the President is absolutely immune from this kind of subpoena. Instead, they are concerned that the issuance of such subpoenas might negatively impact on the President's ability to perform the duties of the office, and argue that the President might legitimately be granted varying degrees of relief from such legal actions at a court's discretion.
Haben zwei abweichende Richter des Obersten Gerichtshofs zugestimmt, dass Trump gegen die Vorladung des Staatsanwalts von Manhattan "absolut immun" ist?
Wenn Sie an den blutigen Details interessiert sind, lesen Sie bitte die vollständige Entscheidung in der Rechtssache Trump v. Vance. Die erste Hälfte des verlinkten Dokuments enthält die Mehrheitsmeinung des Gerichts und die zustimmende Meinung der Richter Kavanaugh und Gorsuch, gefolgt von den abweichenden Meinungen der Richter Thomas und Alito. Nach kurzer Lektüre wird deutlich, dass Richter Thomas mit der Auffassung des Gerichts übereinstimmt, dass ein amtierender Präsident keinen Anspruch auf absolute Immunität gegenüber der Ausstellung einer Vorladung hat. Thomas ist anderer Meinung und begründet dies damit, dass der Präsident aufgrund seines besonderen Status als Präsident Anspruch auf Rechtsschutz gegen die Vollstreckung [einer Vorladung] haben kann. Thomas argumentiert (in Übereinstimmung mit dem Präsidenten), dass der Fall aufgehoben und an die untere Instanz zurückverwiesen werden sollte, damit der Präsident argumentieren kann, dass seine Pflichten gegenüber der Nation seine gesamte Zeit und Aufmerksamkeit in Anspruch nehmen und er daher eine Befreiung von der Vorladung verdient. Richter Alito vertritt eine deutlichere abweichende Meinung. Er stimmt zwar zu, dass ein amtierender Präsident nicht absolut immun gegen eine staatliche Vorladung ist, aber er argumentiert, dass eine solche Vorladung nur dann durchgesetzt werden sollte, wenn sie einen strengen rechtlichen Test erfüllt: * Sie beeinträchtigt den Präsidenten nicht bei der Ausübung seiner Amtspflichten, und * sie ein gewisses Maß an Dringlichkeit aufweist - z. B. die Vorladung von Informationen im Zusammenhang mit mutmaßlichem Hochverrat - als Garantie dafür, dass sie nicht nur zur Belästigung erlassen wird. Sind diese Bedingungen nicht erfüllt, unterliegt der Präsident nach Alitos Meinung nur dem verfassungsmäßigen Verfahren der Amtsenthebung und dem Prozess vor dem Kongress. Keiner der abweichenden Richter behauptet also, dass der Präsident absolut immun gegen diese Art von Vorladungen ist. Sie sind vielmehr besorgt darüber, dass die Ausstellung solcher Vorladungen die Fähigkeit des Präsidenten, die Pflichten seines Amtes zu erfüllen, beeinträchtigen könnte, und argumentieren, dass dem Präsidenten nach dem Ermessen eines Gerichts legitimerweise mehr oder weniger weitgehende Befreiung von solchen rechtlichen Schritten gewährt werden könnte.
Dos jueces discrepantes del Tribunal Supremo, ¿están de acuerdo en que Trump era "absolutamente inmune" a la citación del fiscal de Manhattan?
Si le interesan los detalles escabrosos, consulte la decisión completa en Trump v. Vance. La primera mitad del documento vinculado contiene la opinión mayoritaria del Tribunal y la opinión concurrente de los jueces Kavanaugh y Gorsuch, seguidas de las opiniones disidentes separadas de los jueces Thomas y Alito. Basado en una lectura rápida, es evidente que el juez Thomas está de acuerdo con la opinión del tribunal general de que un Presidente en ejercicio &quot;no tiene derecho a la inmunidad absoluta de la emisión de [una] citación&quot;. Thomas disiente sobre la base de que el Presidente &quot;puede tener derecho a una reparación contra la ejecución [de una citación judicial]&quot; sobre la base de su estatus especial como presidente. Thomas argumenta (coincidiendo con el presidente) que el caso debe ser anulado y devuelto al tribunal inferior, para que el Presidente pueda argumentar que sus deberes para con la nación ocupan todo su tiempo y atención y que, por tanto, merece ser eximido de la citación. El juez Alito disiente más enérgicamente. Aunque está de acuerdo en que un Presidente en ejercicio no es absolutamente inmune a una citación estatal, argumenta que dicha citación no debe ejecutarse a menos que cumpla una prueba legal estricta, como que: * No interfiera en el ejercicio de las funciones del Presidente, y * Que tenga carácter de urgencia -por ejemplo, citar información relacionada con sospechas de traición- como garantía de que no se emite simplemente para acosar. En ausencia de esas condiciones, en opinión de Alito, el Presidente sólo está sujeto al proceso constitucional de destitución y juicio en el Congreso. Así que no, ninguno de los jueces disidentes sugiere que el Presidente sea absolutamente inmune a este tipo de citación. En cambio, les preocupa que la emisión de este tipo de citaciones pueda afectar negativamente a la capacidad del Presidente para desempeñar las funciones del cargo, y argumentan que el Presidente podría legítimamente obtener diversos grados de exención de tales acciones legales a discreción de un tribunal.
Deux juges dissidents de la Cour suprême ont-ils reconnu que M. Trump était "absolument immunisé" contre l'assignation à comparaître du procureur de Manhattan ?
Si vous êtes intéressé par les détails sanglants, veuillez consulter la décision complète dans l'affaire Trump v. Vance. La première moitié du document contient l'opinion majoritaire de la Cour et l'opinion concordante des juges Kavanaugh et Gorsuch, suivies des opinions dissidentes des juges Thomas et Alito. Après une lecture rapide, il apparaît que le juge Thomas est d'accord avec l'opinion générale de la Cour selon laquelle un président en exercice n'a pas droit à une immunité absolue contre l'émission d'une citation à comparaître. Thomas exprime son désaccord sur le fait que le président "peut avoir droit à un recours contre l'exécution [d'une citation à comparaître]" sur la base de son statut particulier de président. Thomas soutient (en accord avec le président) que l'affaire devrait être annulée et renvoyée à la juridiction inférieure, afin que le président puisse faire valoir que ses devoirs envers la nation lui prennent tout son temps et toute son attention et qu'il mérite donc d'être exempté de l'assignation à comparaître. Le juge Alito émet une opinion dissidente plus tranchée. S'il admet qu'un président en exercice n'est pas absolument à l'abri d'une assignation à comparaître de l'État, il soutient qu'une telle assignation ne devrait pas être exécutée à moins qu'elle ne réponde à un critère juridique rigoureux, tel que : * Elle n'interfère pas avec l'exécution par le président de ses fonctions, et * Elle présente un certain degré d'urgence - par exemple, l'assignation d'informations liées à des soupçons de trahison - afin de garantir qu'elle n'est pas simplement émise à des fins de harcèlement. En l'absence de ces conditions, selon l'opinion d'Alito, le président n'est soumis qu'à la procédure constitutionnelle de mise en accusation et de jugement par le Congrès. Par conséquent, aucun des deux juges dissidents ne suggère que le président est absolument à l'abri de ce type d'assignation. Ils s'inquiètent plutôt du fait que la délivrance de telles citations à comparaître pourrait avoir un impact négatif sur la capacité du président à remplir les devoirs de sa charge, et soutiennent que le président pourrait légitimement se voir accorder divers degrés d'exonération de telles actions légales, à la discrétion d'un tribunal.
Due giudici dissenzienti della Corte Suprema erano d'accordo sul fatto che Trump fosse "assolutamente immune" dal mandato di comparizione del procuratore distrettuale di Manhattan?
Se siete interessati ai dettagli più cruenti, consultate la decisione completa nel caso Trump v. Vance. La prima metà del documento collegato contiene l'opinione di maggioranza della Corte e l'opinione concorde dei giudici Kavanaugh e Gorsuch, seguita dalle opinioni dissenzienti separate dei giudici Thomas e Alito. Da una rapida lettura, risulta che il giudice Thomas è d'accordo con l'opinione della Corte generale secondo cui un Presidente in carica non ha diritto all'immunità assoluta dall'emissione di un mandato di comparizione. Thomas dissente sulla base del fatto che il Presidente &quot;può avere diritto a un sollievo contro l'esecuzione [di un mandato di comparizione]&quot; sulla base del suo speciale status di Presidente. Thomas sostiene (concordando con il Presidente) che il caso dovrebbe essere annullato e rinviato alla corte inferiore, in modo che il Presidente possa sostenere che i suoi doveri verso la nazione occupano tutto il suo tempo e la sua attenzione e che quindi merita di essere sollevato dal mandato di comparizione. Il giudice Alito esprime un dissenso più deciso. Pur concordando sul fatto che un Presidente in carica non è assolutamente immune da una citazione in giudizio da parte dello Stato, sostiene che tale citazione non dovrebbe essere applicata a meno che non soddisfi un rigoroso test legale, come ad esempio: * non interferisca con l'esecuzione dei doveri d'ufficio del Presidente, e * abbia un peso di urgenza - ad esempio, la citazione di informazioni relative a un sospetto tradimento - come garanzia che non è stata emessa solo per molestare. In assenza di queste condizioni, secondo Alito, il Presidente è soggetto solo al processo costituzionale di impeachment e al giudizio del Congresso. Quindi, nessuno dei due giudici dissenzienti suggerisce che il Presidente sia assolutamente immune da questo tipo di mandato di comparizione. Al contrario, essi temono che l'emissione di tali citazioni possa avere un impatto negativo sulla capacità del Presidente di adempiere ai doveri della sua carica e sostengono che al Presidente potrebbe essere legittimamente concesso un diverso grado di sollievo da tali azioni legali a discrezione di un tribunale.
34
Just curious, given how heavily from Tolkien D&D drew, and the fact that games like Wizardry used Hobbits, is there a good design reason why Gygax and company used Halflings (a term that also appears in Tolkien) vice Hobbits as the term for our little friends?
Halflings were originally called hobbits prior to a legal challenge. According to Gary Gygax himself, it was due to a legal claim on &quot;hobbit&quot; by a company who purchased the merchandising rights on Tolkien's works in 1976: TSR was served with papers threatening damages to the tune of half a mil by the Saul Zantes (sp?) division of Elan Merchandising on behalf of the tolkien Estate. The main objection was to the boardgame we were publishing, The Battle of Five Armies. The author of that game had given us a letter from his attorney claiming the work was grandfathered because it was published after the copyrights for JRRT's works had lapsed and before any renewals were made. The action also demanded we remove balrog, dragon, dwarf, elf, ent, goblin, hobbit, orc, and warg from the D&D game. Although only balrog and warg were unique names we agreed to hobbit as well, kept the rest, of course. The boardgame was dumped, and thus the suit was settled out of court at that. Halflings were originally called &quot;hobbits&quot; in the Dungeons & Dragons box set first released in 1974. Later printings changed this to &quot;halfling&quot;. According to The Acaeum, this change occurred between the fifth printing (Dec 1975 - Apr 1976) and sixth printing (1977), with the six printing being marked the Original Collector's Edition. However, Tim Kask has said that box sets were generally thrown together with whichever printings of the books were on hand, so the distinctions between printings are inexact. The Acaeum notes at least one box set shipped having the revised booklets but no Original Collector's Edition mark. Due to an oversight, a single reference to &quot;hobbit&quot; remained on page 6 of Men & Magic, which was fixed in the 2013 Deluxe reprint and PDF copies. According to Wikipedia, J.R.R. Tolkien sold the film, stage, and merchandising rights to The Hobbit and Lord of the Rings to United Artists in 1968, who sold them in turn to Saul Zaentz in 1976. Zaents would go on to produce the 1978 Lord of the Rings animated movie.
Ich bin nur neugierig: Wenn man bedenkt, wie stark sich D&D an Tolkien anlehnt und dass Spiele wie Wizardry Hobbits verwenden, gibt es dann einen guten Grund, warum Gygax und Co. Halblinge (ein Begriff, der auch in Tolkien vorkommt) und Hobbits als Bezeichnung für unsere kleinen Freunde verwenden?
Halblinge wurden ursprünglich Hobbits genannt, bevor es zu einer rechtlichen Anfechtung kam. Laut Gary Gygax selbst war dies auf einen Rechtsanspruch auf &quot;Hobbit&quot; durch ein Unternehmen zurückzuführen, das 1976 die Merchandising-Rechte an Tolkiens Werken erwarb: TSR wurden von der Saul Zantes (sp?)-Abteilung von Elan Merchandising im Namen des Tolkien-Nachlasses Papiere zugestellt, in denen Schadenersatz in Höhe von einer halben Million angedroht wurde. Der Haupteinwand bezog sich auf das von uns herausgegebene Brettspiel Die Schlacht der fünf Heere. Der Autor dieses Spiels hatte uns ein Schreiben seines Anwalts übergeben, in dem er behauptete, das Werk sei urheberrechtlich geschützt, weil es veröffentlicht wurde, nachdem die Urheberrechte für JRRTs Werke erloschen waren und bevor irgendwelche Verlängerungen vorgenommen wurden. In der Klage wurde auch gefordert, dass wir Balrog, Drache, Zwerg, Elf, Ent, Goblin, Hobbit, Ork und Warg aus dem D&D-Spiel entfernen. Obwohl nur Balrog und Warg eindeutige Namen waren, stimmten wir auch dem Hobbit zu, behielten den Rest aber natürlich. Das Brettspiel wurde weggeworfen, und so wurde der Rechtsstreit außergerichtlich beigelegt. Halblinge wurden in der 1974 erstmals erschienenen Dungeons & Dragons-Box ursprünglich &quot;Hobbits&quot; genannt. Spätere Auflagen änderten dies in &quot;Halbling&quot;. Laut The Acaeum erfolgte diese Änderung zwischen der fünften Auflage (Dezember 1975 - April 1976) und der sechsten Auflage (1977), wobei die sechste Auflage als Original Collector's Edition bezeichnet wurde. Tim Kask hat jedoch gesagt, dass die Boxsets im Allgemeinen mit der jeweiligen Auflage der Bücher zusammengewürfelt wurden, so dass die Unterscheidung zwischen den Auflagen ungenau ist. Das Acaeum stellt fest, dass mindestens ein Boxset mit den überarbeiteten Heften, aber ohne die Kennzeichnung der Original Collector's Edition ausgeliefert wurde. Aufgrund eines Versehens blieb ein einziger Verweis auf &quot;Hobbit&quot; auf Seite 6 von Men & Magic, was in der Deluxe-Neuauflage von 2013 und den PDF-Kopien korrigiert wurde. Laut Wikipedia verkaufte J.R.R. Tolkien die Film-, Bühnen- und Merchandising-Rechte an Der Hobbit und Der Herr der Ringe 1968 an United Artists, die sie wiederum 1976 an Saul Zaentz verkauften. Zaents produzierte dann 1978 den Zeichentrickfilm Herr der Ringe.
Sólo por curiosidad, dado lo mucho que D&D se inspiró en Tolkien, y el hecho de que juegos como Wizardry usaban Hobbits, ¿hay alguna buena razón de diseño por la que Gygax y compañía usaron Halflings (un término que también aparece en Tolkien) vice Hobbits como término para nuestros amiguitos?
Los halflings se llamaban originalmente hobbits antes de una impugnación legal. Según el propio Gary Gygax, se debió a una reclamación legal sobre &quot;hobbit&quot; por parte de una empresa que compró los derechos de merchandising de las obras de Tolkien en 1976: La división Saul Zantes de Elan Merchandising, en nombre de la propiedad de Tolkien, presentó a TSR una demanda por daños y perjuicios por valor de medio millón de euros. La principal objeción se refería al juego de mesa que estábamos publicando, La batalla de los cinco ejércitos. El autor de ese juego nos había entregado una carta de su abogado en la que afirmaba que la obra estaba protegida por derechos de autor porque se había publicado después de que los derechos de autor de las obras de JRRT hubieran caducado y antes de que se hubieran renovado. La acción también exigía que eliminásemos a balrog, dragón, enano, elfo, ent, goblin, hobbit, orco y warg del juego D&D. Aunque sólo balrog y warg eran nombres únicos aceptamos también hobbit, mantuvimos el resto, por supuesto. El juego de mesa fue desechado y, por tanto, la demanda se resolvió extrajudicialmente. Los halflings se llamaban originalmente &quot;hobbits&quot; en la caja de Dungeons & Dragons publicada por primera vez en 1974. En ediciones posteriores se cambiaron por &quot;halfling&quot;. Según The Acaeum, este cambio se produjo entre la quinta tirada (diciembre de 1975 - abril de 1976) y la sexta (1977), y la sexta fue la Original Collector's Edition. Sin embargo, Tim Kask ha afirmado que los estuches se solían juntar con las tiradas de los libros que había disponibles, por lo que la distinción entre tiradas es inexacta. El Acaeum señala que se envió al menos una caja con los folletos revisados, pero sin la marca de la Edición Coleccionista Original. Debido a un descuido, una única referencia a &quot;hobbit&quot; permanecía en la página 6 de Hombres y Magia, que fue corregida en la reimpresión Deluxe de 2013 y en las copias en PDF. Según Wikipedia, J.R.R. Tolkien vendió los derechos cinematográficos, escénicos y de merchandising de El Hobbit y El Señor de los Anillos a United Artists en 1968, que a su vez los vendió a Saul Zaentz en 1976. Zaentz produciría la película de animación de El Señor de los Anillos en 1978.
Juste par curiosité, étant donné que D&D s'est fortement inspiré de Tolkien et que des jeux comme Wizardry utilisaient des Hobbits, y a-t-il une bonne raison pour que Gygax et compagnie aient utilisé les Halflings (un terme qui apparaît également dans Tolkien) au lieu des Hobbits pour désigner nos petits amis ?
Les halflings étaient à l'origine appelés hobbits avant une contestation juridique. Selon Gary Gygax lui-même, cela était dû à une revendication juridique sur le terme "hobbit" par une société qui avait acheté les droits de commercialisation des œuvres de Tolkien en 1976 : La TSR a reçu des documents menaçant de dommages et intérêts d'un demi-million de dollars de la part de la division Saul Zantes (sp ?) d'Elan Merchandising, au nom de la succession Tolkien. La principale objection concernait le jeu de société que nous publiions, La bataille des cinq armées. L'auteur de ce jeu nous avait remis une lettre de son avocat affirmant que l'œuvre bénéficiait de droits acquis parce qu'elle avait été publiée après l'expiration des droits d'auteur des œuvres de JRRT et avant tout renouvellement. L'action exigeait également que nous retirions le balrog, le dragon, le nain, l'elfe, l'ent, le gobelin, le hobbit, l'orc et le warg du jeu D&D. Bien que seuls le balrog et le warg soient des noms uniques, nous avons accepté le hobbit, tout en conservant les autres noms, bien sûr. Le jeu a été abandonné, et le procès a été réglé à l'amiable. Les halflings étaient à l'origine appelés "hobbits" dans le coffret de Donjons et Dragons sorti pour la première fois en 1974. Les éditions ultérieures l'ont remplacé par "halfling". Selon The Acaeum, ce changement s'est produit entre la cinquième impression (décembre 1975 - avril 1976) et la sixième impression (1977), cette dernière étant considérée comme l'édition originale de collection. Toutefois, Tim Kask a déclaré que les coffrets étaient généralement composés des éditions disponibles des livres, de sorte que les distinctions entre les impressions sont inexactes. L'Acaeum note qu'au moins un coffret a été expédié avec les livrets révisés mais sans la marque de l'édition originale de collection. En raison d'un oubli, une seule référence à &quot;hobbit&quot ; est restée à la page 6 de Men & Magic, ce qui a été corrigé dans la réimpression Deluxe de 2013 et dans les copies PDF. Selon Wikipédia, J.R.R. Tolkien a vendu les droits cinématographiques, scéniques et commerciaux du Hobbit et du Seigneur des Anneaux à United Artists en 1968, qui les a vendus à son tour à Saul Zaentz en 1976. Zaentz produira le film d'animation Le Seigneur des Anneaux en 1978.
Per curiosità, visto che D&D ha attinto a piene mani da Tolkien e che giochi come Wizardry hanno usato gli Hobbit, c'è una buona ragione di design per cui Gygax e compagnia hanno usato il termine Halfling (un termine che compare anche in Tolkien) e vice Hobbit come termine per i nostri piccoli amici?
Gli halfling erano originariamente chiamati hobbit prima di una contestazione legale. Secondo lo stesso Gary Gygax, ciò era dovuto a una rivendicazione legale su &quot;hobbit&quot; da parte di una società che aveva acquistato i diritti di merchandising delle opere di Tolkien nel 1976: La TSR ricevette documenti che minacciavano danni per mezzo milione dalla divisione Saul Zantes (sp?) della Elan Merchandising per conto della Tolkien Estate. L'obiezione principale riguardava il gioco da tavolo che stavamo pubblicando, La battaglia delle cinque armate. L'autore di quel gioco ci aveva consegnato una lettera del suo avvocato in cui sosteneva che l'opera fosse coperta da grandfathering perché era stata pubblicata dopo che i diritti d'autore delle opere di JRRT erano scaduti e prima che venissero effettuati i rinnovi. L'azione legale chiedeva anche di rimuovere balrog, drago, nano, elfo, ent, goblin, hobbit, orco e warg dal gioco D&D. Sebbene solo balrog e warg fossero nomi unici, abbiamo accettato anche l'hobbit, mantenendo ovviamente gli altri. Il gioco da tavolo fu abbandonato e quindi la causa fu risolta in via extragiudiziale. Gli halfling furono originariamente chiamati &quot;hobbit&quot; nel cofanetto di Dungeons & Dragons pubblicato per la prima volta nel 1974. Le stampe successive lo cambiarono in &quot;halfling&quot;. Secondo The Acaeum, questo cambiamento avvenne tra la quinta stampa (dicembre 1975 - aprile 1976) e la sesta stampa (1977), con la sesta stampa contrassegnata come Edizione originale da collezione. Tuttavia, Tim Kask ha affermato che i cofanetti venivano generalmente assemblati con qualsiasi stampa dei libri disponibile, quindi la distinzione tra le stampe è inesatta. L'Acaeum ha notato che almeno un cofanetto è stato spedito con i libretti revisionati ma senza il marchio Original Collector's Edition. A causa di una svista, un singolo riferimento a &quot;hobbit&quot; è rimasto a pagina 6 di Men & Magic, che è stato corretto nella ristampa Deluxe del 2013 e nelle copie PDF. Secondo Wikipedia, J.R.R. Tolkien vendette i diritti cinematografici, teatrali e di merchandising de Lo Hobbit e Il Signore degli Anelli alla United Artists nel 1968, che li vendette a sua volta a Saul Zaentz nel 1976. Zaentz avrebbe poi prodotto il film d'animazione del Signore degli Anelli del 1978.
35
My USB drive used to be originally 8GB when I bought it. I'm trying to reformatted in Windows 7 by right clicking on the drive and selecting ```Format...```. But the capacity only shows 250MB. Is there something I can do to get the original size back? Maybe it got partitioned in a weird way? The flash drive is a SanDisk Cruzer Micro 8GB.
The command line procedure is not simple, but it is the most likely thing to work. When re-formatting the "drive" you're actually only formatting a partition on the drive. You need to use the diskpart utility to remove the partitions and create 1 single partition covering the full volume. ```diskpart``` can be a bit dangerous, because if you pick the wrong disk or partition, you can remove data or partitions that are extremely, EXTREMELY important and lose all data on your machine. Proceed with extreme caution! Open up a command prompt as administrator (open the start menu, type ```cmd``` and press Enter.) Type ```diskpart``` and press Enter. You'll end up with a new prompt that looks like this: ```DISKPART> ``` Type ```list disk ``` and you'll get a listing of all drives on your machine. Type ```select disk # ``` to select a disk, where ```#``` is the number of the disk Windows screw-balled. Usually, the device is disk 1, but it's always best to make sure. Then type ```list partition ``` to get a listing of all partitions on the disk. If you're sure you have the right disk/partition, you can then repeat typing ```select partition # delete partition ``` until all partitions are removed from that drive (you may need to type ```delete partition override``` for protected partitions). Once the drive is empty, exit diskpart and remove the drive. Wait at least 5 minutes, then re-insert the drive. DO NOT CLICK FORMAT – this will most likely re-create the problem. Instead, enter diskpart again, and select the disk. Then type ```create partition primary ``` Once you have created the partition, exit ```diskpart``` and, in the command promt, type ```diskmgmt.msc ``` This will provide a reliable way to create a FAT32 partition. On the drive you would like to format (NEVER TOUCH DISK 0!), right click and select ```format```. The ```allocation unit size``` option should be default, and the ```File System``` option should be set to ```FAT32```. The format may take a while, depending on the disk size, be patient. This should fix partition troubles on any readable USB flash drive.
Mein USB-Laufwerk war ursprünglich 8 GB groß, als ich es kaufte. Ich versuche, es in Windows 7 neu zu formatieren, indem ich mit der rechten Maustaste auf das Laufwerk klicke und ``Formatieren...`` wähle. Aber die Kapazität zeigt nur 250MB an. Gibt es etwas, was ich tun kann, um die ursprüngliche Größe wiederherzustellen? Vielleicht wurde es auf eine seltsame Weise partitioniert? Das Flash-Laufwerk ist ein SanDisk Cruzer Micro 8GB.
Die Befehlszeilenprozedur ist nicht einfach, aber sie ist die wahrscheinlichste Lösung. Wenn Sie das "Laufwerk" neu formatieren, formatieren Sie eigentlich nur eine Partition auf dem Laufwerk. Sie müssen das Dienstprogramm ``diskpart`` verwenden, um die Partitionen zu entfernen und eine einzige Partition zu erstellen, die den gesamten Datenträger abdeckt. Das Programm ``diskpart`` kann ein wenig gefährlich sein, denn wenn Sie die falsche Festplatte oder Partition wählen, können Sie Daten oder Partitionen, die extrem, EXTREM wichtig sind, entfernen und alle Daten auf Ihrem Rechner verlieren. Gehen Sie mit äußerster Vorsicht vor! Öffnen Sie eine Eingabeaufforderung als Administrator (öffnen Sie das Startmenü, tippen Sie ```cmd``` und drücken Sie Enter.) Geben Sie ```diskpart`` ein und drücken Sie Enter. Sie erhalten eine neue Eingabeaufforderung, die wie folgt aussieht: ```DISKPART> ``` Geben Sie ein. ``Liste Festplatte ``` und Sie erhalten eine Liste aller Laufwerke in Ihrem Rechner. Geben Sie ein. ``Laufwerk auswählen # ``` um ein Laufwerk auszuwählen, wobei ```#`` die Nummer des Laufwerks ist, das Windows festgeschraubt hat. Normalerweise ist das Gerät die Platte 1, aber es ist immer besser, sich zu vergewissern. Dann tippen Sie ``Liste Partition ``` ein, um eine Liste aller Partitionen auf der Festplatte zu erhalten. Wenn Sie sicher sind, dass Sie die richtige Platte/Partition haben, koennen Sie die Eingabe von ``Partition auswählen # Partition löschen ``` eintippen, bis alle Partitionen von der Festplatte entfernt sind (für geschützte Partitionen müssen Sie eventuell ```Partition löschen überschreiben`` eintippen). Sobald das Laufwerk leer ist, beenden Sie diskpart und entfernen Sie das Laufwerk. Warten Sie mindestens 5 Minuten und setzen Sie dann das Laufwerk wieder ein. Klicken Sie NICHT auf FORMATIEREN - dadurch wird das Problem höchstwahrscheinlich erneut verursacht. Rufen Sie stattdessen erneut diskpart auf und wählen Sie das Laufwerk aus. Geben Sie dann ein ``Partition primär erstellen ``` Nachdem Sie die Partition erstellt haben, beenden Sie ```diskpart`` und geben in der Befehlseingabeaufforderung ein ``diskmgmt.msc ``` Auf diese Weise k?nnen Sie auf zuverl?ssige Weise eine FAT32-Partition erstellen. Auf der Festplatte, die Sie formatieren moechten (NIEMALS DISK 0 ANFASSEN!), klicken Sie mit der rechten Maustaste und waehlen Sie ```Formatieren``. Die Option ``Allocation Unit Size`` sollte standardmäßig eingestellt sein, und die Option ``File System`` sollte auf ``FAT32`` gesetzt werden. Das Formatieren kann eine Weile dauern, abhängig von der Größe der Festplatte, seien Sie geduldig. Dies sollte Probleme mit Partitionen auf jedem lesbaren USB-Stick beheben.
Mi unidad USB era originalmente 8 GB cuando lo compré. Estoy intentando reformatearla en Windows 7 haciendo clic con el botón derecho en la unidad y seleccionando ``Formatear...``. Pero la capacidad sólo muestra 250MB. ¿Hay algo que pueda hacer para recuperar el tamaño original? ¿Tal vez se particionó de una manera extraña? La unidad flash es una SanDisk Cruzer Micro de 8 GB.
El procedimiento de la línea de comandos no es sencillo, pero es lo más probable que funcione. Al reformatear la "unidad" en realidad sólo estás formateando una partición de la unidad. Necesitas utilizar la utilidad diskpart para eliminar las particiones y crear una única partición que cubra todo el volumen. ``diskpart`` puede ser un poco peligroso, porque si eliges el disco o la partición equivocados, puedes eliminar datos o particiones que son extremadamente, EXTREMADAMENTE importantes y perder todos los datos de tu máquina. ¡Proceda con extrema precaución! Abra un símbolo del sistema como administrador (abra el menú de inicio, escriba ``cmd`` y pulse Intro.) Escribe ``diskpart`` y pulsa Intro. Aparecerá una nueva ventana parecida a esta: ``DISKPART>` ``` Escribe ``list disk ``` y obtendrás un listado de todos los discos de tu máquina. Escribe ``seleccionar disco # ``` para seleccionar un disco, donde ```#`` es el número del disco que Windows atornilló. Normalmente, el dispositivo es el disco 1, pero siempre es mejor asegurarse. A continuación, escriba ``list partición ``` para obtener un listado de todas las particiones del disco. Si estás seguro de que tienes el disco/partición correcto, puedes repetir escribiendo ``seleccionar partición # borrar partición ``` hasta eliminar todas las particiones de la unidad (puede que tengas que escribir ``delete partition override`` para particiones protegidas). Una vez que la unidad esté vacía, salga de diskpart y extraiga la unidad. Espere al menos 5 minutos y vuelva a insertar la unidad. NO HAGA CLIC EN FORMATO - lo más probable es que esto vuelva a crear el problema. En su lugar, entra de nuevo en diskpart y selecciona el disco. A continuación, escriba ```crear partición primaria ``` Una vez que hayas creado la partición, sal de ```diskpart`` y, en el símbolo del sistema, escribe ``diskmgmt.msc ``` Esto proporcionará una forma fiable de crear una partición FAT32. En la unidad que desea formatear (¡NUNCA TOQUE EL DISCO 0!), haga clic con el botón derecho y seleccione ``formatear``. La opción ``tamaño de la unidad de asignación`` debe ser la predeterminada, y la opción ``Sistema de archivos`` debe ser ``FAT32``. El formateo puede tardar un poco, dependiendo del tamaño del disco, ten paciencia. Esto debería solucionar los problemas de partición en cualquier unidad flash USB legible.
Ma clé USB était à l'origine de 8 Go lorsque je l'ai achetée. J'essaie de la reformater dans Windows 7 en faisant un clic droit sur la clé et en sélectionnant ``Format...``. Mais la capacité n'est que de 250 Mo. Y a-t-il quelque chose que je puisse faire pour retrouver la taille d'origine ? Peut-être a-t-il été partitionné d'une manière bizarre ? La clé USB est une SanDisk Cruzer Micro 8GB.
La procédure en ligne de commande n'est pas simple, mais c'est celle qui a le plus de chances de fonctionner. Lorsque vous reformatez le "disque", vous ne formatez en fait qu'une partition du disque. Vous devez utiliser l'utilitaire diskpart pour supprimer les partitions et créer une seule partition couvrant tout le volume. Le ``diskpart`` peut être un peu dangereux, car si vous choisissez le mauvais disque ou la mauvaise partition, vous pouvez supprimer des données ou des partitions qui sont extrêmement, EXTRÊMEMENT importantes et perdre toutes les données de votre machine. Procédez avec une extrême prudence ! Ouvrez une invite de commande en tant qu'administrateur (ouvrez le menu Démarrer, tapez "cmd" et appuyez sur Entrée). Tapez ``diskpart`` et appuyez sur Entrée. Vous obtiendrez une nouvelle invite de commande qui ressemblera à ceci : ``DISKPART> ``` Tapez ``List disk ``` et vous obtiendrez une liste de tous les disques de votre machine. Tapez ``Sélectionner disque # ``` pour sélectionner un disque, où ``#`` est le numéro du disque que Windows a vissé. En général, il s'agit du disque 1, mais il est toujours préférable de s'en assurer. Ensuite, tapez ``list partition ``` pour obtenir une liste de toutes les partitions du disque. Si vous êtes sûr d'avoir le bon disque/la bonne partition, vous pouvez alors répéter en tapant ``Sélectionner la partition # delete partition ``` jusqu'à ce que toutes les partitions soient supprimées de ce disque (vous devrez peut-être taper ``delete partition override`` pour les partitions protégées). Une fois que le lecteur est vide, quittez diskpart et retirez le lecteur. Attendez au moins 5 minutes, puis réinsérez le disque. NE CLIQUEZ PAS sur FORMAT - cela va très probablement recréer le problème. Au lieu de cela, entrez à nouveau dans diskpart et sélectionnez le disque. Tapez ensuite ``Créer une partition primaire ``` Une fois la partition créée, quittez ``diskpart`` et, dans la fenêtre de commande, tapez ``diskmgmt.msc ``` Vous disposerez ainsi d'un moyen fiable de créer une partition FAT32. Sur le disque que vous souhaitez formater (NE TOUCHEZ JAMAIS AU DISQUE 0 !), faites un clic droit et sélectionnez ``formater``. L'option ``taille de l'unité d'allocation`` devrait être par défaut, et l'option ``Système de Fichier`` devrait être réglée sur ``FAT32``. Le formatage peut prendre un certain temps, en fonction de la taille du disque, soyez patient. Ceci devrait résoudre les problèmes de partition sur n'importe quelle clé USB lisible.
La mia unità USB era originariamente di 8 GB quando l'ho acquistata. Sto cercando di riformattarla in Windows 7 facendo clic con il pulsante destro del mouse sull'unità e selezionando ``Formatta...``. Ma la capacità mostra solo 250 MB. C'è qualcosa che posso fare per riavere le dimensioni originali? Forse è stata partizionata in modo strano? La chiavetta è una SanDisk Cruzer Micro 8GB.
La procedura da riga di comando non è semplice, ma è la cosa più probabile che funzioni. Quando si riformatta il "disco", in realtà si sta formattando solo una partizione del disco. È necessario utilizzare l'utility diskpart per rimuovere le partizioni e creare una singola partizione che copra l'intero volume. ``diskpart`` può essere un po' pericoloso, perché se si sceglie il disco o la partizione sbagliata, si possono rimuovere dati o partizioni estremamente, ESTREMAMENTE importanti e perdere tutti i dati sul computer. Procedete con estrema cautela! Aprite un prompt dei comandi come amministratore (aprite il menu Start, digitate ```cmd``` e premete Invio). Digitare ``diskpart'' e premere Invio. Verrà visualizzato un nuovo prompt che assomiglia a questo: ``DISKPART> ``` Digitare ``elenco disco ``` e si otterrà un elenco di tutti i dischi presenti sulla macchina. Digitare ``seleziona disco # ``` per selezionare un disco, dove ```#`` è il numero del disco che Windows ha avvitato. Di solito il dispositivo è il disco 1, ma è sempre meglio accertarsene. Quindi digitare ``Lista partizione ``` per ottenere un elenco di tutte le partizioni del disco. Se si è sicuri di avere il disco/partizione giusto, si può ripetere digitando ``seleziona partizione # cancella partizione ``` fino a quando tutte le partizioni sono state rimosse dall'unità (per le partizioni protette potrebbe essere necessario digitare ```cancella partizione override``). Una volta che l'unità è vuota, uscire da diskpart e rimuovere l'unità. Attendere almeno 5 minuti, quindi reinserire l'unità. NON FARE CLIC su FORMAT, per evitare che il problema si ripresenti. Invece, accedere nuovamente a diskpart e selezionare il disco. Quindi digitare ``crea partizione primaria ``` Una volta creata la partizione, uscire da ``diskpart`` e, nel prompt dei comandi, digitare ``diskmgmt.msc ``` In questo modo si ottiene un modo affidabile per creare una partizione FAT32. Sul disco che si desidera formattare (NON TOCCARE MAI IL DISCO 0!), fare clic con il pulsante destro del mouse e selezionare ``formatta``. L'opzione ``dimensione unità di allocazione`` dovrebbe essere predefinita e l'opzione ``Sistema file`` dovrebbe essere impostata su ``FAT32``. La formattazione potrebbe richiedere un po' di tempo, a seconda delle dimensioni del disco. Questo dovrebbe risolvere i problemi di partizione su qualsiasi unità flash USB leggibile.
36
I am a Tor developer. I understand that the .onion address is a public key of sorts, but not much more than that (I can vaguely guess, though). When nobody knows the IP of the .onion address, how do requests reach it? Are they bounced between nodes in the P2P network till someone decrypts it with the corresponding private key?
Up to at least October 2013 the hidden services work like this: * A hidden service calculates its key pair (private and public key, asymmetric encryption). * Then the hidden service picks some relays as its introduction points. * It tells its public key to those introduction points over Tor circuits. * After that the hidden-service creates a hidden service descriptor, containing its public key and what its introduction points are. * The hidden service signs the hidden service descriptor with its private key. * It then uploads the hidden service descriptor to a distributed hash table (DHT). * Clients learn the .onion address from a hidden service out-of-band. (e.g. public website) (A $hash.onion is a 16 character name derived from the service's public key.) * After retrieving the .onion address the client connects to the DHT and asks for that $hash. * If it exists the client learns about the hidden service's public key and its introduction points. * The client picks a relay at random to build a circuit to it, to tell it a one-time secret. The picked relay acts as rendezvous point. * The client creates a introduce message, containing the address of the rendezvous point and the one-time secret, before encrypting the message with the hidden service's public key. * The client sends its message over a Tor circuit to one of the introduction points, demanding it to be forwarded to the hidden service. * The hidden service decrypts the introduce message with its private key to learn about the rendezvous point and the one-time secret. * The hidden service creates a rendezvous message, containing the one-time secret and sends it over a circuit to the rendezvous point. * The rendezvous point tells the client that a connection was established. * Client and hidden service talk to each other over this rendezvous point. All traffic is end-to-end encrypted and the rendezvous point just relays it back and forth. Note that each of them, client and hidden service, build a circuit to the rendezvous point; at three hops per circuit this makes six hops in total.
Ich bin ein Tor-Entwickler. Ich verstehe, dass die .onion-Adresse eine Art öffentlicher Schlüssel ist, aber nicht viel mehr als das (ich kann es mir nur vage vorstellen). Wenn niemand die IP der .onion-Adresse kennt, wie erreichen die Anfragen diese? Werden sie zwischen den Knoten im P2P-Netzwerk hin- und hergeschoben, bis jemand sie mit dem entsprechenden privaten Schlüssel entschlüsselt?
Bis mindestens Oktober 2013 funktionierten die versteckten Dienste wie folgt: * Ein versteckter Dienst berechnet sein Schlüsselpaar (privater und öffentlicher Schlüssel, asymmetrische Verschlüsselung). * Dann wählt der versteckte Dienst einige Relays als Einführungspunkte aus. * Er teilt seinen öffentlichen Schlüssel diesen Einführungspunkten über Tor-Schaltungen mit. * Danach erstellt der versteckte Dienst einen Deskriptor für den versteckten Dienst, der seinen öffentlichen Schlüssel und die Einführungspunkte enthält. * Der versteckte Dienst signiert die Beschreibung des versteckten Dienstes mit seinem privaten Schlüssel. * Anschließend lädt er den Deskriptor des versteckten Dienstes in eine verteilte Hash-Tabelle (DHT) hoch. * Die Clients erfahren die .onion-Adresse von einem versteckten Dienst (z. B. einer öffentlichen Website) (Ein $hash.onion ist ein 16-stelliger Name, der aus dem öffentlichen Schlüssel des Dienstes abgeleitet wird). * Nach dem Abrufen der .onion-Adresse verbindet sich der Client mit dem DHT und fragt nach dem $hash. * Wenn sie existiert, erfährt der Client den öffentlichen Schlüssel des versteckten Dienstes und seine Einführungspunkte. * Der Client wählt zufällig ein Relais aus, um eine Verbindung zu ihm aufzubauen und ihm ein einmaliges Geheimnis mitzuteilen. Das ausgewählte Relais fungiert als Rendezvous-Punkt. * Der Klient erstellt eine Einführungsnachricht, die die Adresse des Rendezvouspunktes und das einmalige Geheimnis enthält, bevor er die Nachricht mit dem öffentlichen Schlüssel des versteckten Dienstes verschlüsselt. * Der Klient sendet seine Nachricht über eine Tor-Verbindung zu einem der Einführungspunkte und bittet darum, sie an den versteckten Dienst weiterzuleiten. * Der versteckte Dienst entschlüsselt die Nachricht mit seinem privaten Schlüssel, um den Rendezvouspunkt und das einmalige Geheimnis zu erfahren. * Der versteckte Dienst erstellt eine Rendezvous-Nachricht, die das Einmalgeheimnis enthält, und sendet sie über eine Leitung an den Rendezvouspunkt. * Der Rendezvouspunkt teilt dem Client mit, dass eine Verbindung hergestellt wurde. * Der Klient und der versteckte Dienst sprechen über diesen Rendezvouspunkt miteinander. Der gesamte Datenverkehr ist Ende-zu-Ende verschlüsselt und wird vom Rendezvous-Punkt nur hin- und hergeschickt. Beachten Sie, dass jeder von ihnen, Client und versteckter Dienst, eine Verbindung zum Rendezvouspunkt aufbauen; bei drei Sprüngen pro Verbindung sind das insgesamt sechs Sprünge.
Soy un desarrollador de Tor. Entiendo que la dirección .onion es una especie de clave pública, pero no mucho más que eso (aunque puedo adivinarlo vagamente). Cuando nadie conoce la IP de la dirección .onion, ¿cómo llegan las peticiones? ¿Son rebotadas entre nodos de la red P2P hasta que alguien la descifra con la clave privada correspondiente?
Hasta al menos octubre de 2013 los servicios ocultos funcionaban así: * Un servicio oculto calcula su par de claves (clave privada y pública, cifrado asimétrico). * A continuación, el servicio oculto elige algunos relés como sus puntos de introducción. * Comunica su clave pública a esos puntos de introducción a través de circuitos Tor. * Después el servicio oculto crea un descriptor de servicio oculto, que contiene su clave pública y cuáles son sus puntos de introducción. * El servicio oculto firma el descriptor de servicio oculto con su clave privada. * A continuación, carga el descriptor de servicio oculto en una tabla hash distribuida (DHT). * Los clientes aprenden la dirección .onion de un servicio oculto fuera de banda (por ejemplo, un sitio web público) (Un $hash.onion es un nombre de 16 caracteres derivado de la clave pública del servicio). * Después de recuperar la dirección .onion el cliente se conecta al DHT y pregunta por ese $hash. * Si existe, el cliente conoce la clave pública del servicio oculto y sus puntos de introducción. * El cliente elige un relé al azar para construir un circuito hacia él, para decirle un secreto de una sola vez. El relé elegido actúa como punto de encuentro. * El cliente crea un mensaje de introducción, que contiene la dirección del punto de encuentro y el secreto de una sola vez, antes de cifrar el mensaje con la clave pública del servicio oculto. * El cliente envía su mensaje a través de un circuito Tor a uno de los puntos de introducción, solicitando que sea reenviado al servicio oculto. * El servicio oculto descifra el mensaje de introducción con su clave privada para conocer el punto de encuentro y el secreto de un solo uso. * El servicio oculto crea un mensaje de encuentro que contiene el secreto de una sola vez y lo envía a través de un circuito al punto de encuentro. * El punto de encuentro informa al cliente de que se ha establecido una conexión. * El cliente y el servicio oculto se comunican a través de este punto de encuentro. Todo el tráfico está encriptado de extremo a extremo y el punto de encuentro sólo lo retransmite de un lado a otro. Ten en cuenta que cada uno de ellos, cliente y servicio oculto, construye un circuito hasta el punto de encuentro; a tres saltos por circuito, esto hace seis saltos en total.
Je suis un développeur Tor. Je comprends que l'adresse .onion est une sorte de clé publique, mais pas beaucoup plus que cela (je peux vaguement deviner, cependant). Lorsque personne ne connaît l'IP de l'adresse .onion, comment les requêtes l'atteignent-elles ? Sont-elles renvoyées entre les nœuds du réseau P2P jusqu'à ce que quelqu'un les décrypte avec la clé privée correspondante ?
Jusqu'en octobre 2013 au moins, les services cachés fonctionnent de la manière suivante : * Un service caché calcule sa paire de clés (clé privée et clé publique, cryptage asymétrique). * Ensuite, le service caché choisit quelques relais comme points d'introduction. * Il communique sa clé publique à ces points d'introduction via les circuits Tor. * Après cela, le service caché crée un descripteur de service caché, contenant sa clé publique et ses points d'introduction. * Le service caché signe le descripteur de service caché avec sa clé privée. * Il télécharge ensuite le descripteur de service caché dans une table de hachage distribuée (DHT). * Les clients apprennent l'adresse .onion d'un service caché hors bande (par exemple, un site web public) (un $hash.onion est un nom de 16 caractères dérivé de la clé publique du service). * Après avoir récupéré l'adresse .onion, le client se connecte au DHT et demande le $hash. * S'il existe, le client prend connaissance de la clé publique du service caché et de ses points d'introduction. * Le client choisit un relais au hasard pour établir un circuit vers lui et lui communiquer un secret à usage unique. Le relais choisi sert de point de rendez-vous. * Le client crée un message d'introduction, contenant l'adresse du point de rendez-vous et le secret unique, avant de chiffrer le message avec la clé publique du service caché. * Le client envoie son message via un circuit Tor à l'un des points d'introduction, en demandant qu'il soit transmis au service caché. * Le service caché décrypte le message d'introduction avec sa clé privée pour connaître le point de rendez-vous et le secret à usage unique. * Le service caché crée un message de rendez-vous contenant le secret à usage unique et l'envoie par un circuit au point de rendez-vous. * Le point de rendez-vous indique au client qu'une connexion a été établie. * Le client et le service caché se parlent par l'intermédiaire de ce point de rendez-vous. Tout le trafic est crypté de bout en bout et le point de rendez-vous ne fait que le relayer. Notez que chacun d'entre eux, le client et le service caché, construit un circuit vers le point de rendez-vous ; à raison de trois sauts par circuit, cela fait six sauts au total.
Sono uno sviluppatore di Tor. Ho capito che l'indirizzo .onion è una sorta di chiave pubblica, ma non molto di più (posso vagamente indovinare, però). Quando nessuno conosce l'IP dell'indirizzo .onion, come fanno le richieste a raggiungerlo? Vengono rimbalzate tra i nodi della rete P2P finché qualcuno non le decifra con la chiave privata corrispondente?
Almeno fino a ottobre 2013 i servizi nascosti funzionavano così: * Un servizio nascosto calcola la sua coppia di chiavi (chiave privata e pubblica, crittografia asimmetrica). * Poi il servizio nascosto sceglie alcuni relè come punti di introduzione. * Comunica la sua chiave pubblica a questi punti di introduzione attraverso i circuiti Tor. * Dopodiché il servizio nascosto crea un descrittore di servizio nascosto, contenente la sua chiave pubblica e i suoi punti di introduzione. * Il servizio nascosto firma il descrittore del servizio nascosto con la sua chiave privata. * Quindi carica il descrittore del servizio nascosto in una tabella hash distribuita (DHT). * I client apprendono l'indirizzo .onion da un servizio nascosto fuori banda (ad esempio un sito web pubblico) ($hash.onion è un nome di 16 caratteri derivato dalla chiave pubblica del servizio). * Dopo aver recuperato l'indirizzo .onion, il client si connette al DHT e chiede quell'$hash. * Se esiste, il client viene a conoscenza della chiave pubblica del servizio nascosto e dei suoi punti di introduzione. * Il client sceglie un relay a caso per costruire un circuito verso di lui, per comunicargli un segreto una tantum. Il relè scelto funge da punto di incontro. * Il client crea un messaggio di introduzione, contenente l'indirizzo del punto di incontro e il segreto una tantum, prima di crittografare il messaggio con la chiave pubblica del servizio nascosto. * Il cliente invia il messaggio su un circuito Tor a uno dei punti di introduzione, chiedendo che venga inoltrato al servizio nascosto. * Il servizio nascosto decifra il messaggio di introduzione con la sua chiave privata per conoscere il punto di incontro e il segreto unico. * Il servizio nascosto crea un messaggio di rendez-vous contenente il segreto a tempo unico e lo invia su un circuito al punto di rendez-vous. * Il punto di rendez-vous comunica al client che è stata stabilita una connessione. * Il client e il servizio nascosto si parlano attraverso questo punto di rendez-vous. Tutto il traffico è crittografato end-to-end e il punto di rendez-vous si limita a rilanciarlo. Si noti che ciascuno di essi, client e servizio nascosto, costruisce un circuito verso il punto di incontro; con tre hop per circuito, il totale è di sei hop.
37
I have been offered a PhD position by an inexperienced professor in a great institution in Europe. Despite the fact that the institution is very strong in my area, since the position was offered by this particular professor, I would have to commit myself to working with him for my thesis. This professor is young, and relatively inexperienced, but I enjoy the things he works on, and we seem to get along well. My question is, would having an inexperienced advisor hurt my growth as a scientist, or my career in general? Will I have the time during my PhD to also work on the side with other, more renowned professors in the department, or is one usually focused in a single research project?
An inexperienced advisor can hurt your career by being relatively unknown. This means they may not have access to the same network and that their recommendation letters do not carry the same weight. Inexperience in supervision may, for example, lead to unrealistic expectations. Or an inexperienced advisor can be very good for your career, by quickly rising to fame with the awesome publications the two of you will write together and being fresh in everybody's memory when writing recommendation letters. They may spend plenty of time on working with you. An experienced advisor can hurt your career by being never there. They may already have made their name, have extremely high expectations from PhD students, to the level of cause them to be overly stressed and quit. Or they may be very good for your career, as dedicated as can be to PhD students, prioritising them above most other duties, having realistic expectations from PhD students, and having great influence when writing recommendation letters. Bottom line: an experienced advisor may be better for you than an inexperienced one, but that certainly does not have to be the case. And keep in mind: a very good/famous scientist is not always a very good PhD advisor.
Mir wurde von einem unerfahrenen Professor in einer großen Einrichtung in Europa eine Doktorandenstelle angeboten. Obwohl die Einrichtung auf meinem Gebiet sehr stark ist, müsste ich, da die Stelle von diesem speziellen Professor angeboten wurde, für meine Doktorarbeit mit ihm zusammenarbeiten. Dieser Professor ist jung und relativ unerfahren, aber die Themen, an denen er arbeitet, gefallen mir, und wir scheinen uns gut zu verstehen. Meine Frage ist: Würde ein unerfahrener Betreuer meiner Entwicklung als Wissenschaftler oder meiner Karriere im Allgemeinen schaden? Werde ich während meiner Promotion die Zeit haben, auch mit anderen, renommierteren Professoren des Fachbereichs zusammenzuarbeiten, oder konzentriert man sich normalerweise auf ein einziges Forschungsprojekt?
Ein unerfahrener Berater kann Ihrer Karriere schaden, da er relativ unbekannt ist. Dies bedeutet, dass er möglicherweise nicht auf das gleiche Netzwerk zurückgreifen kann und dass seine Empfehlungsschreiben nicht das gleiche Gewicht haben. Unerfahrene Betreuer können z. B. unrealistische Erwartungen wecken. Ein unerfahrener Berater kann aber auch sehr gut für Ihre Karriere sein, indem er durch die großartigen Veröffentlichungen, die Sie beide zusammen verfassen werden, schnell zu Ruhm gelangt und beim Verfassen von Empfehlungsschreiben in aller Munde ist. Sie können viel Zeit auf die Zusammenarbeit mit Ihnen verwenden. Ein erfahrener Berater kann Ihrer Karriere schaden, wenn er nie da ist. Vielleicht hat er sich bereits einen Namen gemacht und stellt extrem hohe Erwartungen an Doktoranden, so dass diese überfordert sind und aufgeben. Er kann aber auch sehr gut für Ihre Karriere sein, indem er sich voll und ganz den Doktoranden widmet, ihnen Vorrang vor den meisten anderen Aufgaben einräumt, realistische Erwartungen an die Doktoranden stellt und großen Einfluss auf das Verfassen von Empfehlungsschreiben hat. Fazit: Ein erfahrener Betreuer kann besser für Sie sein als ein unerfahrener, aber das muss nicht zwangsläufig der Fall sein. Und denken Sie daran: Ein sehr guter/berühmter Wissenschaftler ist nicht immer ein sehr guter Doktorandenbetreuer.
Un profesor sin experiencia me ha ofrecido un puesto de doctorado en una gran institución de Europa. A pesar de que la institución es muy fuerte en mi área, como el puesto me lo ofreció este profesor en concreto, tendría que comprometerme a trabajar con él para mi tesis. Este profesor es joven y relativamente inexperto, pero me gustan las cosas en las que trabaja y parece que nos llevamos bien. Mi pregunta es si tener un asesor inexperto perjudicaría mi crecimiento como científico o mi carrera en general. ¿Tendré tiempo durante el doctorado para trabajar con otros profesores de más renombre del departamento, o uno suele centrarse en un único proyecto de investigación?
Un asesor sin experiencia puede perjudicar tu carrera al ser relativamente desconocido. Esto significa que puede que no tenga acceso a la misma red de contactos y que sus cartas de recomendación no tengan el mismo peso. La inexperiencia en la supervisión puede, por ejemplo, dar lugar a expectativas poco realistas. O un asesor inexperto puede ser muy bueno para tu carrera, al saltar rápidamente a la fama con las impresionantes publicaciones que escribiréis los dos juntos y estar fresco en la memoria de todo el mundo cuando escriba cartas de recomendación. Puede que dediquen mucho tiempo a trabajar contigo. Un asesor experimentado puede perjudicar tu carrera por no estar nunca ahí. Puede que ya se hayan hecho un nombre, que tengan expectativas extremadamente altas de los estudiantes de doctorado, hasta el nivel de provocarles un estrés excesivo y que abandonen. O pueden ser muy buenos para tu carrera, estar tan dedicados como se pueda a los estudiantes de doctorado, darles prioridad por encima de la mayoría de las demás obligaciones, tener expectativas realistas de los estudiantes de doctorado y tener una gran influencia a la hora de escribir cartas de recomendación. En resumen: un asesor con experiencia puede ser mejor para ti que uno sin experiencia, pero desde luego no tiene por qué ser así. Y tenga en cuenta que un científico muy bueno o famoso no siempre es un buen asesor de doctorado.
Un professeur inexpérimenté m'a proposé un poste de doctorant dans une grande institution européenne. Bien que l'institution soit très forte dans mon domaine, puisque le poste a été proposé par ce professeur en particulier, je devrais m'engager à travailler avec lui pour ma thèse. Ce professeur est jeune et relativement inexpérimenté, mais j'aime les sujets sur lesquels il travaille et nous semblons bien nous entendre. Ma question est la suivante : le fait d'avoir un conseiller inexpérimenté nuirait-il à mon développement en tant que scientifique ou à ma carrière en général ? Aurai-je le temps, pendant mon doctorat, de travailler en parallèle avec d'autres professeurs plus renommés du département, ou se concentre-t-on généralement sur un seul projet de recherche ?
Un conseiller inexpérimenté peut nuire à votre carrière en étant relativement peu connu. Cela signifie qu'il n'a pas accès au même réseau et que ses lettres de recommandation n'ont pas le même poids. L'inexpérience en matière de supervision peut, par exemple, conduire à des attentes irréalistes. Un conseiller inexpérimenté peut aussi être très bénéfique pour votre carrière, en devenant rapidement célèbre grâce aux publications impressionnantes que vous écrirez tous les deux et en restant dans la mémoire de tout le monde lorsque vous écrirez des lettres de recommandation. Il peut consacrer beaucoup de temps à travailler avec vous. Un conseiller expérimenté peut nuire à votre carrière en n'étant jamais présent. Il se peut qu'il se soit déjà fait un nom, qu'il ait des attentes extrêmement élevées à l'égard des doctorants, au point de les stresser et de les pousser à démissionner. Il peut aussi être très bénéfique pour votre carrière, se consacrer pleinement aux doctorants, leur donner la priorité sur toute autre tâche, avoir des attentes réalistes vis-à-vis des doctorants et avoir une grande influence sur la rédaction des lettres de recommandation. En résumé, un conseiller expérimenté peut être meilleur pour vous qu'un conseiller inexpérimenté, mais ce n'est pas forcément le cas. N'oubliez pas non plus qu'un très bon/très célèbre scientifique n'est pas toujours un très bon conseiller doctoral.
Mi è stato offerto un posto di dottorato da un professore inesperto in una grande istituzione in Europa. Nonostante l'istituzione sia molto forte nel mio settore, dato che il posto è stato offerto da questo particolare professore, dovrei impegnarmi a lavorare con lui per la mia tesi. Questo professore è giovane e relativamente inesperto, ma mi piacciono le cose su cui lavora e sembra che andiamo d'accordo. La mia domanda è: avere un consulente inesperto potrebbe danneggiare la mia crescita come scienziato o la mia carriera in generale? Avrò il tempo, durante il dottorato, di lavorare anche con altri professori più rinomati del dipartimento, o di solito ci si concentra su un singolo progetto di ricerca?
Un consulente inesperto può danneggiare la vostra carriera perché è relativamente sconosciuto. Ciò significa che potrebbe non avere accesso alla stessa rete e che le sue lettere di raccomandazione non hanno lo stesso peso. L'inesperienza nella supervisione può, ad esempio, portare ad aspettative non realistiche. In alternativa, un consulente inesperto può essere molto utile per la vostra carriera, in quanto si fa rapidamente conoscere grazie alle fantastiche pubblicazioni che scriverete insieme e rimane fresco nella memoria di tutti quando scrivete le lettere di raccomandazione. Potrebbero dedicare molto tempo a lavorare con voi. Un consulente esperto può danneggiare la vostra carriera non essendo mai presente. Può darsi che si sia già fatto un nome, che abbia aspettative estremamente elevate nei confronti dei dottorandi, al punto da provocare un eccesso di stress e di abbandono. Oppure può essere ottimo per la vostra carriera, dedicandosi ai dottorandi, dando loro la priorità rispetto alla maggior parte delle altre mansioni, nutrendo aspettative realistiche nei confronti dei dottorandi e avendo una grande influenza nella stesura delle lettere di raccomandazione. In conclusione, un consulente esperto può essere più adatto a voi di uno inesperto, ma non è detto che sia così. E ricordate: uno scienziato molto bravo/famoso non è sempre un ottimo consulente di dottorato.
38
Is there a phrase that means "too important" and "attracting too much attention"?
There is the term "overdominant": From Collins dictionary: >overdominant [adjective] excessively dominant To begin with, the design aspect is the most striking and arguably remains overdominant. [Times, Sunday Times (2010)] Here is an example: > [Steps must be taken to prevent any one] religious or ethnic group being overdominant. Otherwise, we will see a repeat of the unfortunate history of much of the 20th Century... Other possible terms that have similar meaning include "overpowered", "obtrusive" and "preponderant".
Gibt es eine Formulierung, die "zu wichtig" und "zu viel Aufmerksamkeit erregend" bedeutet?
Es gibt den Begriff "überdominant": Aus dem Collins-Wörterbuch: >überdominant [Adjektiv] übermäßig dominant Zu Beginn ist der Designaspekt der auffälligste und bleibt wohl überdominant. [Times, Sunday Times (2010)] Hier ist ein Beispiel: > [Es müssen Schritte unternommen werden, um zu verhindern, dass eine religiöse oder ethnische Gruppe übermäßig dominiert. Andernfalls werden wir eine Wiederholung der unglücklichen Geschichte eines Großteils des 20. Andere mögliche Begriffe, die eine ähnliche Bedeutung haben, sind "übermächtig", "aufdringlich" und "vorherrschend".
¿Existe una frase que signifique "demasiado importante" y "que llama demasiado la atención"?
Existe el término "sobredominante": Del diccionario Collins: >sobredominante [adjetivo] excesivamente dominante Para empezar, el aspecto del diseño es el más llamativo y podría decirse que sigue siendo excesivamente dominante. [Times, Sunday Times (2010)] He aquí un ejemplo: > [Deben tomarse medidas para evitar que un] grupo religioso o étnico sea excesivamente dominante. De lo contrario, asistiremos a una repetición de la desafortunada historia de gran parte del siglo XX... Otros posibles términos con un significado similar son "dominado", "intrusivo" y "preponderante".
Existe-t-il une expression qui signifie "trop important" et "attirant trop l'attention" ?
Il existe le terme "surdominant" : D'après le dictionnaire Collins : >surdominant [adjectif] excessivement dominant Pour commencer, c'est l'aspect design qui est le plus frappant et qui reste sans doute excessivement dominant. [Times, Sunday Times (2010)] En voici un exemple : > [Des mesures doivent être prises pour éviter qu'un] groupe religieux ou ethnique ne soit trop dominant. Sinon, nous assisterons à une répétition de l'histoire malheureuse d'une grande partie du 20e siècle... D'autres termes possibles ayant une signification similaire sont "surpuissant", "obtrusif" et "prépondérant".
Esiste una frase che significa "troppo importante" e "che attira troppa attenzione"?
Esiste il termine "sovradominante": Dal dizionario Collins: >sovradominante [aggettivo] eccessivamente dominante Per cominciare, l'aspetto del design è il più evidente e probabilmente rimane eccessivamente dominante. [Times, Sunday Times (2010)] Ecco un esempio: > [Occorre prendere provvedimenti per evitare che un solo gruppo religioso o etnico sia eccessivamente predominante. In caso contrario, si ripeterà la sfortunata storia di gran parte del XX secolo... Altri termini possibili che hanno un significato simile sono "overpowered", "obtrusive" e "preponderant".
39
This guy claims that Olympic powerlifters working in the 1-6 rep range can increase strength without increasing muscle size. > Trained Olympic lifters, for example, were shown over a two-year period to have significant strength increases with barely noticeable increases in muscle mass (Hakkinen et al, 1988). I had a similar experience when I used AST's Max-OT principals. My strength went up like crazy, but I gained very little size. Obviously, traditional strength training with low volume and low sets (1-6 reps, 3 or less sets) is not the best approach. Strength training does cause hypertrophy (Hakkinen et al, 1985), but it won't cause maximum hypertrophy. What is the scientific explanation for this? Is the inverse true? That is, can a buff guy (with lots of prominent muscle) actually be weak?
Certainly there is a correlation between muscle mass and strength, but there is more to the story. Two reasons why muscle mass and strength may not be completely congruous are: * Muscle fiber density * Muscle utilization Density: Your muscles are composed of four different types of fibers (slow-twitch, and three forms of fast-twitch). These fibers have different profiles in terms of force applied and recovery time. Slow twitch fibers, for example, recover quickly but have less force as there are fewer muscle fibers per bundle, compared with the fast-twitch fibers. Extra water in the form of glycogen can also cause muscles to take up more volume with the same amount of actual muscle. This glycogen can be a ready source of energy for the muscles, but isn't going to increase their maximum theoretical force for a single heavy lift (per Olympic competition) where endurance through a long set isn't at issue. Utilization: The average person is able to utilize 20-30% of their total theoretical muscle strength when trying their hardest. (Ref. Tsatsouline, Power To The People) Top lifters use perhaps 50% of their theoretical strength. Olympic and powerlifting-style training focuses on training the neural pathways to utilize a greater percentage of the available muscle mass. Since muscle fibers contract all internal cells (the all-or-nothing principal), this training is focused on convincing a greater proportion of fiber bundles to contract during a lift. Can a buff guy be weak? Well, it depends on your definition of buff. A cut guy can be weak (compared to a strength athlete), because muscle definition is more about having low body fat covering the muscle than it is about having large muscles. A bodybuilder with decent volume won't be able to lift as much as a comparable powerlifter because he/she doesn't train for strength per se. It seems worth noting that Olympic/power lifters also want to minimize their size (except for the heavyweights) because it affects their weight class in competition, so there is an added incentive to train for neural utilization over additional muscle mass.
Dieser Mann behauptet, dass olympische Kraftdreikämpfer, die im Bereich von 1-6 Wiederholungen arbeiten, ihre Kraft steigern können, ohne ihre Muskeln zu vergrößern. > Bei trainierten olympischen Hebern wurde beispielsweise über einen Zeitraum von zwei Jahren eine signifikante Kraftsteigerung bei kaum merklicher Zunahme der Muskelmasse festgestellt (Hakkinen et al, 1988). Ich habe eine ähnliche Erfahrung gemacht, als ich die Max-OT-Prinzipien von AST anwandte. Meine Kraft nahm wie verrückt zu, aber ich gewann nur sehr wenig an Größe. Es liegt auf der Hand, dass traditionelles Krafttraining mit geringem Volumen und niedrigen Sätzen (1-6 Wiederholungen, 3 oder weniger Sätze) nicht der beste Ansatz ist. Krafttraining führt zwar zu Hypertrophie (Hakkinen et al., 1985), aber nicht zu einer maximalen Hypertrophie. Was ist die wissenschaftliche Erklärung dafür? Ist der umgekehrte Fall wahr? Das heißt, kann ein muskulöser Mann (mit vielen ausgeprägten Muskeln) tatsächlich schwach sein?
Sicherlich gibt es einen Zusammenhang zwischen Muskelmasse und Kraft, aber es steckt mehr dahinter. Es gibt zwei Gründe, warum Muskelmasse und Kraft nicht völlig deckungsgleich sein können: * Muskelfaserdichte * Muskelauslastung Die Dichte: Ihre Muskeln bestehen aus vier verschiedenen Arten von Fasern (langsam zuckende und drei Formen von schnell zuckenden). Diese Fasern haben unterschiedliche Profile in Bezug auf die aufgebrachte Kraft und die Erholungszeit. Langsam zuckende Fasern beispielsweise erholen sich schnell, haben aber weniger Kraft, da es weniger Muskelfasern pro Bündel gibt als bei den schnell zuckenden Fasern. Zusätzliches Wasser in Form von Glykogen kann auch dazu führen, dass die Muskeln bei gleicher Muskelmasse mehr Volumen aufnehmen. Dieses Glykogen kann als Energiequelle für die Muskeln dienen, erhöht aber nicht die theoretische Maximalkraft für eine einzelne schwere Hebung (bei olympischen Wettkämpfen), bei der es nicht um die Ausdauer über einen langen Satz geht. Verwertung: Die durchschnittliche Person ist in der Lage, 20-30% ihrer gesamten theoretischen Muskelkraft zu nutzen, wenn sie sich anstrengt (vgl. Tsatsouline, Power To The People). Das Training im olympischen und Kraftdreikampf-Stil konzentriert sich darauf, die Nervenbahnen so zu trainieren, dass ein größerer Prozentsatz der verfügbaren Muskelmasse genutzt wird. Da Muskelfasern alle inneren Zellen kontrahieren (das Alles-oder-Nichts-Prinzip), konzentriert sich dieses Training darauf, einen größeren Anteil der Faserbündel davon zu überzeugen, sich während einer Hebung zusammenzuziehen. Kann ein muskulöser Mann schwach sein? Nun, das hängt von Ihrer Definition von "muskulös" ab. Ein schlanker Mann kann schwach sein (im Vergleich zu einem Kraftsportler), denn bei der Muskeldefinition geht es eher darum, dass wenig Körperfett die Muskeln bedeckt, als darum, dass die Muskeln groß sind. Ein Bodybuilder mit einem angemessenen Volumen wird nicht so viel heben können wie ein vergleichbarer Kraftsportler, weil er/sie nicht für die Kraft an sich trainiert. Es scheint erwähnenswert, dass Olympia-/Kraftdreikämpfer auch ihre Größe minimieren wollen (mit Ausnahme der Schwergewichte), weil dies ihre Gewichtsklasse bei Wettkämpfen beeinflusst, so dass es einen zusätzlichen Anreiz gibt, für die neurale Nutzung statt für zusätzliche Muskelmasse zu trainieren.
Este tipo afirma que los powerlifters olímpicos que trabajan en el rango de 1-6 repeticiones pueden aumentar la fuerza sin aumentar el tamaño muscular. > Levantadores olímpicos entrenados, por ejemplo, demostraron durante un período de dos años tener aumentos significativos de fuerza con aumentos apenas perceptibles de masa muscular (Hakkinen et al, 1988). Tuve una experiencia similar cuando utilicé los principios Max-OT de AST. Mi fuerza aumentó como la espuma, pero gané muy poco tamaño. Obviamente, el entrenamiento de fuerza tradicional con poco volumen y pocas series (1-6 repeticiones, 3 o menos series) no es el mejor enfoque. El entrenamiento de fuerza causa hipertrofia (Hakkinen et al, 1985), pero no causará hipertrofia máxima. ¿Cuál es la explicación científica de esto? ¿Es cierto lo contrario? Es decir, ¿puede un tipo musculoso (con mucho músculo prominente) ser débil?
Es cierto que existe una correlación entre la masa muscular y la fuerza, pero hay algo más. Hay dos razones por las que la masa muscular y la fuerza pueden no ser completamente congruentes: * Densidad de fibras musculares * Utilización muscular Densidad: Tus músculos están compuestos por cuatro tipos diferentes de fibras (de contracción lenta y tres formas de contracción rápida). Estas fibras tienen diferentes perfiles en términos de fuerza aplicada y tiempo de recuperación. Las fibras de contracción lenta, por ejemplo, se recuperan rápidamente pero tienen menos fuerza, ya que hay menos fibras musculares por haz, en comparación con las fibras de contracción rápida. El agua adicional en forma de glucógeno también puede hacer que los músculos ocupen más volumen con la misma cantidad de músculo real. Este glucógeno puede ser una fuente de energía para los músculos, pero no va a aumentar su fuerza máxima teórica para un solo levantamiento pesado (por competición olímpica) donde la resistencia a través de una larga serie no es un problema. Utilización: La persona media es capaz de utilizar entre el 20 y el 30% de su fuerza muscular teórica total cuando se esfuerza al máximo (ref. Tsatsouline, Power To The People) Los mejores levantadores utilizan quizás el 50% de su fuerza teórica. El entrenamiento olímpico y de levantamiento de potencia se centra en entrenar las vías neurales para utilizar un mayor porcentaje de la masa muscular disponible. Dado que las fibras musculares contraen todas las células internas (el principio de todo o nada), este entrenamiento se centra en convencer a una mayor proporción de haces de fibras para que se contraigan durante un levantamiento. ¿Puede un tipo musculado ser débil? Bueno, depende de tu definición de musculación. Un tipo cortado puede ser débil (comparado con un atleta de fuerza), porque la definición muscular se basa más en tener poca grasa corporal que cubra el músculo que en tener músculos grandes. Un culturista con un volumen decente no será capaz de levantar tanto como un levantador de potencia comparable porque no entrena la fuerza per se. Vale la pena señalar que los levantadores olímpicos y de potencia también quieren minimizar su tamaño (excepto los pesos pesados) porque afecta a su categoría de peso en la competición, por lo que hay un incentivo añadido para entrenar la utilización neural por encima de la masa muscular adicional.
Ce type prétend que les haltérophiles olympiques qui travaillent dans une fourchette de 1 à 6 répétitions peuvent augmenter leur force sans augmenter leur taille musculaire. > Il a été démontré que les haltérophiles olympiques entraînés, par exemple, ont connu sur une période de deux ans des augmentations de force significatives avec des augmentations de masse musculaire à peine perceptibles (Hakkinen et al, 1988). J'ai vécu une expérience similaire lorsque j'ai utilisé les principes Max-OT d'AST. Ma force a augmenté de façon spectaculaire, mais j'ai très peu gagné en taille. Il est évident que l'entraînement traditionnel de la force avec un faible volume et des séries réduites (1-6 répétitions, 3 séries ou moins) n'est pas la meilleure approche. L'entraînement en force entraîne une hypertrophie (Hakkinen et al, 1985), mais pas une hypertrophie maximale. Quelle est l'explication scientifique de ce phénomène ? L'inverse est-il vrai ? En d'autres termes, un homme musclé (avec beaucoup de muscles saillants) peut-il être faible ?
Il existe certainement une corrélation entre la masse musculaire et la force, mais ce n'est pas tout. Les deux raisons pour lesquelles la masse musculaire et la force peuvent ne pas être totalement en accord sont les suivantes : * la densité des fibres musculaires * L'utilisation des muscles La densité : Les muscles sont composés de quatre types de fibres différentes (fibres à contraction lente et trois formes de fibres à contraction rapide). Ces fibres ont des profils différents en termes de force appliquée et de temps de récupération. Les fibres à contraction lente, par exemple, récupèrent rapidement mais ont moins de force car il y a moins de fibres musculaires par faisceau que les fibres à contraction rapide. L'eau supplémentaire sous forme de glycogène peut également permettre aux muscles de prendre plus de volume avec la même quantité de muscle réel. Ce glycogène peut constituer une source d'énergie pour les muscles, mais il n'augmentera pas leur force théorique maximale pour un seul soulèvement de poids (selon la compétition olympique) où l'endurance sur une longue série n'est pas en jeu. Utilisation : Une personne moyenne est capable d'utiliser 20 à 30 % de sa force musculaire théorique totale lorsqu'elle fait le maximum (cf. Tsatsouline, Power To The People). Les meilleurs haltérophiles utilisent peut-être 50 % de leur force théorique. L'entraînement de type olympique et powerlifting se concentre sur l'entraînement des voies neurales afin d'utiliser un plus grand pourcentage de la masse musculaire disponible. Étant donné que les fibres musculaires contractent toutes les cellules internes (principe du tout ou rien), cet entraînement vise à convaincre une plus grande proportion de faisceaux de fibres de se contracter au cours d'un soulèvement. Un homme musclé peut-il être faible ? Cela dépend de la définition que vous donnez à la notion de "buff". Un homme musclé peut être faible (par rapport à un athlète de force), car la définition musculaire dépend davantage de la faible quantité de graisse corporelle qui recouvre le muscle que de la taille des muscles. Un bodybuilder avec un volume décent ne pourra pas soulever autant de poids qu'un powerlifter comparable, car il ne s'entraîne pas pour la force en tant que telle. Il convient de noter que les haltérophiles olympiques et les power lifters souhaitent également minimiser leur taille (à l'exception des poids lourds) parce que cela affecte leur catégorie de poids en compétition, ce qui les incite à s'entraîner pour l'utilisation des neurones plutôt que pour l'augmentation de la masse musculaire.
Questo tizio sostiene che i sollevatori olimpici di potenza che lavorano con un range di 1-6 ripetizioni possono aumentare la forza senza aumentare le dimensioni dei muscoli. > I sollevatori olimpici allenati, ad esempio, hanno dimostrato, nell'arco di due anni, di avere un aumento significativo della forza con un aumento appena percettibile della massa muscolare (Hakkinen et al, 1988). Ho avuto un'esperienza simile quando ho utilizzato i principi del Max-OT di AST. La mia forza è aumentata a dismisura, ma ho guadagnato pochissimo in termini di massa. Ovviamente, l'allenamento tradizionale della forza con basso volume e basse serie (1-6 ripetizioni, 3 o meno serie) non è l'approccio migliore. L'allenamento della forza provoca l'ipertrofia (Hakkinen et al., 1985), ma non l'ipertrofia massima. Qual è la spiegazione scientifica di questo fatto? È vero l'inverso? Cioè, un uomo muscoloso (con molti muscoli in evidenza) può essere debole?
Certamente esiste una correlazione tra massa muscolare e forza, ma c'è dell'altro. Due motivi per cui la massa muscolare e la forza potrebbero non essere del tutto congruenti sono: * densità delle fibre muscolari * Utilizzo del muscolo Densità: I muscoli sono composti da quattro tipi diversi di fibre (a contrazione lenta e tre forme a contrazione rapida). Queste fibre hanno profili diversi in termini di forza applicata e tempo di recupero. Le fibre a contrazione lenta, ad esempio, recuperano rapidamente, ma hanno una forza minore perché ci sono meno fibre muscolari per fascio, rispetto alle fibre a contrazione rapida. L'acqua extra sotto forma di glicogeno può anche far sì che i muscoli assumano un volume maggiore a parità di muscolo effettivo. Questo glicogeno può essere una fonte di energia pronta per i muscoli, ma non aumenterà la loro forza massima teorica per un singolo sollevamento pesante (per le competizioni olimpiche) in cui non è in gioco la resistenza per una lunga serie. Utilizzo: Una persona media è in grado di utilizzare il 20-30% della sua forza muscolare teorica totale quando si impegna al massimo (cfr. Tsatsouline, Power To The People). I migliori sollevatori utilizzano forse il 50% della loro forza teorica. L'allenamento olimpico e di powerlifting si concentra sull'allenamento delle vie neurali per utilizzare una percentuale maggiore della massa muscolare disponibile. Poiché le fibre muscolari contraggono tutte le cellule interne (principio del "tutto o niente"), questo allenamento si concentra sul convincere una percentuale maggiore di fasci di fibre a contrarsi durante un sollevamento. Un uomo muscoloso può essere debole? Dipende dalla definizione di "muscoloso". Un atleta tagliato può essere debole (rispetto a un atleta di forza), perché la definizione muscolare si basa più sulla presenza di poco grasso corporeo che copre il muscolo che sulla presenza di muscoli grandi. Un bodybuilder con un volume decente non sarà in grado di sollevare tanto quanto un powerlifter paragonabile, perché non si allena per la forza in sé. Vale la pena notare che anche i sollevatori olimpici/di potenza vogliono ridurre al minimo le loro dimensioni (ad eccezione dei pesi massimi) perché ciò influisce sulla loro classe di peso nelle competizioni, quindi c'è un ulteriore incentivo ad allenarsi per l'utilizzo dei neuroni piuttosto che per aumentare la massa muscolare.
40
What are the major concerns about planting trees to create carbon offsets?
Here are some common concerns about using tree planting projects to create carbon offsets: * The scheme actually has a net positive effect, both in the short and long-term/ How effective a tree planting scheme is in capturing and storing carbon dioxide, is for a large part determined by what happens to the trees after they are planted. When trees mature and are harvested for wood that's used in construction, then the captured carbon dioxide is stored for a long time (until the wood decomposes or is burned). However, if no trees are replanted after harvesting this will have had a one-time effect only. Also when wood is burned (for energy or in a wild fire), or if trees die quickly and decompose, then their captured carbon is released again. Of course all trees die eventually even when they are not harvested, this is part of the natural cycle, but a mature forest can store a lot more carbon than a young, newly-planted forest so it's important to keep a forest intact as much as possible. * The wrong type(s) of trees are planted in the wrong location. In the past there were bad offsetting schemes that planted non-native trees, or planted trees in a location where they would change water flows and thus change local ecosystems in a negative way. Some offsetting schemes planted thousands of trees of the same species, resulting in a large monoculture. Such a monoculture hinders biodiversity, is susceptible to diseases and can even damage local communities. There have also been reports that planting trees above a certain latitude can have a net warming effect by changing the albedo and trapping heat. * Buying offsets reduces the incentive for people to reduce their emissions. Reducing emissions is much more effective than offsetting. Buying carbon offsets can lead to people thinking they are doing the right thing, whereas they had better spent their time and effort in reducing their emissions. Of course this point goes for all offsetting-schemes and is not specifically for planting trees. * There are more effective ways of reducing carbon emissions than planting trees. Nowadays many offsetting schemes invest in development of renewable energy sources (in developing countries) instead of planting trees, simply because it is a more effective and cheaper way to reduce emissions.
Was sind die Hauptbedenken gegen das Anpflanzen von Bäumen zur Schaffung von Kohlenstoffausgleichsflächen?
Im Folgenden werden einige häufig geäußerte Bedenken bezüglich der Verwendung von Baumpflanzungsprojekten zur Erzielung von Kohlenstoffkompensationen erläutert: * Hat das Programm tatsächlich einen positiven Nettoeffekt, sowohl kurz- als auch langfristig? Wie wirksam ein Baumpflanzungsprogramm bei der Bindung und Speicherung von Kohlendioxid ist, hängt zu einem großen Teil davon ab, was mit den Bäumen nach ihrer Pflanzung geschieht. Wenn die Bäume reif sind und als Bauholz geerntet werden, wird das gebundene Kohlendioxid für lange Zeit gespeichert (bis das Holz zersetzt oder verbrannt wird). Wenn jedoch nach der Ernte keine Bäume nachgepflanzt werden, hat dies nur einen einmaligen Effekt. Auch wenn Holz verbrannt wird (zur Energiegewinnung oder bei Waldbränden) oder wenn Bäume schnell absterben und sich zersetzen, wird der gebundene Kohlenstoff wieder freigesetzt. Natürlich sterben alle Bäume irgendwann ab, auch wenn sie nicht geerntet werden, das ist Teil des natürlichen Kreislaufs, aber ein ausgewachsener Wald kann viel mehr Kohlenstoff speichern als ein junger, neu gepflanzter Wald, daher ist es wichtig, einen Wald so weit wie möglich intakt zu halten. * Die falsche(n) Baumart(en) werden am falschen Ort gepflanzt. In der Vergangenheit gab es schlechte Ausgleichsprogramme, bei denen nicht einheimische Bäume gepflanzt wurden oder Bäume an einem Ort gepflanzt wurden, an dem sie die Wasserströme und damit die lokalen Ökosysteme negativ verändern würden. Bei einigen Kompensationsprogrammen wurden Tausende von Bäumen derselben Art gepflanzt, was zu einer großen Monokultur führte. Eine solche Monokultur beeinträchtigt die Artenvielfalt, ist anfällig für Krankheiten und kann sogar den lokalen Gemeinschaften schaden. Es gibt auch Berichte, dass die Anpflanzung von Bäumen oberhalb eines bestimmten Breitengrades einen Nettoerwärmungseffekt haben kann, indem sie die Albedo verändert und Wärme zurückhält. * Der Kauf von Kompensationen verringert den Anreiz für die Menschen, ihre Emissionen zu reduzieren. Die Reduzierung von Emissionen ist viel wirksamer als der Ausgleich. Der Kauf von Emissionszertifikaten kann dazu führen, dass die Menschen denken, sie täten das Richtige, während sie ihre Zeit und Mühe besser in die Reduzierung ihrer Emissionen investieren sollten. Dieser Punkt gilt natürlich für alle Kompensationsprogramme und nicht speziell für das Pflanzen von Bäumen. * Es gibt wirksamere Möglichkeiten zur Verringerung der Kohlenstoffemissionen als das Pflanzen von Bäumen. Heutzutage investieren viele Kompensationsprogramme in die Entwicklung erneuerbarer Energiequellen (in Entwicklungsländern), anstatt Bäume zu pflanzen, weil dies einfach eine effektivere und billigere Art der Emissionsminderung ist.
¿Cuáles son las principales preocupaciones sobre la plantación de árboles para crear compensaciones de carbono?
A continuación se exponen algunas preocupaciones comunes sobre el uso de proyectos de plantación de árboles para crear compensaciones de carbono: * El plan tiene realmente un efecto positivo neto, tanto a corto como a largo plazo. La eficacia de un plan de plantación de árboles para capturar y almacenar dióxido de carbono depende en gran medida de lo que les ocurra a los árboles después de su plantación. Cuando los árboles maduran y se talan para obtener madera que se utiliza en la construcción, el dióxido de carbono capturado se almacena durante mucho tiempo (hasta que la madera se descompone o se quema). Sin embargo, si no se replantan árboles después de la tala, esto sólo tendrá un efecto puntual. Además, cuando la madera se quema (para obtener energía o en un incendio forestal), o si los árboles mueren rápidamente y se descomponen, el carbono capturado se libera de nuevo. Por supuesto, todos los árboles acaban muriendo aunque no se talen, ya que forma parte del ciclo natural, pero un bosque maduro puede almacenar mucho más carbono que un bosque joven recién plantado, por lo que es importante mantenerlo intacto en la medida de lo posible. * Se plantan árboles del tipo equivocado en el lugar equivocado. En el pasado, existían sistemas de compensación inadecuados que plantaban árboles no autóctonos o en lugares donde podían alterar los flujos de agua y, por tanto, los ecosistemas locales de forma negativa. Algunos sistemas de compensación plantaron miles de árboles de la misma especie, dando lugar a un gran monocultivo. Un monocultivo de este tipo obstaculiza la biodiversidad, es susceptible a las enfermedades y puede incluso perjudicar a las comunidades locales. También se ha informado de que plantar árboles por encima de cierta latitud puede tener un efecto neto de calentamiento al cambiar el albedo y atrapar el calor. * Comprar compensaciones reduce el incentivo para que la gente reduzca sus emisiones. Reducir las emisiones es mucho más eficaz que compensarlas. Comprar compensaciones de carbono puede llevar a la gente a pensar que están haciendo lo correcto, cuando sería mejor que emplearan su tiempo y esfuerzo en reducir sus emisiones. Por supuesto, este punto se aplica a todos los sistemas de compensación y no específicamente a la plantación de árboles. * Hay formas más eficaces de reducir las emisiones de carbono que plantar árboles. Hoy en día, muchos sistemas de compensación invierten en el desarrollo de fuentes de energía renovables (en los países en desarrollo) en lugar de plantar árboles, simplemente porque es una forma más eficaz y barata de reducir las emisiones.
Quelles sont les principales préoccupations liées à la plantation d'arbres pour créer des compensations carbone ?
Voici quelques préoccupations courantes concernant l'utilisation de projets de plantation d'arbres pour créer des compensations carbone : * Le projet a en fait un effet positif net, à la fois à court et à long terme. L'efficacité d'un projet de plantation d'arbres à capturer et à stocker le dioxyde de carbone est en grande partie déterminée par ce qu'il advient des arbres après leur plantation. Lorsque les arbres arrivent à maturité et sont récoltés pour le bois utilisé dans la construction, le dioxyde de carbone capturé est stocké pendant une longue période (jusqu'à ce que le bois se décompose ou soit brûlé). Toutefois, si aucun arbre n'est replanté après la récolte, cela n'aura eu qu'un effet ponctuel. De même, lorsque le bois est brûlé (pour produire de l'énergie ou lors d'un incendie), ou si les arbres meurent rapidement et se décomposent, le carbone qu'ils ont capturé est à nouveau libéré. Bien sûr, tous les arbres meurent un jour ou l'autre, même s'ils ne sont pas récoltés, cela fait partie du cycle naturel, mais une forêt mature peut stocker beaucoup plus de carbone qu'une jeune forêt nouvellement plantée, c'est pourquoi il est important de garder une forêt intacte autant que possible. * Le(s) mauvais type(s) d'arbres est (sont) planté(s) au mauvais endroit. Dans le passé, de mauvais programmes de compensation ont planté des arbres non indigènes ou des arbres à un endroit où ils modifieraient les flux d'eau et donc les écosystèmes locaux de manière négative. Certains programmes de compensation ont planté des milliers d'arbres de la même espèce, ce qui a donné lieu à une vaste monoculture. Une telle monoculture nuit à la biodiversité, est sensible aux maladies et peut même nuire aux communautés locales. Il a également été rapporté que la plantation d'arbres au-delà d'une certaine latitude peut avoir un effet de réchauffement net en modifiant l'albédo et en piégeant la chaleur. * L'achat de crédits compensatoires n'incite pas les gens à réduire leurs émissions. La réduction des émissions est beaucoup plus efficace que la compensation. L'achat de compensations carbone peut amener les gens à penser qu'ils font le bon choix, alors qu'ils auraient mieux fait de consacrer leur temps et leurs efforts à la réduction de leurs émissions. Bien entendu, cette remarque s'applique à tous les systèmes de compensation et ne concerne pas spécifiquement la plantation d'arbres. * Il existe des moyens plus efficaces de réduire les émissions de carbone que la plantation d'arbres. Aujourd'hui, de nombreux programmes de compensation investissent dans le développement de sources d'énergie renouvelables (dans les pays en développement) au lieu de planter des arbres, simplement parce qu'il s'agit d'un moyen plus efficace et moins coûteux de réduire les émissions.
Quali sono le principali preoccupazioni legate alla piantumazione di alberi per creare compensazioni di carbonio?
Ecco alcuni dubbi comuni sull'utilizzo di progetti di piantumazione di alberi per creare compensazioni di carbonio: * Il progetto ha effettivamente un effetto netto positivo, sia a breve che a lungo termine. L'efficacia di un progetto di piantagione di alberi nel catturare e immagazzinare l'anidride carbonica dipende in gran parte da ciò che accade agli alberi dopo che sono stati piantati. Quando gli alberi maturano e vengono raccolti per ricavarne il legno da utilizzare nelle costruzioni, l'anidride carbonica catturata viene immagazzinata per molto tempo (finché il legno non si decompone o viene bruciato). Tuttavia, se dopo il raccolto non vengono ripiantati alberi, l'effetto sarà solo una tantum. Inoltre, quando il legno viene bruciato (per ricavare energia o in un incendio selvaggio) o se gli alberi muoiono rapidamente e si decompongono, il carbonio catturato viene nuovamente rilasciato. Naturalmente tutti gli alberi muoiono prima o poi, anche se non vengono raccolti, questo fa parte del ciclo naturale, ma una foresta matura può immagazzinare molto più carbonio di una giovane foresta appena piantata, quindi è importante mantenere una foresta intatta il più possibile. * Il tipo o i tipi di alberi sbagliati sono piantati nella posizione sbagliata. In passato ci sono stati schemi di compensazione sbagliati che hanno piantato alberi non autoctoni, o che hanno piantato alberi in una posizione in cui avrebbero modificato i flussi d'acqua e quindi cambiato gli ecosistemi locali in modo negativo. Alcuni schemi di compensazione hanno piantato migliaia di alberi della stessa specie, dando vita a una grande monocoltura. Tale monocoltura ostacola la biodiversità, è suscettibile alle malattie e può persino danneggiare le comunità locali. È stato inoltre segnalato che piantare alberi al di sopra di una certa latitudine può avere un effetto netto di riscaldamento, modificando l'albedo e intrappolando il calore. * L'acquisto di compensazioni riduce l'incentivo a ridurre le emissioni. La riduzione delle emissioni è molto più efficace della compensazione. L'acquisto di compensazioni di carbonio può indurre le persone a pensare di fare la cosa giusta, mentre sarebbe stato meglio spendere il proprio tempo e i propri sforzi per ridurre le emissioni. Naturalmente questo punto vale per tutti i sistemi di compensazione e non riguarda specificamente la piantumazione di alberi. * Esistono modi più efficaci di ridurre le emissioni di carbonio rispetto al piantare alberi. Oggi molti programmi di compensazione investono nello sviluppo di fonti di energia rinnovabile (nei Paesi in via di sviluppo) invece di piantare alberi, semplicemente perché è un modo più efficace ed economico di ridurre le emissioni.
41
I am wondering how to generate uniformly distributed points on the surface of the 3-d unit sphere? Also after generating those points, what is the best way to visualize and check whether they are truly uniform on the surface $x^2+y^2+z^2=1$?
A standard method is to generate three standard normals and construct a unit vector from them. That is, when $X_i \sim N(0,1)$ and $\lambda^2 = X_1^2 + X_2^2 + X_3^2$, then $(X_1/\lambda, X_2/\lambda, X_3/\lambda)$ is uniformly distributed on the sphere. This method works well for $d$-dimensional spheres, too. In 3D you can use rejection sampling: draw $X_i$ from a uniform$[-1,1]$ distribution until the length of $(X_1, X_2, X_3)$ is less than or equal to 1, then--just as with the preceding method--normalize the vector to unit length. The expected number of trials per spherical point equals $2^3/(4 \pi / 3)$ = 1.91. In higher dimensions the expected number of trials gets so large this rapidly becomes impracticable. There are many ways to check uniformity. A neat way, although somewhat computationally intensive, is with Ripley's K function. The expected number of points within (3D Euclidean) distance $\rho$ of any location on the sphere is proportional to the area of the sphere within distance $\rho$, which equals $\pi\rho^2$. By computing all interpoint distances you can compare the data to this ideal. General principles of constructing statistical graphics suggest a good way to make the comparison is to plot variance-stabilized residuals $e_i(d_{[i]} - e_i)$ against $i = 1, 2, \ldots, n(n-1)/2=m$ where $d_{[i]}$ is the $i^\text{th}$ smallest of the mutual distances and $e_i = 2\sqrt{i/m}$. The plot should be close to zero.
Ich frage mich, wie man gleichmäßig verteilte Punkte auf der Oberfläche der 3-dimensionalen Einheitskugel erzeugen kann? Und wie kann man nach der Erzeugung dieser Punkte am besten visualisieren und überprüfen, ob sie wirklich gleichmäßig auf der Fläche $x^2+y^2+z^2=1$ verteilt sind?
Eine Standardmethode besteht darin, drei Standardnormalen zu erzeugen und daraus einen Einheitsvektor zu konstruieren. Das heißt, wenn $X_i \sim N(0,1)$ und $\lambda^2 = X_1^2 + X_2^2 + X_3^2$, dann ist $(X_1/\lambda, X_2/\lambda, X_3/\lambda)$ gleichmäßig auf der Kugel verteilt. Diese Methode funktioniert auch gut für $d$-dimensionale Kugeln. In 3D kann man das Rejection Sampling verwenden: Man zieht $X_i$ aus einer Gleichverteilung $[-1,1]$, bis die Länge von $(X_1, X_2, X_3)$ kleiner oder gleich 1 ist, und normalisiert dann - wie bei der vorhergehenden Methode - den Vektor auf Einheitslänge. Die erwartete Anzahl von Versuchen pro kugelförmigem Punkt ist gleich $2^3/(4 \pi / 3)$ = 1,91. In höheren Dimensionen wird die erwartete Anzahl der Versuche so groß, dass dies schnell unpraktikabel wird. Es gibt viele Möglichkeiten, die Gleichmäßigkeit zu überprüfen. Eine elegante, wenn auch etwas rechenintensive Methode ist die Ripley-K-Funktion. Die erwartete Anzahl von Punkten innerhalb der (3D-euklidischen) Entfernung $\rho$ von einem beliebigen Ort auf der Kugel ist proportional zur Fläche der Kugel innerhalb der Entfernung $\rho$, die gleich $\pi\rho^2$ ist. Durch die Berechnung aller Punktabstände kann man die Daten mit diesem Ideal vergleichen. Nach den allgemeinen Grundsätzen für die Erstellung statistischer Grafiken bietet es sich an, die varianzstabilisierten Residuen $e_i(d_{[i]} - e_i)$ gegen $i = 1, 2, \ldots, n(n-1)/2=m$ aufzuzeichnen, wobei $d_{[i]}$ der $i^\text{th}$ kleinste der gegenseitigen Abstände und $e_i = 2\sqrt{i/m}$ ist. Die Darstellung sollte nahe bei Null liegen.
Me pregunto cómo generar puntos distribuidos uniformemente sobre la superficie de la esfera unitaria 3D. También después de generar esos puntos, ¿cuál es la mejor manera de visualizar y comprobar si son realmente uniformes en la superficie $x^2+y^2+z^2=1$?
Un método estándar consiste en generar tres normales estándar y construir un vector unitario a partir de ellas. Es decir, cuando $X_i \sim N(0,1)$ y $\lambda^2 = X_1^2 + X_2^2 + X_3^2$, entonces $(X_1/\lambda, X_2/\lambda, X_3/\lambda)$ se distribuye uniformemente en la esfera. Este método también funciona bien para esferas $d$-dimensionales. En 3D se puede utilizar el muestreo de rechazo: extraer $X_i$ de una distribución uniforme$[-1,1]$ hasta que la longitud de $(X_1, X_2, X_3)$ sea menor o igual que 1, entonces -al igual que con el método anterior- normalizar el vector a la unidad de longitud. El número esperado de ensayos por punto esférico es igual a $2^3/(4 \pi / 3)$ = 1,91. En dimensiones mayores el número esperado de ensayos se hace tan grande que rápidamente se vuelve impracticable. Hay muchas formas de comprobar la uniformidad. Una forma clara, aunque algo intensiva computacionalmente, es con la función K de Ripley. El número esperado de puntos dentro de la distancia (euclidiana 3D) $\rho$ de cualquier punto de la esfera es proporcional al área de la esfera dentro de la distancia $\rho$, que es igual a $\pi\rho^2$. Calculando todas las distancias entre puntos se pueden comparar los datos con este ideal. Los principios generales de la construcción de gráficos estadísticos sugieren que una buena manera de hacer la comparación es trazar los residuos de varianza estabilizada $e_i(d_{[i]} - e_i)$ contra $i = 1, 2, \ldots, n(n-1)/2=m$ donde $d_{[i]}$ es la $i^\text{th}$ más pequeña de las distancias mutuas y $e_i = 2\sqrt{i/m}$. El gráfico debe ser cercano a cero.
Je me demande comment générer des points uniformément répartis sur la surface de la sphère unitaire tridimensionnelle ? De plus, après avoir généré ces points, quelle est la meilleure façon de visualiser et de vérifier s'ils sont vraiment uniformes sur la surface $x^2+y^2+z^2=1$ ?
Une méthode standard consiste à générer trois normales standard et à construire un vecteur unitaire à partir de celles-ci. Ainsi, lorsque $X_i \sim N(0,1)$ et $\lambda^2 = X_1^2 + X_2^2 + X_3^2$, alors $(X_1/\lambda, X_2/\lambda, X_3/\lambda)$ est uniformément distribué sur la sphère. Cette méthode fonctionne également pour les sphères de dimension $d$. En 3D, vous pouvez utiliser l'échantillonnage par rejet : tirez $X_i$ d'une distribution uniforme$[-1,1]$ jusqu'à ce que la longueur de $(X_1, X_2, X_3)$ soit inférieure ou égale à 1, puis - comme pour la méthode précédente - normalisez le vecteur à la longueur unitaire. Le nombre attendu d'essais par point sphérique est égal à $2^3/(4 \pi / 3)$ = 1,91. Dans les dimensions supérieures, le nombre d'essais escompté devient si important que cette méthode devient rapidement impraticable. Il existe de nombreuses façons de vérifier l'uniformité. La fonction K de Ripley est un bon moyen, bien qu'il soit un peu gourmand en ressources informatiques, de vérifier l'uniformité. Le nombre attendu de points situés à une distance (euclidienne 3D) $\rho$ de n'importe quel point de la sphère est proportionnel à la surface de la sphère située à une distance $\rho$, qui est égale à $\pi\rho^2$. En calculant toutes les distances entre les points, vous pouvez comparer les données à cet idéal. Les principes généraux de construction de graphiques statistiques suggèrent qu'une bonne façon de faire la comparaison est de tracer les résidus stabilisés par la variance $e_i(d_{[i]} - e_i)$ en fonction de $i = 1, 2, \ldots, n(n-1)/2=m$ où $d_{[i]}$ est la $i^\text{th}$ plus petite des distances mutuelles et $e_i = 2\sqrt{i/m}$. Le tracé doit être proche de zéro.
Mi chiedo come generare punti uniformemente distribuiti sulla superficie della sfera unitaria 3-d. Inoltre, dopo aver generato questi punti, qual è il modo migliore per visualizzare e controllare se sono veramente uniformi sulla superficie $x^2+y^2+z^2=1$?
Un metodo standard consiste nel generare tre normali standard e costruire un vettore unitario a partire da esse. Cioè, quando $X_i \sim N(0,1)$ e $\lambda^2 = X_1^2 + X_2^2 + X_3^2$, allora $(X_1/\lambda, X_2/\lambda, X_3/\lambda)$ è uniformemente distribuito sulla sfera. Questo metodo funziona bene anche per sfere di $d$ dimensioni. In 3D si può usare il campionamento per scarto: si estrae $X_i$ da una distribuzione uniforme$[-1,1]$ fino a quando la lunghezza di $(X_1, X_2, X_3)$ è minore o uguale a 1, quindi - proprio come con il metodo precedente - si normalizza il vettore a lunghezza unitaria. Il numero atteso di prove per punto sferico è pari a $2^3/(4 \pi / 3)$ = 1,91. In dimensioni superiori, il numero previsto di prove diventa così grande da rendere rapidamente impraticabile questa operazione. Esistono molti modi per verificare l'uniformità. Un modo semplice, anche se piuttosto impegnativo dal punto di vista computazionale, è la funzione K di Ripley. Il numero atteso di punti entro la distanza (euclidea 3D) $\rho$ da qualsiasi punto della sfera è proporzionale all'area della sfera entro la distanza $\rho$, che è uguale a $\pi\rho^2$. Calcolando tutte le distanze interpunto è possibile confrontare i dati con questo ideale. I principi generali della costruzione di grafici statistici suggeriscono che un buon modo per effettuare il confronto è quello di tracciare i residui stabilizzati sulla varianza $e_i(d_{[i]} - e_i)$ rispetto a $i = 1, 2, \ldots, n(n-1)/2=m$ dove $d_{[i]}$ è la $i^text{th}$ più piccola delle distanze reciproche e $e_i = 2\sqrt{i/m}$. Il grafico dovrebbe essere prossimo allo zero.
42
In Shutter Island, at the end of the movie Teddy had a chat with Chuck, in that scene Teddy told to Chuck as, Which would be worse: To live as a monster, or to die as a good man? What's the implicit meaning of this dialogue? Who's the monster as Teddy mentioned? And, who's a good man?
To Live as a Monster If he accepts his guilt and becomes sane he will become the Monster. His delusions are his brains way of removing this guilt and hiding the fact that he ignored his family, did not act on his wife's mental illness, allowed her to murder their children and then murdered her. By accepting what the doctors are telling him he will need to go on living in the knowledge that he allowed terrible things to happen and did terrible things. The doctors will be able to treat him without a lobotomy but he will be fully aware of the crimes he committed. To die as a good man In his delusion he is a good man. He truly believes that he is on the side of law and order and that he is doing right. If he chooses to continue to believe this he will be lobotomised and will no longer have relevant brain function to question what he did or did not do. The death is not literal as the other answer suggests. It is about the fact that if he continues to believe he is this good man he will be lobotomised and effectively "die" believing in this. He will not die in a literal sense until later, but he will do so in the belief he was a good man. What is most exciting and cathartic about this decision is that this appears to be a moment of lucidity where he understands what has happened and is not in thrall of his delusions. He at this point of lucidity makes the decision that he can not live with his crimes and would prefer to lie to his doctor as he knows this will result in his lobotomy. By making the statement to his doctor he makes him aware of this also and by virtue of this you could also argue that he is being a good man by electing to be punished as well as the belief in his delusion that he is good.
In Shutter Island hatte Teddy am Ende des Films ein Gespräch mit Chuck, in dem Teddy zu Chuck sagte:, Was wäre schlimmer: als Monster zu leben oder als guter Mensch zu sterben? Was ist die implizite Bedeutung dieses Dialogs? Wer ist das Monster, das Teddy erwähnte? Und wer ist ein guter Mensch?
Als Monster leben Wenn er seine Schuld akzeptiert und zurechnungsfähig wird, wird er zum Monster. Seine Wahnvorstellungen sind die Art und Weise, wie sein Gehirn die Schuldgefühle verdrängt und die Tatsache verbirgt, dass er seine Familie ignorierte, nicht auf die Geisteskrankheit seiner Frau reagierte, ihr erlaubte, ihre Kinder zu ermorden und sie dann ermordete. Wenn er akzeptiert, was die Ärzte ihm sagen, wird er in dem Wissen weiterleben müssen, dass er zuließ, dass schreckliche Dinge geschehen, und dass er schreckliche Dinge getan hat. Die Ärzte werden in der Lage sein, ihn ohne Lobotomie zu behandeln, aber er wird sich der Verbrechen, die er begangen hat, voll bewusst sein. Als guter Mensch sterben In seinem Wahn ist er ein guter Mensch. Er glaubt wirklich, dass er auf der Seite von Recht und Ordnung steht und dass er das Richtige tut. Wenn er sich dafür entscheidet, dies weiterhin zu glauben, wird er lobotomiert und hat keine relevanten Gehirnfunktionen mehr, um zu hinterfragen, was er getan oder nicht getan hat. Der Tod ist nicht wörtlich zu nehmen, wie die andere Antwort vermuten lässt. Es geht um die Tatsache, dass er lobotomiert wird, wenn er weiterhin glaubt, dass er dieser gute Mensch ist, und dass er effektiv "stirbt", wenn er an diesen Glauben glaubt. Er wird zwar erst später im wörtlichen Sinne sterben, aber in dem Glauben, dass er ein guter Mensch war. Das Aufregendste und Erhellendste an dieser Entscheidung ist, dass es sich um einen Moment der Klarheit zu handeln scheint, in dem er versteht, was geschehen ist, und nicht mehr in seinem Wahn gefangen ist. An diesem Punkt der Klarheit trifft er die Entscheidung, dass er mit seinen Verbrechen nicht leben kann und es vorziehen würde, seinen Arzt anzulügen, da er weiß, dass dies zu seiner Lobotomie führen würde. Durch die Aussage gegenüber seinem Arzt macht er ihm dies auch bewusst, und man könnte daher auch argumentieren, dass er ein guter Mensch ist, wenn er sich dafür entscheidet, bestraft zu werden, und dass er in seinem Wahn glaubt, gut zu sein.
En Shutter Island, al final de la película Teddy tuvo una charla con Chuck, en esa escena Teddy le dijo a Chuck como, ¿Qué sería peor: Vivir como un monstruo, o morir como un buen hombre? ¿Cuál es el significado implícito de este diálogo? ¿Quién es el monstruo como Teddy mencionó? Y, ¿quién es un buen hombre?
Vivir como un Monstruo Si acepta su culpa y se vuelve cuerdo se convertirá en el Monstruo. Sus delirios son la forma que tiene su cerebro de eliminar esta culpa y ocultar el hecho de que ignoró a su familia, no actuó ante la enfermedad mental de su mujer, permitió que asesinara a sus hijos y luego la asesinó a ella. Si acepta lo que le dicen los médicos, tendrá que seguir viviendo sabiendo que permitió que ocurrieran cosas terribles e hizo cosas terribles. Los médicos podrán tratarle sin una lobotomía, pero él será plenamente consciente de los crímenes que cometió. Morir como un buen hombre En su delirio es un buen hombre. Cree de verdad que está del lado de la ley y el orden y que hace lo correcto. Si decide seguir creyendo esto, será lobotomizado y ya no tendrá funciones cerebrales relevantes para cuestionar lo que hizo o dejó de hacer. La muerte no es literal como sugiere la otra respuesta. Se trata del hecho de que si continúa creyendo que es este buen hombre, será lobotomizado y efectivamente "morirá" creyendo en esto. No morirá en un sentido literal hasta más tarde, pero lo hará creyendo que era un buen hombre. Lo más emocionante y catártico de esta decisión es que parece ser un momento de lucidez en el que comprende lo que ha sucedido y no está preso de sus delirios. En este punto de lucidez toma la decisión de que no puede vivir con sus crímenes y prefiere mentir a su médico, ya que sabe que esto provocará su lobotomía. Al hacer la declaracion a su medico le hace consciente de esto tambien y en virtud de esto tambien se podria argumentar que esta siendo un buen hombre al elegir ser castigado asi como la creencia en su delirio de que es bueno.
Dans Shutter Island, à la fin du film, Teddy a discuté avec Chuck, dans cette scène Teddy a dit à Chuck ce qui suit, Qu'est-ce qui serait pire : vivre comme un monstre, ou mourir comme un homme bon ? Quelle est la signification implicite de ce dialogue ? Qui est le monstre mentionné par Teddy ? Et qui est un homme bon ?
Vivre comme un monstre S'il accepte sa culpabilité et devient sain d'esprit, il deviendra un monstre. Ses délires sont la façon dont son cerveau se débarrasse de sa culpabilité et cache le fait qu'il a ignoré sa famille, n'a pas agi face à la maladie mentale de sa femme, l'a laissée assassiner leurs enfants et l'a ensuite tuée. En acceptant ce que les médecins lui disent, il devra continuer à vivre en sachant qu'il a permis que des choses terribles se produisent et qu'il a fait des choses terribles. Les médecins pourront le soigner sans lui faire subir une lobotomie, mais il sera pleinement conscient des crimes qu'il a commis. Mourir en homme de bien Dans son délire, il est un homme bon. Il croit sincèrement qu'il est du côté de la loi et de l'ordre et qu'il fait le bien. S'il choisit de continuer à y croire, il sera lobotomisé et n'aura plus de fonctions cérébrales pertinentes pour remettre en question ce qu'il a fait ou n'a pas fait. La mort n'est pas littérale comme le suggère l'autre réponse. Il s'agit du fait que s'il continue à croire qu'il est cet homme bon, il sera lobotomisé et "mourra" effectivement en y croyant. Il ne mourra au sens propre que plus tard, mais il mourra en croyant qu'il était un homme bon. Ce qui est le plus excitant et le plus cathartique dans cette décision, c'est qu'il s'agit d'un moment de lucidité où il comprend ce qui s'est passé et n'est pas sous l'emprise de ses illusions. À ce moment de lucidité, il décide qu'il ne peut pas vivre avec ses crimes et préfère mentir à son médecin, car il sait que cela entraînera sa lobotomie. En faisant cette déclaration à son médecin, il le rend conscient de cette situation et, en vertu de cela, on pourrait également soutenir qu'il est un homme bon en choisissant d'être puni et en croyant, dans son délire, qu'il est bon.
In Shutter Island, alla fine del film Teddy fa una chiacchierata con Chuck, in quella scena Teddy dice a Chuck come, Cosa sarebbe peggio: vivere come un mostro o morire come un uomo buono? Qual è il significato implicito di questo dialogo? Chi è il mostro di cui parla Teddy? E chi è un uomo buono?
Vivere come un mostro Se accetta la sua colpa e diventa sano di mente, diventerà il Mostro. I suoi deliri sono il modo in cui il cervello rimuove il senso di colpa e nasconde il fatto che ha ignorato la sua famiglia, non ha agito sulla malattia mentale della moglie, le ha permesso di uccidere i loro figli e poi l'ha uccisa. Accettando ciò che i medici gli dicono, dovrà continuare a vivere sapendo che ha permesso che accadessero cose terribili e che ha fatto cose terribili. I medici saranno in grado di curarlo senza una lobotomia, ma lui sarà pienamente consapevole dei crimini che ha commesso. Morire da uomo buono Nella sua illusione è un uomo buono. Crede davvero di essere dalla parte della legge e dell'ordine e di fare la cosa giusta. Se sceglie di continuare a crederci, sarà lobotomizzato e non avrà più funzioni cerebrali rilevanti per mettere in discussione ciò che ha fatto o non ha fatto. La morte non è letterale, come suggerisce l'altra risposta. Si tratta del fatto che, se continua a credere di essere un uomo buono, verrà lobotomizzato e "morirà" effettivamente credendo in questo. Non morirà in senso letterale se non più tardi, ma lo farà nella convinzione di essere un uomo buono. L'aspetto più emozionante e catartico di questa decisione è che sembra essere un momento di lucidità in cui capisce cosa è successo e non è in balia delle sue illusioni. In questo momento di lucidità prende la decisione di non poter convivere con i suoi crimini e preferisce mentire al suo medico, sapendo che questo comporterà la sua lobotomia. Facendo questa dichiarazione al medico, lo rende consapevole anche di questo e, in virtù di ciò, si potrebbe anche sostenere che si sta comportando da uomo buono scegliendo di essere punito, così come la convinzione nel suo delirio di essere buono.
43
To set the minimal distance between flexbox items I'm using ```margin: 0 5px``` on ```.item``` and ```margin: 0 -5px``` on container. For me it seems like a hack, but I can't find any better way to do this. ```#box { display: flex; width: 100px; margin: 0 -5px; } .item { background: gray; width: 50px; height: 50px; margin: 0 5px; }``` ``` ```
This solution will work for all cases even if there are multiple rows or any number of elements. But the count of the section should be same you want 4 in first row and 3 is second row it won't work that way the space for the 4th content will be blank the container won't fill. We are using ```display: grid;``` and its properties. ```#box { display: grid; width: 100px; grid-gap: 5px; /* Space between items */ grid-template-columns: repeat(4,1fr); /* Decide the number of columns(4) and size(1fr | 1 Fraction | you can use pixels and other values also) */ } .item { background: gray; width: 100%; /* width is not necessary only added this to understand that width works as 100% to the grid template allocated space **DEFAULT WIDTH WILL BE 100%** */ height: 50px; }``` ``` ``` The Downside of this method is in Mobile Opera Mini will not be supported and in PC this works only after IE10. Note for complete browser compatability including IE11 please use Autoprefixer OLD ANSWER Don't think of it as an old solution, it's still one of the best if you only want single row of elements and it will work with all the browsers. This method is used by CSS sibling combination, so you can manipulate it many other ways also, but if your combination is wrong it may cause issues also. ```.item+.item{ margin-left: 5px; } ``` The below code will do the trick. In this method, there is no need to give ```margin: 0 -5px;``` to the ```#box``` wrapper. A working sample for you: ```#box { display: flex; width: 100px; } .item { background: gray; width: 22px; height: 50px; } .item+.item{ margin-left: 5px; }``` ``` ```
Um den minimalen Abstand zwischen Flexbox-Elementen festzulegen, verwende ich ```margin: 0 5px``` auf ```.item``` und ```margin: 0 -5px``` auf container. Für mich scheint es wie ein Hack, aber ich kann nicht finden, eine bessere Möglichkeit, dies zu tun. ```#box { display: flex; Breite: 100px; margin: 0 -5px; } .item { Hintergrund: grau; Breite: 50px; Höhe: 50px; margin: 0 5px; }``` ``` ```
Diese Lösung funktioniert in allen Fällen, auch wenn es mehrere Zeilen oder eine beliebige Anzahl von Elementen gibt. Aber die Anzahl der Abschnitte sollte gleich sein, wenn Sie 4 in der ersten Reihe und 3 in der zweiten Reihe haben wollen, wird es nicht funktionieren, da der Platz für den vierten Inhalt leer sein wird und der Container sich nicht füllt. Wir benutzen ````display: grid;``` und seine Eigenschaften. ```#box { display: grid; Breite: 100px; grid-gap: 5px; /* Abstand zwischen den Elementen */ grid-template-columns: repeat(4,1fr); /* Bestimmen Sie die Anzahl der Spalten (4) und die Größe (1fr | 1 Bruchteil | Sie können auch Pixel oder andere Werte verwenden) */ } .item { Hintergrund: grau; Breite: 100%; /* width ist nicht notwendig, dies wurde nur hinzugefügt, um zu verstehen, dass width als 100% des dem Grid-Template zugewiesenen Platzes funktioniert **DEFAULT WIDTH WILL BE 100%** */ height: 50px; }``` ``` ``` Der Nachteil dieser Methode ist, dass Opera Mini auf dem Handy nicht unterstützt wird und auf dem PC erst ab IE10 funktioniert. Hinweis: Für vollständige Browserkompatibilität einschließlich IE11 verwenden Sie bitte Autoprefixer ALTE ANTWORT Betrachten Sie es nicht als alte Lösung, es ist immer noch eine der besten, wenn Sie nur eine einzelne Reihe von Elementen wollen und es wird mit allen Browsern funktionieren. Diese Methode wird von der CSS-Geschwisterkombination verwendet, so dass Sie sie auch auf viele andere Arten manipulieren können, aber wenn Ihre Kombination falsch ist, kann sie auch Probleme verursachen. ```.item+.item{ margin-left: 5px; } ``` Der unten stehende Code erfüllt den Zweck. Bei dieser Methode ist es nicht notwendig, dem ```#box``-Wrapper einen ```margin: 0 -5px;``` zu geben. Ein funktionierendes Beispiel für Sie: ```#box { display: flex; Breite: 100px; } .item { Hintergrund: grau; Breite: 22px; Höhe: 50px; } .item+.item{ margin-left: 5px; }``` ``` ```
Para establecer la distancia mínima entre los elementos flexbox estoy usando ```margin: 0 5px`` en ```.item``` y ```margin: 0 -5px`` en el contenedor. A mi me parece un hack, pero no encuentro otra forma mejor de hacer esto. ```#box { display: flex; anchura: 100px; margin: 0 -5px; } .item { fondo: gris; anchura: 50px; altura: 50px; margin: 0 5px; }``` ``` ```
Esta solución funcionará para todos los casos, incluso si hay varias filas o cualquier número de elementos. Pero el recuento de la sección debe ser el mismo quieres 4 en la primera fila y 3 es la segunda fila no va a funcionar de esa manera el espacio para el contenido 4 estará en blanco el contenedor no se llenará. Estamos usando ``display: grid;`` y sus propiedades. ```#box { display: grid; ancho: 100px; grid-gap: 5px; /* Espacio entre elementos */ grid-template-columns: repeat(4,1fr); /* Decide el número de columnas(4) y el tamaño(1fr | 1 Fracción | puedes usar píxeles y otros valores también) */ } .item { fondo: gris; ancho: 100%; /* width no es necesario solo agregamos esto para entender que width funciona como 100% al espacio asignado por la plantilla grid **DEFAULT WIDTH WILL BE 100%** */ altura: 50px; }``` ``` ``` La desventaja de este método es que Opera Mini no será compatible en móviles y en PC esto sólo funciona después de IE10. Nota para la compatibilidad completa del navegador incluyendo IE11 por favor utilice Autoprefixer RESPUESTA ANTIGUA No pienses que es una solución antigua, sigue siendo una de las mejores si sólo quieres una fila de elementos y funcionará con todos los navegadores. Este método es usado por la combinación de hermanos CSS, así que puedes manipularlo de muchas otras maneras también, pero si tu combinación es incorrecta puede causar problemas también. ```.item+.item{ margin-left: 5px; } ``` El siguiente código hará el truco. En este método, no hay necesidad de dar ```margin: 0 -5px;``` a la envoltura ```#box``. Un ejemplo que funciona: ```#box { display: flex; anchura: 100px; } .item { fondo: gris; anchura: 22px; altura: 50px; } .item+.item{ margin-left: 5px; }``` ``` ```
Pour définir la distance minimale entre les éléments flexbox, j'utilise ``margin : 0 5px`` sur ``.item`` et ``margin : 0 -5px`` sur le conteneur. Pour moi, cela semble être un hack, mais je n'ai pas trouvé de meilleure façon de le faire. ```#box { display : flex ; width : 100px ; margin : 0 -5px ; } .item { background : gray ; width : 50px ; hauteur : 50px ; margin : 0 5px ; }``` ``` ```
Cette solution fonctionnera dans tous les cas, même s'il y a plusieurs lignes ou n'importe quel nombre d'éléments. Mais le nombre de sections doit être le même si vous voulez 4 dans la première ligne et 3 dans la seconde, cela ne fonctionnera pas de cette façon, l'espace pour le 4ème contenu sera vide et le conteneur ne se remplira pas. Nous utilisons ``display : grid;`` et ses propriétés. ```#box { display : grid ; width : 100px ; grid-gap : 5px ; /* Espace entre les éléments */ grid-template-columns : repeat(4,1fr) ; /* Déterminez le nombre de colonnes (4) et la taille (1fr | 1 Fraction | vous pouvez également utiliser des pixels et d'autres valeurs) */ } .item { background : gray ; width : 100% ; /* la largeur n'est pas nécessaire, elle a seulement été ajoutée pour comprendre que la largeur est égale à 100% de l'espace alloué par le modèle de grille **La largeur par défaut sera de 100%** */ height : 50px ; }``` ``` ``` L'inconvénient de cette méthode est qu'Opera Mini ne sera pas pris en charge sur les téléphones portables et que sur les PC, cette méthode ne fonctionne qu'après IE10. Note : pour une compatibilité complète des navigateurs, y compris IE11, utilisez Autoprefixer. ANCIENNE REPONSE Ne pensez pas qu'il s'agit d'une vieille solution, c'est toujours l'une des meilleures si vous ne voulez qu'une seule rangée d'éléments et elle fonctionnera avec tous les navigateurs. Cette méthode est utilisée par la combinaison des frères et sœurs CSS, vous pouvez donc la manipuler de bien d'autres façons, mais si votre combinaison est mauvaise, cela peut aussi poser des problèmes. ````.item+.item{ margin-left : 5px ; } ``` Le code ci-dessous fera l'affaire. Dans cette méthode, il n'est pas nécessaire de donner ``margin : 0 -5px;`` au wrapper ``#box``. Un exemple de travail pour vous : ``#box { display : flex ; width : 100px ; } .item { background : gray ; width : 22px ; height : 50px ; } .item+.item{ marge-gauche : 5px ; }``` ``` ```
Per impostare la distanza minima tra gli elementi di flexbox sto usando ```margin: 0 5px``` su ```.item`` e ```margin: 0 -5px`` su container. A me sembra un hack, ma non riesco a trovare un modo migliore per farlo. ```#box { display: flex; larghezza: 100px; margin: 0 -5px; } .item { sfondo: grigio; larghezza: 50px; altezza: 50px; margin: 0 5px; }``` ``` ```
Questa soluzione funziona in tutti i casi, anche se ci sono più righe o qualsiasi numero di elementi. Ma il numero delle sezioni deve essere lo stesso, se si vogliono 4 in prima riga e 3 in seconda riga, non funzionerà in questo modo, lo spazio per il quarto contenuto sarà vuoto e il contenitore non si riempirà. Stiamo usando ```display: grid;``` e le sue proprietà. ```#box { display: grid; larghezza: 100px; grid-gap: 5px; /* Spazio tra gli elementi */ grid-template-columns: repeat(4,1fr); /* Decidere il numero di colonne (4) e la dimensione (1fr | 1 frazione | si possono usare anche pixel e altri valori) */ } .item { sfondo: grigio; larghezza: 100%; /* la larghezza non è necessaria, ma è stata aggiunta solo per capire che la larghezza funziona come il 100% dello spazio allocato al modello di griglia **LA LARGHEZZA DI DEFAULT SARÀ IL 100%** */ height: 50px; }``` ``` ``` Lo svantaggio di questo metodo è che Opera Mini non sarà supportato sui dispositivi mobili e sul PC funziona solo dopo IE10. Per una completa compatibilità con i browser, incluso IE11, utilizzare Autoprefixer. VECCHIA RISPOSTA Non consideratela una soluzione vecchia, è ancora una delle migliori se volete solo una singola riga di elementi e funziona con tutti i browser. Questo metodo è usato dalla combinazione di fratelli CSS, quindi si può manipolare anche in molti altri modi, ma se la combinazione è sbagliata può causare problemi. ```.item+.item{ margin-left: 5px; } ``` Il codice seguente è sufficiente per risolvere il problema. In questo metodo, non è necessario dare ```margin: 0 -5px;`` al wrapper ```#box``. Un esempio funzionante per voi: ```#box { display: flex; larghezza: 100px; } .item { sfondo: grigio; larghezza: 22px; height: 50px; } .item+.item{ margin-left: 5px; }``` ``` ```
44
Is there a Git for data? The key improvement I'd want is to Diff/Merge more intelligently. e.g. in CSV rather than line vs line comparison, it would do cell vs cell. And ordering is usually not significant, e.g. rows in a CSV, whereas Git does care and presents the user with 'conflicts'.
Please note that ```git``` has two configuration commands: ```git config filter..clean git config filter..smudge ``` The ```clean``` filter can be used e.g. to sort all records in a CSV file except the top row, thus making re-ordering irrelevant. Quoting ```gitattributes(5)``` : A filter driver consists of a clean command and a smudge command, either of which can be left unspecified. Upon checkout, when the smudge command is specified, the command is fed the blob object from its standard input, and its standard output is used to update the worktree file. Similarly, the clean command is used to convert the contents of worktree file upon checkin. A missing filter driver definition in the config is not an error but makes the filter a no-op passthru. The content filtering is done to massage the content into a shape that is more convenient for the platform, filesystem, and the user to use. The key phrase here is &quot;more convenient&quot; and not &quot;turning something unusable into usable&quot;. In other words, the intent is that if someone unsets the filter driver definition, or does not have the appropriate filter program, the project should still be usable.
Gibt es ein Git für Daten? Die Hauptverbesserung, die ich mir wünschen würde, wäre ein intelligenteres Diff/Merge. z.B. würde es in CSV nicht Zeile gegen Zeile vergleichen, sondern Zelle gegen Zelle. Und die Reihenfolge ist in der Regel nicht wichtig, z. B. bei Zeilen in einer CSV-Datei, während Git sich darum kümmert und dem Benutzer "Konflikte" anzeigt.
Bitte beachten Sie, dass ````git`` zwei Konfigurationsbefehle hat: ````Git config filter..clean git config filter..smudge ``` Der ```clean```-Filter kann z.B. benutzt werden, um alle Datensätze in einer CSV-Datei bis auf die oberste Zeile zu sortieren, so dass eine Neuordnung irrelevant wird. Ich zitiere ````gitattributes(5)``` : Ein Filtertreiber besteht aus einem clean-Befehl und einem smudge-Befehl, die beide nicht spezifiziert werden können. Wenn der smudge-Befehl beim Auschecken angegeben wird, wird der Befehl mit dem Blob-Objekt von seiner Standardeingabe gefüttert und seine Standardausgabe wird verwendet, um die Arbeitsbaumdatei zu aktualisieren. In ähnlicher Weise wird der clean-Befehl verwendet, um den Inhalt der worktree-Datei beim Einchecken zu konvertieren. Eine fehlende Filtertreiberdefinition in der Konfiguration ist kein Fehler, sondern macht den Filter zu einem No-op-Passthru. Die Inhaltsfilterung wird durchgeführt, um den Inhalt in eine Form zu bringen, die für die Plattform, das Dateisystem und den Benutzer besser geeignet ist. Der Schlüsselbegriff ist hier &quot;bequemer&quot; und nicht &quot;etwas Unbrauchbares in Brauchbares verwandeln&quot;. Mit anderen Worten: Wenn jemand die Definition des Filtertreibers aufhebt oder nicht über das entsprechende Filterprogramm verfügt, sollte das Projekt dennoch nutzbar sein.
¿Hay un Git para datos? La mejora clave que yo querría es Diff/Merge de forma más inteligente. Por ejemplo, en CSV, en lugar de comparar línea con línea, lo haría celda con celda. Y el orden no suele ser significativo, por ejemplo, filas en un CSV, mientras que a Git sí le importa y presenta al usuario 'conflictos'.
Tenga en cuenta que ``git`` tiene dos comandos de configuración: ```git config filter..clean git config filter..smudge ``` El filtro ```clean`` se puede utilizar, por ejemplo, para ordenar todos los registros de un archivo CSV excepto la fila superior, haciendo así que la reordenación sea irrelevante. Citando ``gitattributes(5)``` : Un controlador de filtro consiste en un comando clean y un comando smudge, cualquiera de los cuales puede dejarse sin especificar. Cuando se especifica el comando smudge, el comando se alimenta del objeto blob desde su entrada estándar, y su salida estándar se utiliza para actualizar el archivo worktree. Del mismo modo, el comando clean se utiliza para convertir el contenido del archivo worktree al momento del checkin. La falta de definición del controlador de filtro en la configuración no es un error, pero hace que el filtro sea un passthru no-op. El filtrado de contenido se hace para masajear el contenido en una forma que sea más conveniente para la plataforma, el sistema de archivos y el usuario. La frase clave aquí es &quot;más conveniente&quot; y no &quot;convertir algo inutilizable en utilizable&quot;. En otras palabras, la intención es que si alguien anula la definición del controlador de filtro, o no tiene el programa de filtro adecuado, el proyecto debe seguir siendo utilizable.
Existe-t-il un Git pour les données ? La principale amélioration que je souhaiterais est de différencier/fusionner plus intelligemment. Par exemple, dans un CSV, plutôt que de comparer ligne contre ligne, il faudrait comparer cellule contre cellule. Et l'ordre n'est généralement pas important, par exemple les lignes dans un CSV, alors que Git s'en préoccupe et présente à l'utilisateur des "conflits".
Veuillez noter que ``git`` a deux commandes de configuration : ``git config filter..clean git config filter..smudge ``` Le filtre ``clean`` peut être utilisé par exemple pour trier tous les enregistrements d'un fichier CSV à l'exception de la première ligne, rendant ainsi le réordonnancement non pertinent. En citant ``gitattributes(5)`` : Un pilote de filtre est constitué d'une commande clean et d'une commande smudge, l'une ou l'autre pouvant être laissée non spécifiée. Lors de la vérification, lorsque la commande smudge est spécifiée, la commande reçoit l'objet blob de son entrée standard, et sa sortie standard est utilisée pour mettre à jour le fichier de l'arbre de travail. De même, la commande clean est utilisée pour convertir le contenu du fichier worktree lors de l'archivage. Une définition manquante du pilote de filtre dans la configuration n'est pas une erreur mais fait du filtre un passthru no-op. Le filtrage du contenu est effectué pour masser le contenu dans une forme plus pratique pour la plateforme, le système de fichiers et l'utilisateur. L'expression clé ici est "plus pratique" et non "transformer quelque chose d'inutilisable en utilisable". En d'autres termes, l'intention est que si quelqu'un désactive la définition du pilote de filtre, ou n'a pas le programme de filtre approprié, le projet devrait toujours être utilisable.
Esiste un Git per i dati? Il miglioramento principale che vorrei è quello di diffondere/fondere in modo più intelligente. Ad esempio, nel CSV, invece di confrontare riga per riga, dovrebbe fare cella per cella. E l'ordine di solito non è significativo, ad esempio le righe in un CSV, mentre Git se ne preoccupa e presenta all'utente i "conflitti".
Si noti che ``git`` ha due comandi di configurazione: ``git config filter..clean git config filter..smudge ``` Il filtro ``clean`` può essere usato, ad esempio, per ordinare tutti i record di un file CSV tranne la riga superiore, rendendo così irrilevante il riordino. Citando ``gitattributes(5)``` : Un driver di filtro consiste in un comando clean e in un comando smudge, uno dei quali può essere lasciato non specificato. Al momento del checkout, quando il comando smudge è specificato, il comando riceve l'oggetto blob dal suo input standard e il suo output standard viene usato per aggiornare il file worktree. Allo stesso modo, il comando clean viene usato per convertire il contenuto del file worktree al checkin. La mancanza di una definizione del driver del filtro nella configurazione non è un errore, ma rende il filtro un passthru non operativo. Il filtraggio del contenuto viene fatto per massaggiare il contenuto in una forma più conveniente per la piattaforma, il filesystem e l'utente. La frase chiave qui è &quot;più conveniente&quot; e non &quot;trasformare qualcosa di inutilizzabile in utilizzabile&quot;. In altre parole, l'intento è che se qualcuno cancella la definizione del driver di filtraggio o non ha il programma di filtraggio appropriato, il progetto dovrebbe essere ancora utilizzabile.
45
I have been puzzling over where to put the submit button, on the left or the right. In researching, I noticed that many sites put buttons on the bottom right in dialogue boxes, and on the bottom left in forms. It makes sense: in a dialogue box it seems to denote finality, being in the endpoint of the window for left–right readers; in a form, the bottom right could be in a different position relative to the rest of the form if the window is resized. It seems to be a convention, but should the OK/Cancel buttons be aligned right or centered? Should the OK/Cancel buttons be aligned right or centered?
Where to put the submit button should be decided in order to meet user expectations, it was best to put the button in the place that users expect to find it in the context of the form or dialogue they are using and with regard to the window size. Forms tend to be left justified while the browser window can leave a ton of white space to fill up a large monitor (especially in full-screen mode). Since the users' eyes never leave the left portion of the window, we place the button on the bottom left. This is especially important for forms that use the field name above the field, with most fields lying flush left on the form (as opposed to fields to the right of their names). Small Dialogue & Modal Windows are fixed width and tend to be small. Most contain simple phrases or questions, read right to left: having a button on the bottom right feels like both the most progressive position and the final resting place for the eye. Were the modal window large enough to contain a long form, we would probably follow the first principal for forms. In the end, the heuristic is this: * Large Windows & Forms get the button on the bottom left. * Small Windows & Dialogues get the button on the bottom right. Note the buttons on stackexchange sites: * Post Your Answer button at the bottom-left of the longer form * Add Comment button to the right of a small field Furthermore, with mobile-first responsive being the new law of the land, the button placement varies even more based on context and user expectation. Sometimes, it's in the middle, too! We're now starting to just put buttons on the left for even small forms if they're inline … and more forms are showing up inline through javascript.
Ich habe darüber nachgedacht, wo ich die Schaltfläche "Senden" anbringen soll: links oder rechts. Bei meinen Recherchen ist mir aufgefallen, dass viele Websites die Schaltflächen in Dialogfeldern unten rechts und in Formularen unten links platzieren. Das macht Sinn: In einem Dialogfeld scheint es die Endgültigkeit zu signalisieren, da es sich am Endpunkt des Fensters für Links-Rechts-Leser befindet; in einem Formular könnte die rechte untere Ecke in einer anderen Position im Verhältnis zum Rest des Formulars sein, wenn das Fenster in der Größe verändert wird. Es scheint eine Konvention zu sein, aber sollten die Schaltflächen OK/Abbrechen rechts oder mittig ausgerichtet sein? Sollten die Schaltflächen "OK/Abbrechen" rechts oder mittig angeordnet sein?
Die Platzierung der Schaltfläche "Absenden" sollte so gewählt werden, dass sie den Erwartungen der Benutzer entspricht. Am besten ist es, die Schaltfläche an der Stelle zu platzieren, an der die Benutzer sie im Kontext des verwendeten Formulars oder Dialogs und im Hinblick auf die Fenstergröße erwarten. Formulare sind in der Regel linksbündig, während das Browser-Fenster eine Menge Leerraum lassen kann, um einen großen Monitor auszufüllen (insbesondere im Vollbildmodus). Da die Augen der Benutzer nie den linken Teil des Fensters verlassen, platzieren wir die Schaltfläche unten links. Dies ist besonders wichtig für Formulare, bei denen der Feldname über dem Feld steht, wobei die meisten Felder linksbündig auf dem Formular liegen (im Gegensatz zu Feldern, die rechts von ihrem Namen stehen). Kleine Dialog- und Modalfenster haben eine feste Breite und sind in der Regel klein. Die meisten enthalten einfache Sätze oder Fragen, die von rechts nach links gelesen werden: Eine Schaltfläche unten rechts fühlt sich sowohl wie die fortschrittlichste Position als auch wie der letzte Ruhepunkt für das Auge an. Wäre das modale Fenster groß genug, um ein langes Formular zu enthalten, würden wir wahrscheinlich dem ersten Prinzip für Formulare folgen. Letztendlich ist die Heuristik die folgende: * Große Fenster und Formulare erhalten die Schaltfläche unten links. * Kleine Fenster und Dialoge erhalten die Schaltfläche unten rechts. Beachten Sie die Schaltflächen auf Stackexchange-Sites: * Schaltfläche "Antwort posten" unten links im längeren Formular * Schaltfläche "Kommentar hinzufügen" rechts neben einem kleinen Feld Da Mobile-First-Responsive das neue Gesetz des Landes ist, variiert die Platzierung der Schaltflächen je nach Kontext und Nutzererwartung noch stärker. Manchmal befindet sie sich auch in der Mitte! Wir fangen jetzt an, selbst bei kleinen Formularen die Schaltflächen auf der linken Seite zu platzieren, wenn sie inline sind ... und immer mehr Formulare werden durch Javascript inline angezeigt.
Me he estado preguntando dónde colocar el botón de envío, si a la izquierda o a la derecha. Investigando, me he dado cuenta de que muchos sitios colocan los botones abajo a la derecha en los cuadros de diálogo y abajo a la izquierda en los formularios. Tiene sentido: en un cuadro de diálogo parece denotar finalidad, al estar en el punto final de la ventana para los lectores de izquierda a derecha; en un formulario, la parte inferior derecha podría estar en una posición diferente respecto al resto del formulario si se redimensiona la ventana. Parece ser una convención, pero ¿deberían los botones OK/Cancelar estar alineados a la derecha o centrados? ¿Los botones OK/Cancelar deben estar alineados a la derecha o centrados?
El lugar donde colocar el botón de envío debe decidirse en función de las expectativas de los usuarios; lo mejor es colocar el botón en el lugar que los usuarios esperan encontrarlo en el contexto del formulario o diálogo que están utilizando y en relación con el tamaño de la ventana. Los formularios suelen justificarse a la izquierda, mientras que la ventana del navegador puede dejar mucho espacio en blanco para llenar un monitor grande (sobre todo en modo de pantalla completa). Dado que los ojos de los usuarios nunca abandonan la parte izquierda de la ventana, colocamos el botón en la parte inferior izquierda. Esto es especialmente importante para los formularios que utilizan el nombre del campo por encima del campo, con la mayoría de los campos a ras de la izquierda en el formulario (a diferencia de los campos a la derecha de sus nombres). Las ventanas modales y de diálogo pequeñas son de ancho fijo y tienden a ser pequeñas. La mayoría contienen frases o preguntas sencillas, que se leen de derecha a izquierda: tener un botón en la parte inferior derecha parece tanto la posición más progresiva como el lugar de descanso final para el ojo. Si la ventana modal fuera lo suficientemente grande como para contener un formulario largo, probablemente seguiríamos el primer principio para los formularios. Al final, la heurística es ésta: * Las ventanas grandes y los formularios tienen el botón abajo a la izquierda. * Las ventanas pequeñas y los diálogos tienen el botón abajo a la derecha. Fíjese en los botones de los sitios stackexchange: * Botón "Publique su respuesta" en la parte inferior izquierda del formulario más largo. * Botón Añadir comentario a la derecha de un pequeño campo Además, con la nueva ley de "mobile-first responsive", la ubicación de los botones varía aún más en función del contexto y las expectativas del usuario. A veces, ¡también está en el medio! Ahora estamos empezando a poner los botones a la izquierda, incluso para los pequeños formularios si están en línea ... y más formularios se muestran en línea a través de javascript.
Je me suis demandé où placer le bouton d'envoi, à gauche ou à droite. En faisant des recherches, j'ai remarqué que de nombreux sites placent les boutons en bas à droite dans les boîtes de dialogue et en bas à gauche dans les formulaires. C'est logique : dans une boîte de dialogue, le bouton semble indiquer la finalité, puisqu'il se trouve à l'extrémité de la fenêtre pour les lecteurs gauche-droite ; dans un formulaire, le bouton en bas à droite peut se trouver dans une position différente par rapport au reste du formulaire si la fenêtre est redimensionnée. Il semble que ce soit une convention, mais les boutons OK/Annuler doivent-ils être alignés à droite ou centrés ? Les boutons OK/Annuler doivent-ils être alignés à droite ou centrés ?
Il est préférable de placer le bouton à l'endroit où les utilisateurs s'attendent à le trouver dans le contexte du formulaire ou du dialogue qu'ils utilisent et en fonction de la taille de la fenêtre. Les formulaires ont tendance à être justifiés à gauche, tandis que la fenêtre du navigateur peut laisser une tonne d'espace blanc pour remplir un grand écran (en particulier en mode plein écran). Comme les yeux des utilisateurs ne quittent jamais la partie gauche de la fenêtre, nous plaçons le bouton en bas à gauche. Ceci est particulièrement important pour les formulaires qui utilisent le nom du champ au-dessus du champ, la plupart des champs se trouvant à gauche sur le formulaire (par opposition aux champs à droite de leur nom). Les petites fenêtres de dialogue et les fenêtres modales ont une largeur fixe et tendent à être petites. La plupart contiennent des phrases ou des questions simples, lues de droite à gauche : le fait d'avoir un bouton en bas à droite donne l'impression que c'est à la fois la position la plus progressiste et le lieu de repos final pour l'œil. Si la fenêtre modale était suffisamment grande pour contenir un long formulaire, nous suivrions probablement le premier principe pour les formulaires. En fin de compte, l'heuristique est la suivante : * Les grandes fenêtres et les formulaires obtiennent le bouton en bas à gauche. * Les petites fenêtres et les dialogues obtiennent le bouton en bas à droite. Notez les boutons sur les sites de stackexchange : * Bouton "Postez votre réponse" en bas à gauche du formulaire le plus long. * Bouton "Ajouter un commentaire" à droite d'un petit champ De plus, avec la nouvelle loi du mobile-first responsive, l'emplacement des boutons varie encore plus en fonction du contexte et des attentes de l'utilisateur. Parfois, il se trouve même au milieu ! Nous commençons maintenant à placer les boutons à gauche, même pour les petits formulaires, s'ils sont en ligne ... et de plus en plus de formulaires s'affichent en ligne grâce au javascript.
Ho avuto dei dubbi su dove collocare il pulsante di invio, a sinistra o a destra. Facendo una ricerca, ho notato che molti siti mettono i pulsanti in basso a destra nelle finestre di dialogo e in basso a sinistra nei moduli. Ha senso: in una finestra di dialogo sembra denotare la finalità, essendo nel punto finale della finestra per chi legge da sinistra a destra; in un modulo, il pulsante in basso a destra potrebbe essere in una posizione diversa rispetto al resto del modulo se la finestra viene ridimensionata. Sembra una convenzione, ma i pulsanti OK/Annulla devono essere allineati a destra o centrati? I pulsanti OK/Annulla devono essere allineati a destra o centrati?
La collocazione del pulsante di invio deve essere decisa in modo da soddisfare le aspettative degli utenti; è meglio collocare il pulsante nel punto in cui gli utenti si aspettano di trovarlo nel contesto del modulo o del dialogo che stanno utilizzando e in relazione alle dimensioni della finestra. I moduli tendono a essere giustificati a sinistra, mentre la finestra del browser può lasciare un sacco di spazio bianco per riempire un monitor di grandi dimensioni (soprattutto in modalità a schermo intero). Poiché gli occhi degli utenti non lasciano mai la parte sinistra della finestra, il pulsante viene posizionato in basso a sinistra. Questo è particolarmente importante per i moduli che utilizzano il nome del campo sopra il campo stesso, con la maggior parte dei campi che si trovano a sinistra nel modulo (al contrario dei campi a destra del loro nome). Le finestre di dialogo e modali di piccole dimensioni sono a larghezza fissa e tendono a essere piccole. La maggior parte contiene frasi o domande semplici, che si leggono da destra a sinistra: avere un pulsante in basso a destra sembra sia la posizione più progressiva sia il punto di riposo finale per l'occhio. Se la finestra modale fosse abbastanza grande da contenere un modulo lungo, probabilmente seguiremmo il primo principio per i moduli. In definitiva, l'euristica è questa: * Finestre grandi e moduli ottengono il pulsante in basso a sinistra. * Finestre piccole e dialoghi hanno il pulsante in basso a destra. Notate i pulsanti sui siti di stackexchange: * Pulsante Pubblica la tua risposta in basso a sinistra del modulo più lungo. * Pulsante Aggiungi commento a destra di un piccolo campo Inoltre, essendo il mobile-first responsive la nuova legge del paese, il posizionamento del pulsante varia ancora di più in base al contesto e alle aspettative dell'utente. A volte si trova anche al centro! Stiamo iniziando a mettere i pulsanti a sinistra anche per i moduli più piccoli, se sono in linea... e sempre più moduli vengono visualizzati in linea tramite javascript.
46
Is it at all possible to update object's properties with ```setState```? Something like: ```this.state = { jasper: { name: 'jasper', age: 28 }, } ``` I have tried: ```this.setState({jasper.name: 'someOtherName'}); ``` and this: ```this.setState({jasper: {name: 'someothername'}}) ``` The first results in a syntax error and the second just does nothing. Any ideas?
There are multiple ways of doing this, since state update is a async operation, so to update the state object, we need to use updater function with ```setState```. 1- Simplest one: First create a copy of ```jasper``` then do the changes in that: ```this.setState(prevState => { let jasper = Object.assign({}, prevState.jasper); // creating copy of state variable jasper jasper.name = 'someothername'; // update the name property, assign a new value return { jasper }; // return new object jasper object }) ``` Instead of using ```Object.assign``` we can also write it like this: ```let jasper = { ...prevState.jasper }; ``` 2- Using spread syntax: ```this.setState(prevState => ({ jasper: { // object that we want to update ...prevState.jasper, // keep all other key-value pairs name: 'something' // update the value of specific key } })) ``` Note: ```Object.assign``` and ```Spread Operator``` creates only shallow copy, so if you have defined nested object or array of objects, you need a different approach. Updating nested state object: Assume you have defined state as: ```this.state = { food: { sandwich: { capsicum: true, crackers: true, mayonnaise: true }, pizza: { jalapeno: true, extraCheese: false } } } ``` To update extraCheese of pizza object: ```this.setState(prevState => ({ food: { ...prevState.food, // copy all other key-value pairs of food object pizza: { // specific object of food object ...prevState.food.pizza, // copy all pizza key-value pairs extraCheese: true // update value of specific key } } })) ``` Updating array of objects: Lets assume you have a todo app, and you are managing the data in this form: ```this.state = { todoItems: [ { name: 'Learn React Basics', status: 'pending' }, { name: 'Check Codebase', status: 'pending' } ] } ``` To update the status of any todo object, run a map on the array and check for some unique value of each object, in case of ```condition=true```, return the new object with updated value, else same object. ```let key = 2; this.setState(prevState => ({ todoItems: prevState.todoItems.map( el => el.key === key? { ...el, status: 'done' }: el ) })) ``` Suggestion: If object doesn't have a unique value, then use array index.
Ist es überhaupt möglich, die Eigenschaften eines Objekts mit ```setState`` zu aktualisieren? Etwa so: ```this.state = { jasper: { name: 'jasper', alter: 28 }, } ``` Ich habe es versucht: ```this.setState({jasper.name: 'someOtherName'}); ``` und dies: ```this.setState({jasper: {name: 'someothername'}}) ``` Das erste führt zu einem Syntaxfehler und das zweite tut einfach nichts. Irgendwelche Ideen?
Es gibt mehrere Möglichkeiten, dies zu tun, da die Statusaktualisierung eine asynchrone Operation ist. Um das Statusobjekt zu aktualisieren, müssen wir die Funktion updater mit ````setState`` verwenden. 1- Der einfachste Weg: Zuerst eine Kopie von ```jasper`` erstellen und dann die Änderungen darin vornehmen: ```this.setState(prevState => { let jasper = Object.assign({}, prevState.jasper); // Kopie der Statusvariablen jasper erstellen jasper.name = 'someothername'; // Aktualisierung der Eigenschaft name, Zuweisung eines neuen Wertes return { jasper }; // neues Objekt jasper object zurückgeben }) ``` Anstatt ``Object.assign``` zu verwenden, können wir es auch so schreiben: ```let jasper = { ...prevState.jasper }; ``` 2- Verwendung der Spread-Syntax: ```this.setState(prevState => ({ jasper: { // Objekt, das wir aktualisieren wollen ...prevState.jasper, // alle anderen Schlüssel-Werte-Paare behalten name: 'irgendwas' // den Wert eines bestimmten Schlüssels aktualisieren } })) ``` Hinweis: ```Object.assign`` und ```Spread Operator`` erzeugen nur eine oberflächliche Kopie. Wenn Sie also ein verschachteltes Objekt oder ein Array von Objekten definiert haben, benötigen Sie einen anderen Ansatz. Aktualisieren von verschachtelten Zustandsobjekten: Nehmen Sie an, Sie haben state als definiert: ```this.state = { food: { Sandwich: { Paprika: true, Cracker: true, Mayonnaise: wahr }, pizza: { Jalapeno: true, extraKäse: false } } } ``` Um extraCheese des Pizza-Objekts zu aktualisieren: ```this.setState(prevState => ({ food: { ...prevState.food, // alle anderen Schlüssel-Wert-Paare des food-Objekts kopieren pizza: { // spezifisches Objekt des food-Objekts ...prevState.food.pizza, // kopiere alle pizza-Schlüsselwertpaare extraCheese: true // Wert eines bestimmten Schlüssels aktualisieren } } })) ``` Array von Objekten aktualisieren: Nehmen wir an, Sie haben eine ToDo-App und verwalten die Daten in diesem Formular: ```this.state = { todoItems: [ { name: 'React-Grundlagen lernen', status: 'pending' }, { name: 'Check Codebase', status: 'ausstehend' } ] } ``` Um den Status eines ToDo-Objekts zu aktualisieren, lassen Sie eine Map auf das Array laufen und prüfen Sie, ob es einen eindeutigen Wert für jedes Objekt gibt. Im Falle von ```condition=true```, geben Sie das neue Objekt mit dem aktualisierten Wert zurück, andernfalls das gleiche Objekt. ```let key = 2; this.setState(prevState => ({ todoItems: prevState.todoItems.map( el => el.key === key? { ...el, status: 'done' }: el ) })) ``` Anregung: Wenn das Objekt keinen eindeutigen Wert hat, dann Array-Index verwenden.
¿Es posible actualizar las propiedades de un objeto con ``setState``? Algo como ```this.state = { jasper: { nombre: 'jasper', edad: 28 }, } ``` He probado: ```this.setState({jasper.name: 'someOtherName'}); ``` y esto: ```this.setState({jasper: {nombre: 'otroNombre'}}) ``` El primero da un error de sintaxis y el segundo no hace nada. ¿Alguna idea?
Hay múltiples maneras de hacer esto, ya que la actualización del estado es una operación asíncrona, por lo que para actualizar el objeto de estado, tenemos que utilizar la función updater con ```setState``. 1- La más simple: En primer lugar crear una copia de ``jasper`` luego hacer los cambios en que: ```this.setState(prevState => { let jasper = Object.assign({}, prevState.jasper); // crear copia de la variable de estado jasper jasper.name = 'someothername'; // actualiza la propiedad name, asigna un nuevo valor return { jasper }; // devuelve el nuevo objeto jasper object }) ``` En lugar de usar ```Object.assign`` también podemos escribirlo así: ```let jasper = { ...prevEstado.jasper }; ``` 2- Usando la sintaxis spread: ```this.setState(prevState => ({ jasper: { // objeto que queremos actualizar ...prevState.jasper, // mantener el resto de pares clave-valor name: 'algo' // actualizar el valor de una clave específica } })) ``` Nota: ``Object.assign`` y ``Spread Operator`` sólo crean copias superficiales, por lo que si has definido objetos anidados o matrices de objetos, necesitas un enfoque diferente. Actualización de objetos de estado anidados: Supongamos que ha definido el estado como: ``este.estado = { comida: { sandwich: { pimiento: true galletas: true, mayonesa: true }, pizza: { jalapeño: true extraQueso: false } } } ``` Para actualizar extraCheese del objeto pizza: ```this.setState(prevState => ({ comida: { ...prevState.food, // copia el resto de pares clave-valor del objeto food pizza: { // objeto específico del objeto comida ...prevState.food.pizza, // copia todos los pares clave-valor de pizza extraCheese: true // actualizar valor de clave específica } } })) ``` Actualizando array de objetos: Supongamos que tienes una aplicación de tareas, y estás gestionando los datos en este formulario: ```this.state = { todoItems: [ { nombre: 'Learn React Basics', estado: 'pendiente' }, { nombre: 'Check Codebase', estado: 'pendiente } ] } ``` Para actualizar el estado de cualquier objeto todo, ejecuta un mapa en el array y comprueba si hay algún valor único de cada objeto, en caso de ``condition=true``, devuelve el nuevo objeto con el valor actualizado, en caso contrario el mismo objeto. ```let clave = 2; this.setState(prevState => ({ todoItems: prevState.todoItems.map( el => el.key === key? { ...el, estado: 'hecho' }: el ) })) ``` Sugerencia: Si el objeto no tiene un valor único, entonces usa el índice del array.
Est-il possible de mettre à jour les propriétés d'un objet avec ``setState`` ? Quelque chose comme : ```this.state = { jasper : { name : 'jasper', age : 28 }, } ``` J'ai essayé : ```this.setState({jasper.name : 'someOtherName'}) ; ``` et ceci : ```this.setState({jasper : {name : 'someothername'}}) ``` Le premier résultat est une erreur de syntaxe et le second ne fait rien. Une idée ?
Il y a plusieurs façons de le faire, puisque la mise à jour de l'état est une opération asynchrone, donc pour mettre à jour l'objet état, nous devons utiliser la fonction updater avec ``setState``. 1- La plus simple : Créez d'abord une copie de ``jasper`` puis faites les changements dans cette copie : ``this.setState(prevState => { let jasper = Object.assign({}, prevState.jasper) ; // création d'une copie de la variable d'état jasper jasper.name = 'someothername' ; // mise à jour de la propriété name, attribution d'une nouvelle valeur return { jasper } ; // retour d'un nouvel objet jasper object }) ``` Au lieu d'utiliser ``Object.assign``, nous pouvons aussi l'écrire comme ceci : ``Let jasper = { ...prevState.jasper } ; ``` 2- En utilisant la syntaxe de l'étalement : ```this.setState(prevState => ({ jasper : { // objet que nous voulons mettre à jour ...prevState.jasper, // conserve toutes les autres paires clé-valeur name : 'something' // mettre à jour la valeur d'une clé spécifique } })) ``` Note : ``Object.assign`` et ``Spread Operator`` ne créent qu'une copie superficielle, donc si vous avez défini un objet imbriqué ou un tableau d'objets, vous avez besoin d'une approche différente. Mise à jour d'un objet d'état imbriqué : Supposons que vous ayez défini state comme suit : ``this.state = { nourriture : { sandwich : { poivron : true, crackers : true, mayonnaise : true }, pizza : { jalapeno : true, extraCheese : false } } } ``` Pour mettre à jour extraCheese de l'objet pizza : ```this.setState(prevState => ({ food : { ...prevState.food, // copie toutes les autres paires clé-valeur de l'objet food pizza : { // objet spécifique de l'objet food ...prevState.food.pizza, // copie toutes les paires clé-valeur pizza extraCheese : true // mise à jour de la valeur d'une clé spécifique } } })) ``` Mise à jour d'un tableau d'objets : Supposons que vous ayez une application todo, et que vous gériez les données dans ce formulaire : ```this.state = { todoItems : [ { name : 'Apprendre les bases de React', status : 'pending' }, { name : "Vérifier la base de données", status : 'pending' } ] } ``` Pour mettre à jour le statut d'un objet todo, exécutez un map sur le tableau et vérifiez la valeur unique de chaque objet, dans le cas de ``condition=true``, renvoyez le nouvel objet avec la valeur mise à jour, sinon le même objet. ``La clé = 2 ; this.setState(prevState => ({ todoItems : prevState.todoItems.map( el => el.key === key ? { ...el, status : 'done' } : el ) })) ``` Suggestion : Si l'objet n'a pas de valeur unique, utilisez l'index du tableau.
È possibile aggiornare le proprietà dell'oggetto con ```setState``? Qualcosa come: ```this.state = { jasper: { nome: 'jasper', età: 28 }, } ``` Ho provato: ```this.setState({jasper.name: 'someOtherName'}); ``` e questo: ```this.setState({jasper: {nome: 'someothername'}}) ``` Il primo risulta in un errore di sintassi e il secondo non fa nulla. Qualche idea?
Ci sono diversi modi per farlo, dato che l'aggiornamento dello stato è un'operazione asincrona, quindi per aggiornare l'oggetto stato, dobbiamo usare la funzione updater con ```setState``. 1- Il più semplice: Prima si crea una copia di ```jasper`` e poi si apportano le modifiche: ```this.setState(prevState => { let jasper = Object.assign({}, prevState.jasper); // creazione di una copia della variabile di stato jasper jasper.name = 'someothername'; // aggiornare la proprietà name, assegnando un nuovo valore return { jasper }; // restituisce il nuovo oggetto jasper object }) ``` Invece di usare ``Object.assign`` possiamo anche scriverlo in questo modo: ```let jasper = { ...prevState.jasper }; ``` 2- Utilizzando la sintassi diffusa: ```this.setState(prevState => ({ jasper: { // oggetto che vogliamo aggiornare ...prevState.jasper, // mantiene tutte le altre coppie chiave-valore name: 'qualcosa' // aggiornare il valore di una chiave specifica } })) ``` Nota: ```Object.assign`` e ```Spread Operator`` creano solo una copia superficiale, quindi se si sono definiti oggetti annidati o array di oggetti, occorre un approccio diverso. Aggiornamento di un oggetto di stato annidato: Si supponga di aver definito lo stato come: ``this.state = { cibo: { panino: { capsicum: true, cracker: true, maionese: true }, pizza: { jalapeno: true, extraCheese: false } } } ``` Per aggiornare extraCheese dell'oggetto pizza: ``this.setState(prevState => ({ cibo: { ...prevState.food, // copia tutte le altre coppie chiave-valore dell'oggetto food pizza: { // oggetto specifico dell'oggetto cibo ...prevState.food.pizza, // copia tutte le coppie chiave-valore della pizza extraCheese: true // aggiorna il valore di una chiave specifica } } })) ``` Aggiornamento di un array di oggetti: Supponiamo di avere un'applicazione todo e di gestire i dati in questo form: ```this.state = { todoItems: [ { nome: 'Imparare le basi di React', stato: 'in attesa' }, { nome: 'Controlla la base di codice', stato: 'in attesa' } ] } ``` Per aggiornare lo stato di qualsiasi oggetto todo, eseguire una mappa sull'array e controllare il valore univoco di ciascun oggetto; in caso di ``condizione=true``, restituire il nuovo oggetto con il valore aggiornato, altrimenti lo stesso oggetto. ```let key = 2; this.setState(prevState => ({ todoItems: prevState.todoItems.map( el => el.key === key? { ...el, status: 'done' }: el ) })) ``` Suggerimento: Se l'oggetto non ha un valore unico, utilizzare l'indice dell'array.
47
What is the difference between Non-Player Characters (NPCs) and bots in video games?
The key distinction is that a Bot represents an automated player; an NPC, by contrast, isn't playing the game at all. In general, an NPC is a part of the game; a placed object which is designed by the creator and exists to interact with the player. Examples would include vendors, quest givers, or enemies. In some games, (particularly RPG's), the term is also used to refer to characters under the control of, but not generated by the player. They are often distinguished by having distinct personalities and dialog, whereas a ""Player Character"" is meant as more of an extension of the player themselves. Think of the companion party members in the Mass Effect series for an example. A Bot, by contrast, is essentially a player of the game controlled by a computer. This can be populated within a single instance, as a feature in some games (i.e. AI opponents in a normally multiplayer game), or, in some cases, actually represents a separate instance of the application running on a networked computer and being controlled by some manner of AI script (as is common in many MMO's, much to the dismay of the communities playing the game). The term 'Bot' is also often used to refer to software used to enhance or replace the skills of a human player of the game; for example, an 'Aim-Bot' that handles targeting, or a 'Farming Bot' in an MMO that performs tedious or menial tasks. Such bots are usually (though not always), considered cheating and a violation of the Terms of Service of the game in question.
Was ist der Unterschied zwischen Nicht-Spieler-Charakteren (NPCs) und Bots in Videospielen?
Der Hauptunterschied besteht darin, dass ein Bot einen automatisierten Spieler darstellt; ein NPC hingegen spielt das Spiel überhaupt nicht. Im Allgemeinen ist ein NPC ein Teil des Spiels; ein platziertes Objekt, das vom Ersteller entworfen wurde und existiert, um mit dem Spieler zu interagieren. Beispiele hierfür sind Händler, Questgeber oder Feinde. In einigen Spielen (insbesondere in Rollenspielen) wird der Begriff auch für Charaktere verwendet, die vom Spieler kontrolliert, aber nicht erzeugt werden. Sie zeichnen sich oft dadurch aus, dass sie eine eigene Persönlichkeit und einen eigenen Dialog haben, während ein "Spielercharakter" eher als eine Erweiterung des Spielers selbst zu verstehen ist. Denken Sie zum Beispiel an die Begleiter in der Mass Effect-Serie. Ein Bot hingegen ist im Wesentlichen ein Spieler des Spiels, der von einem Computer gesteuert wird. Dieser kann in einer einzigen Instanz bevölkert werden, als Feature in einigen Spielen (z. B. KI-Gegner in einem normalen Multiplayer-Spiel), oder in einigen Fällen stellt er tatsächlich eine separate Instanz der Anwendung dar, die auf einem vernetzten Computer läuft und von einer Art KI-Skript gesteuert wird (wie es in vielen MMOs üblich ist, sehr zum Leidwesen der Spielgemeinschaften). Der Begriff "Bot" wird auch häufig für Software verwendet, die die Fähigkeiten eines menschlichen Spielers verbessert oder ersetzt, z. B. ein "Aim-Bot", der das Zielen übernimmt, oder ein "Farming Bot" in einem MMO, der lästige oder niedere Aufgaben erledigt. Solche Bots werden in der Regel (wenn auch nicht immer) als Betrug und Verstoß gegen die Nutzungsbedingungen des betreffenden Spiels angesehen.
¿Cuál es la diferencia entre personajes no jugadores (PNJ) y bots en los videojuegos?
La distinción clave es que un bot representa a un jugador automatizado; un PNJ, por el contrario, no está jugando al juego en absoluto. En general, un PNJ es una parte del juego, un objeto diseñado por el creador que existe para interactuar con el jugador. Por ejemplo, los vendedores, los que dan misiones o los enemigos. En algunos juegos (especialmente en los RPG), el término también se utiliza para referirse a personajes bajo el control del jugador, pero no generados por él. A menudo se distinguen por tener personalidades y diálogos distintos, mientras que un "Personaje del Jugador" es más bien una extensión del propio jugador. Piensa, por ejemplo, en los compañeros de la serie Mass Effect. Un Bot, por el contrario, es esencialmente un jugador del juego controlado por un ordenador. Puede estar dentro de una única instancia, como una característica de algunos juegos (por ejemplo, oponentes de IA en un juego normalmente multijugador) o, en algunos casos, representa una instancia separada de la aplicación que se ejecuta en un ordenador en red y está controlada por algún tipo de script de IA (como es común en muchos MMO, para consternación de las comunidades que juegan). El término "bot" también se utiliza a menudo para referirse al software utilizado para mejorar o sustituir las habilidades de un jugador humano del juego; por ejemplo, un "Aim-Bot" que se encarga de apuntar, o un "Farming Bot" en un MMO que realiza tareas tediosas o de poca importancia. Normalmente (aunque no siempre), estos bots se consideran trampas y una violación de las condiciones de servicio del juego en cuestión.
Quelle est la différence entre les personnages non joueurs (PNJ) et les robots dans les jeux vidéo ?
La distinction essentielle est qu'un bot représente un joueur automatisé ; un PNJ, en revanche, ne joue pas du tout au jeu. En général, un PNJ est une partie du jeu, un objet placé conçu par le créateur et qui existe pour interagir avec le joueur. Il peut s'agir par exemple d'un vendeur, d'un donneur de quête ou d'un ennemi. Dans certains jeux (en particulier les jeux de rôle), le terme est également utilisé pour désigner les personnages contrôlés par le joueur, mais non générés par lui. Ils se distinguent souvent par des personnalités et des dialogues distincts, alors qu'un "personnage de joueur" est davantage considéré comme une extension du joueur lui-même. Pensez par exemple aux compagnons de la série Mass Effect. Un Bot, en revanche, est essentiellement un joueur du jeu contrôlé par un ordinateur. Il peut s'agir d'une instance unique, d'une fonctionnalité de certains jeux (par exemple, des adversaires IA dans un jeu normalement multijoueur) ou, dans certains cas, d'une instance distincte de l'application fonctionnant sur un ordinateur en réseau et contrôlée par une sorte de script IA (comme c'est le cas dans de nombreux MMO, à la grande consternation des communautés jouant au jeu). Le terme "Bot" est également souvent utilisé pour désigner un logiciel utilisé pour améliorer ou remplacer les compétences d'un joueur humain ; par exemple, un "Aim-Bot" qui gère le ciblage, ou un "Farming Bot" dans un MMO qui effectue des tâches fastidieuses ou subalternes. Ces robots sont généralement (mais pas toujours) considérés comme de la triche et comme une violation des conditions d'utilisation du jeu en question.
Qual è la differenza tra i personaggi non giocanti (PNG) e i bot nei videogiochi?
La distinzione fondamentale è che un Bot rappresenta un giocatore automatizzato; un PNG, invece, non sta giocando affatto. In generale, un PNG è una parte del gioco, un oggetto progettato dal creatore che esiste per interagire con il giocatore. Ne sono un esempio i venditori, gli incaricati delle missioni o i nemici. In alcuni giochi (in particolare i giochi di ruolo), il termine è usato anche per indicare i personaggi sotto il controllo del giocatore, ma non generati da quest'ultimo. Spesso si distinguono per avere personalità e dialoghi distinti, mentre un ""Personaggio del giocatore"" è inteso più come un'estensione del giocatore stesso. Si pensi, ad esempio, ai membri del party della serie Mass Effect. Un Bot, invece, è essenzialmente un giocatore del gioco controllato da un computer. Questo può essere popolato all'interno di una singola istanza, come caratteristica di alcuni giochi (ad esempio, avversari IA in un gioco normalmente multigiocatore), oppure, in alcuni casi, rappresenta un'istanza separata dell'applicazione in esecuzione su un computer collegato in rete e controllato da un qualche tipo di script IA (come è comune in molti MMO, con grande disappunto delle comunità che giocano). Il termine "Bot" è spesso usato anche per indicare un software utilizzato per migliorare o sostituire le abilità di un giocatore umano del gioco; ad esempio, un "Aim-Bot" che si occupa del puntamento, o un "Farming Bot" in un MMO che svolge compiti noiosi o umili. Tali bot sono generalmente (anche se non sempre) considerati un imbroglio e una violazione dei Termini di servizio del gioco in questione.
48
Is there anything like ```static class``` in java? What is the meaning of such a class. Do all the methods of the static class need to be ```static``` too? Is it required the other way round, that if a class contains all the static methods, shall the class be static too? What are static classes good for?
Java has static nested classes but it sounds like you're looking for a top-level static class. Java has no way of making a top-level class static but you can simulate a static class like this: * Declare your class ```final``` - Prevents extension of the class since extending a static class makes no sense * Make the constructor ```private``` - Prevents instantiation by client code as it makes no sense to instantiate a static class * Make all the members and functions of the class ```static``` - Since the class cannot be instantiated no instance methods can be called or instance fields accessed * Note that the compiler will not prevent you from declaring an instance (non-static) member. The issue will only show up if you attempt to call the instance member Simple example per suggestions from above: ```public class TestMyStaticClass { public static void main(String []args){ MyStaticClass.setMyStaticMember(5); System.out.println("Static value: " + MyStaticClass.getMyStaticMember()); System.out.println("Value squared: " + MyStaticClass.squareMyStaticMember()); // MyStaticClass x = new MyStaticClass(); // results in compile time error } } // A top-level Java class mimicking static class behavior public final class MyStaticClass { private MyStaticClass () { // private constructor myStaticMember = 1; } private static int myStaticMember; public static void setMyStaticMember(int val) { myStaticMember = val; } public static int getMyStaticMember() { return myStaticMember; } public static int squareMyStaticMember() { return myStaticMember * myStaticMember; } } ``` What good are static classes? A good use of a static class is in defining one-off, utility and/or library classes where instantiation would not make sense. A great example is the Math class that contains some mathematical constants such as PI and E and simply provides mathematical calculations. Requiring instantiation in such a case would be unnecessary and confusing. See the ```Math``` class and source code. Notice that it is ```final``` and all of its members are ```static```. If Java allowed top-level classes to be declared ```static``` then the Math class would indeed be static.
Gibt es so etwas wie eine ``statische Klasse`` in Java? Was ist die Bedeutung einer solchen Klasse. Müssen alle Methoden der statischen Klasse auch ``statisch`` sein? Ist es umgekehrt erforderlich, dass, wenn eine Klasse alle statischen Methoden enthält, die Klasse auch statisch ist? Wozu sind statische Klassen gut?
Java hat statische verschachtelte Klassen, aber es klingt so, als ob Sie nach einer statischen Klasse der obersten Ebene suchen. Java hat keine Möglichkeit, eine Top-Level-Klasse statisch zu machen, aber Sie können eine statische Klasse wie folgt simulieren: * Deklarieren Sie Ihre Klasse als ``final`` - Verhindert die Erweiterung der Klasse, da die Erweiterung einer statischen Klasse keinen Sinn macht. * Machen Sie den Konstruktor ``privat`` - Verhindert die Instanziierung durch Client-Code, da es keinen Sinn macht, eine statische Klasse zu instanziieren * Alle Mitglieder und Funktionen der Klasse ```statisch`` machen - Da die Klasse nicht instanziiert werden kann, können keine Instanzmethoden aufgerufen oder auf Instanzfelder zugegriffen werden * Beachten Sie, dass der Compiler Sie nicht daran hindert, ein (nicht-statisches) Instanzmitglied zu deklarieren. Das Problem tritt nur auf, wenn Sie versuchen, das Instanzmitglied aufzurufen Einfaches Beispiel gemäß den obigen Vorschlägen: ```public class TestMyStaticClass { public static void main(String []args){ MyStaticClass.setMyStaticMember(5); System.out.println("Statischer Wert: " + MyStaticClass.getMyStaticMember()); System.out.println("Wert quadriert: " + MyStaticClass.squareMyStaticMember()); // MyStaticClass x = new MyStaticClass(); // führt zu einem Kompilierzeitfehler } } // Eine Java-Klasse der obersten Ebene, die das Verhalten statischer Klassen nachahmt public final class MyStaticClass { private MyStaticClass () { // privater Konstruktor myStaticMember = 1; } private static int myStaticMember; public static void setMeinStatikMitglied(int val) { myStaticMember = val; } public static int getMeinStatikMitglied() { return meinStatikMitglied; } public static int squareMeinStatischesMitglied() { return myStaticMember * myStaticMember; } } ``` Wozu sind statische Klassen gut? Eine statische Klasse eignet sich gut für die Definition von einmaligen Klassen, Dienstprogrammen und/oder Bibliotheksklassen, bei denen eine Instanziierung nicht sinnvoll wäre. Ein gutes Beispiel ist die Klasse Math, die einige mathematische Konstanten wie PI und E enthält und einfach mathematische Berechnungen ermöglicht. Eine Instanziierung wäre in einem solchen Fall unnötig und verwirrend. Siehe die Klasse ```Math`` und den Quellcode. Beachten Sie, dass die Klasse ```final`` ist und alle ihre Mitglieder ``statisch`` sind. Wenn Java es erlauben würde, Klassen der obersten Ebene als ``statisch`` zu deklarieren, dann wäre die Math-Klasse tatsächlich statisch.
¿Existe algo como ``static class`` en java? ¿Cuál es el significado de tal clase? ¿Todos los métodos de una clase estática tienen que ser también ``estáticos``? ¿Es necesario al revés, que si una clase contiene todos los métodos estáticos, la clase sea estática también? ¿Para qué sirven las clases estáticas?
Java tiene clases estáticas anidadas, pero parece que estás buscando una clase estática de nivel superior. Java no tiene ninguna manera de hacer una clase de nivel superior estática, pero se puede simular una clase estática de esta manera: * Declara tu clase ```final`` - Previene la extensión de la clase ya que extender una clase estática no tiene sentido. * Haz el constructor ```private`` - Previene la instanciación por código cliente ya que no tiene sentido instanciar una clase estática. * Haz que todos los miembros y funciones de la clase sean ```static`` - Ya que la clase no puede ser instanciada, no se puede llamar a métodos de instancia ni acceder a campos de instancia. * Tenga en cuenta que el compilador no le impedirá declarar un miembro de instancia (no estático). El problema sólo aparecerá si intentas llamar al miembro de instancia Ejemplo simple según las sugerencias anteriores: ```public class PruebaMiClaseEstática { public static void main(String []args){ MyStaticClass.setMiMiembroEstático(5); System.out.println("Valor estático: " + MyStaticClass.getMiMiembroEstático()); System.out.println("Valor al cuadrado: " + MyStaticClass.squareMiMiembroEstático()); // MyStaticClass x = new MyStaticClass(); // resulta en error de compilación } } // Una clase Java de nivel superior que imita el comportamiento de las clases estáticas public final class MyStaticClass { private MyStaticClass () { // constructor privado miMiMiembroEstático = 1; } private static int miMiMiembroEstático; public static void setMiMiembroEstático(int val) { miMiMiembroEstático = val; } public static int getMiMiembroEstático() { return miMiMiembroEstático; } public static int cuadrarMiMiembroEstático() { return miMiMiembroEstático * miMiMiembroEstático; } } ``` ¿Para qué sirven las clases estáticas? Un buen uso de una clase estática es en la definición de una sola vez, la utilidad y / o clases de biblioteca donde la instanciación no tendría sentido. Un gran ejemplo es la clase Math que contiene algunas constantes matemáticas como PI y E y simplemente proporciona cálculos matemáticos. Exigir la instanciación en este caso sería innecesario y confuso. Mira la clase ```Math`` y el código fuente. Observa que es ``final`` y que todos sus miembros son ``static``. Si Java permitiera que las clases de nivel superior fueran declaradas ``static`` entonces la clase Math sería estática.
Existe-t-il quelque chose comme une ``classe statique`` en java ? Quelle est la signification d'une telle classe ? Est-ce que toutes les méthodes de la classe statique doivent aussi être "statiques" ? Est-il nécessaire dans l'autre sens, que si une classe contient toutes les méthodes statiques, la classe soit également statique ? À quoi servent les classes statiques ?
Java dispose de classes statiques imbriquées, mais il semble que vous recherchiez une classe statique de premier niveau. Java n'a aucun moyen de rendre une classe de premier niveau statique, mais vous pouvez simuler une classe statique de cette manière : * Déclarez votre classe ``final`` - Empêchez l'extension de la classe puisque l'extension d'une classe statique n'a pas de sens. * Rendre le constructeur "privé" - Empêche l'instanciation par le code client car cela n'a pas de sens d'instancier une classe statique. * Rendre tous les membres et fonctions de la classe ``statiques`` - Puisque la classe ne peut pas être instanciée, aucune méthode d'instance ne peut être appelée ou aucun champ d'instance ne peut être accédé. * Notez que le compilateur ne vous empêchera pas de déclarer un membre d'instance (non statique). Le problème n'apparaîtra que si vous tentez d'appeler le membre d'instance Exemple simple selon les suggestions ci-dessus : ```public class TestMyStaticClass { public static void main(String []args){ MyStaticClass.setMyStaticMember(5) ; System.out.println("Valeur statique : " + MyStaticClass.getMyStaticMember()) ; System.out.println("Valeur au carré : " + MyStaticClass.squareMyStaticMember()) ; // MyStaticClass x = new MyStaticClass() ; // erreur à la compilation. } } // Une classe Java de haut niveau imitant le comportement des classes statiques public final class MyStaticClass { private MyStaticClass () { // constructeur privé myStaticMember = 1 ; } private static int myStaticMember ; public static void setMyStaticMember(int val) { myStaticMember = val ; } public static int getMyStaticMember() { return myStaticMember ; } public static int squareMyStaticMember() { return myStaticMember * myStaticMember ; } } ``` À quoi servent les classes statiques ? Une bonne utilisation d'une classe statique consiste à définir des classes uniques, des classes utilitaires et/ou des classes de bibliothèque pour lesquelles l'instanciation n'a pas de sens. Un bon exemple est la classe Math qui contient des constantes mathématiques telles que PI et E et qui fournit simplement des calculs mathématiques. Dans un tel cas, l'instanciation serait inutile et source de confusion. Voir la classe ``Math`` et le code source. Notez qu'elle est "finale" et que tous ses membres sont "statiques". Si Java permettait aux classes de premier niveau d'être déclarées "statiques", alors la classe Math serait effectivement statique.
Esiste qualcosa come ```classe statica`` in java? Qual è il significato di tale classe. Tutti i metodi della classe statica devono essere anch'essi ``statici''? È necessario anche il contrario: se una classe contiene tutti i metodi statici, anche la classe deve essere statica? A cosa servono le classi statiche?
Java ha classi statiche annidate, ma sembra che si stia cercando una classe statica di primo livello. Java non ha modo di rendere statica una classe di primo livello, ma è possibile simulare una classe statica in questo modo: * Dichiarare la classe ```final`` - Impedisce l'estensione della classe, poiché estendere una classe statica non ha senso. * Rendete il costruttore ``privato'' - Impedisce l'istanziazione da parte del codice client, poiché non ha senso istanziare una classe statica. * Rendere tutti i membri e le funzioni della classe ``statici'': poiché la classe non può essere istanziata, non è possibile richiamare i metodi di istanza o accedere ai campi di istanza. * Si noti che il compilatore non impedisce di dichiarare un membro di istanza (non statico). Il problema si presenterà solo se si tenterà di chiamare il membro di istanza Un semplice esempio, secondo i suggerimenti di cui sopra: ```public class TestMyStaticClass { public static void main(String []args){ MyStaticClass.setMyStaticMember(5); System.out.println("Valore statico: " + MyStaticClass.getMyStaticMember()); System.out.println("Valore al quadrato: " + MyStaticClass.squareMyStaticMember()); // MyStaticClass x = new MyStaticClass(); // risulta un errore in fase di compilazione } } // Una classe Java di primo livello che imita il comportamento delle classi statiche public final class MyStaticClass { private MyStaticClass () { // costruttore privato myStaticMember = 1; } private static int myStaticMember; public static void setMyStaticMember(int val) { myStaticMember = val; } public static int getMyStaticMember() { restituisce myStaticMember; } public static int squareMyStaticMember() { restituisce myStaticMember * myStaticMember; } } ``` A cosa servono le classi statiche? Un buon uso di una classe statica è quello di definire classi una tantum, di utilità e/o di libreria, dove l'istanziazione non avrebbe senso. Un ottimo esempio è la classe Math, che contiene alcune costanti matematiche come PI ed E e fornisce semplicemente calcoli matematici. In questo caso, richiedere l'istanziazione sarebbe inutile e fonte di confusione. Si veda la classe ``Math`` e il codice sorgente. Notate che è ```finale`` e tutti i suoi membri sono ```statici``. Se Java permettesse alle classi di primo livello di essere dichiarate ```statiche'', la classe Math sarebbe effettivamente statica.
49
The Episode IV-VI movies never mention the Emperor's name. In Episodes I-III, we can guess that Darth Sidious will be the emperor, but what about Chancellor Palpatine? If the audience didn't know that he was Sidious, the impact of the reveal would be far different than if they did. But I did. In all the novels and comics that came out after "Return of the Jedi", the Emperor's name was stated plainly: Palpatine. So when I saw the prologue movies, for the life of me I couldn't figure out: was I supposed to know that Palpatine was the villain? Maybe the filmmakers figured that most of the moviegoing public never got into the Expanded Universe. But they had to know that the hardcore fans would know. Or maybe when you watched the movie, even if you hadn't heard of Palpatine, it was supposed to be obvious? What was the intent?
Palpatine's name was first given in the prologue to Alan Dean Foster's novelization of Star Wars (it was credited to Lucas, but he didn't write it), which came out in November 1976, six months before the May 25, 1977 release of the actual film. So Palpatine being the Emperor was literally known before the public ever saw a Star Wars movie. It was, in fact, one of the very first things people could find out about the Star Wars universe. The point of the films wasn't to conceal the fact Palpatine would end up the Emperor (or was Darth Sidious), it was to show that he was a masterful chessmaster who conned everyone, and that in large part it was the good guys responsible for his rise because of their own blindness. Amidala initiated the vote that removed his predecessor. Jar-Jar initiated the vote that gave him emergency powers. The Jedi Council allowed him to operate under their noses. Anakin never suspected he was being manipulated until too late, and so on. Just as the trilogy was meant as a tragedy showing Anakin Skywalker's rise and fall, it was an additional tragedy in that the person responsible for the whole mess was standing right there the entire time, in the case of the celebration at the end of The Phantom Menace quite literally.
In den Filmen Episode IV-VI wird der Name des Imperators nie erwähnt. In den Episoden I-III können wir erahnen, dass Darth Sidious der Imperator sein wird, aber was ist mit Kanzler Palpatine? Wenn die Zuschauer nicht wüssten, dass er Sidious ist, hätte die Enthüllung eine ganz andere Wirkung als wenn sie es wüssten. Aber ich wusste es. In allen Romanen und Comics, die nach "Die Rückkehr der Jedi" herauskamen, wurde der Name des Imperators klar und deutlich genannt: Palpatine. Als ich also die Prologfilme sah, konnte ich beim besten Willen nicht verstehen: Sollte ich wissen, dass Palpatine der Bösewicht ist? Vielleicht dachten sich die Filmemacher, dass die meisten Kinobesucher sich nie mit dem Erweiterten Universum beschäftigt haben. Aber sie mussten wissen, dass die Hardcore-Fans es wissen würden. Oder sollte der Film, auch wenn man noch nie etwas von Palpatine gehört hatte, so offensichtlich sein? Was war die Absicht?
Der Name Palpatine wurde zum ersten Mal im Prolog von Alan Dean Fosters Star-Wars-Roman erwähnt (er wurde Lucas zugeschrieben, aber er hat ihn nicht geschrieben), der im November 1976 erschien, sechs Monate vor der Veröffentlichung des eigentlichen Films am 25. Mai 1977. Dass Palpatine der Imperator ist, war also buchstäblich bekannt, bevor die Öffentlichkeit jemals einen Star-Wars-Film gesehen hat. Es war in der Tat eines der ersten Dinge, die die Menschen über das Star Wars-Universum herausfinden konnten. In den Filmen ging es nicht darum, die Tatsache zu verheimlichen, dass Palpatine am Ende der Imperator sein würde (oder Darth Sidious war), sondern zu zeigen, dass er ein meisterhafter Schachspieler war, der alle hinters Licht führte, und dass zum großen Teil die Guten aufgrund ihrer eigenen Blindheit für seinen Aufstieg verantwortlich waren. Amidala initiierte die Abstimmung, durch die sein Vorgänger abgesetzt wurde. Jar-Jar veranlasste die Abstimmung, die ihm Notstandsbefugnisse verlieh. Der Rat der Jedi erlaubte ihm, vor ihrer Nase zu operieren. Anakin ahnte nicht, dass er manipuliert wurde, bis es zu spät war, und so weiter. So wie die Trilogie als Tragödie gedacht war, die Anakin Skywalkers Aufstieg und Fall zeigt, so war sie auch insofern eine zusätzliche Tragödie, als die Person, die für den ganzen Schlamassel verantwortlich war, die ganze Zeit dabei war, im Fall der Feier am Ende von Die dunkle Bedrohung sogar buchstäblich.
En las películas del Episodio IV-VI nunca se menciona el nombre del Emperador. En los Episodios I-III, podemos adivinar que Darth Sidious será el emperador, pero ¿qué pasa con el canciller Palpatine? Si el público no supiera que es Sidious, el impacto de la revelación sería muy distinto que si lo supiera. Pero sí lo sabía. En todas las novelas y cómics que salieron después de "El retorno del Jedi", el nombre del Emperador se decía claramente: Palpatine. Así que cuando vi el prólogo de las películas, por mi vida que no podía entenderlo: ¿se suponía que tenía que saber que Palpatine era el villano? Puede que los cineastas se dieran cuenta de que la mayoría del público cinéfilo nunca se había adentrado en el Universo Expandido. Pero tenían que saber que los fans acérrimos lo sabrían. ¿O quizá cuando veías la película, aunque no hubieras oído hablar de Palpatine, se suponía que era obvio? ¿Cuál era la intención?
El nombre de Palpatine se dio por primera vez en el prólogo de la novelización de La guerra de las galaxias de Alan Dean Foster (se atribuyó a Lucas, pero él no la escribió), que salió en noviembre de 1976, seis meses antes del estreno de la película el 25 de mayo de 1977. Así que Palpatine era el Emperador, literalmente, antes de que el público viera la película de La guerra de las galaxias. De hecho, fue una de las primeras cosas que la gente pudo averiguar sobre el universo de La guerra de las galaxias. El objetivo de las películas no era ocultar el hecho de que Palpatine acabaría siendo el Emperador (o era Darth Sidious), sino mostrar que era un maestro del ajedrez que engañaba a todo el mundo, y que en gran parte eran los buenos los responsables de su ascenso debido a su propia ceguera. Amidala inició la votación que destituyó a su predecesor. Jar-Jar inició la votación que le dio poderes de emergencia. El Consejo Jedi le permitió operar bajo sus narices. Anakin nunca sospechó que estaba siendo manipulado hasta que fue demasiado tarde, y así sucesivamente. Al igual que la trilogía fue concebida como una tragedia que mostraba el ascenso y la caída de Anakin Skywalker, fue una tragedia adicional en el sentido de que la persona responsable de todo el desastre estuvo allí todo el tiempo, en el caso de la celebración al final de La amenaza fantasma, literalmente.
Les épisodes IV-VI ne mentionnent jamais le nom de l'empereur. Dans les épisodes I à III, on peut deviner que Dark Sidious sera l'empereur, mais qu'en est-il du chancelier Palpatine ? Si le public ne savait pas qu'il s'agissait de Sidious, l'impact de la révélation serait bien différent que s'il le savait. Mais c'est ce que j'ai fait. Dans tous les romans et bandes dessinées publiés après le "Retour du Jedi", le nom de l'empereur est clairement indiqué : Palpatine. Aussi, lorsque j'ai vu les films du prologue, je n'ai pas réussi à comprendre : étais-je censé savoir que Palpatine était le méchant ? Les réalisateurs se sont peut-être rendu compte que la plupart des spectateurs n'avaient jamais découvert l'Univers Étendu. Mais ils devaient savoir que les fans les plus assidus le sauraient. Ou peut-être qu'en regardant le film, même si vous n'aviez jamais entendu parler de Palpatine, c'était censé être évident ? Quelle était l'intention ?
Le nom de Palpatine a été donné pour la première fois dans le prologue de la novelization d'Alan Dean Foster de La Guerre des étoiles (il a été crédité à Lucas, mais il ne l'a pas écrit), qui est sorti en novembre 1976, six mois avant la sortie du film le 25 mai 1977. Ainsi, le fait que Palpatine soit l'empereur était littéralement connu avant que le public ne voie le film Star Wars. C'était en fait l'une des toutes premières choses que les gens pouvaient découvrir sur l'univers de la Guerre des étoiles. Le but des films n'était pas de dissimuler le fait que Palpatine finirait par devenir l'Empereur (ou Dark Sidious), mais de montrer qu'il était un maître des échecs qui trompait tout le monde, et que les gentils étaient en grande partie responsables de son ascension à cause de leur propre aveuglement. Amidala a initié le vote qui a destitué son prédécesseur. Jar-Jar est à l'origine du vote qui lui a conféré des pouvoirs d'urgence. Le Conseil Jedi l'a laissé agir à son insu. Anakin n'a soupçonné que trop tard qu'il était manipulé, et ainsi de suite. Tout comme la trilogie était conçue comme une tragédie montrant l'ascension et la chute d'Anakin Skywalker, elle constituait une tragédie supplémentaire dans la mesure où la personne responsable de tout ce gâchis se tenait là tout le temps, dans le cas de la célébration à la fin de La Menace fantôme, littéralement.
I film di Episodio IV-VI non menzionano mai il nome dell'Imperatore. Negli Episodi I-III, possiamo intuire che Darth Sidious sarà l'Imperatore, ma che dire del Cancelliere Palpatine? Se il pubblico non sapesse che è Sidious, l'impatto della rivelazione sarebbe molto diverso da quello che avrebbe se lo sapesse. Ma io lo sapevo. In tutti i romanzi e i fumetti usciti dopo "Il ritorno dello Jedi", il nome dell'Imperatore è stato indicato chiaramente: Palpatine. Quindi, quando ho visto i film prologo, non sono riuscito a capire: avrei dovuto sapere che Palpatine era il cattivo? Forse i registi hanno pensato che la maggior parte del pubblico cinematografico non si è mai avvicinato all'Universo Espanso. Ma dovevano sapere che i fan più accaniti lo avrebbero saputo. O forse quando si guardava il film, anche se non si era mai sentito parlare di Palpatine, doveva essere ovvio? Qual era l'intento?
Il nome di Palpatine è stato fatto per la prima volta nel prologo del romanzo di Alan Dean Foster su Guerre stellari (accreditato a Lucas, ma non scritto da lui), uscito nel novembre 1976, sei mesi prima dell'uscita del film vero e proprio, il 25 maggio 1977. Quindi il fatto che Palpatine fosse l'Imperatore era letteralmente noto prima che il pubblico vedesse un film di Guerre stellari. Era, infatti, una delle prime cose che la gente poteva scoprire sull'universo di Star Wars. Lo scopo dei film non era quello di nascondere il fatto che Palpatine sarebbe diventato l'Imperatore (o era Darth Sidious), ma di mostrare che era un abile maestro di scacchi che ha ingannato tutti, e che in gran parte erano i buoni a essere responsabili della sua ascesa a causa della loro cecità. Amidala ha avviato la votazione che ha rimosso il suo predecessore. Jar-Jar ha avviato la votazione che gli ha conferito poteri di emergenza. Il Consiglio Jedi gli permise di operare sotto il loro naso. Anakin non sospettò mai di essere stato manipolato fino a quando non fu troppo tardi, e così via. Così come la trilogia è stata concepita come una tragedia che mostra l'ascesa e la caduta di Anakin Skywalker, è stata un'ulteriore tragedia in quanto il responsabile di tutto il pasticcio è stato lì per tutto il tempo, nel caso della celebrazione alla fine de La minaccia fantasma, letteralmente.
50
So, students in Gryffindor are supposed to represent bravery. How does Neville represent bravery, to the point in being accepted into the house. I've always thought of his strongest traits being things like loyalty, willingness to work hard, etc, and these things would tend to put him in Hufflepuff.
First of all, in the first 4 years, it isn't really shown that Neville is NOT brave - the only thing he's really afraid of is his Grandmother and maybe Snape during Potions. With good reason. :) You may be confusing a lack of confidence/assertiveness with not being brave, but they are not the same (for a good in-universe illustration of the opposite, think Prof. Lockhart). First four books, he's clumsy, and is not yet showing any magical talent. Starting with the fifth year, Neville is shown to have been changed, and repeatedly proves his bravery and willingness to fight. NOTE: He first shows bravery in the First Year (see System's great answer for details), but the real Gryffindor-y Neville emerges in the Fifth year. There's another instance of him showing a Gryffindor quality - more specifically, integrity. He argued with the Hat to sort him into Hufflepuff (src: Pottermore), because he felt he wasn't brave enough to be a Gryffindor. Fifth year * He joins DA * He shows marked and significant improvement in his magical abilities while in DA * He voluntarily joins the DA members who accompany Harry to Ministry of Magic battle in the end of OoP, even arguing with Harry about it: Neville: &quot;We were all in the D.A. together. It was all supposed to be about fighting You-Know-Who, wasn't it? And this is the first chance we've had to do something real — or was that all just a game or something?&quot; Harry: &quot;No — of course it wasn't —&quot; Neville: &quot;Then we should come too. We want to help.&quot; * During the battle at the Ministry, he refused to leave as per Harry's suggestion after Dolohov broke Neville's nose and wand. * When being threatened and tortured by Death Eaters, he told Harry not to give them the Prophecy Sixth year * participated in the Battle of the Astronomy Tower. Along with Luna Lovegood, he was the only member of Dumbledore's Army to reply to the summons via the coins. Seventh year * Neville got in trouble with the Carrows for refusing to practise the Cruciatus Curse on other students as a method of punishment, as well as for standing up against their bigotry and cruelty. * along with Ginny and Luna, restarted Dumbledore's Army. * attempted to steal Godric Gryffindor's Sword from Snape's office * Neville was eventually left alone to lead the rebellion efforts (Luna and Ginny were not in Hogwarts anymore). When avoiding the Death Eaters at one point, Neville stumbled into the Room of Requirement, which he was able to turn into a hiding place for the D.A., and to connect to the Hog's Head in order to get food from Aberforth Dumbledore. By May, most of the D.A. had taken to living there. * During the first round of battle, Neville used various plants to attack Death Eaters, and helped transport the injured and dead when a temporary cease-fire was called. * When the Death Eaters approached with a &quot;dead&quot; Harry, Neville stood up in defiance of Voldemort. He was subsequently forced to wear the Sorting Hat as it burned because he refused to join Voldemort. Fortunately, due to Harry's sacrifice, Neville was able to shrug off the Full Body-Bind Curse. * Because of his tremendous bravery shown on the battlefield, Neville was able to pull Godric Gryffindor's Sword from the burning hat, in the process proving himself a true Gryffindor, something that was doubted constantly throughout due to his apparently weak-willed, shy, and bumbling nature. In a single stroke, he killed Nagini, destroying Voldemort's last remaining Horcrux. * Neville subsequently teamed up with Ron Weasley as the defenders of Hogwarts and Death Eaters were forced into the Great Hall and defeated Fenrir Greyback. All in all, pretty convincing evidence of someone's bravery.
Schüler in Gryffindor sollen also für Tapferkeit stehen. Wie steht Neville für Tapferkeit, so dass er in das Haus aufgenommen wird? Ich habe immer gedacht, dass seine stärksten Eigenschaften Dinge wie Loyalität, die Bereitschaft, hart zu arbeiten, usw. sind, und diese Dinge würden ihn eher in Hufflepuff einordnen.
Zunächst einmal wird in den ersten vier Jahren nicht wirklich gezeigt, dass Neville NICHT mutig ist - das Einzige, wovor er wirklich Angst hat, ist seine Großmutter und vielleicht Snape während der Zaubertränke. Aus gutem Grund. :) Vielleicht verwechselst du mangelndes Selbstvertrauen/Durchsetzungsvermögen mit mangelndem Mut, aber das ist nicht dasselbe (ein gutes Beispiel für das Gegenteil im Universum ist Prof. Lockhart). In den ersten vier Büchern ist er unbeholfen und zeigt noch kein magisches Talent. Ab dem fünften Jahr zeigt sich, dass Neville sich verändert hat, und er beweist wiederholt seine Tapferkeit und Kampfbereitschaft. ANMERKUNG: Er zeigt zum ersten Mal im ersten Jahr Mut (siehe System's großartige Antwort für Details), aber der wahre Gryffindor-Neville taucht erst im fünften Jahr auf. Es gibt noch ein weiteres Beispiel, in dem er eine Gryffindor-Eigenschaft zeigt - genauer gesagt, Integrität. Er streitet mit dem Hut, der ihn in Hufflepuff einsortieren soll (src: Pottermore), weil er meint, er sei nicht mutig genug, um ein Gryffindor zu sein. Fünftes Jahr * Er tritt der DA bei. * Er zeigt eine deutliche und signifikante Verbesserung seiner magischen Fähigkeiten, während er in der DA ist * Er schließt sich freiwillig den DA-Mitgliedern an, die Harry am Ende des OoP zum Kampf gegen das Zaubereiministerium begleiten, und streitet sich sogar mit Harry darüber: Neville: &quot;Wir waren alle zusammen in der Staatsanwaltschaft. Es sollte doch darum gehen, Du-weißt-schon-wen zu bekämpfen, oder nicht? Und das ist die erste Gelegenheit, etwas Richtiges zu tun - oder war das alles nur ein Spiel oder so?&quot; Harry: &quot;Nein - natürlich war es das nicht -&quot; Neville: &quot;Dann sollten wir auch kommen. Wir wollen helfen.&quot; * Während des Kampfes im Ministerium weigerte er sich, auf Harrys Vorschlag hin zu gehen, nachdem Dolohov Nevilles Nase und Zauberstab gebrochen hatte. * Als er von Todessern bedroht und gefoltert wurde, sagte er Harry, er solle ihnen die Prophezeiung nicht geben. Sechstes Jahr * Er nahm an der Schlacht um den Astronomieturm teil. Zusammen mit Luna Lovegood war er das einzige Mitglied von Dumbledores Armee, das auf die Beschwörung durch die Münzen antwortete. Siebtes Jahr * Neville bekam Ärger mit den Carrows, weil er sich weigerte, den Cruciatus-Fluch als Bestrafungsmethode an anderen Schülern anzuwenden, und weil er sich gegen ihre Bigotterie und Grausamkeit wehrte. * Zusammen mit Ginny und Luna gründete er Dumbledores Armee neu. * versuchte, Godric Gryffindors Schwert aus Snapes Büro zu stehlen * Neville wurde schließlich allein gelassen, um die Rebellion anzuführen (Luna und Ginny waren nicht mehr in Hogwarts). Auf der Flucht vor den Todessern stolperte Neville einmal in den Raum der Wünsche, den er in ein Versteck für die Staatsanwaltschaft verwandeln und mit dem Hog's Head verbinden konnte, um von Aberforth Dumbledore Essen zu bekommen. Im Mai hatte sich der größte Teil der Staatsanwaltschaft dort niedergelassen. * Während der ersten Runde der Schlacht benutzte Neville verschiedene Pflanzen, um die Todesser anzugreifen, und half beim Transport der Verletzten und Toten, als ein vorübergehender Waffenstillstand ausgerufen wurde. * Als sich die Todesser mit einem toten Harry näherten, stand Neville auf und trotzte Voldemort. Er wurde daraufhin gezwungen, den verbrannten Sprechenden Hut zu tragen, weil er sich weigerte, sich Voldemort anzuschließen. Glücklicherweise konnte Neville dank Harrys Aufopferung den Fluch der Ganzkörperbindung abwehren. * Aufgrund seiner enormen Tapferkeit auf dem Schlachtfeld war Neville in der Lage, Godric Gryffindors Schwert aus dem brennenden Hut zu ziehen, und bewies damit, dass er ein echter Gryffindor ist, was aufgrund seiner scheinbar willensschwachen, schüchternen und stümperhaften Art ständig angezweifelt wurde. Mit einem einzigen Schlag tötete er Nagini und zerstörte damit Voldemorts letzten verbliebenen Horkrux. * Neville tat sich anschließend mit Ron Weasley zusammen, als die Verteidiger von Hogwarts und die Todesser in die Große Halle eindringen mussten, und besiegte Fenrir Greyback. Alles in allem ein ziemlich überzeugender Beweis für die Tapferkeit von jemandem.
Entonces, se supone que los estudiantes de Gryffindor representan la valentía. ¿Cómo representa Neville la valentía, hasta el punto de ser aceptado en la casa? Siempre he pensado que sus rasgos más fuertes son cosas como la lealtad, la voluntad de trabajar duro, etc., y estas cosas tenderían a ponerlo en Hufflepuff.
En primer lugar, en los primeros 4 años, no se muestra realmente que Neville NO sea valiente - lo único a lo que realmente teme es a su Abuela y quizás a Snape durante Pociones. Con razón. :) Puede que estés confundiendo la falta de confianza/afirmación con no ser valiente, pero no es lo mismo (para una buena ilustración de lo contrario en el universo, piensa en el profesor Lockhart). En los cuatro primeros libros, es torpe y aún no muestra ningún talento mágico. A partir del quinto año, se demuestra que Neville ha cambiado, y demuestra repetidamente su valentía y su voluntad de luchar. NOTA: Primero demuestra su valentía en Primer Curso (para más detalles, véase la magnífica respuesta de System), pero el verdadero Neville de Gryffindor surge en Quinto Curso. Hay otro caso en el que muestra una cualidad Gryffindor, más concretamente, integridad. Discutió con el Sombrero para que lo clasificara en Hufflepuff (fuente: Pottermore), porque creía que no era lo bastante valiente para ser Gryffindor. Quinto curso * Entra en DA * Muestra una notable y significativa mejora en sus habilidades mágicas mientras está en DA. * Se une voluntariamente a los miembros de DA que acompañan a Harry a la batalla del Ministerio de Magia al final de OoP, incluso discutiendo con Harry por ello: Neville: &quot;Estábamos todos juntos en la DA. Se suponía que todo era para luchar contra Quien-tú-sabes, ¿no? Y esta es la primera oportunidad que hemos tenido de hacer algo de verdad... ¿o era todo un juego o algo así?&quot; Harry: &quot;No - por supuesto que no lo fue -&quot; Neville: &quot;Entonces nosotros también deberíamos venir. Queremos ayudar&quot; * Durante la batalla en el Ministerio, se negó a marcharse por sugerencia de Harry después de que Dolohov le rompiera la nariz y la varita a Neville. * Al ser amenazado y torturado por los mortífagos, le dijo a Harry que no les diera la Profecía. Sexto año * Participó en la Batalla de la Torre de Astronomía. Junto con Luna Lovegood, fue el único miembro del Ejército de Dumbledore que respondió a la convocatoria a través de las monedas. Séptimo año * Neville tuvo problemas con los Carrows por negarse a practicar la Maldición Cruciatus a otros alumnos como método de castigo, así como por oponerse a su intolerancia y crueldad. * Junto con Ginny y Luna, reinició el Ejército de Dumbledore. * Intentó robar la espada de Godric Gryffindor del despacho de Snape. * Neville se quedó finalmente solo para dirigir los esfuerzos de la rebelión (Luna y Ginny ya no estaban en Hogwarts). Al evitar a los mortífagos en un momento dado, Neville tropezó con la Sala de Requerimientos, que pudo convertir en un escondite para el A.D., y conectar con la Cabeza de Puerco para conseguir comida de Aberforth Dumbledore. En mayo, la mayor parte del A.D. se había instalado allí. * Durante la primera ronda de la batalla, Neville utilizó varias plantas para atacar a los mortífagos y ayudó a transportar a los heridos y muertos cuando se decretó un alto el fuego temporal. * Cuando los mortífagos se acercaron con un Harry &quot;muerto&quot;, Neville se levantó desafiando a Voldemort. Posteriormente fue obligado a llevar el Sombrero Seleccionador mientras ardía porque se negó a unirse a Voldemort. Afortunadamente, gracias al sacrificio de Harry, Neville pudo librarse de la maldición de atadura de cuerpo completo. * Gracias a la enorme valentía que demostró en el campo de batalla, Neville fue capaz de sacar la Espada de Godric Gryffindor del sombrero en llamas, demostrando así que era un verdadero Gryffindor, algo de lo que se dudaba constantemente debido a su aparente carácter débil, tímido y torpe. De un solo golpe, mató a Nagini, destruyendo el último Horrocrux que le quedaba a Voldemort. * Posteriormente, Neville formó equipo con Ron Weasley como defensores de Hogwarts y los mortífagos se vieron obligados a entrar en el Gran Comedor y derrotaron a Fenrir Greyback. En definitiva, una prueba bastante convincente de la valentía de alguien.
Les élèves de Gryffondor sont donc censés représenter la bravoure. Comment Neville représente-t-il la bravoure, au point d'être accepté dans la maison ? J'ai toujours pensé que ses traits de caractère les plus forts étaient la loyauté, la volonté de travailler dur, etc. et ces traits de caractère le placeraient plutôt à Poufsouffle.
Tout d'abord, dans les 4 premières années, il n'est pas vraiment montré que Neville n'est PAS courageux - la seule chose dont il a vraiment peur est sa grand-mère et peut-être Rogue pendant les potions. A juste titre :) Vous confondez peut-être un manque de confiance ou d'assurance avec le fait de ne pas être courageux, mais ce n'est pas la même chose (pour une bonne illustration du contraire dans l'univers, pensez au professeur Lockhart). Dans les quatre premiers livres, il est maladroit et ne montre encore aucun talent magique. À partir de la cinquième année, Neville montre qu'il a été changé, et prouve à plusieurs reprises sa bravoure et sa volonté de se battre. REMARQUE : il fait d'abord preuve de bravoure en première année (voir l'excellente réponse de System pour plus de détails), mais le vrai Neville de Gryffondor apparaît en cinquième année. Il y a un autre exemple où il montre une qualité Gryffondor, plus précisément l'intégrité. Il a demandé au Chapeau de le classer à Poufsouffle (src : Pottermore), parce qu'il ne se sentait pas assez courageux pour être un Gryffondor. Cinquième année * Il rejoint DA * Il montre une amélioration marquée et significative de ses capacités magiques pendant qu'il est à l'AD. * Il rejoint volontairement les membres de l'AD qui accompagnent Harry à la bataille du Ministère de la Magie à la fin de l'OoP, se disputant même avec Harry à ce sujet : Neville : &quot;Nous étions tous dans le DA ensemble. Tout cela était censé servir à combattre Vous-Savez-Qui, n'est-ce pas ? Et c'est la première fois qu'on a l'occasion de faire quelque chose de concret - ou est-ce que tout ça n'était qu'un jeu ou quelque chose comme ça ? Harry : &quot;Non - bien sûr que non -&quot ; Neville : &quot;Alors nous devrions venir aussi. Nous voulons aider ; * Pendant la bataille au Ministère, il refuse de partir comme le suggère Harry après que Dolohov ait cassé le nez et la baguette de Neville. * Lorsque les Mangemorts le menacent et le torturent, il dit à Harry de ne pas leur donner la prophétie. Sixième année * Il participe à la bataille de la Tour d'Astronomie. Avec Luna Lovegood, il est le seul membre de l'armée de Dumbledore à répondre à la convocation par le biais des pièces. Septième année * Neville a des ennuis avec les Carrow pour avoir refusé de pratiquer le sortilège du Cruciatus sur d'autres élèves comme méthode de punition, et pour s'être élevé contre leur bigoterie et leur cruauté. * Avec Ginny et Luna, il redémarre l'Armée de Dumbledore. * Il a tenté de voler l'épée de Godric Gryffondor dans le bureau de Rogue. * Neville a finalement été laissé seul pour diriger les efforts de rébellion (Luna et Ginny n'étaient plus à Poudlard). En évitant les Mangemorts à un moment donné, Neville est tombé dans la Salle des Besoins, qu'il a réussi à transformer en cachette pour le procureur, et à se connecter à la Tête de Poule pour obtenir de la nourriture d'Aberforth Dumbledore. Au mois de mai, la plupart des D.A. s'y étaient installés. * Au cours de la première bataille, Neville utilise diverses plantes pour attaquer les Mangemorts et aide à transporter les blessés et les morts lorsqu'un cessez-le-feu temporaire est décrété. * Lorsque les Mangemorts se sont approchés avec un Harry "mort", Neville s'est levé pour défier Voldemort. Il fut ensuite forcé de porter le Choixpeau qui brûlait parce qu'il refusait de se joindre à Voldemort. Heureusement, grâce au sacrifice de Harry, Neville a pu échapper à la malédiction du corps entier. * Grâce à l'immense bravoure dont il a fait preuve sur le champ de bataille, Neville a pu retirer l'épée de Godric Gryffondor du chapeau en flammes, prouvant ainsi qu'il était un vrai Gryffondor, ce dont on doutait constamment en raison de sa nature apparemment faible, timide et maladroite. D'un seul coup, il a tué Nagini, détruisant ainsi le dernier Horcruxe de Voldemort. * Neville a ensuite fait équipe avec Ron Weasley pour défendre Poudlard contre les Mangemorts qui étaient forcés d'entrer dans la Grande Salle, et il a vaincu Fenrir Greyback. En somme, il s'agit d'une preuve assez convaincante de la bravoure de quelqu'un.
Quindi, gli studenti di Grifondoro dovrebbero rappresentare il coraggio. In che modo Neville rappresenta il coraggio, al punto da essere accettato nella casa. Ho sempre pensato che i suoi tratti più forti fossero la lealtà, la disponibilità a lavorare sodo, ecc. e queste cose tenderebbero a metterlo a Tassorosso.
Prima di tutto, nei primi 4 anni non viene mostrato che Neville non sia coraggioso: l'unica cosa di cui ha veramente paura è sua nonna e forse Piton durante Pozioni. A ragione. :) Forse stai confondendo la mancanza di sicurezza/assertività con il non essere coraggioso, ma non sono la stessa cosa (per una buona illustrazione in-universe del contrario, pensa al Prof. Lockhart). Nei primi quattro libri è goffo e non mostra ancora alcun talento magico. A partire dal quinto anno, Neville dimostra di essere cambiato e dà ripetutamente prova del suo coraggio e della sua volontà di combattere. NOTA: la prima dimostrazione di coraggio si ha nel Primo Anno (per i dettagli si veda l'ottima risposta di System), ma il vero Neville da Grifondoro emerge nel Quinto Anno. C'è un altro caso in cui mostra una qualità da Grifondoro, più precisamente l'integrità. Litigò con il Cappello per essere smistato a Tassorosso (src: Pottermore), perché sentiva di non essere abbastanza coraggioso per essere un Grifondoro. Quinto anno * Entra in DA * Mostra un netto e significativo miglioramento delle sue capacità magiche durante la permanenza in DA. * Si unisce volontariamente ai membri della DA che accompagnano Harry alla battaglia del Ministero della Magia alla fine dell'OoP, discutendo persino con Harry: Neville: &quot;Eravamo tutti nella DA insieme. Doveva servire a combattere Tu-Sai-Chi, no? E questa è la prima occasione che abbiamo avuto per fare qualcosa di concreto... o era solo un gioco o qualcosa del genere? Harry: &quot;No, certo che non lo è stato; Neville: &quot;Allora dovremmo venire anche noi. Vogliamo aiutare; * Durante la battaglia al Ministero, rifiuta di andarsene come suggerito da Harry dopo che Dolohov ha rotto il naso e la bacchetta di Neville. * Quando è stato minacciato e torturato dai Mangiamorte, ha detto a Harry di non dare loro la Profezia. Sesto anno * Partecipò alla Battaglia della Torre di Astronomia. Insieme a Luna Lovegood, è stato l'unico membro dell'Esercito di Silente a rispondere alla convocazione tramite le monete. Settimo anno * Neville ha avuto problemi con i Carrow per essersi rifiutato di praticare la Maledizione Cruciatus su altri studenti come metodo di punizione, oltre che per essersi opposto al loro bigottismo e alla loro crudeltà. * Insieme a Ginny e Luna, ha rimesso in piedi l'Esercito di Silente. * ha tentato di rubare la spada di Godric Grifondoro dall'ufficio di Piton. * Neville fu infine lasciato solo a guidare gli sforzi della ribellione (Luna e Ginny non erano più a Hogwarts). Nell'evitare i Mangiamorte, Neville si imbatté nella Stanza delle Necessità, che riuscì a trasformare in un nascondiglio per il procuratore e a collegarsi alla Testa di Porco per ottenere cibo da Silente. A maggio, la maggior parte dei D.A. aveva preso a vivere lì. * Durante il primo round di battaglia, Neville utilizzò varie piante per attaccare i Mangiamorte e aiutò a trasportare i feriti e i morti quando fu indetta una tregua temporanea. * Quando i Mangiamorte si avvicinarono con un Harry &quot;morto&quot;, Neville si alzò in piedi per sfidare Voldemort. In seguito fu costretto a indossare il Cappello di Smistamento mentre bruciava perché si rifiutava di unirsi a Voldemort. Fortunatamente, grazie al sacrificio di Harry, Neville riuscì a liberarsi dalla Maledizione del Legame Completo. * Grazie all'enorme coraggio dimostrato sul campo di battaglia, Neville fu in grado di estrarre la Spada di Godric Grifondoro dal Cappello in fiamme, dimostrando così di essere un vero Grifondoro, cosa di cui si dubitava costantemente a causa della sua natura apparentemente debole, timida e impacciata. In un solo colpo uccise Nagini, distruggendo l'ultimo Horcrux di Voldemort. * Neville si è poi unito a Ron Weasley come difensore di Hogwarts e dei Mangiamorte costretti a entrare nella Sala Grande e ha sconfitto Fenrir Greyback. Tutto sommato, una prova piuttosto convincente del coraggio di qualcuno.
51
This claim was made popular by being said in the movie The Social Network. It exactly says: > Did you know there are more people with genius IQs living in China than there are people of any kind living in the United States?
This claim can actually be tested very easily. Others have done it, e.g. Brian Dickerson: The perils of repeating political nonsense and came to the conclusion that the claim was wrong. You just need the chance a random person from a large group has a genius level IQ, then multiply it with the number of people in China and compare the result with the number of people in the USA. The IQ follows a Gaussian distribution where 100 is the mean by definition and a standard deviation (SD) of 15 (after Wechsler) or 16 (after Stanford-Binet). The rarity of a particular IQ can be calculated easily and are listed by the IQ Comparison Site. These numbers give the percentage of people with an IQ equal or lower than the given IQ and the rarity of this occurring. The main question actually is what an genius level IQ is. There is no definite answer. According to the IQ Comparison Site, it is 140 or higher ("Genius or near genius") while another source states it as at least 160. The rarity of such an IQ is 1/261 (with a SD of 15) or 1/161 (SD=16) for an IQ of 140 and 1/31,560 (SD=15) or 1/11,307 (SD=16) for an IQ of 160 according to Wikipedia. The population of USA for 2012 is about 313,221,000 according to the U.S. Census Bureau. The population of China for 2011 is about 1,370,537,000. Taking the lowest rarity of 1/161 from above then there are about 1,370,537,000/161 = about 8,513,000 geniuses in China, which is significantly less then the 313,221,000 Americans. If you take the 15 SD value of 1/261 then you get only about 5,251,000 Chinese geniuses. With the 160 IQ points, which are more realistic to indicate a real genius, the numbers are even smaller (about 43,400 or 12,100). Note that 1,370,537,000/313,221,000 = 4.375, so in order for this claim to be true actually one of every four (or say five) Chinese would need to be a Genius. Even without the numbers above, it can be easily understood that this is not the case. Conclusion: This claim is wrong according to the definition and probabilities of the IQ. Supplement: It has been pointed out, that there are published research results showing that China and other Asian countries have a higher average IQ of about 106 (or even as high as 115) as the normed average of 100. This would increase the number of geniuses in China: The above factor of 1/161 would drop to about 1/60 or, for a Chinese average of 115, even to about 1/17. These numbers can be easily calculated using the standard deviation, e.g. using MS Excel's function ```NORM.DIST(140, 106, 16, TRUE)```. However, both these factors are not in any way close to the US/Chinese population ratio of about 1/4.375, so the original conclusion still holds.
Diese Aussage wurde durch den Film The Social Network bekannt. Sie lautet genau so: > Wussten Sie, dass in China mehr Menschen mit einem genialen IQ leben als in den Vereinigten Staaten?
Diese Behauptung lässt sich tatsächlich sehr leicht überprüfen. Andere haben das getan, z. B. Brian Dickerson: Die Gefahren der Wiederholung von politischem Unsinn und kamen zu dem Schluss, dass die Behauptung falsch war. Man braucht nur die Wahrscheinlichkeit, dass eine zufällige Person aus einer großen Gruppe einen IQ auf Genius-Niveau hat, dann multipliziert man sie mit der Anzahl der Menschen in China und vergleicht das Ergebnis mit der Anzahl der Menschen in den USA. Der IQ folgt einer Gaußschen Verteilung, wobei 100 per Definition der Mittelwert ist und eine Standardabweichung (SD) von 15 (nach Wechsler) oder 16 (nach Stanford-Binet). Die Seltenheit eines bestimmten IQ lässt sich leicht berechnen und wird von der IQ Comparison Site aufgelistet. Diese Zahlen geben an, wie viel Prozent der Menschen einen IQ haben, der gleich oder niedriger als der angegebene IQ ist, und wie selten dies vorkommt. Die wichtigste Frage ist eigentlich, was ein genialer IQ ist. Darauf gibt es keine eindeutige Antwort. Laut der IQ Comparison Site liegt er bei 140 oder höher ("Genie oder fast Genie"), während eine andere Quelle ihn mit mindestens 160 angibt. Die Seltenheit eines solchen IQ beträgt laut Wikipedia 1/261 (mit einem SD von 15) oder 1/161 (SD=16) für einen IQ von 140 und 1/31.560 (SD=15) oder 1/11.307 (SD=16) für einen IQ von 160. Die Einwohnerzahl der USA für das Jahr 2012 beträgt nach Angaben des U.S. Census Bureau etwa 313.221.000. Die Einwohnerzahl Chinas im Jahr 2011 beträgt etwa 1.370.537.000. Nimmt man die niedrigste Seltenheit von 1/161 von oben, dann gibt es etwa 1.370.537.000/161 = etwa 8.513.000 Genies in China, was deutlich weniger ist als die 313.221.000 Amerikaner. Nimmt man den 15 SD-Wert von 1/261, so erhält man nur etwa 5.251.000 chinesische Genies. Mit den 160 IQ-Punkten, die realistischer sind, um auf ein echtes Genie hinzuweisen, sind die Zahlen noch kleiner (etwa 43.400 oder 12.100). Beachten Sie, dass 1.370.537.000/313.221.000 = 4,375 ist. Damit diese Behauptung wahr ist, müsste also einer von vier (oder sagen wir fünf) Chinesen ein Genie sein. Auch ohne die obigen Zahlen ist es leicht zu verstehen, dass dies nicht der Fall ist. Schlussfolgerung: Diese Behauptung ist nach der Definition und den Wahrscheinlichkeiten des IQ falsch. Ergänzung: Es wurde darauf hingewiesen, dass es veröffentlichte Forschungsergebnisse gibt, die zeigen, dass China und andere asiatische Länder einen höheren Durchschnitts-IQ von etwa 106 (oder sogar 115) haben als den normierten Durchschnitt von 100. Dadurch würde sich die Zahl der Genies in China erhöhen: Der oben genannte Faktor von 1/161 würde auf etwa 1/60 oder, bei einem chinesischen Durchschnittswert von 115, sogar auf etwa 1/17 sinken. Diese Zahlen lassen sich leicht mit Hilfe der Standardabweichung berechnen, z.B. mit der MS Excel-Funktion ```NORM.DIST(140, 106, 16, TRUE)```. Beide Faktoren kommen jedoch in keiner Weise an das Verhältnis zwischen der US-amerikanischen und der chinesischen Bevölkerung von etwa 1/4,375 heran, so dass die ursprüngliche Schlussfolgerung weiterhin gilt.
Esta afirmación se hizo popular por decirse en la película La red social. Dice exactamente: > ¿Sabías que en China viven más personas con coeficientes intelectuales de genio que en Estados Unidos?
En realidad, esta afirmación puede comprobarse muy fácilmente. Otros lo han hecho, por ejemplo Brian Dickerson: The perils of repeating political nonsense y llegaron a la conclusión de que la afirmación era errónea. Sólo se necesita la probabilidad de que una persona al azar de un grupo grande tenga un CI de nivel de genio, luego multiplicarlo por el número de personas en China y comparar el resultado con el número de personas en los EE.UU.. El CI sigue una distribución gaussiana en la que 100 es la media por definición y una desviación estándar (DE) de 15 (según Wechsler) o 16 (según Stanford-Binet). La rareza de un determinado CI puede calcularse fácilmente y se enumeran en el sitio de comparación de CI. Estas cifras indican el porcentaje de personas con un CI igual o inferior al CI dado y la rareza de que esto ocurra. En realidad, la cuestión principal es qué es un CI de nivel de genio. No hay una respuesta definitiva. Según el IQ Comparison Site, es igual o superior a 140 ("Genio o casi genio"), mientras que otra fuente afirma que es como mínimo 160. La rareza de un CI de este tipo es de 1/261 (con una DE de 15) o 1/161 (DE=16) para un CI de 140 y de 1/31.560 (DE=15) o 1/11.307 (DE=16) para un CI de 160, según Wikipedia. La población de EE.UU. en 2012 es de unos 313.221.000 habitantes según la Oficina del Censo de EE.UU.. La población de China en 2011 es de unos 1.370.537.000 habitantes. Tomando la rareza más baja de 1/161 de arriba, entonces hay alrededor de 1.370.537.000/161 = alrededor de 8.513.000 genios en China, que es significativamente menor que los 313.221.000 estadounidenses. Si se toma el valor de 15 DE de 1/261, entonces se obtienen sólo unos 5.251.000 genios chinos. Con los 160 puntos de CI, que son más realistas para indicar un verdadero genio, las cifras son aún menores (unos 43.400 o 12.100). Nótese que 1.370.537.000/313.221.000 = 4,375, por lo que para que esta afirmación fuera cierta en realidad uno de cada cuatro (o digamos cinco) chinos tendría que ser un genio. Incluso sin los números anteriores, se puede entender fácilmente que este no es el caso. Conclusión: Esta afirmación es errónea según la definición y las probabilidades del CI. Suplemento: Se ha señalado que hay resultados de investigaciones publicadas que muestran que China y otros países asiáticos tienen un CI medio más alto de alrededor de 106 (o incluso tan alto como 115) que la media normalizada de 100. Esto aumentaría el número de genios en China. Esto aumentaría el número de genios en China: El factor anterior de 1/161 se reduciría a aproximadamente 1/60 o, para una media china de 115, incluso a aproximadamente 1/17. Estas cifras pueden calcularse fácilmente utilizando la desviación típica, por ejemplo, con la función de MS Excel ```NORM.DIST(140, 106, 16, TRUE)``. Sin embargo, estos dos factores no se acercan en absoluto a la proporción de población estadounidense/china de aproximadamente 1/4,375, por lo que la conclusión original sigue siendo válida.
Cette affirmation a été rendue populaire par le film The Social Network. Elle dit exactement : > Saviez-vous qu'il y a plus de personnes ayant un QI de génie en Chine qu'aux États-Unis, toutes catégories confondues ?
Cette affirmation peut en fait être testée très facilement. D'autres l'ont fait, par exemple Brian Dickerson : The perils of repeating political nonsense et sont arrivés à la conclusion que l'affirmation était fausse. Il suffit de connaître la probabilité qu'une personne choisie au hasard dans un grand groupe ait un QI de niveau génie, puis de multiplier cette probabilité par le nombre de personnes en Chine et de comparer le résultat avec le nombre de personnes aux États-Unis. Le QI suit une distribution gaussienne où 100 est la moyenne par définition et un écart-type (ET) de 15 (selon Wechsler) ou 16 (selon Stanford-Binet). La rareté d'un QI particulier peut être facilement calculée et est répertoriée par le site de comparaison des QI. Ces chiffres indiquent le pourcentage de personnes ayant un QI égal ou inférieur au QI donné et la rareté de cette situation. La question principale est de savoir ce qu'est un QI de niveau génie. Il n'y a pas de réponse définitive. Selon le site de comparaison du QI, il s'agit d'un QI de 140 ou plus ("Génie ou presque génie"), tandis qu'une autre source indique qu'il s'agit d'un QI d'au moins 160. La rareté d'un tel QI est de 1/261 (avec un écart-type de 15) ou 1/161 (écart-type de 16) pour un QI de 140 et de 1/31 560 (écart-type de 15) ou 1/11 307 (écart-type de 16) pour un QI de 160, selon Wikipédia. La population des États-Unis en 2012 est d'environ 313 221 000 habitants selon le Bureau du recensement des États-Unis. La population de la Chine en 2011 est d'environ 1 370 537 000 habitants. Si l'on prend la rareté la plus faible de 1/161, il y a environ 1 370 537 000/161 = environ 8 513 000 génies en Chine, ce qui est nettement moins que les 313 221 000 Américains. Si l'on prend la valeur de 1/261, on obtient seulement 5 251 000 génies chinois. Avec les 160 points de QI, qui sont plus réalistes pour indiquer un vrai génie, les chiffres sont encore plus petits (environ 43 400 ou 12 100). Notez que 1 370 537 000/313 221 000 = 4,375, donc pour que cette affirmation soit vraie, il faudrait qu'un Chinois sur quatre (ou disons cinq) soit un génie. Même sans les chiffres ci-dessus, il est facile de comprendre que ce n'est pas le cas. Conclusion : Cette affirmation est erronée au regard de la définition et des probabilités du QI. Supplément : Il a été souligné que des résultats de recherche publiés montrent que la Chine et d'autres pays asiatiques ont un QI moyen plus élevé d'environ 106 (ou même de 115) que la moyenne normalisée de 100. Cela augmenterait le nombre de génies en Chine : Le facteur de 1/161 mentionné ci-dessus passerait à environ 1/60 ou, pour une moyenne chinoise de 115, à environ 1/17. Ces chiffres peuvent être facilement calculés à l'aide de l'écart-type, par exemple en utilisant la fonction de MS Excel ``NORM.DIST(140, 106, 16, TRUE)``. Cependant, ces deux facteurs ne sont en aucun cas proches du rapport de population entre les États-Unis et la Chine, qui est d'environ 1/4,375, et la conclusion initiale reste donc valable.
Questa affermazione è stata resa popolare dal film The Social Network. Dice esattamente: > Sapevate che in Cina vivono più persone con un QI geniale di quante ne vivano negli Stati Uniti?
Questa affermazione può essere testata molto facilmente. Altri lo hanno fatto, ad esempio Brian Dickerson: The perils of repeating political nonsense e sono giunti alla conclusione che l'affermazione era sbagliata. È sufficiente conoscere la probabilità che una persona a caso di un grande gruppo abbia un QI di livello geniale, moltiplicarla per il numero di persone in Cina e confrontare il risultato con il numero di persone negli Stati Uniti. Il QI segue una distribuzione gaussiana in cui 100 è la media per definizione e una deviazione standard (SD) di 15 (secondo Wechsler) o 16 (secondo Stanford-Binet). La rarità di un particolare QI può essere calcolata facilmente ed è elencata dal sito IQ Comparison. Questi numeri indicano la percentuale di persone con un QI uguale o inferiore al QI in questione e la rarità di questo fenomeno. La domanda principale è cosa sia il QI di un genio. Non esiste una risposta certa. Secondo il sito IQ Comparison, si tratta di un QI pari o superiore a 140 ("genio o quasi genio"), mentre un'altra fonte lo indica come minimo pari a 160. La rarità di un QI di questo tipo è dovuta al fatto che il QI è pari o inferiore a quello indicato. La rarità di un tale QI è di 1/261 (con una SD di 15) o 1/161 (SD=16) per un QI di 140 e 1/31.560 (SD=15) o 1/11.307 (SD=16) per un QI di 160, secondo Wikipedia. La popolazione degli Stati Uniti per il 2012 è di circa 313.221.000 persone secondo l'U.S. Census Bureau. La popolazione della Cina nel 2011 è di circa 1.370.537.000 persone. Prendendo la rarità più bassa di 1/161 da sopra, ci sono circa 1.370.537.000/161 = circa 8.513.000 geni in Cina, che è significativamente meno dei 313.221.000 americani. Se si prende il valore di 15 SD pari a 1/261, si ottengono solo circa 5.251.000 geni cinesi. Con i 160 punti di QI, che sono più realistici per indicare un vero genio, i numeri sono ancora più piccoli (circa 43.400 o 12.100). Si noti che 1.370.537.000/313.221.000 = 4,375, quindi per far sì che questa affermazione sia vera effettivamente un cinese su quattro (o diciamo cinque) dovrebbe essere un genio. Anche senza i numeri di cui sopra, si può facilmente capire che questo non è il caso. Conclusioni: Questa affermazione è sbagliata in base alla definizione e alle probabilità del QI. Supplemento: È stato fatto notare che sono stati pubblicati risultati di ricerche che dimostrano che la Cina e altri Paesi asiatici hanno un QI medio più alto di circa 106 (o addirittura di 115) rispetto alla media normalizzata di 100. Questo aumenterebbe il numero di geni in Cina. Questo aumenterebbe il numero di geni in Cina: Il fattore di cui sopra di 1/161 scenderebbe a circa 1/60 o, per una media cinese di 115, anche a circa 1/17. Questi numeri possono essere facilmente calcolati utilizzando la deviazione standard, ad esempio utilizzando la funzione di MS Excel ``NORM.DIST(140, 106, 16, TRUE)``. Tuttavia, entrambi questi fattori non si avvicinano in alcun modo al rapporto tra popolazione statunitense e cinese, pari a circa 1/4,375, per cui la conclusione iniziale rimane valida.
52
I am trying to get my program to print out ```"banana"``` from the dictionary. What would be the simplest way to do this? This is my dictionary: ```prices = { "banana" : 4, "apple" : 2, "orange" : 1.5, "pear" : 3 } ```
As of Python 3.7, insertion order is maintained, so you don't need an ```OrderedDict``` here. You can use the below approaches with a normal ```dict``` Changed in version 3.7: Dictionary order is guaranteed to be insertion order. This behavior was an implementation detail of CPython from 3.6. source Python 3.6 and earlier* If you are talking about a regular ```dict```, then the &quot;first key&quot; doesn't mean anything. The keys are not ordered in any way you can depend on. If you iterate over your ```dict``` you will likely not get ```&quot;banana&quot;``` as the first thing you see. If you need to keep things in order, then you have to use an ```OrderedDict``` and not just a plain dictionary. ```import collections prices = collections.OrderedDict([ (&quot;banana&quot;, 4), (&quot;apple&quot;, 2), (&quot;orange&quot;, 1.5), (&quot;pear&quot;, 3), ]) ``` If you then wanted to see all the keys in order you could do so by iterating through it ```for k in prices: print(k) ``` You could, alternatively put all of the keys into a list and then work with that ```keys = list(prices) print(keys[0]) # will print &quot;banana&quot; ``` A faster way to get the first element without creating a list would be to call ```next``` on the iterator. This doesn't generalize nicely when trying to get the ```nth``` element though ```>>> next(iter(prices)) 'banana' ``` * CPython had guaranteed insertion order as an implementation detail in 3.6.
Ich versuche, mein Programm dazu zu bringen, ```"Banane"``` aus dem Wörterbuch auszudrucken. Was wäre der einfachste Weg, dies zu tun? Dies ist mein Wörterbuch: ```Preise = { "banane" : 4, "Apfel" : 2, "orange" : 1.5, "birne" : 3 } ```
Ab Python 3.7 wird die Einfügereihenfolge beibehalten, so dass Sie hier kein ```OrderedDict`` benötigen. Sie können die folgenden Ansätze mit einem normalen ```Dict`` verwenden Geändert in Version 3.7: Die Reihenfolge der Wörterbücher ist garantiert die Einfügereihenfolge. Dieses Verhalten war ein Implementierungsdetail von CPython ab 3.6. Quelle Python 3.6 und früher* Wenn es sich um ein reguläres ```Dict``` handelt, dann hat der &quot;erste Schlüssel&quot; keine Bedeutung. Die Schlüssel sind nicht in einer Weise geordnet, auf die man sich verlassen kann. Wenn Sie über Ihr ```Dict`` iterieren, werden Sie wahrscheinlich nicht ``&quot;banana&quot;``` als erstes sehen. Wenn Sie die Dinge in Ordnung halten müssen, dann müssen Sie ein ``OrderedDict`` verwenden und nicht nur ein einfaches Wörterbuch. ```Importiere Sammlungen Preise = collections.OrderedDict([ (&quot;Banane&quot;, 4), (&quot;Apfel&quot;, 2), (&quot;orange&quot;, 1.5), (&quot;Birne&quot;, 3), ]) ``` Wenn Sie dann alle Schlüssel der Reihe nach sehen möchten, können Sie dies tun, indem Sie die Liste durchgehen ```for k in Preise: print(k) ``` Alternativ koennen Sie alle Schluessel in eine Liste schreiben und dann mit dieser Liste arbeiten ```Schlüssel = Liste(Preise) print(schlüssel[0]) # wird &quot;banane&quot drucken; ``` Ein schnellerer Weg, das erste Element zu erhalten, ohne eine Liste zu erstellen, wäre der Aufruf von ```next``` auf dem Iterator. Dies lässt sich jedoch nicht gut verallgemeinern, wenn man versucht, das ``n-te`` Element zu erhalten ```>>> next(iter(preise)) 'Banane' ``` * CPython hatte in 3.6 eine garantierte Einfügereihenfolge als Implementierungsdetail.
Estoy intentando que mi programa imprima ```"plátano"`` del diccionario. ¿Cuál sería la forma más sencilla de hacerlo? Este es mi diccionario: ``precios = { "plátano" : 4 "manzana" : 2, "naranja" : 1.5 "pera" : 3 } ```
A partir de Python 3.7, el orden de inserción se mantiene, por lo que no necesitas un ``OrderedDict`` aquí. Puedes usar las siguientes aproximaciones con un ``dict`` normal Cambiado en la versión 3.7: Se garantiza que el orden del diccionario es el orden de inserción. Este comportamiento era un detalle de implementación de CPython desde la versión 3.6. fuente Python 3.6 y anteriores*. Si estás hablando de un ``dict`` regular, entonces la &quot;primera clave&quot; no significa nada. Las claves no están ordenadas de ninguna manera de la que puedas depender. Si iteras sobre tu ```dict`` probablemente no obtendrás ``&quot;banana&quot;`` como lo primero que veas. Si necesitas mantener las cosas en orden, entonces tienes que usar un ``OrderedDict`` y no un simple diccionario. ``importar colecciones precios = colecciones.OrderedDict([ (&quot;plátano&quot;, 4), (&quot;manzana&quot;, 2), (&quot;naranja&quot;, 1,5), (&quot;pera&quot;, 3), ]) ``` Si quisieras ver todas las claves en orden, podrías hacerlo iterando a través de ellas ```for k in precios: print(k) ``` También puedes poner todas las claves en una lista y luego trabajar con ella ```claves = lista(precios) print(keys[0]) # imprimirá &quot;plátano&quot; ``` Una forma más rápida de obtener el primer elemento sin crear una lista sería llamar a ```next`` en el iterador. Sin embargo, esto no se generaliza bien cuando se intenta obtener el ``ésimo`` elemento ```>>> next(iter(precios)) 'banana' ``` * CPython había garantizado el orden de inserción como un detalle de implementación en la versión 3.6.
J'essaie de faire en sorte que mon programme imprime le mot "banane" dans le dictionnaire. Quelle serait la façon la plus simple de le faire ? Voici mon dictionnaire : ``Prix = { "banane" : 4, "pomme" : 2, "orange" : 1,5, "poire" : 3 } ```
Depuis Python 3.7, l'ordre d'insertion est maintenu, donc vous n'avez pas besoin d'un ``OrderedDict`` ici. Vous pouvez utiliser les approches suivantes avec un ``dict`` normal Modifié dans la version 3.7 : L'ordre du dictionnaire est garanti comme étant l'ordre d'insertion. Ce comportement était un détail d'implémentation de CPython depuis la version 3.6. source Python 3.6 et antérieur* Si vous parlez d'un ``dict`` normal, alors la &quot;première clé&quot ; ne signifie rien. Les clés ne sont pas ordonnées d'une manière sur laquelle vous pouvez compter. Si vous itérez sur votre ``dict``, vous n'obtiendrez probablement pas ``&quot;banana&quot;`` comme première chose que vous verrez. Si vous avez besoin de garder les choses dans l'ordre, alors vous devez utiliser un ``OrderedDict`` et non un simple dictionnaire. ``Import collections prices = collections.OrderedDict([ (&quot;banane&quot ;, 4), (&quot;pomme&quot ;, 2), (&quot;orange&quot ;, 1.5), (&quot;poire&quot ;, 3), ]) ``` Si vous voulez ensuite voir toutes les clés dans l'ordre, vous pouvez le faire en itérant à travers le fichier ````pour k dans prix : print(k) ``` Vous pouvez également mettre toutes les clés dans une liste et travailler avec celle-ci ```Keys = list(prices) print(keys[0]) # imprimera &quot;banana&quot ; ``` Un moyen plus rapide d'obtenir le premier élément sans créer de liste serait d'appeler ``next`` sur l'itérateur. Cependant, cela ne se généralise pas bien lorsqu'on essaie d'obtenir le ``nième`` élément ```>>> next(iter(prix)) 'banane' ``` * CPython avait garanti l'ordre d'insertion comme détail d'implémentation dans la version 3.6.
Sto cercando di far sì che il mio programma stampi ```banana'' dal dizionario. Quale sarebbe il modo più semplice per farlo? Questo è il mio dizionario: ```prezzi = { "banana" : 4, "mela" : 2, "arancia" : 1,5, "pera" : 3 } ```
A partire da Python 3.7, l'ordine di inserimento viene mantenuto, quindi non è necessario un ```OrderedDict``. Si possono usare gli approcci seguenti con un normale ```dict`` Modificato nella versione 3.7: L'ordine del dizionario è garantito come ordine di inserimento. Questo comportamento era un dettaglio di implementazione di CPython dalla versione 3.6. fonte Python 3.6 e precedenti* Se si parla di un normale ```dict'', allora il &quot;first key&quot; non significa nulla. Le chiavi non sono ordinate in alcun modo da cui si possa dipendere. Se si itera sul ```dict``, è probabile che non si trovi ```&quot;banana&quot;`` come prima cosa. Se si ha bisogno di tenere le cose in ordine, si deve usare un ```OrderedDict`` e non un semplice dizionario. ``Importa collezioni prezzi = collections.OrderedDict([ (&quot;banana&quot;, 4), (&quot;mela&quot;, 2), (&quot;arancia&quot;, 1,5), (&quot;pera&quot;, 3), ]) ``` Se poi si volessero vedere tutte le chiavi in ordine, si potrebbe farlo iterando ```per k in prezzi: print(k) ``` In alternativa, si possono mettere tutte le chiavi in una lista e poi lavorare con questa ```Tasti = lista(prezzi) print(keys[0]) # stamperà &quot;banana&quot; ``` Un modo più veloce per ottenere il primo elemento senza creare una lista sarebbe quello di chiamare ```next``` sull'iteratore. Questo però non si generalizza bene quando si cerca di ottenere l'```nesimo`` elemento ```>> next(iter(prezzi)) 'banana' ``` * CPython aveva garantito l'ordine di inserimento come dettaglio di implementazione nella versione 3.6.
53
Different coffee packets advertise different amounts of 'Robusta' and 'Arabica'? What do these terms refer to, and how does it affect the taste of the coffee?
* One reason that the taste isn't as good for Robusta is that it has more caffeine compared to Arabica. Which may sound like a positive thing but caffeine carries a bitter taste which makes it an unpleasant drink. In fact the Robusta bean has 2.7% caffeine content, almost double the 1.5% of Arabica. * Arabica contains almost 60% more lipids and almost twice the concentration of sugar than Robusta. This factor also probably has a big impact on why we prefer the taste of Arabica. * From a price perspective, green beans of Robusta is about half the price of Arabica green beans on the commodity market. * Robusta is easier to tend to on the farm, has a higher yield and is less sensitive to insects - the extra caffeine is a chemical defense for the coffee seed as the quantity in the Robusta is toxic to bugs. All of these factors help bring up the supply and lower the input costs for farmers to produce. With this more attractive price point, a lot of roasters back in the day would add Robusta to their blend in an attempt to reduce their costs and increase their profits. When coffee was initially sold in the 1900s the quality of coffee slowly and slowly deteriorated in an effort for companies to squeeze the most profit. Where you’ll find it: Nowadays, it’s not often you’ll find Robusta in a coffee blends or in coffee shop. If you’re drinking instant coffee? Well, that’s probably all Robusta… but you probably don’t care very much about taste. In your espresso blend? That’s a mixed bag. Literally. Oddly enough, Robusta is still widely used as part of espresso blends – specifically Italian style blends. It is said to help improve the crema. One thing to note is despite the association with Arabica of being higher quality, and Robusta as being lower quality, it’s not always the case. Top notch specialty Robusta coffee will usually taste as good as or better than low end Arabica. However, high end Robusta isn’t widely used or available. Rather, Robusta is usually used as a filler or cost reducer. * Robusta beans are much more circular, whereas Arabica are more oval. * Chlorogenic acid is a significant antioxidant and an insect deterrent. Robusta is 7-10% CGA and Arabica has 5.5-8% CGA.
Auf verschiedenen Kaffeepackungen wird mit unterschiedlichen Anteilen von "Robusta" und "Arabica" geworben? Was verbirgt sich hinter diesen Begriffen, und wie wirkt sich das auf den Geschmack des Kaffees aus?
* Ein Grund dafür, dass Robusta nicht so gut schmeckt, ist, dass er im Vergleich zu Arabica mehr Koffein enthält. Das mag positiv klingen, aber Koffein hat einen bitteren Geschmack, der es zu einem unangenehmen Getränk macht. Tatsächlich hat die Robusta-Bohne einen Koffeingehalt von 2,7 %, fast doppelt so viel wie die 1,5 % der Arabica-Bohne. * Arabica enthält fast 60 % mehr Fett und fast doppelt so viel Zucker wie Robusta. Dieser Faktor hat wahrscheinlich auch einen großen Einfluss darauf, warum wir den Geschmack von Arabica bevorzugen. * Preislich gesehen sind die grünen Robusta-Bohnen auf dem Markt etwa halb so teuer wie die grünen Arabica-Bohnen. * Robusta ist auf dem Bauernhof leichter zu pflegen, hat einen höheren Ertrag und ist weniger anfällig für Insekten - das zusätzliche Koffein ist ein chemischer Schutz für den Kaffeesamen, da die Menge im Robusta giftig für Ungeziefer ist. All diese Faktoren tragen dazu bei, das Angebot zu erhöhen und die Produktionskosten für die Landwirte zu senken. Angesichts dieses attraktiveren Preises fügten viele Kaffeeröster in früheren Zeiten Robusta zu ihren Mischungen hinzu, um ihre Kosten zu senken und ihre Gewinne zu steigern. Als der Kaffee in den 1900er Jahren auf den Markt kam, verschlechterte sich die Qualität des Kaffees allmählich, damit die Unternehmen den größtmöglichen Gewinn erzielen konnten. Wo Sie ihn finden können: Heutzutage findet man Robusta nur noch selten in Kaffeemischungen oder in Kaffeeläden. Wenn Sie Instantkaffee trinken? Nun, der besteht wahrscheinlich nur aus Robusta... aber wahrscheinlich ist Ihnen der Geschmack ziemlich egal. In Ihrer Espressomischung? Das ist eine gemischte Tüte. Im wahrsten Sinne des Wortes. Seltsamerweise wird Robusta immer noch häufig in Espressomischungen verwendet - insbesondere in italienischen Mischungen. Es heißt, dass er zur Verbesserung der Crema beiträgt. Trotz der Assoziation, dass Arabica-Kaffee von höherer Qualität und Robusta-Kaffee von geringerer Qualität ist, ist dies nicht immer der Fall. Hochwertiger Spezialitätenkaffee aus Robusta schmeckt in der Regel genauso gut oder besser als Arabica-Kaffee der unteren Preisklasse. Hochwertiger Robusta ist jedoch nicht weit verbreitet oder verfügbar. Vielmehr wird Robusta in der Regel als Füllstoff oder zur Kostenreduzierung verwendet. * Robusta-Bohnen sind viel runder, während Arabica-Bohnen eher oval sind. * Chlorogensäure ist ein bedeutendes Antioxidans und wirkt insektenabweisend. Robusta hat 7-10% CGA und Arabica hat 5,5-8% CGA.
¿En los distintos paquetes de café se anuncian diferentes cantidades de "Robusta" y "Arábica"? ¿A qué se refieren estos términos y cómo afectan al sabor del café?
* Una de las razones por las que el sabor del Robusta no es tan bueno es que contiene más cafeína que el Arábica. Lo cual puede parecer positivo, pero la cafeína tiene un sabor amargo que lo convierte en una bebida desagradable. De hecho, el grano de Robusta contiene un 2,7% de cafeína, casi el doble que el 1,5% del Arábica. * El Arábica contiene casi un 60% más de lípidos y casi el doble de concentración de azúcar que el Robusta. Este factor también influye probablemente en que prefiramos el sabor del Arábica. * Desde el punto de vista del precio, los granos verdes de Robusta cuestan aproximadamente la mitad que los de Arábica en el mercado de materias primas. * El Robusta es más fácil de cuidar en la finca, tiene un mayor rendimiento y es menos sensible a los insectos - la cafeína extra es una defensa química de la semilla de café, ya que la cantidad en el Robusta es tóxica para los insectos. Todos estos factores contribuyen a aumentar la oferta y a reducir los costes de producción para los agricultores. Con este precio más atractivo, muchos tostadores de antaño añadían Robusta a sus mezclas para intentar reducir sus costes y aumentar sus beneficios. Cuando el café se empezó a vender en el siglo XX, su calidad se fue deteriorando poco a poco en un esfuerzo de las empresas por exprimir al máximo sus beneficios. Dónde lo encontrará: Hoy en día, no es frecuente encontrar Robusta en las mezclas de café o en las cafeterías. ¿Si toma café instantáneo? Bueno, probablemente sea todo Robusta... pero probablemente no te importe mucho el sabor. ¿En su mezcla de café espresso? Eso es una mezcla. Literalmente. Curiosamente, el Robusta se sigue utilizando mucho en las mezclas de espresso, sobre todo en las de estilo italiano. Se dice que ayuda a mejorar la crema. Una cosa que hay que tener en cuenta es que, a pesar de que el Arábica se asocia a una mayor calidad y el Robusta a una menor, no siempre es así. El café Robusta de calidad superior suele tener un sabor tan bueno o mejor que el Arábica de gama baja. Sin embargo, el Robusta de gama alta no se utiliza ni está disponible de forma generalizada. El Robusta suele utilizarse como relleno o para reducir costes. * Los granos de Robusta son mucho más circulares, mientras que los de Arábica son más ovalados. * El ácido clorogénico es un importante antioxidante e insecticida. El Robusta tiene un 7-10% de CGA y el Arábica un 5,5-8%.
Différents paquets de café annoncent des quantités différentes de "Robusta" et d'"Arabica" ? À quoi ces termes font-ils référence et comment affectent-ils le goût du café ?
* L'une des raisons pour lesquelles le goût du Robusta n'est pas aussi bon est qu'il contient plus de caféine que l'Arabica. Cela peut sembler positif, mais la caféine a un goût amer qui en fait une boisson désagréable. En fait, le Robusta contient 2,7 % de caféine, soit presque le double des 1,5 % de l'Arabica. * L'Arabica contient près de 60 % de lipides en plus et presque deux fois plus de sucre que le Robusta. Ce facteur a probablement aussi un impact important sur la raison pour laquelle nous préférons le goût de l'Arabica. * Du point de vue du prix, les haricots verts de Robusta coûtent environ la moitié du prix des haricots verts d'Arabica sur le marché des produits de base. * Le Robusta est plus facile à entretenir à la ferme, a un rendement plus élevé et est moins sensible aux insectes - la caféine supplémentaire est une défense chimique pour la graine de café, car la quantité contenue dans le Robusta est toxique pour les insectes. Tous ces facteurs contribuent à augmenter l'offre et à réduire les coûts des intrants pour les agriculteurs. Grâce à ce prix plus attractif, de nombreux torréfacteurs de l'époque ajoutaient le Robusta à leur mélange pour tenter de réduire leurs coûts et d'augmenter leurs bénéfices. Lorsque le café a été vendu pour la première fois dans les années 1900, la qualité du café s'est lentement détériorée pour permettre aux entreprises d'engranger le plus de bénéfices possible. Où le trouver ? De nos jours, il est rare de trouver du Robusta dans les mélanges de café ou dans les cafés. Si vous buvez du café instantané ? Il s'agit probablement de Robusta... mais vous ne vous souciez probablement pas beaucoup du goût. Dans votre mélange d'espresso ? C'est un mélange. Littéralement. Curieusement, le Robusta est encore largement utilisé dans les mélanges d'espresso, en particulier dans les mélanges de style italien. On dit qu'il contribue à améliorer la crème. Il convient de noter que, même si l'on associe l'Arabica à une qualité supérieure et le Robusta à une qualité inférieure, ce n'est pas toujours le cas. Un café Robusta de qualité supérieure aura généralement un goût aussi bon, voire meilleur, qu'un café Arabica bas de gamme. Cependant, le Robusta haut de gamme n'est pas largement utilisé ou disponible. Le Robusta est plutôt utilisé comme produit de remplissage ou pour réduire les coûts. * Les grains de Robusta sont beaucoup plus circulaires, alors que ceux de l'Arabica sont plus ovales. * L'acide chlorogénique est un antioxydant important et un dissuasif pour les insectes. Le Robusta contient 7 à 10 % d'AGC et l'Arabica 5,5 à 8 % d'AGC.
Le diverse confezioni di caffè pubblicizzano quantità diverse di "Robusta" e "Arabica"? A cosa si riferiscono questi termini e come influiscono sul gusto del caffè?
* Un motivo per cui il gusto non è altrettanto buono per il Robusta è che ha più caffeina rispetto all'Arabica. Il che può sembrare un aspetto positivo, ma la caffeina ha un sapore amaro che la rende una bevanda sgradevole. Infatti, il chicco di Robusta ha un contenuto di caffeina del 2,7%, quasi il doppio rispetto all'1,5% dell'Arabica. * L'Arabica contiene quasi il 60% in più di lipidi e una concentrazione di zuccheri quasi doppia rispetto alla Robusta. Anche questo fattore ha probabilmente un grande impatto sul motivo per cui preferiamo il gusto dell'Arabica. * Dal punto di vista del prezzo, il prezzo dei fagiolini di Robusta è circa la metà di quello dei fagiolini di Arabica sul mercato delle materie prime. * La Robusta è più facile da coltivare, ha una resa maggiore ed è meno sensibile agli insetti - la caffeina extra è una difesa chimica per il seme di caffè, poiché la quantità di Robusta è tossica per gli insetti. Tutti questi fattori contribuiscono ad aumentare l'offerta e a ridurre i costi di produzione per gli agricoltori. Con questo prezzo più attraente, molti torrefattori in passato aggiungevano la Robusta alla loro miscela nel tentativo di ridurre i costi e aumentare i profitti. Quando il caffè fu venduto inizialmente, nel 1900, la qualità del caffè si deteriorò lentamente nel tentativo delle aziende di ottenere il massimo profitto. Dove si trova: Al giorno d'oggi, non capita spesso di trovare la Robusta nelle miscele di caffè o nei bar. Se bevete caffè istantaneo? Beh, probabilmente è tutto Robusta... ma probabilmente non vi interessa molto il gusto. Nella miscela per l'espresso? È una miscela mista. Letteralmente. Stranamente, la Robusta è ancora ampiamente utilizzata nelle miscele di espresso, in particolare in quelle all'italiana. Si dice che contribuisca a migliorare la crema. Una cosa da notare è che nonostante l'associazione tra Arabica e Robusta sia di qualità superiore, non è sempre così. Il caffè Robusta di alta qualità ha solitamente un sapore pari o superiore a quello dell'Arabica di bassa qualità. Tuttavia, la Robusta di alta qualità non è molto utilizzata o disponibile. Piuttosto, la Robusta viene solitamente utilizzata come riempitivo o per ridurre i costi. * I chicchi di Robusta sono molto più circolari, mentre quelli di Arabica sono più ovali. * L'acido clorogenico è un importante antiossidante e un deterrente per gli insetti. La Robusta ha il 7-10% di CGA, mentre l'Arabica ha il 5,5-8% di CGA.
54
So whenever we want to shoot our flash before taking a photo. we have to charge it first. What is the point of the charging our flashes? Aren't their power directly supplied by the battery of our camera? Please answer for the built in flash on the 2000D and the traditional hot shoe Xenon flashes. Perhaps these hot shoe xenon flashes have their own batteries charged by the slow hot shoe port. Who knows?
The peak power at work when a flash is being discharged is extreme. Example: a classic Metz 45CT (a large but still handheld unit) on full manual power delivers around 90 watt-seconds of electrical output to the flash tube in 1/300s. That means there are 27000 watts at work for a short time. A 27000 watt lightbulb (BTW, your flash is much brighter than that - more efficient!) would need the ampacity of around eight european household sockets (230V, fused at 13 or 16 amps) to operate, since it would draw around 120 ampere from them. At the voltage levels xenon flash tubes typically operate at, around 80 amperes will flow; if you wanted to pull that energy "live" from a 5-6V battery, you'd need to pull around 5000 amperes AND instantaneously convert them to around 80 amperes at high voltage. Batteries that could deliver 5000 amps - while not wasting most of the power as heat generated across their internal resistance - for a short duration and live certainly exist - you are looking at starter batteries for big lorries, which are rather inconvenient to lug around. Also, a 5000 ampere current pulse is quite a magnetic nuisance if there is anything either ferromagnetic or intended as an electrical conductor near the conductors used. Your average "big" speedlite, btw, will be around half the power described here (but might in some cases reach the same or higher peak currents in order to discharge even faster), an in-camera flash will be a fraction of these numbers - but still inconvenient to build any other way. If you need a short, massive current pulse, the best energy source available in engineering is a previously charged capacitor (metal-paper or electrolytic type, not dual-layer "supercap"). This energy storage device is large for its storage capacity if you compare it to a battery - but able to respond far quicker to high current demand, since a) there is no chemical energy conversion involved in its operation, b) the relevant current path only involves metallic, very conductive parts instead of ionic conductors (aka electrolytes. An electrolytic capacitor, btw, does use its electrolyte for chemical self-upkeep, not for chemical energy storage or electrical connectivity). Also, since the charge in a a capacitor is limited, it allows portioning total energy to what the flashlamp can safely take. This allows a flash in manual mode to just completely discharge the capacitor until it is nearly empty (when the remaining charge can only deliver voltage below the quench voltage of the flashlamp) without complex control circuitry - and at the same time gives you a safety fallback when working with dynamically controlled power levels (telecomputer or TTL mode), leaving no way for catastrophic circuit failure in combination with several kilowatts of constant power available turning into a massive safety hazard. A handheld-sized efficient electrical near point light source with 27000W input, driven constantly, would first severely damage your eyes and then self destroy violently (think of a welding arc - dangerously bright, and it melts metal).
Wenn wir also unseren Blitz auslösen wollen, bevor wir ein Foto machen, müssen wir ihn erst aufladen. Wozu sollen wir unsere Blitzgeräte aufladen? Werden sie nicht direkt von der Batterie unserer Kamera mit Strom versorgt? Bitte beantworten Sie diese Frage für den eingebauten Blitz der 2000D und die herkömmlichen Xenon-Blitzgeräte im Blitzschuh. Vielleicht haben diese Xenon-Blitzgeräte für den Blitzschuh einen eigenen Akku, der über den langsamen Blitzschuhanschluss geladen wird. Wer weiß das schon?
Die Spitzenleistung, die bei der Entladung eines Blitzes entsteht, ist extrem. Ein Beispiel: Ein klassischer Metz 45CT (ein großes, aber immer noch handgehaltenes Gerät) liefert bei voller manueller Leistung etwa 90 Wattsekunden elektrische Leistung an die Blitzröhre in 1/300s. Das bedeutet, dass für eine kurze Zeit 27000 Watt am Werk sind. Eine 27000-Watt-Glühbirne (Ihr Blitz ist übrigens viel heller als das - effizienter!) bräuchte die Stromstärke von etwa acht europäischen Haushaltssteckdosen (230V, abgesichert mit 13 oder 16 Ampere), um zu funktionieren, da sie etwa 120 Ampere ziehen würde. Bei der Spannung, mit der Xenon-Blitzröhren üblicherweise betrieben werden, fließen etwa 80 Ampere; wollte man diese Energie "live" aus einer 5-6-V-Batterie beziehen, müsste man etwa 5000 Ampere entnehmen UND sie sofort in etwa 80 Ampere bei Hochspannung umwandeln. Batterien, die 5000 Ampere liefern können, ohne den größten Teil der Energie in Form von Wärme über ihren Innenwiderstand zu verschwenden, gibt es zwar für kurze Zeit und unter Spannung, aber man denke nur an die Starterbatterien für große Lastwagen, die man nicht so einfach mit sich herumschleppen kann. Außerdem ist ein Stromimpuls von 5000 Ampere ein ziemliches magnetisches Ärgernis, wenn sich in der Nähe der verwendeten Leiter etwas befindet, das entweder ferromagnetisch oder als elektrischer Leiter gedacht ist. Ein durchschnittliches "großes" Speedlite hat übrigens nur etwa die Hälfte der hier beschriebenen Leistung (kann aber in manchen Fällen die gleichen oder höhere Spitzenströme erreichen, um sich noch schneller zu entladen), ein Kamerablitz ist nur ein Bruchteil dieser Zahlen - aber immer noch unpraktisch, wenn man ihn auf andere Weise baut. Wenn Sie einen kurzen, massiven Stromimpuls benötigen, ist die beste Energiequelle, die es in der Technik gibt, ein zuvor aufgeladener Kondensator (Metall-Papier- oder Elektrolytkondensator, kein Doppelschicht-"Supercap"). Dieser Energiespeicher ist für seine Speicherkapazität groß, wenn man ihn mit einer Batterie vergleicht - aber er kann viel schneller auf einen hohen Strombedarf reagieren, da a) keine chemische Energieumwandlung in seinem Betrieb stattfindet, b) der relevante Strompfad nur metallische, sehr leitfähige Teile anstelle von Ionenleitern (auch Elektrolyte genannt) umfasst. Ein Elektrolytkondensator verwendet seinen Elektrolyten übrigens zur chemischen Selbsterhaltung, nicht zur Speicherung von chemischer Energie oder zur Herstellung elektrischer Verbindungen). Da die Ladung eines Kondensators begrenzt ist, lässt sich die Gesamtenergie auf das beschränken, was die Blitzlampe sicher aufnehmen kann. So kann ein Blitzgerät im manuellen Modus den Kondensator ohne komplexe Steuerschaltungen einfach vollständig entladen, bis er fast leer ist (wenn die verbleibende Ladung nur noch eine Spannung unterhalb der Löschspannung der Blitzlampe liefern kann) - und bietet gleichzeitig einen Sicherheitsrückgriff, wenn mit dynamisch gesteuerten Leistungspegeln gearbeitet wird (Telecomputer- oder TTL-Modus), so dass ein katastrophaler Schaltkreisausfall in Kombination mit mehreren Kilowatt konstanter Leistung nicht zu einem massiven Sicherheitsrisiko werden kann. Eine handtellergroße, effiziente elektrische Nahlichtquelle mit 27000 W Eingangsleistung, die ständig betrieben wird, würde zunächst Ihre Augen schwer schädigen und sich dann gewaltsam selbst zerstören (denken Sie an einen Schweißlichtbogen - gefährlich hell, und er schmilzt Metall).
Así que siempre que queramos disparar nuestro flash antes de hacer una foto. tenemos que cargarlo primero. ¿Para qué sirve cargar nuestros flashes? ¿No se alimentan directamente de la batería de la cámara? Por favor, responda para el flash incorporado en la 2000D y los tradicionales flashes de xenón de zapata. Quizás estos flashes de xenón de zapata caliente tengan sus propias baterías cargadas por el puerto lento de zapata caliente. ¿Quién sabe?
El pico de potencia que se produce cuando se dispara un flash es extremo. Ejemplo: un Metz 45CT clásico (una unidad grande pero portátil) a plena potencia manual suministra unos 90 vatios-segundo de potencia eléctrica al tubo del flash en 1/300s. Esto significa que hay 27.000 vatios trabajando durante un breve periodo de tiempo. Una bombilla de 27.000 vatios (por cierto, tu flash es mucho más brillante que eso, ¡más eficiente!) necesitaría la ampacidad de unos ocho enchufes domésticos europeos (230 V, con fusibles de 13 ó 16 amperios) para funcionar, ya que consumiría unos 120 amperios de ellos. A los niveles de voltaje a los que suelen funcionar los tubos de flash de xenón, fluirán unos 80 amperios; si quisiéramos extraer esa energía "en directo" de una batería de 5-6V, necesitaríamos extraer unos 5000 amperios Y convertirlos instantáneamente en unos 80 amperios a alto voltaje. Las baterías que pueden suministrar 5.000 amperios -sin desperdiciar la mayor parte de la energía en forma de calor generado por su resistencia interna- durante un corto periodo de tiempo y en directo existen, pero se trata de baterías de arranque para grandes camiones, que son bastante incómodas de transportar. Además, un pulso de corriente de 5.000 amperios es una molestia magnética si hay algo ferromagnético o que sirva de conductor eléctrico cerca de los conductores utilizados. Un speedlite "grande" medio, por cierto, tendrá aproximadamente la mitad de la potencia descrita aquí (pero en algunos casos puede alcanzar picos de corriente iguales o superiores para descargarse aún más rápido), un flash de cámara será una fracción de estas cifras, pero sigue siendo inconveniente construirlo de otra manera. Si necesita un pulso de corriente corto y masivo, la mejor fuente de energía disponible en ingeniería es un condensador previamente cargado (de tipo metal-papel o electrolítico, no un "supercap" de doble capa). Este dispositivo de almacenamiento de energía es grande para su capacidad de almacenamiento si lo comparamos con una batería, pero puede responder mucho más rápido a una demanda de corriente elevada, ya que a) no hay conversión química de energía implicada en su funcionamiento, b) la ruta de corriente relevante sólo implica partes metálicas, muy conductoras, en lugar de conductores iónicos (también conocidos como electrolitos). Un condensador electrolítico, por cierto, utiliza su electrolito para la autoconservación química, no para el almacenamiento de energía química o la conectividad eléctrica). Además, como la carga de un condensador es limitada, permite dividir la energía total en porciones de acuerdo con lo que la linterna puede soportar con seguridad. Esto permite que un flash en modo manual descargue completamente el condensador hasta que esté casi vacío (cuando la carga restante sólo puede suministrar una tensión por debajo de la tensión de apagado de la lámpara) sin necesidad de complejos circuitos de control, y al mismo tiempo proporciona un mecanismo de seguridad cuando se trabaja con niveles de potencia controlados dinámicamente (modo telecomputador o TTL), evitando que un fallo catastrófico del circuito en combinación con varios kilovatios de potencia constante disponible se convierta en un enorme peligro para la seguridad. Una fuente de luz de punto cercano eléctrica eficiente del tamaño de una mano con una potencia de entrada de 27.000 W, accionada constantemente, primero dañaría gravemente los ojos y después se autodestruiría violentamente (piense en un arco de soldadura: peligrosamente brillante, y funde el metal).
Ainsi, chaque fois que nous voulons déclencher notre flash avant de prendre une photo, nous devons d'abord le charger. Quel est l'intérêt de charger nos flashs ? Leur alimentation n'est-elle pas directement fournie par la batterie de notre appareil photo ? Veuillez répondre pour le flash intégré du 2000D et les flashs xénon traditionnels à sabot. Peut-être que ces flashs xénon à sabot ont leurs propres batteries chargées par le port lent du sabot. Qui sait ?
La puissance de crête à l'œuvre lors de la décharge d'un flash est extrême. Exemple : un Metz 45CT classique (un appareil de grande taille mais toujours portatif) à pleine puissance manuelle délivre environ 90 watts-secondes de puissance électrique au tube-éclair au 1/300e de seconde. Cela signifie que 27 000 watts sont utilisés pendant un court laps de temps. Une ampoule de 27 000 watts (BTW, votre flash est beaucoup plus lumineux que cela - plus efficace !) aurait besoin de l'ampacité d'environ huit prises domestiques européennes (230V, avec un fusible de 13 ou 16 ampères) pour fonctionner, puisqu'elle tirerait environ 120 ampères de ces prises. Aux niveaux de tension auxquels les tubes flash au xénon fonctionnent généralement, environ 80 ampères circulent ; si vous vouliez tirer cette énergie "en direct" d'une batterie de 5-6 V, il vous faudrait tirer environ 5 000 ampères ET les convertir instantanément en environ 80 ampères à haute tension. Il existe certainement des batteries capables de fournir 5000 ampères - sans gaspiller la majeure partie de l'énergie sous forme de chaleur générée par leur résistance interne - pendant une courte durée et en direct - il s'agit des batteries de démarrage des gros camions, qui ne sont pas très pratiques à trimballer. En outre, une impulsion de courant de 5 000 ampères constitue une nuisance magnétique si un objet ferromagnétique ou destiné à servir de conducteur électrique se trouve à proximité des conducteurs utilisés. Votre "gros" speedlite moyen aura environ la moitié de la puissance décrite ici (mais pourrait dans certains cas atteindre des courants de pointe identiques ou plus élevés afin de se décharger encore plus rapidement), un flash intégré à l'appareil photo aura une fraction de ces chiffres - mais il n'est toujours pas pratique de le construire d'une autre manière. Si vous avez besoin d'une impulsion de courant courte et massive, la meilleure source d'énergie disponible en ingénierie est un condensateur préalablement chargé (de type métal-papier ou électrolytique, pas de "supercap" à double couche). Ce dispositif de stockage d'énergie est volumineux pour sa capacité de stockage si on le compare à une batterie - mais il est capable de répondre beaucoup plus rapidement à une demande de courant élevée, car a) il n'y a pas de conversion d'énergie chimique impliquée dans son fonctionnement, b) le chemin du courant concerné n'implique que des pièces métalliques très conductrices au lieu de conducteurs ioniques (alias électrolytes). Un condensateur électrolytique utilise son électrolyte pour l'auto-entretien chimique, et non pour le stockage de l'énergie chimique ou la connectivité électrique). En outre, comme la charge d'un condensateur est limitée, elle permet de répartir l'énergie totale en fonction de ce que la lampe de poche peut absorber en toute sécurité. Cela permet à un flash en mode manuel de décharger complètement le condensateur jusqu'à ce qu'il soit presque vide (lorsque la charge restante ne peut délivrer qu'une tension inférieure à la tension d'extinction de la lampe flash) sans circuit de contrôle complexe - et en même temps vous donne une sécurité de repli lorsque vous travaillez avec des niveaux de puissance contrôlés dynamiquement (télécompteur ou mode TTL), ne laissant aucune chance à une défaillance catastrophique du circuit en combinaison avec plusieurs kilowatts de puissance constante disponible se transformant en un énorme danger pour la sécurité. Une source de lumière ponctuelle électrique efficace de la taille d'un ordinateur de poche, d'une puissance de 27 000 W, alimentée en permanence, endommagerait d'abord gravement vos yeux, puis s'autodétruirait violemment (pensez à un arc de soudage - dangereusement lumineux, et qui fait fondre le métal).
Quindi, ogni volta che vogliamo utilizzare il nostro flash prima di scattare una foto, dobbiamo prima caricarlo. A cosa serve caricare i flash? Non sono alimentati direttamente dalla batteria della fotocamera? Vi prego di rispondere per il flash incorporato della 2000D e per i tradizionali flash allo xeno a slitta calda. Forse questi flash allo xeno a slitta calda hanno le loro batterie caricate dalla porta lenta a slitta calda. Chi lo sa?
La potenza di picco che viene erogata quando un flash viene scaricato è estrema. Ad esempio, un classico Metz 45CT (un apparecchio di grandi dimensioni, ma pur sempre portatile) alla massima potenza manuale eroga circa 90 watt-secondo di potenza elettrica al tubo del flash in 1/300 di secondo. Ciò significa che ci sono 27000 watt al lavoro per un breve periodo. Una lampadina da 27000 watt (BTW, il vostro flash è molto più luminoso di così - più efficiente!) avrebbe bisogno della capacità di circa otto prese domestiche europee (230V, con fusibili da 13 o 16 ampere) per funzionare, poiché ne assorbirebbe circa 120 ampere. Ai livelli di tensione a cui funzionano di solito i tubi flash allo xeno, scorrono circa 80 ampere; se si volesse estrarre quell'energia "in diretta" da una batteria da 5-6 V, bisognerebbe estrarre circa 5000 ampere e convertirli istantaneamente in circa 80 ampere ad alta tensione. Batterie in grado di erogare 5000 ampere - senza sprecare la maggior parte dell'energia sotto forma di calore generato dalla resistenza interna - per una breve durata e sotto tensione esistono sicuramente; si tratta delle batterie di avviamento dei grandi camion, che sono piuttosto scomode da trasportare. Inoltre, un impulso di corrente di 5000 ampere è un fastidio magnetico se vicino ai conduttori utilizzati c'è qualcosa di ferromagnetico o inteso come conduttore elettrico. Il vostro speedlite "grande" medio, tra l'altro, avrà una potenza pari a circa la metà di quella descritta qui (ma in alcuni casi potrebbe raggiungere correnti di picco uguali o superiori per scaricarsi ancora più velocemente), un flash in-camera sarà una frazione di questi numeri - ma comunque scomodo da costruire in qualsiasi altro modo. Se avete bisogno di un impulso di corrente breve e massiccio, la migliore fonte di energia disponibile in ingegneria è un condensatore precedentemente caricato (del tipo a carta metallica o elettrolitico, non "supercap" a doppio strato). Questo dispositivo di accumulo di energia è grande per la sua capacità di immagazzinamento, se lo si paragona a una batteria, ma è in grado di rispondere molto più rapidamente a un'elevata richiesta di corrente, poiché a) non c'è alcuna conversione di energia chimica nel suo funzionamento, b) il percorso della corrente coinvolge solo parti metalliche, molto conduttive, invece di conduttori ionici (alias elettroliti). Un condensatore elettrolitico, tra l'altro, utilizza il suo elettrolita per l'autoconservazione chimica, non per l'accumulo di energia chimica o la connettività elettrica). Inoltre, dal momento che la carica di un condensatore è limitata, consente di suddividere l'energia totale in base a quella che la torcia può assorbire in modo sicuro. Ciò consente a un flash in modalità manuale di scaricare completamente il condensatore fino a quando non è quasi vuoto (quando la carica rimanente può fornire solo una tensione inferiore alla tensione di spegnimento della lampada flash) senza complessi circuiti di controllo; allo stesso tempo, fornisce un ripiego di sicurezza quando si lavora con livelli di potenza controllati dinamicamente (modalità telecomputer o TTL), evitando che un guasto catastrofico del circuito, combinato con diversi kilowatt di potenza costante disponibile, si trasformi in un enorme rischio per la sicurezza. Una efficiente sorgente di luce elettrica puntiforme di 27000W in ingresso, alimentata costantemente, prima danneggerebbe gravemente gli occhi e poi si autodistruggerebbe violentemente (si pensi a un arco di saldatura - pericolosamente luminoso, e fonde il metallo).
55
What are some strategies to maintain morale and productivity after massive layoffs? I am not in a managerial role, just a lead role, and am asking for myself and my fellow employees.
The situation you're describing is tough. Layoffs have a very real impact on both the individuals that are let go and those that remain. I'm sorry you're experiencing this. Here are some things to consider that may help you and your colleagues cope with the added stress and emotions following a layoff: * Acknowledge the layoff and the feelings of your colleagues. Avoiding the topic can extend negative feelings and disenfranchise those most impacted. You should find an opportunity to connect with your colleagues for an honest conversation about your feelings following the layoff. Perhaps reach out to hold a number of 1-on-1 conversations, or gather your team for an off-site lunch and prompt the discussion. * Acknowledge that everyone will be impacted differently. Some of your colleagues will feel totally okay and ready to get back to work. Others will feel anxious and worried in a way that prevents them from performing the same way they did before the layoff. There is no right or "professional" reaction to a layoff. Be open to the feelings and reactions of all of your colleagues equally. * Create practical solutions to new processes and responsibilities. If your team now has a greater workload, be a generator of solutions. Try out ideas for making processes in your team more efficient and predictable. * Create transparency about the state of the business and potential future staff changes. Layoffs are a clear indication of business trouble. Facilitate sharing facts about the state of the business and actively work to eliminate rumors. Additionally, layoffs will likely cause shifts in responsibility as roles are consolidated or reorganized. Make clear who has specific responsibilities both inside and outside of your team. Actively eliminate any sources of uncertainty and anxiety that you can. * Be a role model. Don't participate in gossip or complaining about the layoff. Don't disparage management or other colleagues in casual conversation. Be a model for professionalism and caring. * Maintain work standards and a caring meritocracy. A layoff isn't an excuse for allowing work quality to decline. Additionally, differences in productivity and quality between team members should be consistently and fairly addressed. If a team member is underperforming following the layoff, provide direct feedback and ask what you can do to help.
Welche Strategien gibt es, um die Arbeitsmoral und Produktivität nach Massenentlassungen aufrechtzuerhalten? Ich bin nicht in einer leitenden Funktion, sondern nur in einer Führungsrolle, und ich frage für mich und meine Kollegen.
Die Situation, die Sie beschreiben, ist hart. Entlassungen haben sehr reale Auswirkungen sowohl auf die Betroffenen als auch auf diejenigen, die bleiben. Es tut mir leid, dass Sie diese Erfahrung machen müssen. Im Folgenden finden Sie einige Überlegungen, die Ihnen und Ihren Kollegen helfen können, mit dem zusätzlichen Stress und den Emotionen nach einer Entlassung umzugehen: * Erkennen Sie die Entlassung und die Gefühle Ihrer Kollegen an. Wenn Sie das Thema meiden, können Sie die negativen Gefühle noch verstärken und die am stärksten Betroffenen entmündigen. Sie sollten eine Gelegenheit finden, mit Ihren Kollegen ein ehrliches Gespräch über Ihre Gefühle nach der Entlassung zu führen. Vielleicht können Sie eine Reihe von Einzelgesprächen führen oder Ihr Team zu einem Mittagessen außerhalb des Unternehmens einladen und die Diskussion anregen. * Erkennen Sie an, dass jeder unterschiedlich betroffen sein wird. Einige Ihrer Kollegen werden sich völlig wohl fühlen und bereit sein, wieder an die Arbeit zu gehen. Andere werden sich so ängstlich und besorgt fühlen, dass sie nicht die gleiche Leistung erbringen können wie vor der Entlassung. Es gibt keine richtige oder "professionelle" Reaktion auf eine Entlassung. Seien Sie für die Gefühle und Reaktionen aller Ihrer Kollegen gleichermaßen offen. * Schaffen Sie praktische Lösungen für neue Prozesse und Verantwortlichkeiten. Wenn Ihr Team nun eine größere Arbeitsbelastung hat, sollten Sie Lösungen entwickeln. Probieren Sie Ideen aus, um die Abläufe in Ihrem Team effizienter und berechenbarer zu gestalten. * Schaffen Sie Transparenz über die Lage des Unternehmens und mögliche künftige Personalveränderungen. Entlassungen sind ein klares Anzeichen für geschäftliche Schwierigkeiten. Erleichtern Sie den Austausch von Fakten über den Zustand des Unternehmens und arbeiten Sie aktiv daran, Gerüchte zu beseitigen. Darüber hinaus werden Entlassungen wahrscheinlich zu Verschiebungen in der Verantwortung führen, da Rollen konsolidiert oder neu organisiert werden. Stellen Sie klar, wer innerhalb und außerhalb Ihres Teams bestimmte Verantwortlichkeiten hat. Beseitigen Sie aktiv alle Quellen von Unsicherheit und Ängsten, die Ihnen möglich sind. * Seien Sie ein Vorbild. Beteiligen Sie sich nicht an Klatsch und Tratsch über die Entlassung. Verunglimpfen Sie nicht das Management oder andere Kollegen in lockeren Gesprächen. Seien Sie ein Vorbild für Professionalität und Fürsorge. * Halten Sie die Arbeitsstandards und eine fürsorgliche Leistungsgesellschaft aufrecht. Eine Entlassung ist keine Entschuldigung für eine Verschlechterung der Arbeitsqualität. Außerdem sollten Produktivitäts- und Qualitätsunterschiede zwischen Teammitgliedern konsequent und fair angegangen werden. Wenn ein Teammitglied nach der Entlassung unzureichende Leistungen erbringt, geben Sie ihm direktes Feedback und fragen Sie, was Sie tun können, um zu helfen.
¿Cuáles son algunas estrategias para mantener la moral y la productividad después de despidos masivos? No ocupo un puesto directivo, sólo un puesto de mando, y pregunto por mí y por mis compañeros.
La situación que describes es dura. Los despidos tienen un impacto muy real tanto en las personas despedidas como en las que se quedan. Lamento que estés pasando por esta situación. He aquí algunas cosas a tener en cuenta que pueden ayudarte a ti y a tus compañeros a sobrellevar el estrés y las emociones añadidas tras un despido: * Reconoce el despido y los sentimientos de tus compañeros. Evitar el tema puede extender los sentimientos negativos y privar de derechos a los más afectados. Usted debe encontrar una oportunidad para conectarse con sus colegas para una conversación honesta acerca de sus sentimientos después del despido. Tal vez pueda entablar una serie de conversaciones individuales o reunir a su equipo para un almuerzo fuera de la empresa y propiciar el debate. * Reconozca que cada persona se verá afectada de manera diferente. Algunos de sus colegas se sentirán totalmente bien y listos para volver al trabajo. Otros se sentirán ansiosos y preocupados de una manera que les impedirá rendir de la misma manera que lo hacían antes del despido. No existe una reacción correcta o "profesional" ante un despido. Muéstrate abierto a los sentimientos y reacciones de todos tus compañeros por igual. * Crea soluciones prácticas a los nuevos procesos y responsabilidades. Si tu equipo tiene ahora una mayor carga de trabajo, sé un generador de soluciones. Prueba ideas para que los procesos de tu equipo sean más eficientes y predecibles. * Cree transparencia sobre el estado de la empresa y los posibles cambios de personal en el futuro. Los despidos son un claro indicio de problemas en la empresa. Facilite que se compartan los hechos sobre el estado de la empresa y trabaje activamente para eliminar los rumores. Además, es probable que los despidos provoquen cambios en las responsabilidades a medida que se consolidan o reorganizan las funciones. Deje claro quién tiene responsabilidades específicas, tanto dentro como fuera de su equipo. Elimine activamente todas las fuentes de incertidumbre y ansiedad que pueda. * Sea un modelo a seguir. No participe en cotilleos ni se queje del despido. No menosprecie a la dirección ni a otros compañeros en conversaciones informales. Sea un modelo de profesionalidad y atención. * Mantenga las normas de trabajo y una meritocracia solidaria. Un despido no es excusa para permitir que baje la calidad del trabajo. Además, las diferencias de productividad y calidad entre los miembros del equipo deben tratarse de forma coherente y justa. Si un miembro del equipo rinde por debajo de sus posibilidades tras el despido, comuníquele su opinión directamente y pregúntele qué puede hacer para ayudarle.
Quelles sont les stratégies permettant de maintenir le moral et la productivité après des licenciements massifs ? Je n'occupe pas un poste de direction, mais un poste de responsable, et je m'interroge pour moi-même et pour mes collègues.
La situation que vous décrivez est difficile. Les licenciements ont un impact très réel sur les personnes qui sont licenciées et sur celles qui restent. Je suis désolé que vous viviez cette situation. Voici quelques éléments à prendre en compte pour vous aider, vous et vos collègues, à faire face au stress et aux émotions supplémentaires qui suivent un licenciement : * Reconnaissez le licenciement et les sentiments de vos collègues. Éviter le sujet peut accroître les sentiments négatifs et priver de leurs droits les personnes les plus touchées. Vous devriez trouver une occasion d'entrer en contact avec vos collègues pour avoir une conversation honnête sur vos sentiments à la suite du licenciement. Vous pouvez par exemple organiser plusieurs entretiens individuels ou réunir votre équipe pour un déjeuner en dehors de l'entreprise et lancer la discussion. * Reconnaissez que chacun sera affecté différemment. Certains de vos collègues se sentiront tout à fait bien et prêts à reprendre le travail. D'autres se sentiront anxieux et inquiets, ce qui les empêchera d'être aussi performants qu'avant le licenciement. Il n'y a pas de réaction correcte ou "professionnelle" à un licenciement. Soyez ouvert aux sentiments et aux réactions de tous vos collègues. * Créez des solutions pratiques aux nouveaux processus et aux nouvelles responsabilités. Si votre équipe a désormais une charge de travail plus importante, soyez un générateur de solutions. Essayez des idées pour rendre les processus de votre équipe plus efficaces et plus prévisibles. * Créez la transparence sur l'état de l'entreprise et les changements potentiels de personnel. Les licenciements sont une indication claire des difficultés de l'entreprise. Facilitez le partage des faits sur la situation de l'entreprise et travaillez activement à éliminer les rumeurs. En outre, les licenciements entraîneront probablement des changements de responsabilités, les rôles étant consolidés ou réorganisés. Expliquez clairement qui a des responsabilités spécifiques, tant à l'intérieur qu'à l'extérieur de votre équipe. Éliminez activement toutes les sources d'incertitude et d'anxiété que vous pouvez. * Soyez un modèle. Ne participez pas aux ragots et ne vous plaignez pas du licenciement. Ne dénigrez pas la direction ou d'autres collègues dans des conversations informelles. Soyez un modèle de professionnalisme et d'attention. * Maintenez des normes de travail et une méritocratie bienveillante. Un licenciement n'est pas une excuse pour laisser la qualité du travail se dégrader. En outre, les différences de productivité et de qualité entre les membres de l'équipe doivent être traitées de manière cohérente et équitable. Si un membre de l'équipe est moins performant après le licenciement, donnez-lui un retour d'information direct et demandez-lui ce que vous pouvez faire pour l'aider.
Quali sono le strategie per mantenere il morale e la produttività dopo un licenziamento massiccio? Non ho un ruolo manageriale, ma solo di guida, e chiedo per me e per i miei colleghi.
La situazione che descrive è difficile. I licenziamenti hanno un impatto molto reale sia sulle persone che vengono lasciate andare sia su quelle che rimangono. Mi dispiace che stiate vivendo questa situazione. Ecco alcuni spunti di riflessione che possono aiutare lei e i suoi colleghi a gestire lo stress e le emozioni che seguono un licenziamento: * Riconoscere il licenziamento e i sentimenti dei colleghi. Evitare l'argomento può prolungare i sentimenti negativi e privare di fiducia le persone più colpite. Dovreste trovare l'opportunità di entrare in contatto con i vostri colleghi per una conversazione onesta sui vostri sentimenti dopo il licenziamento. Magari contattate i colleghi per tenere una serie di conversazioni individuali, oppure riunite il vostro team per un pranzo fuori sede e avviate la discussione. * Riconoscete che ognuno sarà colpito in modo diverso. Alcuni colleghi si sentiranno completamente a posto e pronti a tornare al lavoro. Altri si sentiranno ansiosi e preoccupati in un modo che impedirà loro di lavorare come prima del licenziamento. Non esiste una reazione giusta o "professionale" a un licenziamento. Siate aperti ai sentimenti e alle reazioni di tutti i vostri colleghi. * Creare soluzioni pratiche ai nuovi processi e alle nuove responsabilità. Se il vostro team ha un carico di lavoro maggiore, siate generatori di soluzioni. Sperimentate idee per rendere i processi del vostro team più efficienti e prevedibili. * Creare trasparenza sullo stato dell'azienda e sui potenziali cambiamenti futuri del personale. I licenziamenti sono un chiaro segnale di problemi aziendali. Facilitate la condivisione dei fatti sullo stato dell'azienda e lavorate attivamente per eliminare le dicerie. Inoltre, i licenziamenti causeranno probabilmente spostamenti di responsabilità, in quanto i ruoli vengono consolidati o riorganizzati. Chiarite chi ha responsabilità specifiche sia all'interno che all'esterno del vostro team. Eliminate attivamente tutte le fonti di incertezza e di ansia che potete. * Siate un modello di comportamento. Non partecipate ai pettegolezzi o alle lamentele sul licenziamento. Non denigrate la direzione o altri colleghi in conversazioni casuali. Siate un modello di professionalità e attenzione. * Mantenete gli standard lavorativi e una meritocrazia attenta. Un licenziamento non è una scusa per permettere che la qualità del lavoro diminuisca. Inoltre, le differenze di produttività e qualità tra i membri del team devono essere affrontate in modo coerente ed equo. Se un membro del team ha prestazioni insufficienti dopo il licenziamento, fornite un feedback diretto e chiedete cosa potete fare per aiutarlo.
56
Could you please clearly explain what is the difference between correlation and convolution that is done by a filter on an image? I mean in terms of signal processing definition I know that convolution describes the output of an LTI system, that is if an LTI system produces an output due to convolution with an input system then the output signal can be described as the result of convolution of the input signal and the impulse response of the LTI system. As for the correlation, it describes the similarities between to signals. But how does convolution and correlation effect on a image and how different are they in terms of effects? Thanks
Convolution is correlation with the filter rotated 180 degrees. This makes no difference, if the filter is symmetric, like a Gaussian, or a Laplacian. But it makes a whole lot of difference, when the filter is not symmetric, like a derivative. The reason we need convolution is that it is associative, while correlation, in general, is not. To see why this is true, remember that convolution is multiplication in the frequency domain, which is obviously associative. On the other hand, correlation in the frequency domain is multiplication by the complex conjugate, which is not associative. The associativity of convolution is what allows you to "pre-convolve" the filters, so that you only need to convolve the image with a single filter. For example, let's say you have an image $f$, which you need to convolve with $g$ and then with $h$. $f * g * h = f * (g * h)$. That means you can convolve $g$ and $h$ first into a single filter, and then convolve $f$ with it. This is useful, if you need to convolve many images with $g$ and $h$. You can pre-compute $k = g * h$, and then reuse $k$ multple times. So if you are doing template matching, i. e. looking for a single template, correlation is sufficient. But if you need to use multiple filters in succession, and you need to perform this operation on multiple images, it makes sense to convolve the multiple filters into a single filter ahead of time.
Könnten Sie bitte klar erklären, was der Unterschied zwischen Korrelation und Faltung ist, die von einem Filter auf ein Bild angewendet wird? In Bezug auf die Definition der Signalverarbeitung weiß ich, dass die Faltung die Ausgabe eines LTI-Systems beschreibt, d. h. wenn ein LTI-System aufgrund der Faltung mit einem Eingabesystem eine Ausgabe erzeugt, kann das Ausgabesignal als das Ergebnis der Faltung des Eingabesignals und der Impulsantwort des LTI-Systems beschrieben werden. Was die Korrelation betrifft, so beschreibt sie die Ähnlichkeiten zwischen zwei Signalen. Aber wie wirken sich Faltung und Korrelation auf ein Bild aus und wie unterschiedlich sind sie in ihren Auswirkungen? Vielen Dank
Die Faltung ist eine Korrelation, bei der der Filter um 180 Grad gedreht wird. Das macht keinen Unterschied, wenn der Filter symmetrisch ist, wie z. B. ein Gauß- oder Laplacian-Filter. Aber es macht einen großen Unterschied, wenn der Filter nicht symmetrisch ist, wie eine Ableitung. Der Grund, warum wir die Faltung brauchen, ist, dass sie assoziativ ist, während die Korrelation im Allgemeinen nicht assoziativ ist. Um zu verstehen, warum das so ist, muss man sich vergegenwärtigen, dass Faltung eine Multiplikation im Frequenzbereich ist, die natürlich assoziativ ist. Andererseits ist die Korrelation im Frequenzbereich eine Multiplikation mit dem konjugierten Komplex, was nicht assoziativ ist. Die Assoziativität der Faltung ermöglicht es Ihnen, die Filter "vorzufalten", so dass Sie das Bild nur mit einem einzigen Filter falten müssen. Nehmen wir zum Beispiel an, Sie haben ein Bild $f$, das Sie mit $g$ und dann mit $h$ falten müssen. $f * g * h = f * (g * h)$. Das bedeutet, dass man $g$ und $h$ zuerst zu einem einzigen Filter falten kann und dann $f$ damit falten kann. Dies ist nützlich, wenn man viele Bilder mit $g$ und $h$ falten muss. Man kann $k = g * h$ vorberechnen und $k$ dann mehrfach wiederverwenden. Wenn man also einen Vorlagenabgleich durchführt, d. h. nach einer einzigen Vorlage sucht, ist die Korrelation ausreichend. Wenn Sie jedoch mehrere Filter nacheinander verwenden und diese Operation an mehreren Bildern durchführen müssen, ist es sinnvoll, die mehreren Filter im Voraus zu einem einzigen Filter zu falten.
¿Podría explicar claramente cuál es la diferencia entre correlación y convolución que realiza un filtro en una imagen? En términos de definición de procesamiento de señales, sé que la convolución describe la salida de un sistema LTI, es decir, si un sistema LTI produce una salida debido a la convolución con un sistema de entrada, la señal de salida puede describirse como el resultado de la convolución de la señal de entrada y la respuesta al impulso del sistema LTI. En cuanto a la correlación, describe las similitudes entre dos señales. Pero, ¿cómo afectan la convolución y la correlación a una imagen y en qué se diferencian en términos de efectos? Gracias
La convolución es la correlación con el filtro girado 180 grados. Esto no hace ninguna diferencia, si el filtro es simétrico, como un Gaussiano, o un Laplaciano. Pero hace un montón de diferencia, cuando el filtro no es simétrica, como una derivada. La razón por la que necesitamos la convolución es que es asociativa, mientras que la correlación, en general, no lo es. Para ver por qué esto es cierto, recuerda que la convolución es una multiplicación en el dominio de la frecuencia, que es obviamente asociativa. Por otro lado, la correlación en el dominio de la frecuencia es la multiplicación por el conjugado complejo, que no es asociativo. La asociatividad de la convolución es lo que permite "preconvolucionar" los filtros, de modo que sólo sea necesario convolucionar la imagen con un único filtro. Por ejemplo, supongamos que tenemos una imagen $f$, que necesitamos convolucionar con $g$ y luego con $h$. $f * g * h = f * (g * h)$. Esto significa que puedes convolucionar $g$ y $h$ primero en un único filtro, y luego convolucionar $f$ con él. Esto es útil, si necesita convolucionar muchas imágenes con $g$ y $h$. Puede precalcular $k = g * h$, y luego reutilizar $k$ varias veces. Por lo tanto, si lo que se busca es una única plantilla, la correlación es suficiente. Pero si necesita utilizar varios filtros en sucesión, y necesita realizar esta operación en varias imágenes, tiene sentido convolucionar los múltiples filtros en un único filtro por adelantado.
Pourriez-vous expliquer clairement quelle est la différence entre la corrélation et la convolution effectuée par un filtre sur une image ? En termes de définition du traitement des signaux, je sais que la convolution décrit la sortie d'un système LTI, c'est-à-dire que si un système LTI produit une sortie par convolution avec un système d'entrée, le signal de sortie peut être décrit comme le résultat de la convolution du signal d'entrée et de la réponse impulsionnelle du système LTI. Quant à la corrélation, elle décrit les similitudes entre deux signaux. Mais comment la convolution et la corrélation agissent-elles sur une image et en quoi sont-elles différentes en termes d'effets ? Merci de votre compréhension.
La convolution est une corrélation avec le filtre tourné de 180 degrés. Cela ne fait aucune différence si le filtre est symétrique, comme une gaussienne ou un laplacien. Mais cela fait toute la différence lorsque le filtre n'est pas symétrique, comme une dérivée. La raison pour laquelle nous avons besoin de la convolution est qu'elle est associative, alors que la corrélation, en général, ne l'est pas. Pour comprendre pourquoi, il faut se rappeler que la convolution est une multiplication dans le domaine des fréquences, qui est évidemment associative. En revanche, la corrélation dans le domaine des fréquences est une multiplication par le conjugué complexe, ce qui n'est pas associatif. L'associativité de la convolution est ce qui vous permet de "préconvolutionner" les filtres, de sorte que vous ne devez convoluer l'image qu'avec un seul filtre. Par exemple, disons que vous avez une image $f$, que vous devez convoluer avec $g$ et ensuite avec $h$. $f * g * h = f * (g * h)$. Cela signifie que vous pouvez d'abord convoluer $g$ et $h$ en un seul filtre, puis convoluer $f$ avec celui-ci. Ceci est utile si vous devez convoluer de nombreuses images avec $g$ et $h$. Vous pouvez calculer au préalable $k = g * h$, puis réutiliser $k$ plusieurs fois. Ainsi, si vous effectuez une comparaison de modèles, c'est-à-dire si vous recherchez un modèle unique, la corrélation est suffisante. Mais si vous devez utiliser plusieurs filtres à la suite, et que vous devez effectuer cette opération sur plusieurs images, il est logique de convoluer les filtres multiples en un seul filtre à l'avance.
Potreste spiegare chiaramente qual è la differenza tra la correlazione e la convoluzione che viene effettuata da un filtro su un'immagine? In termini di definizione di elaborazione dei segnali, so che la convoluzione descrive l'uscita di un sistema LTI, cioè se un sistema LTI produce un'uscita a causa della convoluzione con un sistema di ingresso, allora il segnale di uscita può essere descritto come il risultato della convoluzione del segnale di ingresso e della risposta all'impulso del sistema LTI. Per quanto riguarda la correlazione, essa descrive le somiglianze tra due segnali. Ma come agiscono la convoluzione e la correlazione su un'immagine e quanto sono diverse in termini di effetti? Grazie
La convoluzione è una correlazione con il filtro ruotato di 180 gradi. Questo non fa differenza se il filtro è simmetrico, come una gaussiana o un laplaciano. Ma fa molta differenza quando il filtro non è simmetrico, come una derivata. Il motivo per cui abbiamo bisogno della convoluzione è che è associativa, mentre la correlazione, in generale, non lo è. Per capire perché questo è vero, ricordate che la convoluzione è una moltiplicazione nel dominio della frequenza, che è ovviamente associativa. D'altra parte, la correlazione nel dominio della frequenza è una moltiplicazione per il complesso coniugato, che non è associativa. L'associatività della convoluzione è ciò che consente di "pre-convolvere" i filtri, in modo da dover convolvere l'immagine con un solo filtro. Per esempio, supponiamo di avere un'immagine $f$, da convolvere con $g$ e poi con $h$. $f * g * h = f * (g * h)$. Ciò significa che è possibile convolvere prima $g$ e $h$ in un unico filtro e poi convolgere $f$ con esso. Questo è utile se si devono convolvere molte immagini con $g$ e $h$. È possibile precalcolare $k = g * h$ e riutilizzare $k$ più volte. Quindi, se si sta eseguendo una corrispondenza tra modelli, cioè se si cerca un singolo modello, la correlazione è sufficiente. Ma se si devono usare più filtri in successione e si deve eseguire questa operazione su più immagini, ha senso convolvere i filtri multipli in un unico filtro prima del tempo.
57
24601 has developed into being an iconic part of both the Les Miserables book and musical. Was that number special to him, or was it simply a random number he chose (I doubt it)?
Yes: it corresponds to the date of Hugo's conception. This is part of a pattern of similarities between the character of Jean Valjean and the author himself: both are of similar age, have similar habits and similarly austere lifestyles, and even share the same dreams. This is according to David Bellos's The Novel of the Century: The Extraordinary Adventure of Les Misérables, which concludes Part Three with: But Hugo put in a secret sign to remind himself and maybe those who knew him well that there were deep links of identity between the dutiful and persistent ex-convict and himself. Hugo was born on 26 February 1802, but because he was a slightly premature baby, he always believed he had been conceived on 24 June 1801. Valjean's prison number on his first incarceration at Toulon is 24601. -- p. 162 (emphasis mine) As a bonus, Valjean's second prisoner number was apparently also chosen for its special significance to Hugo: it refers to the month of his daughter Léopoldine's death. From footnote 46 in Kathryn Grossman's Figuring Transcendence in Les Miserables: Hugo's Romantic Sublime: Gaudon demonstrates that this image, which represents genius in one of the poet's earliest carnets (8 July 1820), is a sign of his &quot;deep identification&quot; with Valjean (Temps 547). As further evidence that the hero is an alter ego, Gohin cites the two numbers assigned to him in prison. The first, 24601, refers to the supposed date of Hugo's conception (24 June 1801), while the second, 9430, alludes to Léopoldine's death in September 1843 (&quot;Une histoire&quot; 47; see also 52). -- p. 165 (emphasis mine)
24601 hat sich zu einem ikonischen Teil des Buchs und des Musicals Les Miserables entwickelt. War diese Zahl etwas Besonderes für ihn, oder hat er sie einfach zufällig gewählt (was ich bezweifle)?
Ja: Es entspricht dem Datum von Hugos Erfindung. Dies ist Teil eines Musters von Ähnlichkeiten zwischen der Figur des Jean Valjean und dem Autor selbst: beide sind in einem ähnlichen Alter, haben ähnliche Gewohnheiten und einen ähnlich strengen Lebensstil und teilen sogar die gleichen Träume. Dies geht aus David Bellos' Der Roman des Jahrhunderts: The Extraordinary Adventure of Les Misérables, das den dritten Teil mit den Worten abschließt: Doch Hugo brachte ein geheimes Zeichen an, um sich selbst und vielleicht auch diejenigen, die ihn gut kannten, daran zu erinnern, dass es zwischen dem pflichtbewussten und hartnäckigen Ex-Sträfling und ihm selbst tiefe Identitätsbeziehungen gab. Hugo wurde am 26. Februar 1802 geboren, aber weil er eine leichte Frühgeburt war, glaubte er immer, er sei am 24. Juni 1801 gezeugt worden. Valjeans Gefängnisnummer bei seiner ersten Inhaftierung in Toulon lautet 24601. -- S. 162 (Hervorhebung von mir) Als Bonus wurde Valjeans zweite Gefangenennummer offenbar auch wegen ihrer besonderen Bedeutung für Hugo gewählt: Sie bezieht sich auf den Todesmonat seiner Tochter Léopoldine. Aus Fußnote 46 in Kathryn Grossmans Figuring Transcendence in Les Miserables: Hugos romantisches Erhabenes: Gaudon zeigt, dass dieses Bild, das in einem der frühesten Carnets des Dichters (8. Juli 1820) das Genie darstellt, ein Zeichen seiner tiefen Identifikation mit Valjean ist (Temps 547). Als weiteren Beweis dafür, dass der Held ein Alter Ego ist, führt Gohin die beiden Nummern an, die ihm im Gefängnis zugewiesen wurden. Die erste, 24601, bezieht sich auf das angebliche Datum von Hugos Empfängnis (24. Juni 1801), während die zweite, 9430, auf den Tod von Léopoldine im September 1843 anspielt (&quot;Une histoire&quot; 47; siehe auch 52). -- S. 165 (Hervorhebung von mir)
El 24601 se ha convertido en un icono tanto del libro como del musical de Los Miserables. Era un número especial para él o simplemente lo eligió al azar (lo dudo)?
Sí: corresponde a la fecha de la concepción de Hugo. Esto forma parte de un patrón de similitudes entre el personaje de Jean Valjean y el propio autor: ambos tienen una edad parecida, hábitos similares y estilos de vida igualmente austeros, e incluso comparten los mismos sueños. Así lo afirma David Bellos en La novela del siglo: The Extraordinary Adventure of Les Misérables, de David Bellos, que concluye la tercera parte con: Pero Hugo puso una señal secreta para recordarse a sí mismo y tal vez a quienes le conocían bien que existían profundos lazos de identidad entre el ex convicto obediente y persistente y él mismo. Hugo nació el 26 de febrero de 1802, pero como era un bebé ligeramente prematuro, siempre creyó que había sido concebido el 24 de junio de 1801. El número de prisión de Valjean en su primer encarcelamiento en Tolón es el 24601. -- p. 162 (el subrayado es mío) Por si fuera poco, el segundo número de Valjean también fue elegido, al parecer, por su significado especial para Hugo: se refiere al mes de la muerte de su hija Léopoldine. De la nota 46 de Figuring Transcendence in Les Miserables, de Kathryn Grossman: Hugo's Romantic Sublime: Gaudon demuestra que esta imagen, que representa al genio en uno de los primeros carnets del poeta (8 de julio de 1820), es un signo de su &quot;profunda identificación&quot; con Valjean (Temps 547). Como prueba adicional de que el héroe es un alter ego, Gohin cita los dos números que le asignaron en la cárcel. El primero, 24601, se refiere a la supuesta fecha de concepción de Hugo (24 de junio de 1801), mientras que el segundo, 9430, alude a la muerte de Léopoldine en septiembre de 1843 (&quot;Une histoire&quot; 47; véase también 52). -- p. 165 (el subrayado es mío)
24601 est devenu un élément emblématique du livre et de la comédie musicale Les Misérables. Ce numéro était-il spécial pour lui, ou était-ce simplement un numéro choisi au hasard (j'en doute) ?
Oui : elle correspond à la date de conception de Hugo. Cela fait partie d'un ensemble de similitudes entre le personnage de Jean Valjean et l'auteur lui-même : tous deux ont le même âge, les mêmes habitudes et le même style de vie austère, et partagent même les mêmes rêves. C'est ce que révèle David Bellos dans son ouvrage The Novel of the Century : L'extraordinaire aventure des Misérables, de David Bellos, qui conclut la troisième partie par : Mais Hugo a mis un signe secret pour se rappeler à lui-même et peut-être à ceux qui le connaissaient bien qu'il y avait des liens d'identité profonds entre l'ex-bagnard consciencieux et persévérant et lui-même. Hugo est né le 26 février 1802, mais comme il était légèrement prématuré, il a toujours cru qu'il avait été conçu le 24 juin 1801. Le numéro de prison de Valjean lors de sa première incarcération à Toulon est le 24601. -- p. 162 (c'est moi qui souligne) En prime, le deuxième numéro de prisonnier de Valjean a apparemment été choisi pour sa signification particulière pour Hugo : il se réfère au mois de la mort de sa fille Léopoldine. Extrait de la note de bas de page 46 de l'ouvrage de Kathryn Grossman, Figuring Transcendence in Les Miserables : Hugo's Romantic Sublime : Gaudon démontre que cette image, qui représente le génie dans l'un des premiers carnets du poète (8 juillet 1820), est un signe de sa &quot;profonde identification&quot ; avec Valjean (Temps 547). Comme preuve supplémentaire que le héros est un alter ego, Gohin cite les deux numéros qui lui ont été attribués en prison. Le premier, 24601, renvoie à la date supposée de la conception de Hugo (24 juin 1801), tandis que le second, 9430, fait allusion à la mort de Léopoldine en septembre 1843 (&quot;Une histoire&quot ; 47 ; voir aussi 52). -- p. 165 (souligné par moi)
Il 24601 è diventato una parte iconica del libro e del musical Les Miserables. Quel numero era speciale per lui o era semplicemente un numero scelto a caso (ne dubito)?
Sì: corrisponde alla data di concezione di Hugo. Questo fa parte di uno schema di somiglianze tra il personaggio di Jean Valjean e l'autore stesso: entrambi sono di età simile, hanno abitudini simili e stili di vita altrettanto austeri, e condividono persino gli stessi sogni. Questo secondo David Bellos in The Novel of the Century: The Extraordinary Adventure of Les Misérables, che conclude la terza parte con: Ma Hugo appose un segno segreto per ricordare a se stesso e forse a chi lo conosceva bene che esistevano profondi legami di identità tra l'ex galeotto doveroso e tenace e se stesso. Hugo nacque il 26 febbraio 1802, ma poiché era un bambino leggermente prematuro, ha sempre creduto di essere stato concepito il 24 giugno 1801. Il numero di matricola di Valjean alla sua prima incarcerazione a Tolone è 24601. -- p. 162 (corsivo mio) A quanto pare, il secondo numero di prigione di Valjean è stato scelto anche per il suo particolare significato per Hugo: si riferisce al mese della morte di sua figlia Léopoldine. Dalla nota 46 di Figuring Transcendence in Les Miserables di Kathryn Grossman: Il sublime romantico di Hugo: Gaudon dimostra che questa immagine, che rappresenta il genio in uno dei primi carnets del poeta (8 luglio 1820), è un segno della sua &quot;profonda identificazione&quot; con Valjean (Temps 547). Come ulteriore prova che l'eroe è un alter ego, Gohin cita i due numeri che gli sono stati assegnati in prigione. Il primo, 24601, si riferisce alla data presunta del concepimento di Hugo (24 giugno 1801), mentre il secondo, 9430, allude alla morte di Léopoldine nel settembre 1843 (&quot;Une histoire&quot; 47; vedi anche 52). -- p. 165 (corsivo mio)
58
Why does Michael Crichton use US Customary measurements in hard sci-fi?
Crichton used both imperial and metric, depending on the context. In the course of one paragraph in The Sphere, he managed to use both! > "Pacific coral grows two-and-a-half centimeters a year, and the object-- whatever it is-- is covered in about five meters of coral. That's a lot of coral. Of course, coral doesn't grow at a depth of a thousand feet, which means that the present shelf collapsed to a lower depth at some point in the past." When the character (Barnes, a Navy captain) is talking about precise measurements, he uses metric. When he's being more general, he uses imperial. The main character Norman (a psychologist, not exactly the most mathematically intensive field) uses imperial when thinking to himself. > He climbed up through the submarine and into a round steel cylinder approximately eight feet in diameter. But later, when the astrophysicist Ted is giving officialish measurements the titular sphere, he uses metric: > "This object is a burnished sphere approximately ten meters in a diameter, no solid, and composed of a dense metal alloy." So the short answer is that Crichton is an American writing American characters for a predominantly American audience. He uses imperial units for clarity, but metric when it would realistically be used.
Warum verwendet Michael Crichton in Hard-Science-Fiction das US-Brauchsmaß?
Crichton verwendete je nach Kontext sowohl imperiale als auch metrische Maße. In "The Sphere" hat er in einem einzigen Absatz beides verwendet! > "Pazifische Korallen wachsen zweieinhalb Zentimeter pro Jahr, und das Objekt - was auch immer es ist - ist mit etwa fünf Metern Korallen bedeckt. Das ist eine Menge Korallen. Natürlich wachsen Korallen nicht in einer Tiefe von tausend Fuß, was bedeutet, dass der heutige Schelf irgendwann in der Vergangenheit auf eine geringere Tiefe zusammengebrochen ist." Wenn die Figur (Barnes, ein Marinekapitän) über präzise Messungen spricht, verwendet er metrische Maße. Wenn er sich allgemeiner ausdrückt, verwendet er das imperiale System. Die Hauptfigur Norman (ein Psychologe, nicht gerade das mathematisch intensivste Fachgebiet) verwendet imperiale Maße, wenn er an sich selbst denkt. > Er kletterte durch das U-Boot und in einen runden Stahlzylinder mit einem Durchmesser von etwa drei Metern. Aber später, als der Astrophysiker Ted die titelgebende Kugel offiziell vermisst, verwendet er das metrische System: > "Dieses Objekt ist eine brünierte Kugel mit einem Durchmesser von etwa zehn Metern, die nicht fest ist und aus einer dichten Metalllegierung besteht." Die kurze Antwort lautet also, dass Crichton ein Amerikaner ist, der amerikanische Charaktere für ein überwiegend amerikanisches Publikum schreibt. Er verwendet zur Verdeutlichung imperiale Einheiten, aber metrische, wenn sie realistischerweise verwendet werden.
¿Por qué Michael Crichton utiliza medidas US Customary en la ciencia ficción dura?
Crichton utilizaba tanto el sistema imperial como el métrico, dependiendo del contexto. En el transcurso de un párrafo de La Esfera, se las arregló para utilizar ambos sistemas. > "El coral del Pacífico crece dos centímetros y medio al año, y el objeto -sea lo que sea- está cubierto de unos cinco metros de coral. Eso es mucho coral. Por supuesto, el coral no crece a mil metros de profundidad, lo que significa que la plataforma actual colapsó a una profundidad menor en algún momento del pasado." Cuando el personaje (Barnes, un capitán de la Marina) habla de medidas precisas, utiliza el sistema métrico. Cuando habla en términos más generales, utiliza el sistema imperial. El protagonista, Norman (psicólogo, un campo que no es precisamente el más intensivo en matemáticas), utiliza el sistema imperial cuando piensa para sí mismo. > Subió por el submarino hasta un cilindro redondo de acero de unos dos metros de diámetro. Pero más tarde, cuando el astrofísico Ted está dando medidas oficiales de la esfera titular, utiliza el sistema métrico: > "Este objeto es una esfera bruñida de aproximadamente diez metros de diámetro, no sólida, y compuesta de una densa aleación metálica". Así que la respuesta corta es que Crichton es un estadounidense que escribe personajes estadounidenses para un público predominantemente estadounidense. Utiliza unidades imperiales para mayor claridad, pero métricas cuando sería realista utilizarlas.
Pourquoi Michael Crichton utilise-t-il les mesures en US Customary dans la hard science-fiction ?
Crichton utilisait à la fois le système impérial et le système métrique, selon le contexte. Dans un paragraphe de La sphère, il a réussi à utiliser les deux ! > Le corail du Pacifique pousse de deux centimètres et demi par an, et l'objet - quel qu'il soit - est recouvert d'environ cinq mètres de corail. C'est beaucoup de corail. Bien sûr, le corail ne pousse pas à une profondeur de mille pieds, ce qui signifie que le plateau actuel s'est effondré à une profondeur inférieure à un moment donné dans le passé." Lorsque le personnage (Barnes, un capitaine de la marine) parle de mesures précises, il utilise le système métrique. Lorsqu'il s'agit de mesures plus générales, il utilise le système impérial. Le personnage principal, Norman (un psychologue, qui n'est pas exactement le domaine le plus mathématique), utilise le système impérial lorsqu'il pense à lui-même. > Il a grimpé à travers le sous-marin et a pénétré dans un cylindre d'acier rond d'environ deux mètres de diamètre. Mais plus tard, lorsque l'astrophysicien Ted donne des mesures officielles de la sphère en question, il utilise le système métrique : > "Cet objet est une sphère brunie d'environ dix mètres de diamètre, non solide, et composée d'un alliage métallique dense." En résumé, Crichton est un Américain qui écrit des personnages américains pour un public majoritairement américain. Il utilise les unités impériales par souci de clarté, mais les unités métriques lorsqu'elles sont utilisées de manière réaliste.
Perché Michael Crichton usa le misure doganali statunitensi nella fantascienza hard?
Crichton usava sia il sistema imperiale che quello metrico, a seconda del contesto. Nel corso di un paragrafo de La sfera, è riuscito a usarli entrambi! > "Il corallo del Pacifico cresce di due centimetri e mezzo all'anno, e l'oggetto, qualunque cosa sia, è coperto da circa cinque metri di corallo. È un sacco di corallo. Naturalmente, il corallo non cresce a una profondità di mille piedi, il che significa che l'attuale piattaforma è collassata a una profondità inferiore in qualche momento del passato". Quando il personaggio (Barnes, un capitano della Marina) parla di misure precise, usa il sistema metrico. Quando è più generico, usa il sistema imperiale. Il protagonista Norman (uno psicologo, non esattamente il campo più matematico) usa l'imperiale quando pensa a se stesso. > Si arrampicò attraverso il sottomarino ed entrò in un cilindro d'acciaio rotondo di circa due metri di diametro. Ma in seguito, quando l'astrofisico Ted sta effettuando le misurazioni ufficiali della sfera titolare, usa il sistema metrico: > "Questo oggetto è una sfera brunita di circa dieci metri di diametro, non solida e composta da una densa lega metallica". Quindi la risposta breve è che Crichton è un americano che scrive personaggi americani per un pubblico prevalentemente americano. Usa le unità di misura imperiali per chiarezza, ma quelle metriche quando è realistico usarle.
59
How can horns, most of which have only three buttons, play all their notes?
Put as simply as possible, horns are tubes. Blowing in special ways makes certain notes sound from those tubes. By changing one's embouchure, those notes start at a fundamental, then gradually go up in harmonics. The first notes (in key C) would be C, G, C, E, G.Those notes are the ones we hear when a bugle is played - Reveille, Last Post, etc. Bugles only play the harmonic series of notes, and can't play the ones in between. Read on. On a trumpet, for starters, there are three valves. One drops any open note played by one semitone, another by two semitones, and the other by three semitones. So using a combination of valves, you can lower any open note by up to six semitones. Let's take the first G note. To get F♯, press the semitone valve. To get F, press the tone valve. To get E, press two valves to drop a tone and a half. (there's one valve alone that can do this). To play E♭, press the two valves that drop two tones. To get D, press the two valves to drop two and a half tones. And to get C♯, press all three. That's the more complicated bit, as between the open notes, there's more semitones than anywhere else further up in pitch. Notice that between G and the next C, there are only two tones. So at this point, not so many notes are needed, so the valve pressing is more simple. Next, between that C and the E, there's even fewer, so again, not so many valve changes are needed. Now, onto trombone. There are actually valve trombones, which work the same as trumpets, etc., but for the standard trombone, imagine those extra lengths of tube brought into play by pressing valves are now a single continuum of tubing, operated by the slide. At various places along that slide, there are all the notes found similarly to pressing valves. There's also loads of extra notes that are going to be out of tune!
Wie können Hörner, die meist nur drei Tasten haben, alle ihre Töne spielen?
So einfach wie möglich ausgedrückt: Hörner sind Röhren. Wenn man auf bestimmte Weise bläst, erklingen bestimmte Töne aus diesen Röhren. Wenn man den Ansatz verändert, beginnen diese Töne mit einem Grundton und steigen dann allmählich in Obertönen an. Die ersten Töne (in der Tonart C) wären C, G, C, E, G. Das sind die Töne, die wir hören, wenn ein Signalhorn gespielt wird - Reveille, Last Post usw. Signalhörner spielen nur die harmonische Reihe von Noten und können die dazwischen liegenden Noten nicht spielen. Lies weiter. Auf einer Trompete gibt es zunächst einmal drei Ventile. Ein Ventil senkt jede gespielte offene Note um einen Halbton, ein anderes um zwei Halbtöne und das dritte um drei Halbtöne. Mit einer Kombination von Ventilen können Sie also jede offene Note um bis zu sechs Halbtöne absenken. Nehmen wir die erste G-Note. Um F♯ zu erhalten, drücken Sie das Halbtonventil. Um F zu erhalten, drücken Sie das Tonventil. Um E zu erhalten, drücken Sie zwei Ventile, um einen Halbton zu senken. (es gibt nur ein Ventil, das dies kann). Um E♭ zu spielen, drücken Sie die beiden Ventile, die zwei Töne abfallen. Um D zu bekommen, drücke die beiden Ventile, die zweieinhalb Töne abfallen. Und für C♯ drückst du alle drei. Das ist der kompliziertere Teil, denn zwischen den offenen Tönen gibt es mehr Halbtöne als irgendwo sonst weiter oben in der Tonhöhe. Beachten Sie, dass zwischen dem G und dem nächsten C nur zwei Töne liegen. An dieser Stelle werden also nicht so viele Töne benötigt, so dass das Drücken der Ventile einfacher ist. Zwischen dem C und dem E gibt es sogar noch weniger Töne, so dass auch hier nicht so viele Ventilwechsel erforderlich sind. Nun zur Posaune. Es gibt tatsächlich Ventilposaunen, die genauso funktionieren wie Trompeten usw., aber bei der Standardposaune muss man sich vorstellen, dass die zusätzlichen Rohrlängen, die durch das Drücken der Ventile ins Spiel gebracht werden, nun ein einziges Rohr sind, das durch den Zug bedient wird. An verschiedenen Stellen dieses Zuges befinden sich alle Töne, die man auch beim Drücken der Ventile findet. Außerdem gibt es eine Menge zusätzlicher Töne, die verstimmt werden!
¿Cómo pueden las trompas, la mayoría de las cuales sólo tienen tres botones, tocar todas sus notas?
Dicho de la forma más sencilla posible, las trompas son tubos. Soplar de formas especiales hace que suenen determinadas notas de esos tubos. Al cambiar la embocadura, esas notas empiezan con una fundamental y van subiendo gradualmente en armónicos. Las primeras notas (en clave de Do) serían Do, Sol, Do, Mi, Sol. Esas notas son las que oímos cuando se toca una corneta: diana, último poste, etc. Las cornetas sólo tocan la serie armónica de notas, y no pueden tocar las notas intermedias. Sigue leyendo. En una trompeta, para empezar, hay tres válvulas. Una baja un semitono cualquier nota abierta que se toque, otra dos semitonos y la otra tres semitonos. Así que utilizando una combinación de válvulas, puedes bajar cualquier nota abierta hasta seis semitonos. Tomemos la primera nota Sol. Para obtener Fa, pulsa la válvula de semitonos. Para obtener Fa, presiona la válvula de tono. Para obtener Mi, presiona dos válvulas para bajar un tono y medio. (hay una válvula sola que puede hacer esto). Para tocar Mi♭, pulsa las dos válvulas que bajan dos tonos. Para conseguir Re, pulsa las dos válvulas que bajan dos tonos y medio. Y para conseguir Do♭, pulsa las tres. Esta es la parte más complicada, ya que entre las notas abiertas hay más semitonos que en cualquier otro lugar más arriba en el tono. Fíjate que entre Sol y el siguiente Do, sólo hay dos tonos. En este punto, no se necesitan tantas notas, por lo que la presión de la válvula es más sencilla. Luego, entre ese Do y el Mi, hay aún menos, así que de nuevo, no se necesitan tantos cambios de válvula. Ahora, el trombón. Existen trombones de válvulas, que funcionan igual que las trompetas, etc., pero para el trombón estándar, imagina que esas longitudes extra de tubo que entran en juego al presionar las válvulas son ahora un único continuo de tubo, accionado por la corredera. En varios lugares a lo largo de esa corredera, están todas las notas que se encuentran de forma similar a las válvulas de presión. También hay un montón de notas extra que van a desafinar.
Comment les cors, dont la plupart n'ont que trois boutons, peuvent-ils jouer toutes leurs notes ?
Pour simplifier au maximum, les cors sont des tubes. En soufflant d'une manière particulière, on fait retentir certaines notes de ces tubes. En changeant d'embouchure, ces notes partent d'une fondamentale, puis montent progressivement en harmoniques. Les premières notes (dans la tonalité de do) seraient do, sol, do, mi, sol. Ces notes sont celles que l'on entend lorsqu'un clairon est joué - Réveil, Sonnerie aux morts, etc. Les clairons ne jouent que la série de notes harmoniques et ne peuvent pas jouer les notes intermédiaires. Lire la suite. Sur une trompette, pour commencer, il y a trois pistons. L'une d'entre elles abaisse toute note ouverte jouée d'un demi-ton, l'autre de deux demi-tons et la dernière de trois demi-tons. Ainsi, en utilisant une combinaison de pistons, vous pouvez abaisser n'importe quelle note à vide de six demi-tons. Prenons la première note sol. Pour obtenir le fa♯, appuyez sur la soupape de demi-ton. Pour obtenir le fa, appuyez sur la soupape de tonalité. Pour obtenir le mi, il faut appuyer sur deux soupapes pour descendre d'un ton et demi. (il n'y a qu'une seule soupape qui peut faire cela). Pour jouer le mi♭, appuyez sur les deux soupapes qui baissent de deux tons. Pour obtenir le ré, appuyez sur les deux soupapes qui baissent de deux tons et demi. Et pour obtenir C♯, appuyez sur les trois. C'est la partie la plus compliquée, car entre les notes ouvertes, il y a plus de demi-tons que partout ailleurs plus haut dans la tonalité. Remarquez qu'entre le sol et le do suivant, il n'y a que deux tons. À ce stade, il n'y a donc pas besoin d'autant de notes, et la pression sur les soupapes est donc plus simple. Ensuite, entre le do et le mi, il y a encore moins de notes, donc là encore, il n'y a pas besoin d'autant de changements de soupapes. Passons maintenant au trombone. Il existe des trombones à pistons, qui fonctionnent de la même manière que les trompettes, etc., mais pour le trombone standard, imaginez que les longueurs de tube supplémentaires obtenues en pressant les pistons ne forment plus qu'un seul continuum de tube, actionné par la coulisse. À différents endroits de cette coulisse, on trouve toutes les notes que l'on trouve en appuyant sur les pistons. Il y a aussi des tas de notes supplémentaires qui seront désaccordées !
Come possono i corni, la maggior parte dei quali ha solo tre tasti, suonare tutte le note?
Nel modo più semplice possibile, le trombe sono tubi. Soffiando in modi particolari, si ottengono determinate note da questi tubi. Cambiando l'imboccatura, queste note partono da una fondamentale, per poi salire gradualmente di armonici. Le prime note (in chiave di Do) sarebbero Do, Sol, Do, Mi, Sol. Queste note sono quelle che sentiamo quando viene suonata una tromba - Reveille, Last Post, ecc. Le trombe suonano solo la serie armonica di note e non possono suonare quelle intermedie. Continua a leggere. In una tromba, per cominciare, ci sono tre valvole. Una abbassa qualsiasi nota aperta suonata di un semitono, un'altra di due semitoni e l'altra di tre semitoni. Quindi, utilizzando una combinazione di valvole, è possibile abbassare qualsiasi nota aperta fino a sei semitoni. Prendiamo la prima nota G. Per ottenere F♯, premere la valvola del semitono. Per ottenere il Fa, premere la valvola del tono. Per ottenere il Mi, premere due valvole per scendere di un tono e mezzo. (c'è una sola valvola che può farlo). Per suonare il Mi♭, premere le due valvole che scendono di due toni. Per ottenere D, premere le due valvole che fanno cadere due toni e mezzo. E per ottenere C♯, premere tutte e tre. Questa è la parte più complicata, poiché tra le note aperte ci sono più semitoni che in qualsiasi altro punto più alto. Notate che tra il Sol e il Do successivo ci sono solo due toni. A questo punto non sono necessarie tante note, quindi la pressione delle valvole è più semplice. Poi, tra il Do e il Mi ci sono ancora meno note, quindi anche in questo caso non sono necessari molti cambi di valvola. Passiamo ora al trombone. Esistono tromboni a valvole, che funzionano come le trombe e così via, ma per il trombone standard, immaginate che le lunghezze di tubo in più che entrano in gioco premendo le valvole siano ora un unico continuum di tubi, azionato dalla slitta. In vari punti di questo scivolo si trovano tutte le note che si trovano in modo analogo alla pressione delle valvole. Ci sono anche un sacco di note in più che saranno stonate!
60
I am a big fan of worldbuilding. A common sight in science fiction is that aliens pretend to be human (For example in Third Rock from the Sun). Obviously if the aliens are advanced enough to disguise themselves as another species, there are much easier, simpler and less expensive methods to destroy humanity, so why else would an advanced alien civilization waste time, energy and resources to disguise themselves as humans? What possible scientific, cultural or commercial use could such an expensive procedure have?
Aliens are alien, without a common background their motives may be incomprehensible. If we assume that these aliens are Hollywood aliens (ie humans with odd-looking rubber bits stuck on their faces) then there are all of the reasons that humans from one culture spend time in another culture and try and learn to fit in: * Anthropology; studying how a different culture has developed to better understand the developmental processes that influenced your own. Iain M. Banks wrote Inversions (two anthropologists from the Culture investigating a Renaissance-era world) and The State of the Art (a Culture Contact team on Earth ca 1970) in this vein. * Tourism; experiencing a culture that is vastly different from your previous experiences. * Reality TV; Bear Grylls. * Method Acting; preparing for a role in their own entertainment channels that involves playing the part of a member of an Information Age society. * Challenge; because they can. * Hermitage; there are people here on Earth who prefer to step away from the rat race and all the newfangled gadgets and live as their ancestors did, but usually not all the way back to stone tools. Selecting a developing world and fitting in gives them access to a level of technology between their home culture and being trapped on a desert island. * Camouflage; they are being sought by members of their home culture and it's easier to hide and survive amongst us than in their own milieu. There are a lot of examples of this in fiction already: For Richer or Poorer, Men in Black II and it's analogous to fleeing the law and retiring to a country without an extradition treaty. * Crash Landing, or a failure that prevents them from going home; if they came on an FTL ship that doesn't have FTL communications they may be waiting a long time for spare parts or updated navigational maps, or if they brought Gilligan who proceeded to ruin all of their plans to return home, or they may have arrived on a slower-than-light colony ship and would prefer to stay here and fit in amongst us rather than try and find another prospective colony. * Uplift; meddling to steer us onto the "right" path of development and prevent us from immolating ourselves (or vice versa if your species doesn't like the competition).
Ich bin ein großer Fan von Worldbuilding. In der Science-Fiction kommt es häufig vor, dass sich Außerirdische als Menschen ausgeben (z. B. in Third Rock from the Sun). Wenn die Außerirdischen fortschrittlich genug sind, um sich als eine andere Spezies zu tarnen, gibt es natürlich viel leichtere, einfachere und kostengünstigere Methoden, um die Menschheit zu vernichten, warum also sollte eine fortgeschrittene außerirdische Zivilisation Zeit, Energie und Ressourcen verschwenden, um sich als Menschen zu tarnen? Welchen möglichen wissenschaftlichen, kulturellen oder kommerziellen Nutzen könnte ein solch teures Verfahren haben?
Außerirdische sind fremd, und ohne einen gemeinsamen Hintergrund sind ihre Motive vielleicht unverständlich. Wenn wir davon ausgehen, dass es sich bei diesen Außerirdischen um Hollywood-Aliens handelt (d. h. Menschen mit seltsam aussehenden Gummiteilen im Gesicht), dann gibt es alle Gründe, warum Menschen aus einer Kultur Zeit in einer anderen Kultur verbringen und versuchen, sich anzupassen: * Anthropologie: Studieren, wie sich eine andere Kultur entwickelt hat, um die Entwicklungsprozesse, die die eigene beeinflusst haben, besser zu verstehen. Iain M. Banks schrieb Inversions (zwei Anthropologen aus der Kultur erforschen eine Welt der Renaissance) und The State of the Art (ein Kulturkontaktteam auf der Erde um 1970) in diesem Sinne. * Tourismus; das Erleben einer Kultur, die sich stark von den bisherigen Erfahrungen unterscheidet. * Reality-TV; Bear Grylls. * Method Acting; Vorbereitung auf eine Rolle in ihren eigenen Unterhaltungskanälen, bei der es darum geht, die Rolle eines Mitglieds einer Gesellschaft des Informationszeitalters zu spielen. * Herausforderung; weil sie es können. * Es gibt Menschen auf der Erde, die es vorziehen, sich von der Rattenjagd und all den neumodischen Geräten zurückzuziehen und so zu leben, wie es ihre Vorfahren taten, aber normalerweise nicht bis zu den Steinwerkzeugen zurück. Wenn sie sich eine Entwicklungswelt aussuchen und sich dort einfügen, haben sie Zugang zu einem Stand der Technik, der zwischen ihrer Heimatkultur und dem Leben auf einer einsamen Insel liegt. * Tarnung: Sie werden von Mitgliedern ihrer Heimatkultur gesucht, und es ist einfacher, sich bei uns zu verstecken und zu überleben als in ihrem eigenen Milieu. Dafür gibt es in der Belletristik bereits viele Beispiele: For Richer or Poorer, Men in Black II, und es ist vergleichbar mit der Flucht vor dem Gesetz und dem Rückzug in ein Land ohne Auslieferungsabkommen. * Wenn sie mit einem FTL-Schiff gekommen sind, das nicht über FTL-Kommunikation verfügt, müssen sie vielleicht lange auf Ersatzteile oder aktualisierte Navigationskarten warten, oder sie haben Gilligan mitgebracht, die alle ihre Pläne für die Rückkehr nach Hause zunichte gemacht hat, oder sie sind mit einem Kolonieschiff angekommen, das langsamer als das Licht ist, und ziehen es vor, hier zu bleiben und sich unter uns einzugliedern, anstatt eine andere potenzielle Kolonie zu suchen. * Uplift; Einmischung, um uns auf den "richtigen" Entwicklungspfad zu lenken und zu verhindern, dass wir uns selbst veröden (oder umgekehrt, wenn Ihre Spezies die Konkurrenz nicht mag).
Soy un gran fan de la construcción del mundo. Algo habitual en la ciencia ficción es que los alienígenas se hagan pasar por humanos (por ejemplo, en La tercera roca del sol). Obviamente, si los alienígenas son lo bastante avanzados como para disfrazarse de otra especie, hay métodos mucho más fáciles, sencillos y baratos para destruir a la humanidad, así que ¿por qué si no iba una civilización alienígena avanzada a perder tiempo, energía y recursos en disfrazarse de humanos? ¿Qué posible utilidad científica, cultural o comercial podría tener un procedimiento tan caro?
Los extraterrestres son alienígenas y, sin un trasfondo común, sus motivos pueden resultar incomprensibles. Si suponemos que se trata de alienígenas de Hollywood (es decir, humanos con extraños trozos de goma pegados a la cara), existen todas las razones por las que los humanos de una cultura pasan un tiempo en otra e intentan aprender a encajar: * Antropología: estudiar cómo se ha desarrollado una cultura diferente para comprender mejor los procesos de desarrollo que influyeron en la propia. Iain M. Banks escribió Inversions (dos antropólogos de la Cultura investigan un mundo de la época del Renacimiento) y The State of the Art (un equipo de Contacto con la Cultura en la Tierra hacia 1970) en esta línea. * Turismo: experimentar una cultura muy diferente a la propia. * Reality TV: Bear Grylls. * Method Acting; prepararse para un papel en sus propios canales de entretenimiento que implique interpretar el papel de un miembro de una sociedad de la Era de la Información. * Desafío; porque pueden. * Ermita: aquí en la Tierra hay gente que prefiere alejarse de la carrera de ratas y de todos los artilugios modernos y vivir como lo hacían sus antepasados, pero normalmente no hasta las herramientas de piedra. Elegir un mundo en desarrollo y adaptarse a él les da acceso a un nivel tecnológico intermedio entre su cultura de origen y estar atrapados en una isla desierta. * Camuflaje: son buscados por miembros de su cultura de origen y es más fácil esconderse y sobrevivir entre nosotros que en su propio entorno. Ya hay muchos ejemplos de esto en la ficción: For Richer or Poorer, Men in Black II y es análogo a huir de la ley y retirarse a un país sin tratado de extradición. * Aterrizaje forzoso, o un fallo que les impide volver a casa; si vinieron en una nave FTL que no tiene comunicaciones FTL pueden estar esperando mucho tiempo por piezas de repuesto o mapas de navegación actualizados, o si trajeron a Gilligan que procedió a arruinar todos sus planes para volver a casa, o pueden haber llegado en una nave colonia más lenta que la luz y preferirían quedarse aquí y encajar entre nosotros en lugar de tratar de encontrar otra colonia prospectiva. * Elevación: intromisión para guiarnos por el camino "correcto" de desarrollo y evitar que nos inmolemos (o viceversa, si a tu especie no le gusta la competencia).
Je suis un grand fan de la construction du monde. Dans la science-fiction, il est fréquent que des extraterrestres se fassent passer pour des humains (par exemple dans Third Rock from the Sun). Il est évident que si les extraterrestres sont assez avancés pour se déguiser en une autre espèce, il existe des méthodes beaucoup plus faciles, plus simples et moins coûteuses pour détruire l'humanité, alors pourquoi une civilisation extraterrestre avancée perdrait-elle du temps, de l'énergie et des ressources à se déguiser en humains ? Quelle utilité scientifique, culturelle ou commerciale pourrait avoir une procédure aussi coûteuse ?
Les extraterrestres sont des extraterrestres, et sans contexte commun, leurs motivations peuvent être incompréhensibles. Si nous supposons que ces extraterrestres sont des extraterrestres hollywoodiens (c'est-à-dire des humains avec des bouts de caoutchouc bizarres collés sur leur visage), alors il y a toutes les raisons pour lesquelles les humains d'une culture passent du temps dans une autre culture et essaient d'apprendre à s'y intégrer : * Anthropologie : étudier comment une culture différente s'est développée pour mieux comprendre les processus de développement qui ont influencé la sienne. Iain M. Banks a écrit Inversions (deux anthropologues de la Culture enquêtant sur un monde de l'époque de la Renaissance) et The State of the Art (une équipe de contact de la Culture sur Terre vers 1970) dans cette veine. * Le tourisme : faire l'expérience d'une culture très différente de celle que l'on a connue jusqu'à présent. * La télé-réalité : Bear Grylls. * La méthode de l'acteur ; se préparer à un rôle dans leurs propres chaînes de divertissement qui implique de jouer le rôle d'un membre d'une société de l'ère de l'information. * Défi : parce qu'ils le peuvent. * L'ermitage : il y a des gens sur terre qui préfèrent s'éloigner de la course aux rats et de tous les nouveaux gadgets et vivre comme leurs ancêtres, mais généralement pas en remontant jusqu'aux outils de pierre. En choisissant un pays en voie de développement et en s'y intégrant, ils ont accès à un niveau de technologie qui se situe entre leur culture d'origine et le fait d'être piégé sur une île déserte. * Camouflage : ils sont recherchés par les membres de leur culture d'origine et il est plus facile de se cacher et de survivre parmi nous que dans leur propre milieu. Il existe déjà de nombreux exemples de ce type dans la fiction : Pour être riche ou pauvre, Men in Black II et c'est analogue à fuir la loi et à se retirer dans un pays qui n'a pas de traité d'extradition. * S'ils sont arrivés à bord d'un vaisseau FTL qui n'a pas de communications FTL, ils peuvent attendre longtemps des pièces de rechange ou des cartes de navigation mises à jour, ou s'ils ont amené Gilligan qui a ruiné tous leurs plans de retour, ou ils peuvent être arrivés à bord d'un vaisseau colonie plus lent que la lumière et préférer rester ici et s'intégrer parmi nous plutôt que d'essayer de trouver une autre colonie potentielle. * Uplift : intervention pour nous orienter sur la "bonne" voie de développement et nous empêcher de nous immoler (ou vice-versa si votre espèce n'aime pas la concurrence).
Sono un grande appassionato di worldbuilding. Un aspetto comune nella fantascienza è che gli alieni fingono di essere umani (per esempio in Third Rock from the Sun). Ovviamente, se gli alieni sono abbastanza avanzati da travestirsi da un'altra specie, ci sono metodi molto più facili, semplici e meno costosi per distruggere l'umanità, quindi perché una civiltà aliena avanzata dovrebbe sprecare tempo, energia e risorse per travestirsi da umani? Quale possibile utilità scientifica, culturale o commerciale potrebbe avere una procedura così costosa?
Gli alieni sono alieni, senza un background comune le loro motivazioni possono essere incomprensibili. Se assumiamo che questi alieni siano alieni hollywoodiani (cioè esseri umani con strane parti di gomma attaccate sulla faccia), allora ci sono tutte le ragioni per cui gli esseri umani di una cultura passano del tempo in un'altra cultura e cercano di imparare a inserirsi: * Antropologia: studiare come si è sviluppata una cultura diversa per comprendere meglio i processi di sviluppo che hanno influenzato la propria. Iain M. Banks ha scritto Inversioni (due antropologi della Cultura che indagano su un mondo dell'epoca rinascimentale) e Lo stato dell'arte (una squadra di contatto culturale sulla Terra verso il 1970) in questo senso. * Turismo: sperimentare una cultura molto diversa dalle proprie esperienze precedenti. * Reality TV; Bear Grylls. * Recitazione con metodo; prepararsi per un ruolo nei propri canali di intrattenimento che implica la recitazione di un membro di una società dell'Età dell'Informazione. * Sfida: perché possono. * Eremo; ci sono persone qui sulla Terra che preferiscono allontanarsi dalla corsa dei topi e da tutti i nuovi gadget e vivere come facevano i loro antenati, ma di solito non fino agli utensili di pietra. Scegliere un mondo in via di sviluppo e inserirsi in esso consente loro di accedere a un livello di tecnologia intermedio tra la loro cultura d'origine e l'essere intrappolati su un'isola deserta. * Camuffamento: sono ricercati dai membri della loro cultura d'origine ed è più facile nascondersi e sopravvivere tra di noi che nel loro ambiente. Ci sono già molti esempi di questo nella narrativa: For Richer or Poorer, Men in Black II ed è analogo alla fuga dalla legge e al ritiro in un paese senza trattato di estradizione. * Se sono arrivati su una nave FTL che non ha comunicazioni FTL, potrebbero dover aspettare a lungo per avere pezzi di ricambio o mappe di navigazione aggiornate, o se hanno portato Gilligan che ha rovinato tutti i loro piani di ritorno a casa, o potrebbero essere arrivati su una nave colonia più lenta della luce e preferire rimanere qui e inserirsi tra noi piuttosto che cercare un'altra colonia potenziale. * Uplift; intromissione per indirizzarci sulla strada "giusta" dello sviluppo e impedirci di immolarci (o viceversa, se la vostra specie non ama la competizione).
61
I've taken a look at the list of surveys taken on scala-lang.org and noticed a curious question: "Can you name all the uses of “_”?". Can you? If yes, please do so here. Explanatory examples are appreciated.
The following is an explanation of the uses of the underscore is Scala _ [underscore] magic. Examples: ``` def matchTest(x: Int): String = x match { case 1 => "one" case 2 => "two" case _ => "anything other than one and two" } expr match { case List(1,_,_) => " a list with three element and the first element is 1" case List(_*) => " a list with zero or more elements " case Map[_,_] => " matches a map with any key type and any value type " case _ => } List(1,2,3,4,5).foreach(print(_)) // Doing the same without underscore: List(1,2,3,4,5).foreach( a => print(a)) ``` In Scala, ```_``` acts similar to ```*``` in Java while importing packages. ```// Imports all the classes in the package matching import scala.util.matching._ // Imports all the members of the object Fun (static import in Java). import com.test.Fun._ // Imports all the members of the object Fun but renames Foo to Bar import com.test.Fun.{ Foo => Bar , _ } // Imports all the members except Foo. To exclude a member rename it to _ import com.test.Fun.{ Foo => _ , _ } ``` In Scala, a getter and setter will be implicitly defined for all non-private vars in a object. The getter name is same as the variable name and ```_=``` is added for the setter name. ```class Test { private var a = 0 def age = a def age_=(n:Int) = { require(n>0) a = n } } ``` Usage: ```val t = new Test t.age = 5 println(t.age) ``` If you try to assign a function to a new variable, the function will be invoked and the result will be assigned to the variable. This confusion occurs due to the optional braces for method invocation. We should use _ after the function name to assign it to another variable. ```class Test { def fun = { // Some code } val funLike = fun _ } ```
Ich habe einen Blick auf die Liste der Umfragen auf scala-lang.org geworfen und eine seltsame Frage entdeckt: "Können Sie alle Verwendungen von "_" nennen?". Können Sie das? Wenn ja, tun Sie es bitte hier. Erklärende Beispiele sind erwünscht.
Im Folgenden werden die Verwendungsmöglichkeiten des Unterstrichs is Scala _ [underscore] magic erläutert. Beispiele: ```` def matchTest(x: Int): String = x match { Fall 1 => "eins" Fall 2 => "zwei" case _ => "irgendetwas anderes als eins und zwei" } expr match { case List(1,_,_) => " eine Liste mit drei Elementen, wobei das erste Element 1 ist" case List(_*) => " eine Liste mit null oder mehr Elementen " case Map[_,_] => " entspricht einer Map mit beliebigem Schlüsseltyp und beliebigem Wertetyp " case _ => } List(1,2,3,4,5).foreach(print(_)) // Das Gleiche ohne Unterstrich tun: List(1,2,3,4,5).foreach( a => print(a)) ``` In Scala verhält sich ```_``` ähnlich wie ```*``` in Java beim Importieren von Paketen. ```// Importiert alle Klassen aus dem Paket matching import scala.util.matching._ // Importiert alle Mitglieder des Objekts Fun (statischer Import in Java). import com.test.Fun._ // Importiert alle Mitglieder des Objekts Fun, benennt aber Foo in Bar um import com.test.Fun.{ Foo => Bar , _ } // Importiert alle Mitglieder außer Foo. Um ein Mitglied auszuschließen, benennen Sie es in _ um import com.test.Fun.{ Foo => _ , _ } ``` In Scala werden für alle nicht-privaten Variablen in einem Objekt implizit ein Getter und ein Setter definiert. Der Getter-Name ist derselbe wie der Variablenname und ```_=``` wird für den Setter-Namen hinzugefügt. ```Klasse Test { private var a = 0 def age = a def age_=(n:Int) = { require(n>0) a = n } } ``` Verwendung: ```val t = new Test t.Alter = 5 println(t.age) ``` Wenn Sie versuchen, eine Funktion einer neuen Variablen zuzuweisen, wird die Funktion aufgerufen und das Ergebnis der Variablen zugewiesen. Diese Verwirrung entsteht durch die optionalen geschweiften Klammern beim Methodenaufruf. Wir sollten _ nach dem Funktionsnamen verwenden, um sie einer anderen Variablen zuzuweisen. ```class Test { def fun = { // Etwas Code } val funLike = fun _ } ```
He echado un vistazo a la lista de encuestas realizadas en scala-lang.org y me he fijado en una pregunta curiosa: "¿Puedes nombrar todos los usos de "_"?". ¿Puede usted? Si la respuesta es afirmativa, por favor, hágalo aquí. Se agradecerán ejemplos explicativos.
La siguiente es una explicación de los usos del guión bajo es Scala _ [guión bajo] magia. Ejemplos: ``` def matchTest(x: Int): String = x match { case 1 => "uno" case 2 => "dos" case _ => "cualquier cosa distinta de uno y dos" } expr match { case Lista(1,_,_) => " una lista con tres elementos y el primer elemento es 1" case Lista(_*) => " una lista con cero o más elementos " case Map[_,_] => " coincide con un mapa con cualquier tipo de clave y cualquier tipo de valor " case _ => } List(1,2,3,4,5).foreach(print(_)) // Haciendo lo mismo sin guión bajo: List(1,2,3,4,5).foreach( a => print(a)) ``` En Scala, ```_`` actúa de forma similar a ```*`` en Java al importar paquetes. ```// Importa todas las clases del paquete matching import scala.util.matching._ // Importa todos los miembros del objeto Fun (importación estática en Java). import com.test.Fun._ // Importa todos los miembros del objeto Fun pero renombra Foo a Bar import com.test.Fun.{ Foo => Bar , _ } // Importa todos los miembros excepto Foo. Para excluir un miembro renómbralo a _ import com.test.Fun.{ Foo => _ , _ } ``` En Scala, se definen implícitamente un getter y un setter para todas las variables no privadas de un objeto. El nombre del getter es el mismo que el nombre de la variable y ```_=``` se añade para el nombre del setter. ```class Prueba { private var a = 0 def edad = a def edad_=(n:Int) = { require(n>0) a = n } } ``` Uso: ```val t = new Test t.edad = 5 println(t.edad) ``` Si intentas asignar una función a una nueva variable, la función será invocada y el resultado será asignado a la variable. Esta confusión se produce debido a las llaves opcionales para la invocación de métodos. Debemos usar _ después del nombre de la función para asignarla a otra variable. ```class Test { def fun = { // Algo de código } val funLike = fun _ } ```
J'ai jeté un coup d'œil à la liste des sondages effectués sur scala-lang.org et j'ai remarqué une question curieuse : "Pouvez-vous citer toutes les utilisations de "_" ?". Le pouvez-vous ? Si oui, merci de le faire ici. Des exemples explicatifs sont appréciés.
Voici une explication de l'utilisation du trait de soulignement dans la magie Scala _ [underscore]. Exemples : ```` def matchTest(x : Int) : String = x match { case 1 => "un" case 2 => "deux" case _ => "tout ce qui n'est pas un et deux" } expr match { case List(1,_,_) => " une liste avec trois éléments et le premier élément est 1 " case List(_*) => " une liste avec zéro ou plusieurs éléments " case Map[_,_] => " correspond à une carte avec n'importe quel type de clé et n'importe quel type de valeur " case _ => } List(1,2,3,4,5).foreach(print(_)) // On fait la même chose sans le trait de soulignement : List(1,2,3,4,5).foreach( a => print(a)) ``` En Scala, ```_``` agit de manière similaire à ``*``` en Java lors de l'importation de paquets. ```// Importe toutes les classes du paquetage correspondant import scala.util.matching._ // Importe tous les membres de l'objet Fun (importation statique en Java). import com.test.Fun._ // Importe tous les membres de l'objet Fun mais renomme Foo en Bar import com.test.Fun.{ Foo => Bar , _ } // Importe tous les membres de l'objet Fun sauf Foo. Pour exclure un membre, renommez-le en _ import com.test.Fun.{ Foo => _ , _ } ``` En Scala, un getter et un setter seront implicitement définis pour toutes les variables non privées d'un objet. Le nom du getter est le même que celui de la variable et ``_=``` est ajouté au nom du setter. Classe Test { private var a = 0 def age = a def age_=(n:Int) = { require(n>0) a = n } } ``` Utilisation : ```val t = nouveau Test t.age = 5 println(t.age) ``` Si vous essayez d'assigner une fonction à une nouvelle variable, la fonction sera invoquée et le résultat sera assigné à la variable. Cette confusion est due aux accolades optionnelles pour l'invocation de la méthode. Nous devons utiliser _ après le nom de la fonction pour l'affecter à une autre variable. ```classe Test { def fun = { // Un peu de code } val funLike = fun _ } ```
Ho dato un'occhiata all'elenco dei sondaggi fatti su scala-lang.org e ho notato una domanda curiosa: "Riesci a nominare tutti gli usi di "_"?". Ci riuscite? Se sì, fatelo qui. Sono graditi esempi esplicativi.
Di seguito vengono spiegati gli usi del trattino basso in Scala _ [trattino basso]. Esempi: ``` def matchTest(x: Int): String = x match { caso 1 => "uno" caso 2 => "due" case _ => "qualsiasi cosa diversa da uno e due". } expr match { case List(1,_,_) => " una lista con tre elementi e il primo elemento è 1". case List(_*) => " una lista con zero o più elementi". case Map[_,_] => " corrisponde a una mappa con qualsiasi tipo di chiave e qualsiasi tipo di valore". case _ => } List(1,2,3,4,5).foreach(print(_)) // Fare lo stesso senza il trattino basso: List(1,2,3,4,5).foreach( a => print(a)) ``` In Scala, ```_`` si comporta in modo simile a ```*`` in Java durante l'importazione di pacchetti. ```// Importa tutte le classi del pacchetto matching import scala.util.matching._ // Importa tutti i membri dell'oggetto Fun (importazione statica in Java). import com.test.Fun._ // Importa tutti i membri dell'oggetto Fun, ma rinomina Foo in Bar. import com.test.Fun.{ Foo => Bar , _ } // Importa tutti i membri tranne Foo. Per escludere un membro, rinominarlo in _ import com.test.Fun.{ Foo => _ , _ } ``` In Scala, vengono definiti implicitamente un getter e un setter per tutte le barre non private di un oggetto. Il nome del getter è uguale al nome della variabile e ```_=`` viene aggiunto per il nome del setter. ```classe Test { private var a = 0 def age = a def age_=(n:Int) = { require(n>0) a = n } } ``` Utilizzo: ```val t = nuovo Test t.età = 5 println(t.age) ``` Se si tenta di assegnare una funzione a una nuova variabile, la funzione verrà invocata e il risultato verrà assegnato alla variabile. Questa confusione si verifica a causa delle parentesi graffe opzionali per l'invocazione di un metodo. Dovremmo usare _ dopo il nome della funzione per assegnarla a un'altra variabile. ```classe Test { def fun = { // Un po' di codice } val funLike = fun _ } ```
62
My university usually asks that we book a flight via a travel agent, but the prices he gives me are about $50 higher than the prices I can get by online booking in the flight company's website. Why would a company want me to book a flight via a travel agent if it is more expensive?
There are several reasons why such internal policies exist: * Your institution may get a discount on certain services of the travel agent if it buys enough from the agent * By having a contract with a reasonably-priced travel agent, they make sure that no employee books the flight with a very pricey agent or with a travel agent that happens to be a relative of the traveller * The travel agency offers easy methods to verify expense information and thus may lower the workload of your local administrative personnel. This especially holds if the payment is routed directly from the institution to the travel agent, which also makes sure that the flyer does not get credit card bonus points for the booking. * Your institution may have an agreement with the travel agent that they manually check if members of your institution are not unnecessarily booking expensive booking classes (in order to get more airline bonus miles) * Some insurances that your institution bought may only work if the ticket is bought directly from the institution and not by the flyer, and they elected the agent to handle such bookings. Which of these reasons is the one why this policy exists can only be answered by the responsible employees of your institution.
Meine Universität verlangt normalerweise, dass wir einen Flug über ein Reisebüro buchen, aber die Preise, die er mir nennt, sind etwa 50 Dollar höher als die Preise, die ich bei einer Online-Buchung auf der Website der Fluggesellschaft bekommen kann. Warum sollte ein Unternehmen wollen, dass ich einen Flug über ein Reisebüro buche, wenn er teurer ist?
Es gibt mehrere Gründe, warum es solche internen Politiken gibt: * Ihre Einrichtung kann einen Rabatt auf bestimmte Dienstleistungen des Reisebüros erhalten, wenn sie genug von diesem Unternehmen kauft. * Durch einen Vertrag mit einem preisgünstigen Reisebüro stellen sie sicher, dass kein Mitarbeiter den Flug bei einem sehr teuren Reisebüro oder bei einem Reisebüro bucht, das zufällig mit dem Reisenden verwandt ist. * Das Reisebüro bietet einfache Methoden zur Überprüfung der Ausgaben und kann so die Arbeitsbelastung Ihres Verwaltungspersonals vor Ort verringern. Dies gilt vor allem dann, wenn die Zahlung direkt von der Einrichtung an das Reisebüro weitergeleitet wird, was auch sicherstellt, dass der Reisende keine Kreditkarten-Bonuspunkte für die Buchung erhält. * Ihre Einrichtung hat möglicherweise eine Vereinbarung mit dem Reisebüro getroffen, dass dieses manuell überprüft, ob die Mitglieder Ihrer Einrichtung nicht unnötig teure Buchungsklassen buchen (um mehr Bonusmeilen zu erhalten). * Einige Versicherungen, die Ihre Einrichtung abgeschlossen hat, funktionieren möglicherweise nur, wenn das Ticket direkt von der Einrichtung und nicht vom Fluggast gekauft wird und sie das Reisebüro mit der Abwicklung solcher Buchungen beauftragt hat. Welcher dieser Gründe der Grund für diese Politik ist, kann nur von den zuständigen Mitarbeitern Ihrer Einrichtung beantwortet werden.
Mi universidad suele pedir que reservemos el vuelo a través de una agencia de viajes, pero los precios que me da son unos 50 dólares más caros que los que puedo conseguir reservando online en la página web de la compañía aérea. ¿Por qué quiere una compañía que reserve un vuelo a través de una agencia de viajes si es más caro?
Hay varias razones por las que existen estas políticas internas: * Su institución puede obtener un descuento en determinados servicios de la agencia de viajes si le compra lo suficiente. * Al tener un contrato con una agencia de viajes de precio razonable, se aseguran de que ningún empleado reserve el vuelo con una agencia muy cara o con una agencia de viajes que sea pariente del viajero. * La agencia de viajes ofrece métodos sencillos para verificar la información sobre gastos y, por tanto, puede reducir la carga de trabajo de su personal administrativo local. Esto es especialmente válido si el pago se encamina directamente de la institución a la agencia de viajes, lo que también garantiza que el viajero no obtenga puntos de bonificación de la tarjeta de crédito por la reserva. * Su institución puede tener un acuerdo con la agencia de viajes para que compruebe manualmente si los miembros de su institución no están reservando innecesariamente clases de reserva caras (con el fin de obtener más millas de bonificación de la aerolínea). * Es posible que algunos seguros contratados por su institución sólo funcionen si el billete se compra directamente a la institución y no por el viajero, y si ésta ha elegido a la agencia para gestionar dichas reservas. A cuál de estas razones se debe la existencia de esta política sólo pueden responder los empleados responsables de su institución.
Mon université nous demande généralement de réserver un vol par l'intermédiaire d'un agent de voyage, mais les prix qu'il me propose sont supérieurs d'environ 50 dollars à ceux que je peux obtenir en réservant en ligne sur le site web de la compagnie aérienne. Pourquoi une compagnie voudrait-elle que je réserve un vol par l'intermédiaire d'un agent de voyage si c'est plus cher ?
Plusieurs raisons expliquent l'existence de ces politiques internes : * Votre institution peut bénéficier d'une réduction sur certains services de l'agent de voyage si elle achète suffisamment de billets auprès de l'agent. * En signant un contrat avec un agent de voyage à prix raisonnable, elle s'assure qu'aucun employé ne réserve son vol auprès d'un agent très cher ou d'un agent de voyage qui se trouve être un parent du voyageur. * L'agence de voyages propose des méthodes simples pour vérifier les informations relatives aux dépenses et peut donc réduire la charge de travail du personnel administratif local. Ceci est particulièrement vrai si le paiement est acheminé directement de l'institution à l'agence de voyage, ce qui permet également de s'assurer que le voyageur n'obtient pas de points bonus de sa carte de crédit pour la réservation. * Votre institution peut avoir conclu un accord avec l'agent de voyage pour qu'il vérifie manuellement si les membres de votre institution ne réservent pas inutilement des classes de réservation coûteuses (afin d'obtenir plus de miles de bonus aériens). * Certaines assurances souscrites par votre institution ne fonctionnent que si le billet est acheté directement auprès de l'institution et non par le voyageur, et que l'institution a choisi l'agent pour s'occuper de ces réservations. La réponse à la question de savoir laquelle de ces raisons est à l'origine de cette politique ne peut être donnée que par les employés responsables de votre institution.
La mia università di solito chiede di prenotare un volo tramite un'agenzia di viaggi, ma i prezzi che mi fornisce sono superiori di circa 50 dollari rispetto a quelli che posso ottenere prenotando online sul sito web della compagnia aerea. Perché una compagnia dovrebbe volere che io prenoti un volo tramite un'agenzia di viaggi se è più costoso?
Le ragioni per cui esistono tali politiche interne sono molteplici: * L'istituzione può ottenere uno sconto su alcuni servizi dell'agente di viaggio se acquista un numero sufficiente di biglietti dall'agente stesso. * Avendo un contratto con un'agenzia di viaggi a prezzi ragionevoli, si assicura che nessun dipendente prenoti il volo con un'agenzia molto costosa o con un'agenzia di viaggi che si dà il caso sia un parente del viaggiatore. * L'agenzia di viaggi offre metodi semplici per verificare le informazioni sulle spese, riducendo così il carico di lavoro del personale amministrativo locale. Questo vale soprattutto se il pagamento viene instradato direttamente dall'istituzione all'agenzia di viaggi, il che assicura anche che il viaggiatore non ottenga punti bonus della carta di credito per la prenotazione. * La vostra istituzione potrebbe avere un accordo con l'agenzia di viaggi che prevede che quest'ultima verifichi manualmente se i membri della vostra istituzione non stiano prenotando inutilmente classi di prenotazione costose (al fine di ottenere più miglia bonus della compagnia aerea). * Alcune assicurazioni acquistate dall'istituto possono funzionare solo se il biglietto viene acquistato direttamente dall'istituto e non dal passeggero, e l'istituto ha scelto l'agente per gestire tali prenotazioni. Quale sia il motivo per cui esiste questa polizza può essere chiarito solo dai dipendenti responsabili della vostra istituzione.
63
Layman's explanation of encryption backdoors
There are two somewhat orthogonal concepts in backdooring encryption algorithms: * The backdoor can be explicit or implicit. An explicit backdoor is one that everybody knows it is there. An implicit backdoor strives at remaining undetected by the algorithm owners. Of course, when there is an explicit backdoor, people tend to avoid the algorithm altogether, so explicit backdoors may hope to work only in the presence of a legal framework that forces implementers to use the backdoored system. An example of an explicit backdoor is the Clipper chip (which was ultimately abandoned). The backdoor is not really in the algorithm, more in the assembly of algorithms into a protocol, and technically it was an automatic key escrowing method. For an implicit backdoor, see the Dual EC DRBG as a famous example: it worked only as long as nobody was aware that it was backdoored. * The backdoor's security may be quantifiable, or not. In the case of Dual EC DRBG, the mechanism uses well-trodden mathematical paths: the NSA knew that exploiting the backdoor required knowledge of an internal secret key, based on discrete logarithm (on elliptic curves). A non-quantifiable security is what happens when you try to push, for instance, a voluntarily flawed algorithm, or one for which you know of a cryptanalytic method that you did not publish. This is a very dangerous game for a spy agency, because you cannot really know whether third parties could find the flaw or not. Such backdooring tends to backfire in the long term. Interestingly, the NSA tends not to use non-quantifiable backdoors. A good example is DES. At the time it was designed, the NSA believed that it could tackle an upfront 256 exhaustive search, and that nobody else (in particular the Soviets) had the technology and budget for that. The NSA also knew of a novel cryptanalytic method (differential cryptanalysis). So when the NSA intervened in the design of DES, it insisted on shortening the key from 64 to 56 bits (that's addition of a quantifiable backdoor, and it was rather obvious, so quasi-explicit), and also on strengthening the design against differential cryptanalysis. This is a good example about how NSA consciously refrained from a non-quantifiable backdoor. There is only one thing that spy agencies fear more than not being able to spy: it is the idea that other competing spy agencies may also spy. So a real, good backdoor is one that uses maths to offer quantifiable security against unauthorized usage of the backdoor. It is extremely difficult to have quantifiable security without making the backdoor explicit. The "best in class" in that area is Dual EC DRBG, and even before the Snowden business, cryptographers were already finding it weird and strongly suspected foul play (see the analyses back in 2007, 6 years before Snowden).
Laienhafte Erklärung von Verschlüsselungs-Hintertüren
Bei Backdooring-Verschlüsselungsalgorithmen gibt es zwei einigermaßen orthogonale Konzepte: * Die Hintertür kann explizit oder implizit sein. Eine explizite Hintertür ist eine, von der jeder weiß, dass sie vorhanden ist. Eine implizite Hintertür zielt darauf ab, von den Eigentümern des Algorithmus unentdeckt zu bleiben. Wenn es eine explizite Hintertür gibt, neigen die Leute natürlich dazu, den Algorithmus ganz zu meiden, so dass explizite Hintertüren nur dann funktionieren können, wenn es einen rechtlichen Rahmen gibt, der die Implementierer zwingt, das System mit der Hintertür zu verwenden. Ein Beispiel für eine explizite Hintertür ist der Clipper-Chip (der schließlich aufgegeben wurde). Die Hintertür befindet sich nicht wirklich im Algorithmus, sondern eher in der Zusammenstellung der Algorithmen zu einem Protokoll, und technisch gesehen war es eine automatische Schlüsselhinterlegungsmethode. Ein berühmtes Beispiel für eine implizite Hintertür ist der Dual EC DRBG: Er funktionierte nur, solange niemand wusste, dass er mit einer Hintertür versehen war. * Die Sicherheit der Hintertür kann quantifizierbar sein oder auch nicht. Im Fall von Dual EC DRBG nutzt der Mechanismus ausgetretene mathematische Pfade: Die NSA wusste, dass zur Ausnutzung der Hintertür die Kenntnis eines internen geheimen Schlüssels erforderlich war, der auf dem diskreten Logarithmus (auf elliptischen Kurven) basiert. Eine nicht quantifizierbare Sicherheit ist das, was passiert, wenn man z. B. versucht, einen absichtlich fehlerhaften Algorithmus oder einen Algorithmus, für den man eine kryptoanalytische Methode kennt, die man nicht veröffentlicht hat, durchzusetzen. Dies ist ein sehr gefährliches Spiel für eine Spionageagentur, denn man kann nicht wirklich wissen, ob Dritte die Schwachstelle finden könnten oder nicht. Ein solches Backdooring geht auf lange Sicht nach hinten los. Interessanterweise neigt die NSA nicht dazu, nicht quantifizierbare Hintertüren zu verwenden. Ein gutes Beispiel ist DES. Als es entwickelt wurde, glaubte die NSA, dass sie eine 256-fache Suche im Voraus durchführen könnte und dass niemand sonst (insbesondere die Sowjets) die Technologie und das Budget dafür hätte. Die NSA kannte auch eine neue kryptoanalytische Methode (differentielle Kryptoanalyse). Als die NSA in die Entwicklung von DES eingriff, bestand sie darauf, den Schlüssel von 64 auf 56 Bits zu verkürzen (das ist die Hinzufügung einer quantifizierbaren Hintertür, und sie war ziemlich offensichtlich, also quasi explizit) und die Entwicklung gegen differentielle Kryptoanalyse zu stärken. Dies ist ein gutes Beispiel dafür, wie die NSA bewusst auf eine nicht quantifizierbare Hintertür verzichtete. Es gibt nur eine Sache, die Spionageagenturen mehr fürchten als nicht spionieren zu können: die Vorstellung, dass andere konkurrierende Spionageagenturen ebenfalls spionieren könnten. Eine echte, gute Hintertür ist also eine, die mit Hilfe von Mathematik eine quantifizierbare Sicherheit gegen die unbefugte Nutzung der Hintertür bietet. Es ist äußerst schwierig, quantifizierbare Sicherheit zu bieten, ohne die Hintertür explizit zu machen. Die "Klassenbeste" in diesem Bereich ist die Duale EG DRBG, und schon vor der Snowden-Affäre fanden Kryptographen sie seltsam und vermuteten starkes Foulspiel (siehe die Analysen aus dem Jahr 2007, 6 Jahre vor Snowden).
Explicación sencilla de las puertas traseras de cifrado
Existen dos conceptos algo ortogonales en los algoritmos de cifrado backdooring: * La puerta trasera puede ser explícita o implícita. Una puerta trasera explícita es aquella que todo el mundo sabe que está ahí. Un backdoor implícito intenta pasar desapercibido para los propietarios del algoritmo. Por supuesto, cuando hay una puerta trasera explícita, la gente tiende a evitar el algoritmo por completo, por lo que las puertas traseras explícitas pueden esperar funcionar sólo en presencia de un marco legal que obligue a los implementadores a utilizar el sistema backdoored. Un ejemplo de puerta trasera explícita es el chip Clipper (que finalmente se abandonó). La puerta trasera no está realmente en el algoritmo, sino más bien en el ensamblaje de los algoritmos en un protocolo, y técnicamente era un método automático de custodia de claves. Para una puerta trasera implícita, véase el famoso ejemplo del Dual EC DRBG: sólo funcionaba mientras nadie supiera que estaba protegido. * La seguridad de la puerta trasera puede ser cuantificable, o no. En el caso de Dual EC DRBG, el mecanismo utiliza caminos matemáticos trillados: la NSA sabía que explotar la puerta trasera requería conocer una clave secreta interna, basada en logaritmos discretos (en curvas elípticas). Una seguridad no cuantificable es lo que ocurre cuando se intenta impulsar, por ejemplo, un algoritmo voluntariamente defectuoso, o uno para el que se conoce un método criptoanalítico que no se ha publicado. Este es un juego muy peligroso para una agencia de espionaje, porque no puedes saber realmente si terceros podrían encontrar el fallo o no. Tal backdooring tiende a ser contraproducente a largo plazo. Curiosamente, la NSA tiende a no utilizar puertas traseras no cuantificables. Un buen ejemplo es DES. En el momento en que se diseñó, la NSA creía que podía abordar una búsqueda exhaustiva de 256 por adelantado, y que nadie más (en particular los soviéticos) tenía la tecnología y el presupuesto para ello. La NSA también conocía un novedoso método criptoanalítico (criptoanálisis diferencial). Así que cuando la NSA intervino en el diseño de DES, insistió en acortar la clave de 64 a 56 bits (eso es añadir una puerta trasera cuantificable, y era bastante obvio, así que casi explícito), y también en reforzar el diseño contra el criptoanálisis diferencial. Este es un buen ejemplo de cómo la NSA se abstuvo conscientemente de una puerta trasera no cuantificable. Sólo hay una cosa que las agencias de espionaje temen más que no poder espiar: la idea de que otras agencias de espionaje competidoras también puedan espiar. Así que una puerta trasera real y buena es aquella que utiliza las matemáticas para ofrecer una seguridad cuantificable contra el uso no autorizado de la puerta trasera. Es extremadamente difícil tener seguridad cuantificable sin hacer explícita la puerta trasera. El "mejor de su clase" en esa área es Dual EC DRBG, e incluso antes del asunto Snowden, los criptógrafos ya lo encontraban raro y sospechaban fuertemente de juego sucio (ver los análisis de 2007, 6 años antes de Snowden).
Explication vulgarisée des portes dérobées de cryptage
Il existe deux concepts quelque peu orthogonaux dans les algorithmes de cryptage de backdooring : * La porte dérobée peut être explicite ou implicite. Une porte dérobée explicite est une porte dont tout le monde connaît l'existence. Une porte dérobée implicite s'efforce de ne pas être détectée par les propriétaires de l'algorithme. Bien entendu, lorsqu'il existe une porte dérobée explicite, les gens ont tendance à éviter complètement l'algorithme, de sorte que les portes dérobées explicites ne peuvent espérer fonctionner qu'en présence d'un cadre juridique qui oblige les responsables de la mise en œuvre à utiliser le système dérobé. La puce Clipper (qui a finalement été abandonnée) est un exemple de porte dérobée explicite. La porte dérobée ne se trouve pas vraiment dans l'algorithme, mais plutôt dans l'assemblage des algorithmes dans un protocole, et techniquement, il s'agissait d'une méthode automatique de séquestre des clés. Pour une porte dérobée implicite, voir le Dual EC DRBG comme exemple célèbre : il ne fonctionnait que tant que personne n'était conscient qu'il était dérobé. * La sécurité de la porte dérobée peut être quantifiable ou non. Dans le cas du Dual EC DRBG, le mécanisme utilise des chemins mathématiques bien connus : la NSA savait que l'exploitation de la porte dérobée nécessitait la connaissance d'une clé secrète interne, basée sur le logarithme discret (sur les courbes elliptiques). Une sécurité non quantifiable est ce qui se produit lorsque vous essayez de pousser, par exemple, un algorithme volontairement défectueux, ou un algorithme pour lequel vous connaissez une méthode de cryptanalyse que vous n'avez pas publiée. Il s'agit d'un jeu très dangereux pour une agence d'espionnage, car vous ne pouvez pas vraiment savoir si des tiers pourraient trouver la faille ou non. Un tel backdooring a tendance à se retourner contre vous à long terme. Il est intéressant de noter que la NSA a tendance à ne pas utiliser de portes dérobées non quantifiables. Le DES en est un bon exemple. À l'époque où il a été conçu, la NSA pensait qu'elle pouvait s'attaquer à une recherche exhaustive en amont de 256, et que personne d'autre (en particulier les Soviétiques) ne disposait de la technologie et du budget nécessaires à cette fin. La NSA avait également connaissance d'une nouvelle méthode de cryptanalyse (la cryptanalyse différentielle). Ainsi, lorsque la NSA est intervenue dans la conception du DES, elle a insisté pour que la clé soit raccourcie de 64 à 56 bits (c'est l'ajout d'une porte dérobée quantifiable, et c'était assez évident, donc quasi-explicite), et pour que la conception soit renforcée contre la cryptanalyse différentielle. C'est un bon exemple de la manière dont la NSA s'est délibérément abstenue d'utiliser une porte dérobée non quantifiable. Il n'y a qu'une seule chose que les agences d'espionnage craignent plus que de ne pas pouvoir espionner : c'est l'idée que d'autres agences d'espionnage concurrentes puissent également espionner. Par conséquent, une vraie et bonne porte dérobée est une porte qui utilise les mathématiques pour offrir une sécurité quantifiable contre l'utilisation non autorisée de la porte dérobée. Il est extrêmement difficile d'obtenir une sécurité quantifiable sans rendre la porte dérobée explicite. Le "meilleur de sa catégorie" dans ce domaine est le Dual EC DRBG, et même avant l'affaire Snowden, les cryptographes le trouvaient déjà bizarre et soupçonnaient fortement un acte criminel (voir les analyses de 2007, 6 ans avant Snowden).
Spiegazione laica delle backdoor di crittografia
Esistono due concetti in qualche modo ortogonali negli algoritmi di crittografia backdooring: * La backdoor può essere esplicita o implicita. Una backdoor esplicita è quella di cui tutti conoscono la presenza. Una backdoor implicita cerca di non essere individuata dai proprietari dell'algoritmo. Naturalmente, in presenza di una backdoor esplicita, le persone tendono a evitare del tutto l'algoritmo, quindi le backdoor esplicite possono sperare di funzionare solo in presenza di un quadro giuridico che costringa gli implementatori a utilizzare il sistema backdoored. Un esempio di backdoor esplicita è il chip Clipper (che alla fine è stato abbandonato). La backdoor non è in realtà nell'algoritmo, ma piuttosto nell'assemblaggio degli algoritmi in un protocollo, e tecnicamente era un metodo di deposito automatico delle chiavi. Per una backdoor implicita, si veda il Dual EC DRBG come esempio famoso: funzionava solo finché nessuno sapeva che era backdoored. * La sicurezza della backdoor può essere quantificabile o meno. Nel caso del Dual EC DRBG, il meccanismo utilizza percorsi matematici consolidati: l'NSA sapeva che per sfruttare la backdoor era necessario conoscere una chiave segreta interna, basata sul logaritmo discreto (su curve ellittiche). Una sicurezza non quantificabile è ciò che accade quando si cerca di spingere, ad esempio, un algoritmo volontariamente difettoso, o uno per il quale si conosce un metodo crittoanalitico che non è stato pubblicato. Questo è un gioco molto pericoloso per un'agenzia di spionaggio, perché non si può sapere se terzi potrebbero trovare la falla o meno. Questo backdooring tende a ritorcersi contro a lungo termine. È interessante notare che l'NSA tende a non utilizzare backdoor non quantificabili. Un buon esempio è il DES. All'epoca in cui fu progettato, l'NSA riteneva di poter affrontare una ricerca esaustiva a 256, e che nessun altro (in particolare i sovietici) avesse la tecnologia e il budget per farlo. La NSA era inoltre a conoscenza di un nuovo metodo di crittoanalisi (la crittoanalisi differenziale). Così, quando la NSA intervenne nella progettazione del DES, insistette per accorciare la chiave da 64 a 56 bit (il che significa aggiungere una backdoor quantificabile, ed era piuttosto ovvio, quindi quasi esplicito), e anche per rafforzare il progetto contro la crittoanalisi differenziale. Questo è un buon esempio di come la NSA si sia consapevolmente astenuta da una backdoor non quantificabile. C'è solo una cosa che le agenzie di spionaggio temono di più dell'impossibilità di spiare: l'idea che anche altre agenzie di spionaggio concorrenti possano spiare. Quindi una vera e buona backdoor è quella che utilizza la matematica per offrire una sicurezza quantificabile contro l'uso non autorizzato della backdoor. È estremamente difficile avere una sicurezza quantificabile senza rendere esplicita la backdoor. Il "migliore della classe" in questo campo è Dual EC DRBG, e anche prima dell'affare Snowden, i crittografi lo trovavano già strano e sospettavano fortemente un gioco sporco (si vedano le analisi del 2007, 6 anni prima di Snowden).
64
I have a page where a scroll bar containing table rows with divs in them is dynamically generated from the database. Each table row acts like a link, sort of like you'd see on a YouTube playlist next to the video player. When a user visits the page, the option they are on is supposed to go to the top of the scrolling div. This functionality is working. The issue is that it goes just a tad too far. Like the option they are on is about 10px too high. So, the page is visited, the url is used to identify which option was selected and then scrolls that option to the top of the scrolling div. Note: This is not the scroll bar for the window, it is a div with a scrollbar. I am using this code to make it move the selected option to the top of the div: ```var pathArray = window.location.pathname.split( '/' ); var el = document.getElementById(pathArray[5]); el.scrollIntoView(true); ``` It moves it to the top of the div but about 10 pixels too far up. how to fix that?
CSS ```scroll-margin``` and ```scroll-padding``` You might want to have a look at new CSS properties ```scroll-padding``` and ```scroll-margin```. You can use ```scroll-padding``` for the scrolling container (```html``` in this case), and ```scroll-margin``` for the element within the container. For your example, you would want to add ```scroll-margin-top``` for the element that you want to scroll into view, like this: ```.example { scroll-margin-top: 10px; } ``` This affects ```scrollIntoView``` code, like this code: ```const el = document.querySelector(&quot;.example&quot;); el.scrollIntoView({block: &quot;start&quot;, behavior: &quot;smooth&quot;}); ``` This will cause the viewport to scroll to align the top border of the viewport with the top border of the element, but with 10px of additional space. In other words, these properties of the element are taken into account: * ```padding-top``` * ```border-top``` * ```scroll-margin-top``` * (and not ```margin-top```) In addition, if the ```html``` element has ```scroll-padding-top``` set, then that is taken into account too. If you're using a framework like Vue, you might want to make sure that all changes to the DOM are finished before running `scrollIntoView` by using something like `Vue.nextTick(() => el.scrollIntoView())`
Ich habe eine Seite, wo eine Bildlaufleiste mit Tabellenzeilen mit divs in ihnen dynamisch aus der Datenbank generiert wird. Jede Tabellenzeile wirkt wie ein Link, ähnlich wie bei einer YouTube-Wiedergabeliste neben dem Videoplayer. Wenn ein Benutzer die Seite besucht, soll die Option, auf der er sich befindet, an den Anfang des scrollenden Divs gesetzt werden. Diese Funktionalität funktioniert. Das Problem ist nur, dass es ein bisschen zu weit geht. So ist die Option, auf der sie sich befinden, etwa 10px zu hoch. Die Seite wird also besucht, die URL wird verwendet, um festzustellen, welche Option ausgewählt wurde, und dann wird diese Option an den oberen Rand des scrollenden Divs verschoben. Hinweis: Dies ist nicht die Bildlaufleiste für das Fenster, es ist ein div mit einer Bildlaufleiste. Ich verwende diesen Code, um die ausgewählte Option an den oberen Rand des Divs zu verschieben: ```var pathArray = window.location.pathname.split( '/' ); var el = document.getElementById(pathArray[5]); el.scrollIntoView(true); ``` Es verschiebt es an den oberen Rand des div, aber etwa 10 Pixel zu weit nach oben. Wie kann man das beheben?
CSS ```scroll-margin`` und ``scroll-padding`` Vielleicht möchten Sie einen Blick auf die neuen CSS-Eigenschaften ```scroll-padding`` und ```scroll-margin`` werfen. Sie können ```scroll-padding`` für den scrollenden Container (in diesem Fall ``html``) und ```scroll-margin`` für das Element innerhalb des Containers verwenden. Für Ihr Beispiel würden Sie ```scroll-margin-top`` für das Element, das Sie in die Ansicht scrollen wollen, wie folgt hinzufügen wollen: ```.example { scroll-margin-top: 10px; } ``` Dies wirkt sich auf den ```scrollIntoView``-Code aus, wie zum Beispiel diesen Code: ```const el = document.querySelector(&quot;.example&quot;); el.scrollIntoView({block: &quot;start&quot;, behavior: &quot;smooth&quot;}); ``` Dadurch wird das Ansichtsfenster so gescrollt, dass der obere Rand des Ansichtsfensters mit dem oberen Rand des Elements übereinstimmt, aber mit 10px zusätzlichem Platz. Mit anderen Worten, diese Eigenschaften des Elements werden berücksichtigt: * ```padding-top`` * ```Border-top`` * ```scroll-margin-top`` * (und nicht ```margin-top``) Wenn das ```HTML``-Element zusätzlich ```scroll-padding-top``` gesetzt hat, wird dies ebenfalls berücksichtigt. Wenn Sie ein Framework wie Vue verwenden, möchten Sie vielleicht sicherstellen, dass alle Änderungen am DOM abgeschlossen sind, bevor Sie `scrollIntoView` ausführen, indem Sie etwas wie `Vue.nextTick(() => el.scrollIntoView())` verwenden.
Tengo una página donde una barra de desplazamiento que contiene filas de tabla con divs en ellos se genera dinámicamente a partir de la base de datos. Cada fila de la tabla actúa como un enlace, algo así como lo que se vería en una lista de reproducción de YouTube junto al reproductor de vídeo. Cuando un usuario visita la página, la opción en la que se encuentra debe ir a la parte superior del div de desplazamiento. Esta funcionalidad funciona. El problema es que va un poco demasiado lejos. Al igual que la opción que están en unos 10px demasiado alto. Por lo tanto, la página es visitada, la url se utiliza para identificar qué opción fue seleccionada y luego se desplaza esa opción a la parte superior de la div desplazamiento. Nota: Esta no es la barra de desplazamiento de la ventana, es un div con una barra de desplazamiento. Estoy usando este código para hacer que se mueva la opción seleccionada a la parte superior de la div: ```var pathArray = window.location.pathname.split( '/' ); var el = document.getElementById(pathArray[5]); el.scrollIntoView(true); ``` Lo mueve a la parte superior del div pero unos 10 pixeles demasiado arriba. ¿cómo arreglarlo?
CSS ``scroll-margin`` y ``scroll-padding`` Quizá quieras echar un vistazo a las nuevas propiedades CSS ``scroll-padding`` y ``scroll-margin``. Puedes utilizar ``scroll-padding`` para el contenedor de desplazamiento (```html`` en este caso), y ``scroll-margin`` para el elemento dentro del contenedor. Para tu ejemplo, deberías añadir ``scroll-margin-top`` para el elemento que quieres desplazar a la vista, así: ```.ejemplo { scroll-margin-top: 10px; } ``` Esto afecta al código ``scrollIntoView``, como este código: ```const el = document.querySelector(&quot;.ejemplo&quot;); el.scrollIntoView({block: &quot;start&quot;, behavior: &quot;smooth&quot;}); ``` Esto hará que la ventana se desplace para alinear el borde superior de la ventana con el borde superior del elemento, pero con 10px de espacio adicional. En otras palabras, se tienen en cuenta estas propiedades del elemento: * ```padding-top`` * ``border-top`` * ``scroll-margin-top`` * (y no ``margin-top``) Además, si el elemento ```html`` tiene ``scroll-padding-top`` configurado, también se tendrá en cuenta. Si estás usando un framework como Vue, puedes asegurarte de que todos los cambios en el DOM han terminado antes de ejecutar `scrollIntoView` usando algo como `Vue.nextTick(() => el.scrollIntoView())`.
J'ai une page où une barre de défilement contenant des lignes de tableau avec des divs est générée dynamiquement à partir de la base de données. Chaque ligne de tableau agit comme un lien, un peu comme sur une liste de lecture YouTube à côté du lecteur vidéo. Lorsqu'un utilisateur visite la page, l'option sur laquelle il se trouve est censée se placer en haut de la barre de défilement. Cette fonctionnalité fonctionne. Le problème, c'est qu'elle va un peu trop loin. Par exemple, l'option sur laquelle ils se trouvent est environ 10px trop haute. Donc, la page est visitée, l'url est utilisée pour identifier l'option qui a été sélectionnée et fait défiler cette option en haut de la div de défilement. Note : Il ne s'agit pas de la barre de défilement de la fenêtre, mais d'une div avec une barre de défilement. J'utilise ce code pour déplacer l'option sélectionnée vers le haut de la div : ```var pathArray = window.location.pathname.split( '/' ) ; var el = document.getElementById(pathArray[5]) ; el.scrollIntoView(true) ; ``` Il se déplace vers le haut de la div, mais environ 10 pixels trop haut. Comment corriger cela ?
CSS ``scroll-margin`` et ``scroll-padding`` Vous pouvez jeter un coup d'oeil aux nouvelles propriétés CSS ``scroll-padding`` et ``scroll-margin``. Vous pouvez utiliser ``scroll-padding`` pour le conteneur de défilement (``html`` dans ce cas), et ``scroll-margin`` pour l'élément à l'intérieur du conteneur. Pour votre exemple, vous devriez ajouter ``scroll-margin-top`` pour l'élément que vous voulez faire défiler, comme ceci : ```.example { scroll-margin-top : 10px ; } ``` Cela affecte le code ``scrollIntoView``, comme ce code : ```const el = document.querySelector(&quot ;.example&quot ;); el.scrollIntoView({block : &quot;start&quot ;, behavior : &quot;smooth&quot;}) ; ``` Ceci aura pour effet de faire défiler la fenêtre de visualisation pour aligner le bord supérieur de la fenêtre de visualisation avec le bord supérieur de l'élément, mais avec 10 px d'espace supplémentaire. En d'autres termes, ces propriétés de l'élément sont prises en compte : * ``padding-top`` * ``border-top'' * ``border-top`` (bordure supérieure) * ``scroll-margin-top`` (et non pas ``scroll-margin-top``) * (et non pas ``margin-top``) De plus, si l'élément ``html`` a un paramètre ``scroll-padding-top``, il est également pris en compte. Si vous utilisez un framework comme Vue, vous pouvez vous assurer que toutes les modifications du DOM sont terminées avant de lancer `scrollIntoView` en utilisant quelque chose comme `Vue.nextTick(() => el.scrollIntoView())`
Ho una pagina in cui una barra di scorrimento contenente righe di tabella con div al loro interno viene generata dinamicamente dal database. Ogni riga della tabella agisce come un link, un po' come si vede in una playlist di YouTube accanto al lettore video. Quando un utente visita la pagina, l'opzione su cui si trova dovrebbe andare in cima al div scorrevole. Questa funzionalità funziona. Il problema è che si spinge un po' troppo in là. Ad esempio, l'opzione su cui si trova è circa 10px troppo alta. Quindi, la pagina viene visitata, l'url viene utilizzato per identificare l'opzione selezionata e quindi fa scorrere l'opzione in cima al div di scorrimento. Nota: questa non è la barra di scorrimento della finestra, ma un div con una barra di scorrimento. Sto usando questo codice per spostare l'opzione selezionata in cima al div: ```var pathArray = window.location.pathname.split( '/' ); var el = document.getElementById(pathArray[5]); el.scrollIntoView(true); ``` Lo sposta in cima al div, ma circa 10 pixel troppo in alto. Come risolvere il problema?
CSS ``scroll-margin``` e ``scroll-padding`` È possibile dare un'occhiata alle nuove proprietà CSS ``scroll-padding`` e ``scroll-margin``. Si può usare ``scroll-padding`` per il contenitore di scorrimento (```html`` in questo caso) e ``scroll-margin`` per l'elemento all'interno del contenitore. Per il vostro esempio, dovreste aggiungere ``scroll-margin-top`` per l'elemento che volete far scorrere in vista, in questo modo: ```.esempio { scroll-margin-top: 10px; } ``` Questo influisce sul codice ``scrollIntoView``, come questo codice: ```const el = document.querySelector(&quot;.example&quot;); el.scrollIntoView({block: &quot;start&quot;, behavior: &quot;smooth&quot;}); ``` In questo modo la finestra di visualizzazione scorrerà per allineare il bordo superiore della finestra di visualizzazione con il bordo superiore dell'elemento, ma con 10px di spazio aggiuntivo. In altre parole, queste proprietà dell'elemento vengono prese in considerazione: * ``padding-top``` * ``bordo-top`` * ``scroll-margin-top`` * (e non ``margin-top``) Inoltre, se l'elemento ```html`` ha impostato ``scroll-padding-top``, anche questo viene preso in considerazione. Se si utilizza un framework come Vue, ci si potrebbe assicurare che tutte le modifiche al DOM siano terminate prima di eseguire `scrollIntoView`, utilizzando qualcosa come `Vue.nextTick(() => el.scrollIntoView())`.
65
Suppose I have the geographic coordinates of &quot;Saratoga, California, USA&quot; as ```Latitude: 37°15.8298′ N Longitude: 122° 1.3806′ W ``` I know from here that in the case of latitude ```1° ≈ 69 miles``` and that longitude varies: ```1° longitude = cosine (latitude) * length of degree (miles) at Equator. ``` How many miles is 1° longitude at ```longitude: 122°1.3806′ W```?
It doesn't matter at what longitude you are. What matters is what latitude you are. Length of ```1 degree of Longitude``` = ```cosine (latitude in radians) * length of degree (miles) at equator```. Convert your latitude into decimal degrees ~ 37.26383 Convert your decimal degrees into radians ~ 0.65038 Take the cosine of the value in radians ~ 0.79585 1 degree of Longitude = ~0.79585 * 69.172 = ~ 55.051 miles More useful information from the about.com website: Degrees of latitude are parallel so the distance between each degree remains almost constant but since degrees of longitude are farthest apart at the equator and converge at the poles, their distance varies greatly. Each degree of latitude is approximately 69 miles (111 kilometers) apart. The range varies (due to the earth's slightly ellipsoid shape) from 68.703 miles (110.567 km) at the equator to 69.407 (111.699 km) at the poles. This is convenient because each minute (1/60th of a degree) is approximately one [nautical] mile. A degree of longitude is widest at the equator at 69.172 miles (111.321) and gradually shrinks to zero at the poles. At 40° north or south the distance between a degree of longitude is 53 miles (85 km) Note that the original site (about.com) erroneously omitted the &quot;nautical&quot; qualifier.
Angenommen, ich habe die geographischen Koordinaten von &quot;Saratoga, Kalifornien, USA&quot; als ``Breitengrad: 37°15.8298′ N Längengrad: 122° 1.3806′ W ``` Von hier aus weiß ich, dass im Falle der geographischen Breite ```1° ≈ 69 Meilen``` und der Länge variiert: ```1° Länge = Kosinus (Breite) * Länge des Grades (Meilen) am Äquator. ``` Wie viele Meilen beträgt 1° Länge bei ```Länge: 122°1.3806′ W```?
Es spielt keine Rolle, auf welchem Längengrad Sie sich befinden. Es kommt darauf an, auf welchem Breitengrad du dich befindest. Länge von ```1 Grad Länge`` = ```Kosinus (Breitengrad im Bogenmaß) * Länge des Grades (Meilen) am Äquator``. Rechne deinen Breitengrad in Dezimalgrade um ~ 37,26383 Rechne deine Dezimalgrade in Bogenmaß um ~ 0,65038 Nehmen Sie den Kosinus des Wertes im Bogenmaß ~ 0,79585 1 Grad Längengrad = ~ 0,79585 * 69,172 = ~ 55,051 Meilen Weitere nützliche Informationen finden Sie auf der Website about.com: Die Breitengrade sind parallel, so dass der Abstand zwischen den einzelnen Graden bleibt fast konstant, aber da die Längengrade am Äquator am weitesten am Äquator am weitesten voneinander entfernt sind und an den Polen zusammenlaufen, variiert ihr Abstand stark. Jeder Breitengrad ist etwa 69 Meilen (111 Kilometer) auseinander. Der Abstand variiert (aufgrund der leicht ellipsoiden Form der Erde) von 68,703 Meilen (110,567 km) am Äquator bis 69,407 (111,699 km) an den Polen. Dies ist praktisch, weil jede Minute (1/60 eines Grades) ungefähr einer [nautischen] Meile entspricht. Ein Längengrad ist am Äquator mit 69,172 Meilen am breitesten (111,321) und schrumpft an den Polen allmählich auf Null. Bei 40° Nord oder Süd beträgt der Abstand zwischen einem Längengrad 53 Meilen (85 km) Beachten Sie, dass auf der ursprünglichen Website (about.com) der Zusatz &quot;nautisch&quot; fälschlicherweise weggelassen wurde.
Supongamos que tengo las coordenadas geográficas de &quot;Saratoga, California, USA&quot; como ```Latitud 37°15.8298′ N Longitud: 122° 1.3806′ O ``` Sé por aquí que en el caso de la latitud ```1° ≈ 69 millas`` y que la longitud varía: ```1° de longitud = coseno (latitud) * longitud del grado (millas) en el Ecuador. ``` ¿Cuántas millas son 1° de longitud en ``longitud: 122°1.3806′ W```?
No importa en qué longitud te encuentres. Lo que importa es a qué latitud estás. Longitud de ``1 grado de Longitud`` = ``coseno (latitud en radianes) * longitud del grado (millas) en el ecuador``. Convierte tu latitud en grados decimales ~ 37.26383 Convierte tus grados decimales en radianes ~ 0.65038 Tome el coseno del valor en radianes ~ 0.79585 1 grado de longitud = ~ 0,79585 * 69,172 = ~ 55,051 millas Más información útil en el sitio web about.com: Los grados de latitud son paralelos por lo que la distancia entre cada grado es casi constante, pero como los grados de longitud están más alejados en el ecuador y convergen en los polos, su distancia varía mucho. enormemente. Cada grado de latitud está aproximadamente a 69 millas (111 kilómetros) de distancia. La distancia varía (debido a la forma ligeramente elipsoidal de la Tierra) de 68,703 millas (110,567 km) en el ecuador a 69,407 (111,699 km) en los polos. Esto es conveniente porque cada minuto (1/60 de un grado) equivale aproximadamente a una milla [náutica]. Un grado de longitud es más ancho en el ecuador con 69,172 millas (111,321) y se reduce gradualmente hasta cero en los polos. A 40° norte o sur la distancia entre un grado de longitud es de 53 millas (85 km) Nótese que el sitio original (about.com) omitió erróneamente el calificativo &quot;náutico&quot;.
Supposons que je dispose des coordonnées géographiques de &quot;Saratoga, California, USA&quot ; comme suit ```Latitude : 37°15.8298′ N Longitude : 122° 1.3806′ W ``` Je sais d'ici que dans le cas de la latitude ``1° ≈ 69 miles`` et que la longitude varie : ``1° longitude = cosinus (latitude) * longueur du degré (miles) à l'équateur. ``` Combien de miles représentent 1° de longitude à ``longitude : 122°1.3806′ W`` ?
La longitude n'a pas d'importance. Ce qui compte, c'est la latitude à laquelle vous vous trouvez. Longueur de ``1 degré de longitude`` = ``cosinus (latitude en radians) * longueur du degré (miles) à l'équateur``. Convertissez votre latitude en degrés décimaux ~ 37.26383 Convertissez vos degrés décimaux en radians ~ 0.65038 Prenez le cosinus de la valeur en radians ~ 0.79585 1 degré de longitude = ~0,79585 * 69,172 = ~ 55,051 miles Plus d'informations utiles sur le site about.com : Les degrés de latitude sont parallèles, de sorte que la distance entre chaque degré reste presque constante, mais comme les degrés de longitude sont les plus éloignés à l'équateur à l'équateur et convergent aux pôles, leur distance varie considérablement. varie considérablement. Chaque degré de latitude est distant d'environ 111 kilomètres (69 miles). de distance. La distance varie (en raison de la forme légèrement ellipsoïdale de la Terre) de 110,567 km (68,703 miles) à l'équateur à 111,699 km (69,407 miles) aux pôles. aux pôles. Cela est pratique car chaque minute (1/60e de degré) correspond approximativement à un [nautisme]. degré) représente approximativement un mille [nautique]. Un degré de longitude est le plus large à l'équateur, soit 69,172 miles (111,321) et se rétrécit progressivement jusqu'à zéro aux pôles. À 40° nord ou sud, la distance entre deux degrés de longitude est de 53 miles (85 km). Notez que le site original (about.com) a omis par erreur le qualificatif "nautique".
Supponiamo di avere le coordinate geografiche di &quot;Saratoga, California, USA&quot; come ``Latitudine: 37°15.8298′ N Longitudine: 122° 1.3806′ W ``` Da qui so che nel caso della latitudine ``1° ≈ 69 miglia`` e che la longitudine varia: ```1° di longitudine = coseno (latitudine) * lunghezza del grado (miglia) all'Equatore. ``` A quante miglia corrisponde 1° di longitudine a ``longitudine: 122°1,3806′ W``?
Non importa a quale longitudine ci si trovi. Ciò che conta è a quale latitudine ci si trova. Lunghezza di ``1 grado di longitudine`` = ```coseno (latitudine in radianti) * lunghezza del grado (miglia) all'equatore``. Convertire la latitudine in gradi decimali ~ 37,26383 Convertire i gradi decimali in radianti ~ 0,65038 Prendere il coseno del valore in radianti ~ 0,79585 1 grado di longitudine = ~ 0,79585 * 69,172 = ~ 55,051 miglia Altre informazioni utili dal sito web about.com: I gradi di latitudine sono paralleli, per cui la distanza tra un grado e l'altro rimane quasi costante, ma dal momento che i gradi di longitudine sono più lontani all'equatore e convergono ai poli, la loro distanza varia notevolmente. notevolmente. Ogni grado di latitudine è distante circa 111 chilometri. a distanza di circa 69 miglia (111 chilometri). La distanza varia (a causa della forma leggermente ellissoidale della Terra) dalle 68,703 miglia (110,567 km) all'equatore alle 69,407 (111,699 km) ai poli. Questo è conveniente perché ogni minuto (1/60 di grado) corrisponde approssimativamente a una [nautica]. grado) corrisponde a circa un miglio [nautico]. Un grado di longitudine è il più ampio all'equatore, con 69,172 miglia (111,321) e si riduce gradualmente a zero ai poli. A 40° nord o sud la distanza tra un grado di longitudine e l'altro è di 53 miglia (85 km). Si noti che il sito originale (about.com) ha erroneamente omesso il qualificatore &quot;nautical&quot;.
66
I have read numerous times that some Norse warriors, upon death, would go in Fólkvangr, while some others would go to Valhalla. How was it decided which warrior would go to which place? Why did the need to have many "paradises" (whatever you many call it) exist? Citing Wikipedia: > In Norse mythology, Fólkvangr (Old Norse "field of the host" or "people-field" or "army-field") is a meadow or field ruled over by the goddess Freyja where half of those that die in combat go upon death, while the other half go to the god Odin in Valhalla.
The Norse mythological texts record three primary places where the dead were perceived to go: Helheim (Old Norse Helheimr, “the home of the goddess Hel“), Valhalla (Old Norse Valhöll, “the hall of the fallen”), and Folkvang (Old Norse Fólkvangr, “the field of the people” or “the field of warriors”). But they're indistinguishable and don't have any major differences between them. Valhalla is presided over by Odin, and to gain entrance to it, one must be chosen by him and his valkyries, the “choosers of the fallen.” Similarily, entrance to Folkvang is dependent upon being selected by Freya. Valhalla is often depicted as a realm where distinguished warriors engage in a continuous battle, and just such a place is described, in important early sources, as being located beneath the ground – and, intriguingly, without the name “Valhalla” or a cognate anywhere in the account. source: Ellis, Hilda Roderick. 1968. The Road to Hel: A Study of the Conception of the Dead in Old Norse Literature. p. 85-86. * Folkvang is the ninth, and there Freyia arranges the choice of seats in the hall; half the slain she chooses every day, and half Odin owns. source: 1996 Carolyne Larrington in The Poetic Edda “Grimnir’s Sayings” The only difference that is pointed out, is in the way that the dead are chosen to stay. Odin chooses for Valhalla, while Freya chooses for Folkvang. Coming to the second part of the question: And why did the need to have many "paradises" (whatever you many call it) exist? Hel is a place where all humans have to go after their death: “For there is a time when every man shall journey hence to Hel." Fáfnismál 10 So before the dead finally reach Hel, Odin and Freyja select the ones who are worthy of living in Valhalla and Folkvang. Therefore, * Valhalla receives distinguished warriors. * Folkvangr receives the rest of the warriors. * Hel receives the rest of the dead. source: Norse-Mythology.org
Ich habe mehrfach gelesen, dass einige nordische Krieger nach ihrem Tod nach Fólkvangr gehen, während andere nach Walhalla gehen würden. Wie wurde entschieden, welcher Krieger an welchen Ort gehen würde? Warum brauchte man so viele "Paradiese" (wie auch immer man es nennen mag)? Ich zitiere Wikipedia: > In der nordischen Mythologie ist Fólkvangr (altnordisch "Feld der Heerscharen" oder "Volksfeld" oder "Heerfeld") eine Wiese oder ein Feld, das von der Göttin Freyja beherrscht wird und auf das die Hälfte derjenigen, die im Kampf sterben, nach ihrem Tod gehen, während die andere Hälfte zum Gott Odin nach Walhalla geht.
In den Texten der nordischen Mythologie gibt es drei Hauptorte, an die die Toten gehen sollten: Helheim (altnordisch Helheimr, "die Heimat der Göttin Hel"), Walhalla (altnordisch Valhöll, "die Halle der Gefallenen") und Folkvang (altnordisch Fólkvangr, "das Feld der Menschen" oder "das Feld der Krieger"). Sie sind jedoch nicht voneinander zu unterscheiden und weisen keine größeren Unterschiede auf. Walhalla wird von Odin regiert, und um dorthin zu gelangen, muss man von ihm und seinen Walküren, den "Auserwählten der Gefallenen", ausgewählt werden. In ähnlicher Weise muss man von Freya ausgewählt werden, um nach Folkvang zu gelangen. Walhalla wird oft als ein Reich dargestellt, in dem sich hervorragende Krieger in einem ständigen Kampf befinden, und genau ein solcher Ort wird in wichtigen frühen Quellen als unter der Erde liegend beschrieben - und interessanterweise ohne den Namen "Walhalla" oder einen verwandten Begriff. Quelle: Ellis, Hilda Roderick. 1968. Der Weg nach Hel: Eine Studie über die Vorstellung von den Toten in der altnordischen Literatur. S. 85-86. * Folkvang ist der neunte, und dort arrangiert Freyia die Auswahl der Plätze in der Halle; die Hälfte der Erschlagenen wählt sie jeden Tag aus, und die Hälfte gehört Odin. Quelle: 1996 Carolyne Larrington in der Poetischen Edda "Grimnirs Sprüche" Der einzige Unterschied, auf den hingewiesen wird, ist die Art und Weise, wie die Toten für den Verbleib ausgewählt werden. Odin wählt für Walhalla, während Freya für Folkvang wählt. Kommen wir zum zweiten Teil der Frage: Warum gab es die Notwendigkeit, viele "Paradiese" (wie auch immer man es nennen mag) zu haben? Hel ist ein Ort, an den alle Menschen nach ihrem Tod gehen müssen: "Denn es kommt die Zeit wenn jeder Mensch nach Hel reisen wird." Fáfnismál 10 Bevor die Toten also endgültig nach Hel gelangen, wählen Odin und Freyja diejenigen aus, die es wert sind, in Walhalla und Folkvang zu leben. Deshalb, * Walhalla erhält die ausgezeichneten Krieger. * Folkvangr erhält den Rest der Krieger. * Hel nimmt den Rest der Toten auf. Quelle: Nordische-Mythologie.org
He leído en numerosas ocasiones que algunos guerreros nórdicos, al morir, irían en Fólkvangr, mientras que otros irían al Valhalla. ¿Cómo se decidía qué guerrero iría a cada lugar? ¿Por qué existía la necesidad de tener muchos "paraísos" (como muchos lo llamen)? Citando a Wikipedia: > En la mitología nórdica, Fólkvangr (en nórdico antiguo "campo de la hueste" o "campo del pueblo" o "campo del ejército") es una pradera o campo gobernado por la diosa Freyja donde la mitad de los que mueren en combate van al morir, mientras que la otra mitad va al dios Odín en Valhalla.
Los textos mitológicos nórdicos recogen tres lugares principales a los que se consideraba que iban los muertos: Helheim (nórdico antiguo Helheimr, "el hogar de la diosa Hel"), Valhalla (nórdico antiguo Valhöll, "el salón de los caídos") y Folkvang (nórdico antiguo Fólkvangr, "el campo del pueblo" o "el campo de los guerreros"). Pero son indistinguibles y no presentan grandes diferencias entre sí. El Valhalla está presidido por Odín, y para entrar en él hay que ser elegido por él y sus valquirias, las "elegidoras de los caídos". Del mismo modo, la entrada a Folkvang depende de ser elegido por Freya. El Valhalla suele representarse como un reino en el que guerreros distinguidos libran una batalla continua, y en importantes fuentes tempranas se describe este lugar como situado bajo tierra, y, curiosamente, sin el nombre "Valhalla" o un cognado en ninguna parte del relato. Fuente: Ellis, Hilda Roderick. 1968. The Road to Hel: A Study of the Conception of the Dead in Old Norse Literature. p. 85-86. * Folkvang es la novena, y allí Freyia organiza la elección de los asientos en la sala; la mitad de los muertos que ella elige cada día, y la otra mitad es de Odín. Fuente: 1996 Carolyne Larrington en The Poetic Edda "Grimnir's Sayings". La única diferencia que se señala, es en la forma en que los muertos son elegidos para quedarse. Odín elige el Valhalla, mientras que Freya elige el Folkvang. Llegando a la segunda parte de la pregunta: ¿Y por qué la necesidad de tener muchos "paraísos" (como muchos lo llamen)? Hel es un lugar al que todos los humanos tienen que ir después de su muerte: "Porque hay un tiempo en que todo hombre partirá hacia Hel". Fáfnismál 10 Así que antes de que los muertos lleguen finalmente a Hel, Odín y Freyja seleccionan a los que son dignos de vivir en Valhalla y Folkvang. Por lo tanto, * Valhalla recibe a los guerreros distinguidos. * Folkvangr recibe al resto de los guerreros. * Hel recibe al resto de los muertos. fuente: Norse-Mythology.org
J'ai lu à plusieurs reprises que certains guerriers nordiques, à leur mort, allaient au Fólkvangr, tandis que d'autres allaient au Valhalla. Comment a-t-on décidé quel guerrier irait à quel endroit ? Pourquoi le besoin d'avoir plusieurs "paradis" (quel que soit le nom qu'on leur donne) a-t-il existé ? Citation de Wikipédia : > Dans la mythologie nordique, Fólkvangr (en vieux norrois "champ de l'armée" ou "champ du peuple" ou "champ de l'armée") est une prairie ou un champ gouverné par la déesse Freyja où la moitié de ceux qui meurent au combat se rendent à leur mort, tandis que l'autre moitié va rejoindre le dieu Odin au Valhalla.
Les textes mythologiques nordiques font état de trois lieux principaux où les morts étaient censés se rendre : Helheim (vieux norrois Helheimr, "la demeure de la déesse Hel"), Valhalla (vieux norrois Valhöll, "la salle des morts") et Folkvang (vieux norrois Fólkvangr, "le champ du peuple" ou "le champ des guerriers"). Mais ils sont indiscernables et ne présentent pas de différences majeures entre eux. Le Valhalla est présidé par Odin, et pour y accéder, il faut être choisi par lui et ses valkyries, les "élus des morts". De la même façon, pour entrer au Folkvang, il faut être choisi par Freya. Le Valhalla est souvent dépeint comme un royaume où les guerriers distingués s'engagent dans une bataille continue, et un tel lieu est décrit, dans d'importantes sources anciennes, comme étant situé sous le sol - et, chose intrigante, sans que le nom "Valhalla" ou un terme apparenté n'apparaisse nulle part dans le récit. source : Ellis, Hilda Roderick. 1968. The Road to Hel : A Study of the Conception of the Dead in Old Norse Literature. p. 85-86. * Le Folkvang est le neuvième, et c'est là que Freyia organise le choix des sièges dans la salle. le choix des places dans la salle ; elle choisit chaque jour la moitié des morts, et la moitié appartient à Odin. source : 1996 Carolyne Larrington dans The Poetic Edda "Grimnir's Sayings". La seule différence soulignée est la façon dont les morts sont choisis pour rester. Odin choisit le Valhalla, tandis que Freya choisit le Folkvang. J'en viens à la deuxième partie de la question : Pourquoi le besoin d'avoir plusieurs "paradis" (quel que soit le nom qu'on leur donne) s'est-il fait sentir ? Hel est un endroit où tous les humains doivent se rendre après leur mort : "Car il y a un temps où chaque homme se rendra à Hel." Fáfnismál 10 Ainsi, avant que les morts n'atteignent Hel, Odin et Freyja sélectionnent ceux qui sont dignes de vivre au Valhalla et au Folkvang. C'est pourquoi, * Le Valhalla reçoit les guerriers distingués. * Folkvangr reçoit le reste des guerriers. * Hel reçoit le reste des morts. source : Norse-Mythology.org
Ho letto più volte che alcuni guerrieri norreni, alla loro morte, andavano nel Fólkvangr, mentre altri andavano nel Valhalla. Come si decideva quale guerriero sarebbe andato in quale luogo? Perché esisteva la necessità di avere molti "paradisi" (come li chiamate voi)? Citando Wikipedia: > Nella mitologia norrena, Fólkvangr (in norreno antico "campo dell'ospite" o "campo del popolo" o "campo dell'esercito") è un prato o un campo governato dalla dea Freyja dove la metà di coloro che muoiono in combattimento vanno alla morte, mentre l'altra metà va al dio Odino nel Valhalla.
I testi mitologici norreni riportano tre luoghi primari in cui i morti erano percepiti come diretti: Helheim (antico norreno Helheimr, "la casa della dea Hel"), Valhalla (antico norreno Valhöll, "la sala dei caduti") e Folkvang (antico norreno Fólkvangr, "il campo del popolo" o "il campo dei guerrieri"). Ma sono indistinguibili e non presentano differenze sostanziali tra loro. Il Valhalla è presieduto da Odino e per accedervi bisogna essere scelti da lui e dalle sue valchirie, i "selezionatori dei caduti". Analogamente, l'ingresso a Folkvang dipende dall'essere scelti da Freya. Il Valhalla è spesso raffigurato come un regno in cui guerrieri illustri si impegnano in una battaglia continua, e proprio un luogo di questo tipo è descritto, in importanti fonti antiche, come situato sotto terra - e, cosa curiosa, senza il nome "Valhalla" o un suo corrispondente in nessuna parte del racconto. fonte: Ellis, Hilda Roderick. 1968. La strada per Hel: A Study of the Conception of the Dead in Old Norse Literature. p. 85-86. * Folkvang è il nono, e lì Freyia organizza la scelta dei posti nella sala. la scelta dei posti nella sala; ogni giorno sceglie la metà degli uccisi, e metà è di Odino. fonte: 1996 Carolyne Larrington in L'Edda poetica "I detti di Grimnir". L'unica differenza che viene sottolineata è nel modo in cui i morti vengono scelti per rimanere. Odino sceglie per il Valhalla, mentre Freya sceglie per Folkvang. Veniamo alla seconda parte della domanda: E perché esisteva la necessità di avere molti "paradisi" (comunque li si voglia chiamare)? Hel è un luogo dove tutti gli esseri umani devono andare dopo la loro morte: "Perché c'è un tempo in cui ogni uomo si recherà a Hel". Fáfnismál 10 Quindi, prima che i morti raggiungano finalmente Hel, Odino e Freyja selezionano coloro che sono degni di vivere nel Valhalla e nel Folkvang. Quindi, * il Valhalla riceve i guerrieri illustri. * Folkvangr riceve il resto dei guerrieri. * Hel riceve il resto dei morti. fonte: Mitologia norrena.org
67
I noticed that there is a binary executable ```/bin/echo``` on my Ubuntu MATE 17.04 system. I thought, that's odd, because ```$ type echo echo is a shell builtin``` Cursory testing suggests that ```/bin/echo``` does the same sort of thing as the Bash builtin ```echo```: ```$ /bin/echo foo foo $ /bin/echo $USER zanna ``` So, why is there another version of ```echo``` separate from the Bash program, and why or when would I want to use it?
If you open up a ```bash``` prompt and type in an ```echo``` command, that uses a shell builtin rather than running ```/bin/echo```. The reasons it is still important for ```/bin/echo``` to exist are: * You're not always using a shell. Under a variety of circumstances, you run an executable directly and not through a shell. * At least in theory, some shells don't have an ```echo``` builtin. This is not actually required. To expand on #1, suppose you wanted to move all the regular files whose names started with ```abc``` anywhere in ```src``` to ```dest```. There are several ways to do that but one of them is: ```find src -name 'abc*' -type f -exec mv -nv {} dest/ \; ``` But suppose, rather than just running that, you want to see every command that will be run first. Well, then you can prepend ```echo``` to the command, just as you might in other contexts: ```find src -name 'abc*' -type f -exec echo mv -nv {} dest/ \; ``` But ```find``` doesn't use a shell. That runs ```/bin/echo```. Besides ```find``` with ```-exec``` or ```-execdir```, the ```/bin/echo``` executable will be called by other programs that themselves run programs but not through a shell. This happens with the ```xargs``` command (which is related to ```find```), as well as in a number of other contexts, such as the ```Exec=``` line of a ```.desktop``` file. Another example is when you run ```sudo echo```, which can be handy for testing if ```sudo``` is working. Similarly, some shells have a ```printf``` builtin but ```/usr/bin/printf``` also exists. A less common possible reason you might deliberately use ```/bin/echo``` is if you were relying on the differences between it and the ```echo``` command provided by your shell. ```man echo``` documents ```/bin/echo```; ```help echo``` in ```bash``` documents the ```bash``` builtin. ```echo``` is not very portable, because different implementations--both across operating systems and across shells on the same operating system--support different options (e.g., ```-e```) and differ in their treatment of backslashes. Of course, it's better to avoid relying on such details, and use ```printf``` instead, which is far more portable. In ```bash```, you can make the ```type``` builtin show ```/bin/echo``` as well--assuming ```/bin``` is in your ```$PATH``` as it always should be--by passing it the ```-a``` flag: ```$ type -a echo echo is a shell builtin echo is /bin/echo ```
Ich habe bemerkt, dass es auf meinem Ubuntu MATE 17.04 System eine binäre ausführbare Datei ```/bin/echo``` gibt. Ich dachte, das ist seltsam, denn ```$ echo eingeben echo ist ein Shell-Builtin``` Ein flüchtiger Test deutet darauf hin, dass ```/bin/echo``` das gleiche tut wie das Bash-Builtin ```echo```: ```$ /bin/echo foo foo $ /bin/echo $USER zanna ``` Warum gibt es also eine weitere Version von ```echo``, die vom Bash-Programm getrennt ist, und warum oder wann sollte ich sie benutzen?
Wenn Sie eine ```bash``-Eingabeaufforderung öffnen und einen ```echo``-Befehl eingeben, verwenden Sie damit ein Shell-Builtin, anstatt ```/bin/echo``` auszuführen. Die Gründe, warum es immer noch wichtig ist, dass ```/bin/echo``` existiert, sind: * Sie benutzen nicht immer eine Shell. Unter einer Vielzahl von Umständen führen Sie eine ausführbare Datei direkt und nicht über eine Shell aus. * Zumindest theoretisch haben einige Shells kein ```echo`` eingebaut. Dies ist eigentlich nicht erforderlich. Um #1 zu erweitern, nehmen wir an, Sie wollten alle regulären Dateien, deren Namen mit ``abc`` irgendwo in ```src`` beginnen, nach ``dest`` verschieben. Es gibt mehrere Möglichkeiten, dies zu tun, aber eine davon ist: ```find src -name 'abc*' -type f -exec mv -nv {} dest/ \; ``` Aber nehmen wir an, Sie wollen nicht nur diesen Befehl ausführen, sondern jeden Befehl sehen, der zuerst ausgeführt wird. Dann k?nnen Sie dem Befehl ein ``echo`` voranstellen, so wie Sie es auch in anderen Zusammenh?ngen tun k?nnten: ```find src -name 'abc*' -type f -exec echo mv -nv {} dest/ \; ``` Aber ```find`` benutzt keine Shell. Es wird ```/bin/echo`` ausgeführt. Neben ```find`` mit ```-exec`` oder ```-execdir`` wird die ausführbare Datei ```/bin/echo`` von anderen Programmen aufgerufen, die selbst Programme ausführen, aber nicht über eine Shell. Dies geschieht mit dem Befehl ```xargs`` (der mit ```find`` verwandt ist), sowie in einer Reihe anderer Zusammenhänge, wie z.B. der Zeile ```Exec=``` in einer ```.desktop``-Datei. Ein weiteres Beispiel ist die Ausführung von ```Sudo echo```, die nützlich sein kann, um zu testen, ob ```Sudo``` funktioniert. In ähnlicher Weise haben einige Shells ein ```printf`` eingebaut, aber ```/usr/bin/printf`` existiert auch. Ein seltener Grund, warum Sie absichtlich ```/bin/echo`` verwenden, ist, wenn Sie sich auf die Unterschiede zwischen diesem und dem Befehl ```echo``` verlassen, der von Ihrer Shell bereitgestellt wird. ```man echo``` dokumentiert ```/bin/echo```; ```help echo``` in ```bash`` dokumentiert das ```bash`` builtin. ```echo``` ist nicht sehr portabel, da verschiedene Implementierungen - sowohl zwischen verschiedenen Betriebssystemen als auch zwischen verschiedenen Shells auf demselben Betriebssystem - verschiedene Optionen (z.B. ```-e```) unterstützen und sich in ihrer Behandlung von Backslashes unterscheiden. Natürlich ist es besser, sich nicht auf solche Details zu verlassen und stattdessen ```printf`` zu benutzen, das viel portabler ist. In der ```Bash`` kann das ```type`` builtin auch ```/bin/echo`` anzeigen - vorausgesetzt ```/bin``` befindet sich in Ihrem ```$PATH``, was immer der Fall sein sollte -, indem Sie ihm das ```-a`` Flag übergeben: ```$ type -a echo echo ist ein Shell-Builtin echo ist /bin/echo ```
Me di cuenta de que hay un ejecutable binario ```/bin/echo`` en mi sistema Ubuntu MATE 17.04. Pensé, que es extraño, porque ```$ tipo echo echo es un shell incorporado``` Pruebas rápidas sugieren que ```/bin/echo`` hace el mismo tipo de cosas que el Bash builtin ```echo``: ```$ /bin/echo foo foo $ /bin/echo $USUARIO zanna ``` Entonces, ¿por qué hay otra versión de ```echo`` separada del programa Bash, y por qué o cuándo querría usarla?
Si abres un prompt ```bash`` y tecleas un comando ``echo``, estarás usando un intérprete de comandos en lugar de ejecutar ```/bin/echo``. Las razones por las que sigue siendo importante que exista ```/bin/echo`` son: * No siempre estás usando un shell. Bajo una variedad de circunstancias, ejecutas un ejecutable directamente y no a través de un shell. * Al menos en teoría, algunos shells no tienen un ```echo`` incorporado. En realidad, esto no es necesario. Para ampliar en # 1, supongamos que desea mover todos los archivos regulares cuyos nombres comienzan con ```abc`` en cualquier lugar en ```src`` a ```dest``. Hay varias formas de hacerlo pero una de ellas es: ```find src -name 'abc*' -type f -exec mv -nv {} dest/ \.; ``` Pero supongamos que, en lugar de sólo ejecutar eso, quieres ver todos los comandos que se ejecutarán primero. Bien, entonces puedes añadir ``echo`` al comando, tal y como harías en otros contextos: ```find src -name 'abc*' -type f -exec echo mv -nv {} dest/ \.; ``` Pero ```find`` no utiliza una shell. Que ejecuta ```/bin/echo``. Además de ```find`` con ```-exec`` o ```-execdir``, el ejecutable ```/bin/echo`` será llamado por otros programas que a su vez ejecutan programas pero no a través de una shell. Esto ocurre con el comando ``xargs`` (que está relacionado con ``find``), así como en otros contextos, como la línea ``Exec=``` de un archivo ```.desktop``. Otro ejemplo es cuando ejecutas ``sudo echo``, que puede ser útil para comprobar si ``sudo`` está funcionando. Del mismo modo, algunos shells tienen un ``printf`` incorporado pero ```/usr/bin/printf`` también existe. Una posible razón menos común por la que podrías usar deliberadamente ```/bin/echo`` es si estuvieras confiando en las diferencias entre éste y el comando ```echo`` proporcionado por tu shell. ```man echo`` documenta ```/bin/echo``; ```help echo`` en ```bash`` documenta el ```bash`` builtin. ``echo`` no es muy portable, porque las diferentes implementaciones--tanto entre sistemas operativos como entre shells en el mismo sistema operativo--soportan diferentes opciones (por ejemplo, ```-e``) y difieren en su tratamiento de las barras invertidas. Por supuesto, es mejor evitar depender de estos detalles, y usar ``printf`` en su lugar, que es mucho más portable. En ``bash``, puedes hacer que ``type`` también muestre ```/bin/echo``--asumiendo que ```/bin`` está en tu ```$PATH`` como siempre debería estar--pasándole la bandera ```-a``: ```$ type -a echo echo es un shell builtin echo es /bin/echo ```
J'ai remarqué qu'il y avait un exécutable binaire ``/bin/echo`` sur mon système Ubuntu MATE 17.04. Je me suis dit que c'était bizarre, parce que ```$ type echo echo est une fonction intégrée de l'interpréteur de commandes``` Un test rapide suggère que ``/bin/echo``` fait la même chose que le builtin Bash ``echo``` : ``$ /bin/echo foo foo $ /bin/echo $USER zanna ``` Alors, pourquoi existe-t-il une autre version de ``echo`` séparée du programme Bash, et pourquoi ou quand voudrais-je l'utiliser ?
Si vous ouvrez une invite ``bash`` et que vous tapez une commande ``echo``, cela utilise une construction du shell plutôt que d'exécuter ``/bin/echo``. Les raisons pour lesquelles il est encore important que ``/bin/echo`` existe sont les suivantes : * Vous n'utilisez pas toujours un interpréteur de commandes. Dans de nombreuses circonstances, vous exécutez un exécutable directement et non par l'intermédiaire d'un interpréteur de commandes. * Au moins en théorie, certains interpréteurs de commandes n'ont pas de ``echo`` intégré. Ce n'est en fait pas nécessaire. Pour développer le point 1, supposons que vous vouliez déplacer tous les fichiers réguliers dont les noms commencent par ``abc`` n'importe où dans ``src`` vers ``dest``. Il y a plusieurs façons de faire cela, mais l'une d'entre elles est la suivante : ``recherche src -nom 'abc*' -type f -exec mv -nv {} dest/ \ ; ``` Mais supposons que, plutôt que de lancer cette commande, vous vouliez voir toutes les commandes qui seront lancées en premier. Eh bien, vous pouvez ajouter ``echo`` à la commande, comme vous le feriez dans d'autres contextes : ``Find src -name 'abc*' -type f -exec echo mv -nv {} dest/ \ ; ``` Mais ``find`` n'utilise pas de shell. Celui-ci exécute ``/bin/echo``. En plus de ``find`` avec ``-exec`` ou ``-execdir``, l'exécutable ``/bin/echo`` sera appelé par d'autres programmes qui exécutent eux-mêmes des programmes, mais sans passer par un interpréteur de commandes. Cela se produit avec la commande ``xargs`` (qui est liée à ``find``), ainsi que dans un certain nombre d'autres contextes, comme la ligne ``Exec=`` d'un fichier ``.desktop``. Un autre exemple est lorsque vous exécutez ``sudo echo``, ce qui peut être pratique pour tester si ``sudo`` fonctionne. De même, certains shells ont un ``printf`` intégré mais ``/usr/bin/printf`` existe aussi. Une raison moins courante pour laquelle vous pourriez utiliser délibérément ``/bin/echo`` est que vous comptiez sur les différences entre cette commande et la commande ``echo`` fournie par votre interpréteur de commandes. ``man echo`` documente ``/bin/echo`` ; ``help echo`` dans ``bash`` documente la commande intégrée ``bash``. ``echo`` n'est pas très portable, car les différentes implémentations - à la fois entre systèmes d'exploitation et entre shells sur le même système d'exploitation - supportent différentes options (par exemple, ``-e``) et diffèrent dans leur traitement des barres obliques inverses. Bien sûr, il est préférable de ne pas se fier à de tels détails, et d'utiliser ``printf`` à la place, qui est bien plus portable. Dans ``bash``, vous pouvez faire en sorte que le ``type`` intégré affiche aussi ``/bin/echo`` - en supposant que ``/bin`` soit dans votre ``$PATH`` comme il devrait toujours l'être - en lui passant le drapeau ``-a`` : ``$ type -a echo echo est une fonction intégrée de l'interpréteur de commandes echo est /bin/echo ```
Ho notato che sul mio sistema Ubuntu MATE 17.04 è presente un eseguibile binario ```/bin/echo``. Ho pensato che è strano, perché ```$ tipo echo echo è una funzione integrata della shell``. Un test sommario suggerisce che ```/bin/echo`` fa lo stesso tipo di cose del builtin di Bash ```echo``: ````$ /bin/echo foo foo $ /bin/echo $USER zanna ``` Allora, perché esiste un'altra versione di ``echo`` separata dal programma Bash, e perché o quando dovrei usarla?
Se si apre un prompt di ``bash'' e si digita un comando ```echo'', si utilizza un builtin della shell invece di eseguire ```/bin/echo''. I motivi per cui è ancora importante che esista ```/bin/echo`` sono: * Non si usa sempre una shell. In diverse circostanze, si esegue un eseguibile direttamente e non attraverso una shell. * Almeno in teoria, alcune shell non hanno un builtin ```echo``. In realtà non è necessario. Per espandere il punto #1, supponiamo di voler spostare tutti i file regolari i cui nomi iniziano con ```abc`` in qualsiasi punto di ``src`` a ```dest``. Ci sono diversi modi per farlo, ma uno di questi è: ``trova src -nome 'abc*' -tipo f -exec mv -nv {} dest/ \; ``` Ma supponiamo che, invece di eseguire solo questo, si voglia vedere ogni comando che verrà eseguito per primo. Allora si può aggiungere ``echo'' al comando, proprio come si farebbe in altri contesti: ``trova src -nome 'abc*' -tipo f -exec echo mv -nv {} dest/ \; ``` Ma ```find`` non usa una shell. Questa esegue ```/bin/echo``. Oltre a ``find`` con ```exec`` o ````execdir``, l'eseguibile ```/bin/echo`` sarà chiamato da altri programmi che eseguono programmi ma non attraverso una shell. Questo accade con il comando ```xargs`` (che è legato a ```find``), così come in molti altri contesti, come la riga ```Exec=`` di un file ```.desktop``. Un altro esempio è quando si esegue ``sudo echo``, che può essere utile per verificare se ``sudo`` funziona. Allo stesso modo, alcune shell hanno un builtin ```printf``, ma esiste anche ```/usr/bin/printf``. Un motivo meno comune per cui si potrebbe usare deliberatamente ```/bin/echo`` è se si sta facendo affidamento sulle differenze tra questo e il comando ```echo`` fornito dalla propria shell. ```man echo`` documenta ```/bin/echo``; ```help echo`` in ``bash`` documenta il builtin ```bash``. ```echo`` non è molto portabile, perché le diverse implementazioni - sia tra i sistemi operativi che tra le shell dello stesso sistema operativo - supportano opzioni diverse (per esempio, ````-e``) e differiscono nel trattamento dei backslash. Naturalmente, è meglio evitare di affidarsi a questi dettagli e usare invece ```printf``, che è molto più portabile. In ``bash``, si può fare in modo che il builtin ```type`` mostri anche ```/bin/echo`` - supponendo che ````/bin`` sia nella propria ```$PATH``, come dovrebbe sempre essere - passandogli il flag ```-a``: ```$ tipo -a echo echo è un builtin della shell echo è /bin/echo ```
68
what's the difference between JavaScript objects, classes and functions?
As you must already be aware by now there are no classes in JavaScript. Instead functions in JavaScript may be made to behave like constructors by preceding a function call with the ```new``` keyword. This is known as the constructor pattern. In JavaScript everything is an object except for the primitive data types (boolean, number and string), and ```undefined```. On the other hand ```null``` is actually an object reference even though you may at first believe otherwise. This is the reason ```typeof null``` returns ```&quot;object&quot;```. Functions in JavaScript are similar to functables in Lua (i.e. they are callable objects). Hence a function can be used in place of an object. Similarly arrays are also objects in JavaScript. On the other hand objects can be thought of as associative arrays. The most important point however is that there are no classes in JavaScript because JavaScript is a prototypal object oriented language. This means that objects in JavaScript directly inherit from other objects. Hence we don't need classes. All we need is a way to create and extend objects.
Was ist der Unterschied zwischen JavaScript-Objekten, -Klassen und -Funktionen?
Wie Sie sicher schon wissen, gibt es in JavaScript keine Klassen. Stattdessen können Funktionen in JavaScript dazu gebracht werden, sich wie Konstruktoren zu verhalten, indem man einem Funktionsaufruf das Schlüsselwort ```new`` voranstellt. Dies ist als Konstruktor-Muster bekannt. In JavaScript ist alles ein Objekt, mit Ausnahme der primitiven Datentypen (Bool, Zahl und String) und ```Undefiniert``. Auf der anderen Seite ist ```null`` tatsächlich eine Objektreferenz, auch wenn man auf den ersten Blick etwas anderes glauben mag. Das ist der Grund, warum ```typeof null`` ``&quot;object&quot;``` zurückgibt. Funktionen in JavaScript sind ähnlich wie functables in Lua (d.h. sie sind aufrufbare Objekte). Daher kann eine Funktion anstelle eines Objekts verwendet werden. In ähnlicher Weise sind auch Arrays Objekte in JavaScript. Andererseits kann man sich Objekte als assoziative Arrays vorstellen. Der wichtigste Punkt ist jedoch, dass es in JavaScript keine Klassen gibt, da JavaScript eine prototypische objektorientierte Sprache ist. Das bedeutet, dass Objekte in JavaScript direkt von anderen Objekten erben. Daher brauchen wir keine Klassen. Alles, was wir brauchen, ist eine Möglichkeit, Objekte zu erstellen und zu erweitern.
¿Cuál es la diferencia entre objetos, clases y funciones de JavaScript?
Como ya debes saber, en JavaScript no hay clases. En su lugar, las funciones en JavaScript pueden comportarse como constructores precediendo la llamada a una función con la palabra clave ```new``. Esto se conoce como el patrón constructor. En JavaScript todo es un objeto excepto los tipos de datos primitivos (boolean, number y string), y ``undefined``. Por otro lado ```null`` es en realidad una referencia a un objeto aunque en un principio puedas creer lo contrario. Esta es la razón por la que ``typeof null`` devuelve ``&quot;object&quot;```. Las funciones en JavaScript son similares a los functables en Lua (es decir, son objetos invocables). Por lo tanto, una función se puede utilizar en lugar de un objeto. Del mismo modo, las matrices también son objetos en JavaScript. Por otra parte, los objetos pueden considerarse como matrices asociativas. Sin embargo, lo más importante es que en JavaScript no hay clases porque es un lenguaje orientado a objetos prototípicos. Esto significa que los objetos en JavaScript heredan directamente de otros objetos. Por lo tanto, no necesitamos clases. Todo lo que necesitamos es una forma de crear y extender objetos.
Quelle est la différence entre les objets, les classes et les fonctions JavaScript ?
Comme vous devez déjà le savoir, il n'y a pas de classes en JavaScript. Au lieu de cela, les fonctions en JavaScript peuvent se comporter comme des constructeurs en faisant précéder l'appel à une fonction du mot-clé ``new``. C'est ce qu'on appelle le modèle du constructeur. En JavaScript, tout est objet à l'exception des types de données primitifs (booléen, nombre et chaîne) et de ``non-défini``. D'autre part, ``null`` est en fait une référence d'objet, même si vous pouvez penser le contraire à première vue. C'est la raison pour laquelle ``typeof null`` retourne ``&quot;object&quot;``. Les fonctions en JavaScript sont similaires aux functables en Lua (c'est-à-dire qu'elles sont des objets appelables). Une fonction peut donc être utilisée à la place d'un objet. De même, les tableaux sont également des objets en JavaScript. Par ailleurs, les objets peuvent être considérés comme des tableaux associatifs. Le point le plus important est qu'il n'y a pas de classes en JavaScript, car il s'agit d'un langage prototypique orienté objet. Cela signifie que les objets en JavaScript héritent directement d'autres objets. Nous n'avons donc pas besoin de classes. Tout ce dont nous avons besoin, c'est d'un moyen de créer et d'étendre des objets.
Qual è la differenza tra oggetti, classi e funzioni di JavaScript?
Come già saprete, in JavaScript non esistono classi. Al contrario, le funzioni in JavaScript possono comportarsi come costruttori, facendo precedere la chiamata a una funzione dalla parola chiave ```new``. Questo è noto come modello del costruttore. In JavaScript tutto è un oggetto, tranne i tipi di dati primitivi (booleani, numeri e stringhe) e gli ``indefiniti``. D'altra parte, ```null`` è in realtà un riferimento a un oggetto, anche se in un primo momento si potrebbe credere il contrario. Questo è il motivo per cui ```typeof null``` restituisce ```&quot;object&quot;``. Le funzioni in JavaScript sono simili ai functables in Lua (cioè sono oggetti richiamabili). Quindi una funzione può essere usata al posto di un oggetto. Allo stesso modo, anche gli array sono oggetti in JavaScript. D'altra parte, gli oggetti possono essere considerati come array associativi. Il punto più importante è che in JavaScript non esistono classi, perché JavaScript è un linguaggio orientato agli oggetti prototipali. Ciò significa che gli oggetti in JavaScript ereditano direttamente da altri oggetti. Quindi non abbiamo bisogno di classi. Tutto ciò di cui abbiamo bisogno è un modo per creare ed estendere gli oggetti.
69
In most introductory algorithm classes, notations like $O$ (Big O) and $\Theta$ are introduced, and a student would typically learn to use one of these to find the time complexity. However, there are other notations, such as $o$, $\Omega$ and $\omega$. Are there any specific scenarios where one notation would be preferable to another?
You are referring to the Landau notation. They are not different symbols for the same thing but have entirely different meanings. Which one is "preferable" depends entirely on the desired statement. $f \in \cal{O}(g)$ means that $f$ grows at most as fast as $g$, asymptotically and up to a constant factor; think of it as a $\leq$. $f \in o(g)$ is the stricter form, i.e. $ $f \in \Omega(g)$ has the symmetric meaning: $f$ grows at least as fast as $g$. $\omega$ is its stricter cousin. You can see that $f \in \Omega(g)$ is equivalent to $g \in \cal{O}(f)$. $f \in \Theta(g)$ means that $f$ grows about as fast as $g$; formally $f \in \cal{O}(g) \cap \Omega(g)$. $f \sim g$ (asymptotic equality) is its stronger form. We often mean $\Theta$ when we use $\cal{O}$. Note how $\cal{O}(g)$ and its siblings are function classes. It is important to be very aware of this and their precise definitions -- which can differ depending on who is talking -- when doing "arithmetics" with them. When proving things, take care to work with your precise definition. There are many definitions for Landau symbols around (all with the same basic intuition), some of which are equivalent on some sets on functions but not on others. If you are interested in using Landau notation in a rigorous and sound manner, you may be interested in a work by Rutanen et al.. They formulate necessary and sufficient criteria for asymptotic notation as we use them in algorithmics, show that the common definition fails to meet them and provide a (the, in fact) workable definition. * A general definition of the O-notation for algorithm analysis by K. Rutanen et al. (2015)
In den meisten einführenden Algorithmuskursen werden Notationen wie $O$ (Big O) und $\Theta$ eingeführt, und ein Student lernt normalerweise, eine dieser Notationen zu verwenden, um die Zeitkomplexität zu bestimmen. Es gibt jedoch auch andere Bezeichnungen, wie $o$, $\Omega$ und $\omega$. Gibt es bestimmte Szenarien, in denen die eine Notation der anderen vorzuziehen ist?
Sie beziehen sich auf die Landau-Notation. Es handelt sich nicht um unterschiedliche Symbole für dieselbe Sache, sondern um völlig unterschiedliche Bedeutungen. Welche davon "vorzuziehen" ist, hängt ganz von der gewünschten Aussage ab. $f \in \cal{O}(g)$ bedeutet, dass $f$ höchstens so schnell wie $g$ wächst, asymptotisch und bis zu einem konstanten Faktor; man kann es sich als $\leq$ vorstellen. $f \in o(g)$ ist die strengere Form, d.h. $ $f \in \Omega(g)$ hat die symmetrische Bedeutung: $f$ wächst mindestens so schnell wie $g$. $\omega$ ist sein strengerer Cousin. Man kann sehen, dass $f \in \Omega(g)$ äquivalent zu $g \in \cal{O}(f)$ ist. $f \in \Theta(g)$ bedeutet, dass $f$ etwa so schnell wächst wie $g$; formal ist $f \in \cal{O}(g) \cap \Omega(g)$. $f \sim g$ (asymptotische Gleichheit) ist seine stärkere Form. Wir meinen oft $\Theta$, wenn wir $\cal{O}$ verwenden. Beachten Sie, dass $\cal{O}(g)$ und seine Geschwister Funktionsklassen sind. Es ist wichtig, sich dessen und ihrer genauen Definitionen - die sich je nach Gesprächspartner unterscheiden können - sehr bewusst zu sein, wenn man mit ihnen "rechnet". Achten Sie beim Beweisen darauf, dass Sie mit Ihrer genauen Definition arbeiten. Es gibt viele Definitionen für Landau-Symbole (alle mit der gleichen grundlegenden Intuition), von denen einige für einige Mengen von Funktionen äquivalent sind, für andere jedoch nicht. Wenn Sie daran interessiert sind, die Landau-Notation in einer rigorosen und soliden Weise zu verwenden, könnten Sie an einer Arbeit von Rutanen et al. interessiert sein. Sie formulieren notwendige und hinreichende Kriterien für die asymptotische Notation, wie wir sie in der Algorithmik verwenden, zeigen, dass die übliche Definition diese Kriterien nicht erfüllt, und liefern eine (tatsächlich) praktikable Definition. * Eine allgemeine Definition der O-Notation für die Algorithmusanalyse von K. Rutanen et al. (2015)
En la mayoría de las clases introductorias de algoritmos, se introducen notaciones como $O$ (Big O) y $\Theta$, y un estudiante normalmente aprendería a utilizar una de ellas para encontrar la complejidad temporal. Sin embargo, existen otras notaciones, como $o$, $\Omega$ y $\omega$. ¿Existe algún escenario específico en el que una notación sea preferible a otra?
Se refiere a la notación Landau. No son símbolos diferentes para lo mismo, sino que tienen significados totalmente distintos. Cuál es "preferible" depende totalmente de la afirmación deseada. $f \in \cal{O}(g)$ significa que $f$ crece a lo sumo tan rápido como $g$, asintóticamente y hasta un factor constante; piense en ello como un $\leq$. $f \in o(g)$ es la forma más estricta, es decir, $ tiene el significado simétrico: $f$ crece al menos tan rápido como $g$. $\omega$ es su primo más estricto. Se puede ver que $f en Omega(g)$ es equivalente a $g en Cal{O}(f)$. $f \in \Theta(g)$ significa que $f$ crece aproximadamente tan rápido como $g$; formalmente $f \in \cal{O}(g) \cap \Omega(g)$. $f \sim g$ (igualdad asintótica) es su forma más fuerte. A menudo nos referimos a $\Theta$ cuando usamos $\cal{O}$. Obsérvese cómo $\cal{O}(g)$ y sus hermanos son clases de funciones. Es importante ser muy consciente de esto y sus definiciones precisas - que pueden diferir dependiendo de quién está hablando - al hacer "aritmética" con ellos. Cuando demuestre cosas, tenga cuidado de trabajar con su definición precisa. Hay muchas definiciones para los símbolos de Landau por ahí (todas con la misma intuición básica), algunas de las cuales son equivalentes en algunos conjuntos sobre funciones pero no en otros. Si está interesado en utilizar la notación de Landau de forma rigurosa y sólida, quizá le interese un trabajo de Rutanen et al.. En él formulan criterios necesarios y suficientes para la notación asintótica tal y como la utilizamos en algorítmica, muestran que la definición común no los cumple y proporcionan una definición (la, de hecho) viable. * Una definición general de la notación O para el análisis de algoritmos por K. Rutanen et al. (2015)
Dans la plupart des cours d'introduction à l'algorithmique, des notations telles que $O$ (Big O) et $\Theta$ sont introduites, et un étudiant apprend généralement à utiliser l'une d'entre elles pour trouver la complexité temporelle. Cependant, il existe d'autres notations, telles que $o$, $\Omega$ et $\omega$. Existe-t-il des scénarios spécifiques dans lesquels une notation serait préférable à une autre ?
Vous faites référence à la notation de Landau. Il ne s'agit pas de symboles différents pour la même chose, mais de significations totalement différentes. Celui qui est "préférable" dépend entièrement de l'énoncé souhaité. $f \in \cal{O}(g)$ signifie que $f$ croît au maximum aussi vite que $g$, asymptotiquement et jusqu'à un facteur constant ; considérez-le comme un $\leq$. $f \in o(g)$ est la forme la plus stricte, c.-à-d. $ $f \in \Omega(g)$ a une signification symétrique : $f$ croît au moins aussi vite que $g$. $\omega$ est son cousin le plus strict. Vous pouvez voir que $f \Ndans \NOmega(g)$ est équivalent à $g \Ndans \Ncal{O}(f)$. $f \in \Theta(g)$ signifie que $f$ croît à peu près aussi vite que $g$ ; formellement $f \in \cal{O}(g) \cap \Omega(g)$. $f \sim g$ (égalité asymptotique) est la forme la plus forte de cette expression. Nous parlons souvent de $\Theta$ lorsque nous utilisons $\cal{O}$. Notez que $\cal{O}(g)$ et ses frères sont des classes de fonctions. Il est important d'être très conscient de cela et de leurs définitions précises - qui peuvent différer selon l'interlocuteur - lorsque l'on fait de l'"arithmétique" avec eux. Lorsque vous prouvez des choses, veillez à travailler avec votre définition précise. Il existe de nombreuses définitions des symboles de Landau (qui reposent toutes sur la même intuition de base), dont certaines sont équivalentes pour certains ensembles de fonctions, mais pas pour d'autres. Si vous souhaitez utiliser la notation de Landau d'une manière rigoureuse et solide, vous pourriez être intéressé par un travail de Rutanen et al. Ils formulent des critères nécessaires et suffisants pour la notation asymptotique telle que nous l'utilisons en algorithmique, montrent que la définition courante n'y répond pas et fournissent une définition (la, en fait) réalisable. * Une définition générale de la notation O pour l'analyse des algorithmes par K. Rutanen et al. (2015)
Nella maggior parte dei corsi introduttivi sugli algoritmi, vengono introdotte notazioni come $O$ (Big O) e $Theta$, e uno studente impara tipicamente a usare una di queste per trovare la complessità temporale. Tuttavia, esistono altre notazioni, come $o$, $Omega$ e $omega$. Ci sono scenari specifici in cui una notazione è preferibile a un'altra?
Lei si riferisce alla notazione Landau. Non sono simboli diversi per la stessa cosa, ma hanno significati completamente diversi. Quale sia "preferibile" dipende interamente dall'affermazione desiderata. $f \in \cal{O}(g)$ significa che $f$ cresce al massimo con la stessa velocità di $g$, asintoticamente e fino a un fattore costante; consideratela come una $leq$. $f \in o(g)$ è la forma più rigida, cioè $ $f \in \Omega(g)$ ha il significato simmetrico: $f$ cresce almeno alla stessa velocità di $g$. $omega$ è il suo cugino più stretto. Si può notare che $f \ in \Omega(g)$ è equivalente a $g \ in \cal{O}(f)$. $f ´in ´Theta(g)$ significa che $f$ cresce circa alla stessa velocità di $g$; formalmente $f ´in ´cal{O}(g) ´cap ´Omega(g)$. $f ´sim g$ (uguaglianza asintotica) è la sua forma più forte. Spesso intendiamo $Theta$ quando usiamo $cal{O}$. Si noti che $cal{O}(g)$ e i suoi fratelli sono classi di funzioni. È importante essere molto consapevoli di questo e delle loro definizioni precise - che possono variare a seconda di chi parla - quando si fa "aritmetica" con loro. Quando si dimostrano le cose, bisogna fare attenzione a lavorare con la definizione esatta. Esistono molte definizioni di simboli di Landau (tutte con la stessa intuizione di base), alcune delle quali sono equivalenti per alcuni insiemi di funzioni ma non per altri. Se siete interessati a utilizzare la notazione di Landau in modo rigoroso e corretto, potreste essere interessati a un lavoro di Rutanen e altri. Essi formulano i criteri necessari e sufficienti per la notazione asintotica così come li usiamo in algoritmica, mostrano che la definizione comune non li soddisfa e forniscono una definizione (di fatto) praticabile. * Una definizione generale della notazione O per l'analisi degli algoritmi di K. Rutanen et al. (2015)
70
Why is Gaia operating around Earth orbit? Why not send it to Neptune's orbit?
Well, you thought about the spatial aspect of a parallax measurement, but not about the temporal one. Gaia's intention is to measure 3D positions as well as 3D velocities. For the distance, you need accurate parallactic measurement, which come in with your orbital period. For a typical Gaia-star with several measurement per year, you'll get 5 values of the parallax after 5 years of time, which you then average. If you'd send Gaia towards Neptune (besides the fact that no one has ever sent an orbiter, to say nothing of a L2 mission that far out) that has a period of 168 years, then after 5 years you'd get... 5/168 th of one paralactic measurement. It simply couldn't achieve its science goals if put around the L2 behind Neptune. Also no one on this planet has any experience in putting something into a outer system L2 point. This is different than putting it into Earth's L2, because reaching the L2 around one of the giants has vast and very precise $\Delta v$ requirements. This would be a massive technological leap, and things don't work that way in space. Small, incremental technological steps are required in an anyways unfriendly environment, to make sure everything works properly and no millions of dollars have been wasted. Compare that to Gaia's predecessor, the Hipparcos satellite, which was parked in geostationary orbit. Now you could still say, why not use Jupiter hypothetically anyways. Well, the orbital period there is still 11 years, and Jupiter's L2 still suffers from the intense radiation environment that is provided by Jupiter's magnetosphere. This would lead to rapid degradation of the CCDs used for scanning across the sky.
Warum befindet sich Gaia in der Erdumlaufbahn? Warum wird sie nicht in die Neptunumlaufbahn geschickt?
Nun, Sie haben an den räumlichen Aspekt einer Parallaxenmessung gedacht, aber nicht an den zeitlichen. Gaia hat die Absicht, sowohl 3D-Positionen als auch 3D-Geschwindigkeiten zu messen. Für die Entfernung benötigen Sie eine genaue Parallaxenmessung, die mit Ihrer Umlaufzeit einhergeht. Für einen typischen Gaia-Stern mit mehreren Messungen pro Jahr erhält man nach 5 Jahren 5 Werte für die Parallaxe, die man dann mittelt. Wenn man Gaia in Richtung Neptun schickt (abgesehen davon, dass noch nie jemand einen Orbiter geschickt hat, geschweige denn eine L2-Mission so weit draußen), der eine Periode von 168 Jahren hat, dann erhält man nach 5 Jahren... 5/168stel einer paralaktischen Messung. Die Mission könnte ihre wissenschaftlichen Ziele einfach nicht erreichen, wenn sie um L2 hinter Neptun platziert würde. Außerdem hat niemand auf diesem Planeten Erfahrung damit, etwas in einen L2-Punkt eines äußeren Systems zu bringen. Das ist etwas anderes als der L2-Punkt auf der Erde, denn das Erreichen des L2-Punkts um einen der Giganten stellt hohe und sehr präzise Anforderungen an $\Delta v$. Dies wäre ein gewaltiger technologischer Sprung, und so funktioniert es im Weltraum nicht. In einer ohnehin unfreundlichen Umgebung sind kleine, schrittweise technologische Schritte erforderlich, um sicherzustellen, dass alles richtig funktioniert und keine Millionen von Dollar verschwendet wurden. Vergleichen Sie das mit Gaias Vorgänger, dem Satelliten Hipparcos, der in einer geostationären Umlaufbahn geparkt war. Nun könnte man immer noch sagen, warum nicht auch hypothetisch den Jupiter nutzen. Nun, die Umlaufzeit beträgt dort immer noch 11 Jahre, und Jupiters L2 leidet immer noch unter der intensiven Strahlungsumgebung, die von Jupiters Magnetosphäre bereitgestellt wird. Dies würde zu einer schnellen Verschlechterung der CCDs führen, die für die Abtastung des Himmels verwendet werden.
¿Por qué Gaia opera en la órbita de la Tierra? ¿Por qué no enviarlo a la órbita de Neptuno?
Bueno, has pensado en el aspecto espacial de una medición de paralaje, pero no en el temporal. La intención de Gaia es medir posiciones 3D, así como velocidades 3D. Para la distancia, necesita una medición de paralaje precisa, que viene dada por su periodo orbital. Para una estrella Gaia típica con varias mediciones al año, obtendrás 5 valores del paralaje tras 5 años de tiempo, que luego promediarás. Si enviaras Gaia hacia Neptuno (además del hecho de que nadie ha enviado nunca un orbitador, por no hablar de una misión L2 tan lejos) que tiene un período de 168 años, entonces después de 5 años obtendrías... 5/168 de una medida paraláctica. Simplemente no podría alcanzar sus objetivos científicos si se pone alrededor de la L2 detrás de Neptuno. Además nadie en este planeta tiene experiencia en poner algo en un punto L2 de un sistema exterior. Esto es diferente a ponerlo en el L2 de la Tierra, porque alcanzar el L2 alrededor de uno de los gigantes tiene unos requisitos $\Delta v$ enormes y muy precisos. Esto supondría un enorme salto tecnológico, y las cosas no funcionan así en el espacio. Se requieren pequeños pasos tecnológicos incrementales en un entorno de todos modos poco amigable, para asegurarse de que todo funciona correctamente y no se han malgastado millones de dólares. Compárese con el predecesor de Gaia, el satélite Hipparcos, que estaba estacionado en órbita geoestacionaria. Ahora bien, aún se podría decir, ¿por qué no utilizar hipotéticamente Júpiter de todos modos? Pues bien, el período orbital allí sigue siendo de 11 años, y el L2 de Júpiter sigue sufriendo el intenso entorno de radiación que proporciona la magnetosfera de Júpiter. Esto provocaría una rápida degradación de los CCD utilizados para escanear el cielo.
Pourquoi Gaia fonctionne-t-il en orbite terrestre ? Pourquoi ne pas l'envoyer sur l'orbite de Neptune ?
Vous avez pensé à l'aspect spatial d'une mesure de parallaxe, mais pas à l'aspect temporel. L'intention de Gaia est de mesurer des positions 3D ainsi que des vitesses 3D. Pour la distance, vous avez besoin de mesures parallactiques précises, qui dépendent de votre période orbitale. Pour une étoile typique de Gaia avec plusieurs mesures par an, vous obtiendrez 5 valeurs de parallaxe après 5 ans de temps, dont vous ferez ensuite la moyenne. Si vous envoyez Gaia vers Neptune (outre le fait que personne n'a jamais envoyé d'orbiteur, sans parler d'une mission L2 aussi lointaine) qui a une période de 168 ans, vous obtiendrez au bout de 5 ans... 5/168e d'une mesure paralactique. La mission ne pourrait tout simplement pas atteindre ses objectifs scientifiques si elle était placée autour de la L2 derrière Neptune. De plus, personne sur cette planète n'a d'expérience dans l'installation d'un objet dans un point L2 du système extérieur. Ce n'est pas la même chose que de le placer dans le point L2 de la Terre, car atteindre le point L2 autour de l'une des géantes nécessite des exigences très précises en matière de $\Delta v$. Il s'agirait d'un saut technologique massif, et les choses ne fonctionnent pas de cette manière dans l'espace. De petites étapes technologiques progressives sont nécessaires dans un environnement toujours hostile, pour s'assurer que tout fonctionne correctement et que des millions de dollars n'ont pas été gaspillés. Comparez cela au prédécesseur de Gaia, le satellite Hipparcos, qui était placé en orbite géostationnaire. On pourrait toujours dire : pourquoi ne pas utiliser Jupiter, de toute façon, de manière hypothétique ? Eh bien, la période orbitale est toujours de 11 ans, et l'orbite L2 de Jupiter souffre toujours de l'environnement de rayonnement intense fourni par la magnétosphère de Jupiter. Cela entraînerait une dégradation rapide des capteurs CCD utilisés pour balayer le ciel.
Perché Gaia opera intorno all'orbita terrestre? Perché non mandarlo nell'orbita di Nettuno?
Avete pensato all'aspetto spaziale di una misura di parallasse, ma non a quello temporale. L'intenzione di Gaia è quella di misurare le posizioni 3D e le velocità 3D. Per la distanza, è necessaria una misura parallattica accurata, che viene fornita con il periodo orbitale. Per una tipica stella Gaia con diverse misurazioni all'anno, si otterranno 5 valori della parallasse dopo 5 anni di tempo, di cui si farà la media. Se si invia Gaia verso Nettuno (oltre al fatto che nessuno ha mai inviato un orbiter, per non parlare di una missione L2 così lontana) che ha un periodo di 168 anni, dopo 5 anni si otterrebbe... 5/168 di una misura paralattica. Semplicemente non potrebbe raggiungere i suoi obiettivi scientifici se si mettesse intorno alla L2 dietro Nettuno. Inoltre, nessuno su questo pianeta ha esperienza nel mettere qualcosa in un punto L2 del sistema esterno. Questo è diverso dal collocarlo nella L2 della Terra, perché raggiungere la L2 intorno a uno dei giganti ha requisiti di $delta v$ molto ampi e precisi. Si tratterebbe di un enorme salto tecnologico, e nello spazio le cose non funzionano così. Sono necessari piccoli passi tecnologici incrementali in un ambiente comunque ostile, per assicurarsi che tutto funzioni correttamente e che non siano stati sprecati milioni di dollari. Si confronti con il predecessore di Gaia, il satellite Hipparcos, che era parcheggiato in orbita geostazionaria. Ora si potrebbe ancora dire: perché non usare Giove in via ipotetica? Beh, il periodo orbitale è ancora di 11 anni e Giove L2 soffre ancora dell'intenso ambiente di radiazioni fornito dalla magnetosfera di Giove. Questo porterebbe a un rapido degrado dei CCD utilizzati per la scansione del cielo.
71
I have a string representing a unix timestamp (i.e. &quot;1284101485&quot;) in Python, and I'd like to convert it to a readable date. When I use ```time.strftime```, I get a ```TypeError```: ```>>>import time >>>print time.strftime(&quot;%B %d %Y&quot;, &quot;1284101485&quot;) Traceback (most recent call last): File &quot;&quot;, line 1, in TypeError: argument must be 9-item sequence, not str ```
There are two parts here: * Convert the unix timestamp ("seconds since epoch") to the local time * Display the local time in the desired format. A portable way to get the local time that works even if the local time zone had a different utc offset in the past and python has no access to the tz database is to use a ```pytz``` timezone: ```#!/usr/bin/env python from datetime import datetime import tzlocal # $ pip install tzlocal unix_timestamp = float("1284101485") local_timezone = tzlocal.get_localzone() # get pytz timezone local_time = datetime.fromtimestamp(unix_timestamp, local_timezone) ``` To display it, you could use any time format that is supported by your system e.g.: ```print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)")) print(local_time.strftime("%B %d %Y")) # print date in your format ``` If you do not need a local time, to get a readable UTC time instead: ```utc_time = datetime.utcfromtimestamp(unix_timestamp) print(utc_time.strftime("%Y-%m-%d %H:%M:%S.%f+00:00 (UTC)")) ``` If you don't care about the timezone issues that might affect what date is returned or if python has access to the tz database on your system: ```local_time = datetime.fromtimestamp(unix_timestamp) print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f")) ``` On Python 3, you could get a timezone-aware datetime using only stdlib (the UTC offset may be wrong if python has no access to the tz database on your system e.g., on Windows): ```#!/usr/bin/env python3 from datetime import datetime, timezone utc_time = datetime.fromtimestamp(unix_timestamp, timezone.utc) local_time = utc_time.astimezone() print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)")) ``` Functions from the ```time``` module are thin wrappers around the corresponding C API and therefore they may be less portable than the corresponding ```datetime``` methods otherwise you could use them too: ```#!/usr/bin/env python import time unix_timestamp = int("1284101485") utc_time = time.gmtime(unix_timestamp) local_time = time.localtime(unix_timestamp) print(time.strftime("%Y-%m-%d %H:%M:%S", local_time)) print(time.strftime("%Y-%m-%d %H:%M:%S+00:00 (UTC)", utc_time)) ```
Ich habe eine Zeichenkette, die einen Unix-Zeitstempel (z.B. &quot;1284101485&quot;) in Python darstellt, und ich möchte sie in ein lesbares Datum umwandeln. Wenn ich ```time.strftime`` verwende, bekomme ich einen ```TypeError``: ```>>>import time >>>print time.strftime(&quot;%B %d %Y&quot;, &quot;1284101485&quot;) Traceback (letzter Aufruf): Datei &quot;&quot;, Zeile 1, in TypeError: Argument muss 9-teilige Sequenz sein, nicht str ```
Hier gibt es zwei Teile: * Konvertierung des Unix-Zeitstempels ("Sekunden seit Epoche") in die Ortszeit * Anzeige der Ortszeit im gewünschten Format. Ein portabler Weg, die lokale Zeit zu erhalten, der auch dann funktioniert, wenn die lokale Zeitzone in der Vergangenheit einen anderen utc-Offset hatte und Python keinen Zugriff auf die tz-Datenbank hat, ist die Verwendung einer ```pytz```-Zeitzone: ```#!/usr/bin/env python from datetime import datetime import tzlocal # $ pip install tzlocal unix_Zeitstempel = float("1284101485") local_timezone = tzlocal.get_localzone() # holt pytz timezone local_time = datetime.fromtimestamp(unix_timestamp, local_timezone) ``` Für die Anzeige können Sie jedes Zeitformat verwenden, das von Ihrem System unterstützt wird, z.B: ```print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)") print(local_time.strftime("%B %d %Y")) # Datum in Ihrem Format ausgeben ``` Wenn Sie keine lokale Zeit benötigen, können Sie stattdessen eine lesbare UTC-Zeit erhalten: ```utc_time = datetime.utcfromtimestamp(unix_timestamp) print(utc_time.strftime("%Y-%m-%d %H:%M:%S.%f+00:00 (UTC)")) ``` Wenn Sie sich nicht um die Zeitzonenprobleme kümmern, die das zurückgegebene Datum beeinflussen könnten, oder wenn Python Zugriff auf die tz-Datenbank auf Ihrem System hat: ```local_time = datetime.fromtimestamp(unix_timestamp) print(lokale_zeit.strftime("%Y-%m-%d %H:%M:%S.%f")) ``` Unter Python 3 können Sie eine zeitzonenkonforme Datetime nur mit stdlib erhalten (der UTC-Offset kann falsch sein, wenn Python keinen Zugriff auf die tz-Datenbank auf Ihrem System hat, z.B. unter Windows): ```#!/usr/bin/env python3 from datetime import datetime, timezone utc_time = datetime.fromtimestamp(unix_timestamp, timezone.utc) local_time = utc_time.astimezone() print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)")) ``` Die Funktionen des ```Zeit``-Moduls sind dünne Hüllen um die entsprechende C-API und können daher weniger portabel sein als die entsprechenden ```Datetime``-Methoden, sonst könnte man sie auch verwenden: ```#!/usr/bin/env python importiere Zeit unix_Zeitstempel = int("1284101485") utc_time = time.gmtime(unix_Zeitstempel) local_time = time.localtime(unix_Zeitstempel) print(time.strftime("%Y-%m-%d %H:%M:%S", local_time)) print(time.strftime("%Y-%m-%d %H:%M:%S+00:00 (UTC)", utc_time)) ```
Tengo una cadena que representa una marca de tiempo unix (por ejemplo &quot;1284101485&quot;) en Python, y me gustaría convertirla a una fecha legible. Cuando uso ``time.strftime``, obtengo un ``TypeError``: ```>>>importar tiempo >>>print time.strftime(&quot;%B %d %Y&quot;, &quot;1284101485&quot;) Traceback (última llamada más reciente): File &quot;&quot;, line 1, in TypeError: argument must be 9-item sequence, not str ```
Aquí hay dos partes: * Convertir la marca de tiempo unix ("segundos desde la época") a la hora local. * Mostrar la hora local en el formato deseado. Una forma portable de obtener la hora local que funciona incluso si la zona horaria local tuvo un desplazamiento utc diferente en el pasado y python no tiene acceso a la base de datos tz es usar una zona horaria ```pytz``: ```#!/usr/bin/env python from datetime import datetime import tzlocal # $ pip install tzlocal unix_timestamp = float("1284101485") local_timezone = tzlocal.get_localzone() # obtener zona horaria pytz local_time = datetime.fromtimestamp(unix_timestamp, local_timezone) ``` Para mostrarla, puedes usar cualquier formato de hora que soporte tu sistema, por ejemplo ```print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)")) print(local_time.strftime("%B %d %Y")) # imprime la fecha en tu formato ``` Si no necesitas una hora local, para obtener una hora UTC legible en su lugar: ``utc_time = datetime.utcfromtimestamp(unix_timestamp) print(utc_time.strftime("%Y-%m-%d %H:%M:%S.%f+00:00 (UTC)")) ``` Si no te importan los problemas de zona horaria que puedan afectar a la fecha devuelta o si python tiene acceso a la base de datos tz de tu sistema: ```local_time = datetime.fromtimestamp(unix_timestamp) print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f")) ``` En Python 3, puedes obtener una fecha y hora respetuosa con la zona horaria usando sólo stdlib (el desfase UTC puede ser incorrecto si python no tiene acceso a la base de datos tz en tu sistema, por ejemplo, en Windows): ```#!/usr/bin/env python3 from datetime import datetime, timezone utc_time = datetime.fromtimestamp(unix_timestamp, timezone.utc) local_time = utc_time.astimezone() print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)")) ``` Las funciones del módulo ```time`` son finas envolturas de la correspondiente API de C y por tanto pueden ser menos portables que los correspondientes métodos ```datetime``, de lo contrario también podrías usarlos: ```#!/usr/bin/env python importar tiempo unix_timestamp = int("1284101485") utc_time = time.gmtime(unix_timestamp) local_time = time.localtime(unix_timestamp) print(time.strftime("%Y-%m-%d %H:%M:%S", local_time)) print(time.strftime("%Y-%m-%d %H:%M:%S+00:00 (UTC)", utc_time)) ```
J'ai une chaîne représentant un timestamp unix (i.e. &quot;1284101485&quot ;) en Python, et j'aimerais la convertir en une date lisible. Lorsque j'utilise ``time.strftime``, j'obtiens une ``TypeError`` : ``>>import time >>>print time.strftime(&quot;%B %d %Y&quot ;, &quot;1284101485&quot ;) Traceback (dernier appel le plus récent) : Fichier &quot;&quot ;, ligne 1, in TypeError : argument must be 9-item sequence, not str ```
Il y a deux parties ici : * Convertir l'horodatage unix ("secondes depuis l'époque") en heure locale. * Afficher l'heure locale dans le format souhaité. Une façon portable d'obtenir l'heure locale qui fonctionne même si le fuseau horaire local avait un décalage utc différent dans le passé et que python n'a pas accès à la base de données tz est d'utiliser un fuseau horaire ``pytz`` : ``#!/usr/bin/env python from datetime import datetime import tzlocal # $ pip install tzlocal unix_timestamp = float("1284101485") local_timezone = tzlocal.get_localzone() # get pytz timezone local_time = datetime.fromtimestamp(unix_timestamp, local_timezone) ``` Pour l'afficher, vous pouvez utiliser n'importe quel format d'heure supporté par votre système, par exemple : ```print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)")) print(local_time.strftime("%B %d %Y")) # imprimez la date dans votre format ``` Si vous n'avez pas besoin de l'heure locale, vous pouvez obtenir une heure UTC lisible : ```utc_time = datetime.utcfromtimestamp(unix_timestamp) print(utc_time.strftime("%Y-%m-%d %H:%M:%S.%f+00:00 (UTC)")) ``` Si vous ne vous souciez pas des problèmes de fuseau horaire qui pourraient affecter la date retournée ou si python a accès à la base de données tz sur votre système : ```local_time = datetime.fromtimestamp(unix_timestamp) print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f")) ``` Sous Python 3, vous pouvez obtenir une date temporelle en utilisant uniquement la stdlib (le décalage UTC peut être erroné si python n'a pas accès à la base de données tz de votre système, par exemple, sous Windows) : ```#!/usr/bin/env python3 from datetime import datetime, timezone utc_time = datetime.fromtimestamp(unix_timestamp, timezone.utc) local_time = utc_time.astimezone() print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)")) ``` Les fonctions du module ``time`` sont des enveloppes fines autour de l'API C correspondante et donc elles peuvent être moins portables que les méthodes ``datetime`` correspondantes, mais vous pouvez aussi les utiliser : ``#!/usr/bin/env python import time unix_timestamp = int("1284101485") utc_time = time.gmtime(unix_timestamp) local_time = time.localtime(unix_timestamp) print(time.strftime("%Y-%m-%d %H:%M:%S", local_time)) print(time.strftime("%Y-%m-%d %H:%M:%S+00:00 (UTC)", utc_time)) ```
Ho una stringa che rappresenta un timestamp unix (ad esempio &quot;1284101485&quot;) in Python e vorrei convertirla in una data leggibile. Quando uso ```time.strftime``, ottengo un ```TypeError``: ```>>import time >>>print time.strftime(&quot;%B %d %Y&quot;, &quot;1284101485&quot;) Traceback (ultima chiamata): File &quot;&quot;, riga 1, in TypeError: l'argomento deve essere una sequenza di 9 elementi, non una stringa. ```
Qui ci sono due parti: * Convertire il timestamp unix ("seconds since epoch") nell'ora locale. * Visualizzare l'ora locale nel formato desiderato. Un modo portatile per ottenere l'ora locale, che funziona anche se il fuso orario locale aveva un offset utc diverso in passato e python non ha accesso al database tz, è quello di usare un fuso orario ```pytz``: ```#!/usr/bin/env python da datetime importa datetime importare tzlocal # $ pip install tzlocal unix_timestamp = float("1284101485") local_timezone = tzlocal.get_localzone() # ottenere il fuso orario pytz local_time = datetime.fromtimestamp(unix_timestamp, local_timezone) ``` Per visualizzarlo, si può usare qualsiasi formato di tempo supportato dal sistema, ad es: ```print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)") print(local_time.strftime("%B %d %Y")) # stampa la data nel formato desiderato ``` Se non si ha bisogno dell'ora locale, si può ottenere un'ora UTC leggibile: ```utc_time = datetime.utcfromtimestamp(unix_timestamp) print(utc_time.strftime("%Y-%m-%d %H:%M:%S.%f+00:00 (UTC)") ``` Se non vi interessano i problemi di fuso orario che potrebbero influenzare la data restituita o se python ha accesso al database tz del vostro sistema: ```local_time = datetime.fromtimestamp(unix_timestamp) print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f")) ``` Su Python 3, si può ottenere un datetime consapevole del fuso orario usando solo stdlib (l'offset UTC potrebbe essere sbagliato se python non ha accesso al database tz sul sistema, ad esempio su Windows): ```#!/usr/bin/env python3 da datetime import datetime, timezone utc_time = datetime.fromtimestamp(unix_timestamp, timezone.utc) local_time = utc_time.astimezone() print(local_time.strftime("%Y-%m-%d %H:%M:%S.%f%z (%Z)") ``` Le funzioni del modulo ```time`` sono dei sottili wrapper attorno alle corrispondenti API C e quindi potrebbero essere meno portabili dei corrispondenti metodi ```datetime``, altrimenti si potrebbero usare anche loro: ```#!/usr/bin/env python importare time unix_timestamp = int("1284101485") utc_time = time.gmtime(unix_timestamp) local_time = time.localtime(unix_timestamp) print(time.strftime("%Y-%m-%d %H:%M:%S", local_time)) print(time.strftime("%Y-%m-%d %H:%M:%S+00:00 (UTC)", utc_time)) ```
72
In Django, the convention is to put all of your static files (i.e css, js) specific to your app into a folder called static. So the structure would look like this: ```mysite/ manage.py mysite/ --> (settings.py, etc) myapp/ --> (models.py, views.py, etc) static/ ``` In ```mysite/settings.py``` I have: ```STATIC_ROOT = 'staticfiles' ``` So when I run the command: ```python manage.py collectstatic ``` It creates a folder called ```staticfiles``` at the root level (so same directory as ```myapp/```) What's the point of this? Isn't it just creating a copy of all my static files?
## Collect static files from multiple apps into a single path A single Django project may use several apps, so while there you only have one ```myapp```, it may actually be ```myapp1```, ```myapp2```, etc By copying them from inside the individual apps into a single folder, you can point your frontend web server (e.g. nginx) to that single folder ```STATIC_ROOT``` and serve static files from a single location, rather than configure your web server to serve static files from multiple paths. ## Persistent URLs with ManifestStaticFilesStorage A note about the MD5 hash being appended to the filename for versioning: It's not part of the default behavior of ```collectstatic```, as ```settings.STATICFILES_STORAGE``` defaults to ```StaticFilesStorage``` (which doesn't do that) The MD5 hash will kick in e.g. if you set it to use ```ManifestStaticFilesStorage```, which adds that behavior. > The purpose of this storage is to keep serving the old files in case some pages still refer to those files, e.g. because they are cached by you or a 3rd party proxy server. Additionally, it’s very helpful if you want to apply far future Expires headers to the deployed files to speed up the load time for subsequent page visits.
In Django ist es üblich, alle statischen Dateien (z.B. css, js), die spezifisch für Ihre App sind, in einen Ordner namens static zu legen. Die Struktur würde also wie folgt aussehen: ```mysite/ manage.py mysite/ --> (einstellungen.py, etc) myapp/ --> (models.py, views.py, usw.) statisch/ ``` In ```mysite/settings.py`` habe ich: ````STATIC_ROOT = 'staticfiles' ``` Wenn ich also den Befehl ausführe: ````python manage.py collectstatic ``` wird ein Ordner namens ```staticfiles`` auf der Root-Ebene erstellt (also das gleiche Verzeichnis wie ```myapp/```) Was ist der Sinn dieser Aktion? Legt es nicht einfach eine Kopie aller statischen Dateien an?
## Statische Dateien aus mehreren Anwendungen in einem einzigen Pfad sammeln Ein einzelnes Django-Projekt kann mehrere Anwendungen verwenden, so dass Sie zwar nur eine ```Meine Anwendung`` haben, diese aber in Wirklichkeit ``Meine Anwendung1``, ``Meine Anwendung2``, usw. sein kann. Indem man sie aus den einzelnen Anwendungen in einen einzigen Ordner kopiert, kann man seinen Frontend-Webserver (z.B. nginx) auf diesen einzigen Ordner ```STATIC_ROOT`` verweisen und statische Dateien von einem einzigen Ort aus bereitstellen, anstatt den Webserver so zu konfigurieren, dass er statische Dateien von mehreren Pfaden aus bereitstellt. ## Persistente URLs mit ManifestStaticFilesStorage Ein Hinweis zum MD5-Hash, der zur Versionskontrolle an den Dateinamen angehängt wird: Es ist nicht Teil des Standardverhaltens von ```collectstatic``, da ```Settings.STATICFILES_STORAGE`` auf ```StaticFilesStorage`` voreingestellt ist (was dies nicht tut) Der MD5-Hash wird z.B. aktiviert, wenn Sie ```ManifestStaticFilesStorage`` verwenden, was dieses Verhalten hinzufügt. > Der Zweck dieses Speichers ist es, die alten Dateien weiterhin anzubieten, für den Fall, dass einige Seiten immer noch auf diese Dateien verweisen, z.B. weil sie von Ihnen oder einem Proxy-Server eines Drittanbieters zwischengespeichert werden. Außerdem ist es sehr hilfreich, wenn Sie weit in der Zukunft liegende Expires-Header auf die bereitgestellten Dateien anwenden wollen, um die Ladezeit für nachfolgende Seitenbesuche zu beschleunigen.
En Django, la convención es poner todos los archivos estáticos (css, js) específicos de tu aplicación en una carpeta llamada static. Así que la estructura sería la siguiente: ```mysite/ manage.py mysite/ --> (settings.py, etc) myapp/ --> (models.py, views.py, etc) static/ ``` En ``mysite/settings.py`` tengo: ``STATIC_ROOT = 'staticfiles' ``` Así que cuando ejecuto el comando ``python manage.py collectstatic ``` Se crea una carpeta llamada ``staticfiles`` en el nivel raíz (el mismo directorio que ``myapp/```) ¿Qué sentido tiene esto? ¿No es sólo crear una copia de todos mis archivos estáticos?
## Recopilar archivos estáticos de múltiples aplicaciones en una sola ruta Un único proyecto Django puede usar varias aplicaciones, así que aunque sólo tengas una ``myapp``, en realidad puede ser ``myapp1``, ``myapp2``, etc. Copiándolos desde el interior de las aplicaciones individuales en una única carpeta, puedes apuntar tu servidor web frontend (por ejemplo, nginx) a esa única carpeta ```STATIC_ROOT`` y servir archivos estáticos desde una única ubicación, en lugar de configurar tu servidor web para servir archivos estáticos desde múltiples rutas. ## URLs persistentes con ManifestStaticFilesStorage Una nota sobre el hash MD5 que se añade al nombre del archivo para el control de versiones: No es parte del comportamiento por defecto de ``collectstatic``, ya que ``settings.STATICFILES_STORAGE`` por defecto es ``StaticFilesStorage`` (que no lo hace). El hash MD5 se activará, por ejemplo, si lo configuras para usar ``ManifestStaticFilesStorage``, que añade ese comportamiento. > El propósito de este almacenamiento es seguir sirviendo los archivos antiguos en caso de que algunas páginas todavía hagan referencia a esos archivos, por ejemplo, porque están almacenados en caché por ti o por un servidor proxy de terceros. Adicionalmente, es muy útil si quieres aplicar cabeceras de Expiraciones futuras lejanas a los archivos desplegados para acelerar el tiempo de carga en visitas posteriores a la página.
Dans Django, la convention est de placer tous les fichiers statiques (css, js) spécifiques à votre application dans un dossier appelé static. La structure ressemblerait donc à ceci : ``mysite/ manage.py mysite/ --> (settings.py, etc) myapp/ --> (models.py, views.py, etc) static/ ``` Dans ``mysite/settings.py`` j'ai : ``STATIC_ROOT = 'staticfiles' ``` Donc quand je lance la commande : ``python manage.py collectstatic ``` Cela crée un dossier appelé ``staticfiles`` au niveau de la racine (donc le même répertoire que ``myapp/``) Quel est l'intérêt de cette opération ? Ne s'agit-il pas simplement de créer une copie de tous mes fichiers statiques ?
## Rassembler les fichiers statiques de plusieurs applications dans un chemin unique Un seul projet Django peut utiliser plusieurs applications, donc même si vous n'avez qu'une seule application, il peut en fait s'agir d'une application 1, d'une application 2, etc. En les copiant depuis les applications individuelles dans un seul dossier, vous pouvez faire pointer votre serveur web frontal (par exemple nginx) vers ce seul dossier ``STATIC_ROOT`` et servir les fichiers statiques depuis un seul emplacement, plutôt que de configurer votre serveur web pour servir des fichiers statiques depuis de multiples chemins. ## URLs persistantes avec ManifestStaticFilesStorage Une note à propos du hachage MD5 ajouté au nom de fichier pour le versionnage : Cela ne fait pas partie du comportement par défaut de ``collectstatic``, car ``settings.STATICFILES_STORAGE`` est par défaut ``StaticFilesStorage`` (qui ne fait pas cela). Le hachage MD5 interviendra par exemple si vous le configurez pour utiliser ``ManifestStaticFilesStorage``, qui ajoute ce comportement. > Le but de ce stockage est de continuer à servir les anciens fichiers au cas où certaines pages feraient encore référence à ces fichiers, par exemple parce qu'ils sont mis en cache par vous ou par un serveur proxy tiers. De plus, c'est très utile si vous voulez appliquer les futurs en-têtes Expires aux fichiers déployés pour accélérer le temps de chargement lors des visites de pages suivantes.
In Django, la convenzione è di mettere tutti i file statici (ad esempio css, js) specifici per l'applicazione in una cartella chiamata static. Quindi la struttura sarebbe la seguente: ``mysite/ manage.py mysite/ --> (settings.py, ecc.) myapp/ --> (models.py, views.py, ecc.) statico/ ``` In ``mysite/settings.py`` ho: ``STATIC_ROOT = "staticfiles ``` Quindi quando eseguo il comando: ``python manage.py collectstatic ``` crea una cartella chiamata ```staticfiles'' a livello di root (quindi la stessa directory di ```myapp/``). A cosa serve? Non sta solo creando una copia di tutti i miei file statici?
## Raccogliere i file statici di più applicazioni in un unico percorso Un singolo progetto Django può utilizzare diverse applicazioni, per cui, pur avendo una sola ``myapp``, potrebbe essere in realtà ``myapp1``, ``myapp2``, ecc. Copiandoli dall'interno delle singole applicazioni in un'unica cartella, si può puntare il server web di frontend (per esempio nginx) a quella singola cartella ```STATIC_ROOT`` e servire i file statici da un'unica posizione, invece di configurare il server web per servire i file statici da più percorsi. ## URL persistenti con ManifestStaticFilesStorage Una nota sull'aggiunta dell'hash MD5 al nome del file per il versioning: Non fa parte del comportamento predefinito di ``collectstatic``, poiché ```settings.STATICFILES_STORAGE`` ha come default ```StaticFilesStorage`` (che non lo fa). L'hash MD5 interverrà, per esempio, se si imposta l'uso di ```ManifestStaticFilesStorage``, che aggiunge questo comportamento. > Lo scopo di questa memorizzazione è di continuare a servire i vecchi file nel caso in cui alcune pagine facciano ancora riferimento a quei file, ad esempio perché sono memorizzati nella cache dall'utente o da un server proxy di terze parti. Inoltre, è molto utile se si vogliono applicare intestazioni Expires future ai file distribuiti, per accelerare il tempo di caricamento delle pagine successive.
73
I am used to thinking of finite-differences as a special case of finite-elements, on a very constrained grid. What are criteria to choose between finite-differences and finite-elements
It is possible to write most specific finite difference methods as Petrov-Galerkin finite element methods with some choice of local reconstruction and quadrature, and most finite element methods can also be shown to be algebraically equivalent to some finite difference method. Therefore, we should choose a method based on which analysis framework we want to use, which terminology we like, which system for extensibility we like, and how we would like to structure software. The following generalizations hold true in the vast majority of variations in practical use, but many points can be circumvented. Finite Difference Pros * efficient quadrature-free implementation * aspect ratio independence and local conservation for certain schemes (e.g. MAC for incompressible flow) * robust nonlinear methods for transport (e.g. ENO/WENO) * M-matrix for some problems * discrete maximum principle for some problems (e.g. mimetic finite differences) * diagonal (usually identity) mass matrix * inexpensive nodal residual permits efficient nonlinear multigrid (FAS) * cell-wise Vanka smoothers give efficient matrix-free smoothers for incompressible flow Cons * more difficult to implement "physics" * staggered grids are sometimes quite technical * higher than second order on unstructured grids is difficult * no Galerkin orthogonality, so convergence may be more difficult to prove * not a Galerkin method, so discretization and adjoints do not commute (relevant to optimization and inverse problems) * self-adjoint continuum problems often yield non-symmetric matrices * solution is only defined pointwise, so reconstruction at arbitrary locations is not uniquely defined * boundary conditions tend to be complicated to implement * discontinuous coefficients usually make the methods first order * stencil grows if physics includes "cross terms" Finite Element Pros * Galerkin orthogonality (discrete solution to coercive problems is within a constant of the best solution in the space) * simple geometric flexibility * discontinuous Galerkin offers robust transport algorithm, arbitrary order on unstructured grids * cellwise entropy inequality guaranteeing $L^2$ stability holds independent of mesh, dimension, order of accuracy, and presence of discontinuous solutions, without needing nonlinear limiters * easy of implementing boundary conditions * can choose conservation statement by choosing test space * discretization and adjoints commute (for Galerkin methods) * elegant foundation in functional analysis * at high order, local kernels can exploit tensor product structure that is missing with FD * Lobatto quadrature can make methods energy-conserving (assuming a symplectic time integrator) * high order accuracy even with discontinuous coefficients, as long as you can align to boundaries * discontinuous coefficients inside elements can be accommodated with XFEM * easy to handle multiple inf-sup conditions Cons * many elements have trouble at high aspect ratio * continuous FEM has trouble with transport (SUPG is diffusive and oscillatory) * DG usually has more degrees of freedom for same accuracy (though HDG is much better) * continuous FEM does not provide cheap nodal problems, so nonlinear smoothers have much poorer constants * usually more nonzeros in assembled matrices * have to choose between consistent mass matrix (some nice properties, but has full inverse, thus requiring an implicit solve per time step) and lumped mass matrix.
Ich habe mir angewöhnt, Finite-Differenzen als einen Spezialfall von Finite-Elemente zu betrachten, und zwar auf einem sehr eingeschränkten Gitter. Was sind die Kriterien für die Wahl zwischen Finite-Differenzen und Finite-Elemente?
Es ist möglich, die meisten spezifischen Finite-Differenzen-Methoden als Petrov-Galerkin-Finite-Elemente-Methoden zu schreiben, wenn man die lokale Rekonstruktion und Quadratur wählt, und die meisten Finite-Elemente-Methoden können auch als algebraisch äquivalent zu einer Finite-Differenzen-Methode dargestellt werden. Daher sollten wir eine Methode wählen, die darauf basiert, welchen Analyserahmen wir verwenden wollen, welche Terminologie wir mögen, welches System für die Erweiterbarkeit wir mögen und wie wir die Software strukturieren wollen. Die folgenden Verallgemeinerungen gelten für die überwiegende Mehrheit der in der Praxis verwendeten Varianten, aber viele Punkte können umgangen werden. Endlicher Unterschied Profis * Effiziente quadraturfreie Implementierung * Unabhängigkeit vom Seitenverhältnis und lokale Erhaltung für bestimmte Verfahren (z. B. MAC für inkompressible Strömungen) * Robuste nichtlineare Methoden für den Transport (z. B. ENO/WENO) * M-Matrix für einige Probleme * Diskretes Maximumprinzip für einige Probleme (z. B. mimetische finite Differenzen) * diagonale (normalerweise identische) Massenmatrix * kostengünstige Knotenreste ermöglichen effiziente nichtlineare Mehrgitterverfahren (FAS) * zellweise Vanka-Glättungen ergeben effiziente matrixfreie Glättungen für inkompressible Strömungen Nachteile * Schwierigere Implementierung der "Physik" * gestaffelte Gitter sind manchmal recht technisch * höhere als zweite Ordnung auf unstrukturierten Gittern ist schwierig * keine Galerkin-Orthogonalität, so dass der Nachweis der Konvergenz schwieriger sein kann * keine Galerkin-Methode, d. h. Diskretisierung und Adjunkte sind nicht kommutabel (relevant für Optimierung und inverse Probleme) * Selbstadjungierte Kontinuumsprobleme ergeben oft unsymmetrische Matrizen * die Lösung ist nur punktweise definiert, so dass die Rekonstruktion an beliebigen Stellen nicht eindeutig definiert ist * Randbedingungen sind in der Regel kompliziert zu implementieren. * Unstetige Koeffizienten machen die Methoden gewöhnlich zu Methoden erster Ordnung. * Die Schablone wächst, wenn die Physik "Querterme" enthält. Finite Elemente Vorteile * Galerkin-Orthogonalität (diskrete Lösung von Zwangsproblemen liegt innerhalb einer Konstante der besten Lösung im Raum) * einfache geometrische Flexibilität * Diskontinuierliches Galerkin bietet robusten Transportalgorithmus, beliebige Ordnung auf unstrukturierten Gittern * Die zellweise Entropie-Ungleichung, die $L^2$-Stabilität garantiert, gilt unabhängig von Gitter, Dimension, Genauigkeitsordnung und Vorhandensein diskontinuierlicher Lösungen, ohne dass nichtlineare Begrenzer benötigt werden. * Einfache Implementierung von Randbedingungen * kann die Erhaltungsaussage durch Wahl des Testraums wählen * Diskretisierung und Adjunkte pendeln (für Galerkin-Methoden) * Elegante Grundlage in der Funktionsanalyse * bei hoher Ordnung können lokale Kernel die Tensorproduktstruktur ausnutzen, die bei FD fehlt * Lobatto-Quadratur kann Methoden energieerhaltend machen (unter der Annahme eines symplektischen Zeitintegrators) * Genauigkeit hoher Ordnung auch bei diskontinuierlichen Koeffizienten, solange man sich an den Grenzen ausrichten kann * Unstetige Koeffizienten innerhalb von Elementen können mit XFEM berücksichtigt werden * einfache Handhabung mehrerer Inf-Sup-Bedingungen Nachteile * Viele Elemente haben Probleme bei hohem Seitenverhältnis * Kontinuierliche FEM hat Probleme mit dem Transport (SUPG ist diffusiv und oszillierend) * DG hat normalerweise mehr Freiheitsgrade bei gleicher Genauigkeit (obwohl HDG viel besser ist) * Kontinuierliche FEM bietet keine billigen Knotenprobleme, so dass nichtlineare Glättungen viel schlechtere Konstanten haben. * in der Regel mehr Nonzeros in zusammengesetzten Matrizen * man muss sich entscheiden zwischen einer konsistenten Massenmatrix (einige nette Eigenschaften, aber sie hat eine vollständige Inverse und erfordert daher eine implizite Lösung pro Zeitschritt) und einer pauschalen Massenmatrix.
Estoy acostumbrado a considerar las diferencias finitas como un caso especial de los elementos finitos, en una malla muy limitada. ¿Cuáles son los criterios para elegir entre diferencias finitas y elementos finitos?
Es posible escribir la mayoría de los métodos específicos de diferencias finitas como métodos de elementos finitos de Petrov-Galerkin con alguna elección de reconstrucción local y cuadratura, y también se puede demostrar que la mayoría de los métodos de elementos finitos son algebraicamente equivalentes a algún método de diferencias finitas. Por lo tanto, deberíamos elegir un método en función del marco de análisis que queramos utilizar, la terminología que nos guste, el sistema de extensibilidad que nos guste y cómo nos gustaría estructurar el software. Las siguientes generalizaciones son válidas para la gran mayoría de las variaciones de uso práctico, pero muchos puntos pueden eludirse. Diferencia finita Pros * Implementación eficiente sin cuadratura * Independencia de la relación de aspecto y conservación local para ciertos esquemas (por ejemplo, MAC para flujo incompresible). * Métodos no lineales robustos para el transporte (p.ej. ENO/WENO) * Matriz M para algunos problemas * Principio del máximo discreto para algunos problemas (por ejemplo, diferencias finitas miméticas). * Matriz de masa diagonal (normalmente identidad) * El residuo nodal barato permite una multirejilla no lineal eficiente (FAS) * Los suavizadores Vanka de celda a celda proporcionan suavizadores eficientes sin matriz para flujos incompresibles. Contras * Más difícil de implementar la "física". * Las mallas escalonadas son a veces bastante técnicas * Es difícil superar el segundo orden en mallas no estructuradas. * No hay ortogonalidad Galerkin, por lo que la convergencia puede ser más difícil de probar. * No es un método de Galerkin, por lo que la discretización y las uniones no conmutan (relevante para la optimización y los problemas inversos). * Los problemas continuos autoadjuntos suelen generar matrices no simétricas. * La solución sólo se define puntualmente, por lo que la reconstrucción en ubicaciones arbitrarias no está definida de forma única. * Las condiciones de contorno suelen ser complicadas de aplicar. * Los coeficientes discontinuos suelen hacer que los métodos sean de primer orden. * La plantilla crece si la física incluye "términos cruzados". Elementos finitos Ventajas * Galerkin ortogonalidad (solución discreta a problemas coercitivos está dentro de una constante de la mejor solución en el espacio) * Flexibilidad geométrica simple * Galerkin discontinuo ofrece un algoritmo de transporte robusto, orden arbitrario en mallas no estructuradas. * La desigualdad de entropía celular garantiza la estabilidad $L^2$ independientemente de la malla, la dimensión, el orden de precisión y la presencia de soluciones discontinuas, sin necesidad de limitadores no lineales. * Fácil implementación de las condiciones de contorno * Se puede elegir el estado de conservación eligiendo el espacio de prueba * La discretización y los adjuntos conmutan (para métodos Galerkin). * Base elegante en el análisis funcional * en orden alto, los núcleos locales pueden explotar la estructura del producto tensorial que falta con FD * La cuadratura de Lobatto puede hacer que los métodos conserven la energía (suponiendo un integrador de tiempo simpléctico). * Precisión de alto orden incluso con coeficientes discontinuos, siempre que se pueda alinear con los límites. * Los coeficientes discontinuos dentro de los elementos se pueden acomodar con XFEM. * Fácil de manejar múltiples condiciones inf-sup Contras * Muchos elementos tienen problemas con relaciones de aspecto elevadas * MEF continuo tiene problemas con el transporte (SUPG es difusivo y oscilatorio) * La DG suele tener más grados de libertad para la misma precisión (aunque la HDG es mucho mejor). * El MEF continuo no proporciona problemas nodales baratos, por lo que los suavizadores no lineales tienen constantes mucho más pobres. * normalmente más nonzeros en matrices ensambladas * Hay que elegir entre una matriz de masa consistente (algunas buenas propiedades, pero tiene inversa completa, por lo que requiere una solución implícita por paso de tiempo) y una matriz de masa global.
J'ai l'habitude de considérer les différences finies comme un cas particulier d'éléments finis, sur une grille très contrainte. Quels sont les critères de choix entre les différences finies et les éléments finis ?
Il est possible d'écrire la plupart des méthodes de différences finies spécifiques comme des méthodes d'éléments finis de Petrov-Galerkin avec un certain choix de reconstruction locale et de quadrature, et il est également possible de montrer que la plupart des méthodes d'éléments finis sont algébriquement équivalentes à une méthode de différences finies. Par conséquent, nous devons choisir une méthode en fonction du cadre d'analyse que nous voulons utiliser, de la terminologie que nous aimons, du système d'extensibilité que nous aimons et de la manière dont nous voulons structurer le logiciel. Les généralisations suivantes s'appliquent à la grande majorité des variations dans la pratique, mais de nombreux points peuvent être contournés. Différence finie Pour * Implémentation efficace sans quadrature * Indépendance du rapport d'aspect et conservation locale pour certains schémas (par exemple MAC pour les écoulements incompressibles) * Méthodes non linéaires robustes pour le transport (par exemple ENO/WENO) * Matrice M pour certains problèmes * principe du maximum discret pour certains problèmes (par exemple, différences finies mimétiques) * matrice de masse diagonale (généralement identité) * résidu nodal peu coûteux permettant une multigrille non linéaire efficace (FAS) * Les lisseurs de Vanka par cellule donnent des lisseurs efficaces sans matrice pour les écoulements incompressibles. Cons * plus difficile à mettre en oeuvre sur le plan "physique" * les grilles décalées sont parfois très techniques * il est difficile d'obtenir des résultats supérieurs au second ordre sur des grilles non structurées * pas d'orthogonalité Galerkin, donc la convergence peut être plus difficile à prouver * pas de méthode Galerkin, donc la discrétisation et les adjoints ne sont pas commutés (pertinent pour l'optimisation et les problèmes inverses) * les problèmes de continuum auto-adjoints produisent souvent des matrices non symétriques * La solution n'est définie que ponctuellement, de sorte que la reconstruction à des endroits arbitraires n'est pas définie de manière unique. * les conditions aux limites ont tendance à être compliquées à mettre en œuvre * les coefficients discontinus font généralement que les méthodes sont du premier ordre * Le stencil augmente si la physique inclut des "termes croisés". Élément fini Pour * orthogonalité de Galerkin (la solution discrète aux problèmes coercitifs se trouve à une constante près de la meilleure solution dans l'espace) * flexibilité géométrique simple * Galerkin discontinu offre un algorithme de transport robuste, un ordre arbitraire sur des grilles non structurées * L'inégalité d'entropie au sens cellulaire garantissant la stabilité de $L^2$ est valable indépendamment de la maille, de la dimension, de l'ordre de précision et de la présence de solutions discontinues, sans nécessiter de limiteurs non linéaires. * facilité d'implémentation des conditions aux limites * possibilité de choisir l'énoncé de conservation en choisissant l'espace de test * La discrétisation et les adjoints commutent (pour les méthodes de Galerkin). * base élégante de l'analyse fonctionnelle * à l'ordre élevé, les noyaux locaux peuvent exploiter la structure du produit tensoriel qui est absente avec la FD * La quadrature de Lobatto peut permettre aux méthodes de conserver l'énergie (en supposant un intégrateur temporel symplectique). * Précision d'ordre élevé même avec des coefficients discontinus, tant que l'on peut s'aligner sur les limites. * Les coefficients discontinus à l'intérieur des éléments peuvent être pris en compte avec XFEM. * facilité de traitement des conditions inf-sup multiples Inconvénients * beaucoup d'éléments ont des problèmes à un ratio d'aspect élevé * La FEM continue a des problèmes avec le transport (SUPG est diffusif et oscillatoire) * DG a généralement plus de degrés de liberté pour la même précision (bien que HDG soit bien meilleur) * La FEM continue ne fournit pas de problèmes nodaux bon marché, de sorte que les lisseurs non linéaires ont des constantes bien moins bonnes. * Généralement, il y a plus de nonzéros dans les matrices assemblées. * il faut choisir entre une matrice de masse cohérente (qui présente certaines propriétés intéressantes, mais dont l'inverse est complet, ce qui nécessite une résolution implicite à chaque pas de temps) et une matrice de masse forfaitaire.
Sono abituato a pensare alle differenze finite come a un caso speciale di elementi finiti, su una griglia molto vincolata. Quali sono i criteri per scegliere tra differenze finite ed elementi finiti?
È possibile scrivere la maggior parte dei metodi alle differenze finite specifici come metodi agli elementi finiti di Petrov-Galerkin con una certa scelta di ricostruzione locale e di quadratura, e la maggior parte dei metodi agli elementi finiti può anche essere dimostrata come algebricamente equivalente a qualche metodo alle differenze finite. Pertanto, dovremmo scegliere un metodo in base al quadro di analisi che vogliamo utilizzare, alla terminologia che ci piace, al sistema di estensibilità che ci piace e al modo in cui vorremmo strutturare il software. Le seguenti generalizzazioni sono valide per la maggior parte delle variazioni nell'uso pratico, ma molti punti possono essere aggirati. Differenza finita Pro * efficiente implementazione senza quadratura * indipendenza dal rapporto d'aspetto e conservazione locale per alcuni schemi (ad esempio MAC per flussi incomprimibili) * metodi non lineari robusti per il trasporto (ad es. ENO/WENO) * Matrice M per alcuni problemi * Principio del massimo discreto per alcuni problemi (ad esempio, differenze finite mimetiche). * matrice di massa diagonale (di solito identica) * residuo nodale poco costoso che permette un efficiente multigrid non lineare (FAS) * Gli smoothers di Vanka cell-wise forniscono smoothers efficienti senza matrice per flussi incomprimibili. Contro * più difficile implementare la "fisica" * le griglie sfalsate sono talvolta piuttosto tecniche * è difficile ottenere risultati di ordine superiore al secondo su griglie non strutturate * non c'è ortogonalità Galerkin, quindi la convergenza può essere più difficile da dimostrare * non è un metodo Galerkin, quindi la discretizzazione e le adiacenze non commutano (rilevante per l'ottimizzazione e i problemi inversi) * i problemi continui auto-aggiunti spesso producono matrici non simmetriche * La soluzione è definita solo in senso puntuale, quindi la ricostruzione in punti arbitrari non è definita in modo univoco. * le condizioni al contorno tendono a essere complicate da implementare * i coefficienti discontinui di solito rendono i metodi del primo ordine * Lo stencil cresce se la fisica include "termini incrociati". Elemento finito Pro * ortogonalità Galerkin (la soluzione discreta di problemi coercitivi è entro una costante della migliore soluzione nello spazio) * semplice flessibilità geometrica * Galerkin discontinuo offre un algoritmo di trasporto robusto, ordine arbitrario su griglie non strutturate * Disuguaglianza di entropia cellulare che garantisce la stabilità di $L^2$ indipendentemente dalla maglia, dalla dimensione, dall'ordine di precisione e dalla presenza di soluzioni discontinue, senza bisogno di limitatori non lineari. * Semplicità di implementazione delle condizioni al contorno * possibilità di scegliere l'enunciato di conservazione scegliendo lo spazio di prova * discretizzazione e adiacenze commutano (per i metodi Galerkin) * elegante fondamento dell'analisi funzionale * Ad ordini elevati, i kernel locali possono sfruttare la struttura del prodotto tensoriale che manca con i metodi FD. * la quadratura di Lobatto può rendere i metodi energeticamente conservativi (assumendo un integratore temporale simplettico) * accuratezza di ordine elevato anche con coefficienti discontinui, a patto che si riesca ad allineare ai confini * i coefficienti discontinui all'interno degli elementi possono essere gestiti con XFEM * facile gestione di condizioni multiple di inf-sup Contro * molti elementi hanno problemi ad alto rapporto d'aspetto * il FEM continuo ha problemi con il trasporto (il SUPG è diffusivo e oscillatorio) * la DG ha di solito più gradi di libertà a parità di accuratezza (anche se l'HDG è molto meglio) * il FEM continuo non fornisce problemi nodali a basso costo, quindi gli smoothers non lineari hanno costanti molto più scarse * di solito ci sono più nonzeros nelle matrici assemblate * si deve scegliere tra la matrice di massa coerente (con alcune belle proprietà, ma con l'inverso completo, che richiede quindi una soluzione implicita per ogni passo temporale) e la matrice di massa forfettaria.
74
How important is multithreading in the current software industry?
It is extremely important. What is more important though is to understand that multithreading is just one way to solve the asynchrony problem. The technical environment in which many people are now writing software differs from the historical software development environment (of monolithic applications performing batch computations) in two key ways: * Many-core machines are now common. We can no longer expect clock speeds or transistor densities to increase by orders of magnitude. The price of computation will continue to fall, but it will fall because of lots of parallelism. We're going to have to find a way to take advantage of that power. * Computers are now heavily networked and modern applications rely upon being able to fetch rich information from a variety of sources. From a computational standpoint, these two factors essentially boil down to the same core idea: information increasingly will be available in an asynchronous fashion. Whether the information you need is being computed on another chip in your machine or on a chip halfway around the world doesn't really matter. Either way, your processor is sitting there burning billions of cycles a second waiting for information when it could be doing useful work. So what matters now, and what will matter even more in the future, is not multithreading per se, but rather, dealing with asynchrony. Multithreading is just one way to do that -- a complicated, error-prone way that is only going to get more complicated and more error-prone as weak-memory-model chips become more widely used. The challenge for tools vendors is to come up with some way better than multithreading for our customers to deal with the asynchronous infrastructure they'll be using in the future.
Wie wichtig ist Multithreading in der heutigen Softwarebranche?
Das ist äußerst wichtig. Noch wichtiger ist es jedoch zu verstehen, dass Multithreading nur eine Möglichkeit ist, das Problem der Asynchronität zu lösen. Das technische Umfeld, in dem viele Menschen heute Software schreiben, unterscheidet sich in zweierlei Hinsicht von der historischen Softwareentwicklungsumgebung (monolithische Anwendungen, die Batch-Berechnungen durchführen): * Multi-Core-Maschinen sind jetzt üblich. Wir können nicht mehr erwarten, dass die Taktraten oder Transistordichten um Größenordnungen steigen. Der Preis für Berechnungen wird weiter sinken, aber er wird aufgrund der vielen Parallelität sinken. Wir werden einen Weg finden müssen, diese Leistung zu nutzen. * Computer sind heute in hohem Maße vernetzt, und moderne Anwendungen sind darauf angewiesen, dass sie umfangreiche Informationen aus einer Vielzahl von Quellen abrufen können. Aus rechnerischer Sicht laufen diese beiden Faktoren im Wesentlichen auf denselben Kerngedanken hinaus: Informationen werden zunehmend asynchron verfügbar sein. Ob die Informationen, die Sie benötigen, auf einem anderen Chip in Ihrem Rechner oder auf einem Chip am anderen Ende der Welt berechnet werden, spielt eigentlich keine Rolle. In beiden Fällen sitzt Ihr Prozessor da und verbrennt Milliarden von Zyklen pro Sekunde, während er auf Informationen wartet, während er eigentlich nützliche Arbeit leisten könnte. Worauf es also jetzt ankommt und was in Zukunft noch wichtiger sein wird, ist nicht Multithreading an sich, sondern der Umgang mit Asynchronität. Multithreading ist nur ein Weg, dies zu tun - ein komplizierter, fehleranfälliger Weg, der nur noch komplizierter und fehleranfälliger werden wird, wenn Chips mit schwachem Speichermodell weiter verbreitet werden. Die Herausforderung für die Anbieter von Tools besteht darin, unseren Kunden einen besseren Weg als Multithreading zu bieten, um mit der asynchronen Infrastruktur umzugehen, die sie in Zukunft verwenden werden.
¿Qué importancia tiene el multithreading en la industria del software actual?
Es extremadamente importante. Pero lo más importante es comprender que el multithreading es sólo una forma de resolver el problema de la asincronía. El entorno técnico en el que muchas personas escriben software actualmente difiere del entorno histórico de desarrollo de software (de aplicaciones monolíticas que realizan cálculos por lotes) en dos aspectos fundamentales: * Las máquinas multinúcleo ya son habituales. Ya no podemos esperar que las velocidades de reloj o las densidades de transistores aumenten en órdenes de magnitud. El precio de la computación seguirá bajando, pero lo hará gracias a un gran paralelismo. Tendremos que encontrar la manera de aprovechar esa potencia. * Los ordenadores están ahora fuertemente conectados en red y las aplicaciones modernas dependen de la capacidad de obtener abundante información de diversas fuentes. Desde el punto de vista computacional, estos dos factores se reducen esencialmente a la misma idea central: la información estará cada vez más disponible de forma asíncrona. No importa si la información que necesitas se está calculando en otro chip de tu máquina o en un chip al otro lado del mundo. En cualquier caso, tu procesador está ahí sentado quemando miles de millones de ciclos por segundo esperando información cuando podría estar haciendo un trabajo útil. Así que lo que importa ahora, y lo que importará aún más en el futuro, no es el multihilo per se, sino más bien la gestión de la asincronía. El multithreading es sólo una forma de hacerlo, una forma complicada y propensa a errores que sólo va a ser más complicada y más propensa a errores a medida que se generalice el uso de chips con un modelo de memoria débil. El reto para los proveedores de herramientas es idear alguna forma mejor que el multihilo para que nuestros clientes se enfrenten a la infraestructura asíncrona que utilizarán en el futuro.
Quelle est l'importance du multithreading dans l'industrie actuelle du logiciel ?
C'est extrêmement important. Ce qui est plus important encore, c'est de comprendre que le multithreading n'est qu'un moyen parmi d'autres de résoudre le problème de l'asynchronisme. L'environnement technique dans lequel de nombreuses personnes écrivent aujourd'hui des logiciels diffère de l'environnement historique de développement de logiciels (des applications monolithiques effectuant des calculs par lots) de deux manières essentielles : * Les machines à plusieurs cœurs sont désormais courantes. Nous ne pouvons plus nous attendre à ce que les vitesses d'horloge ou les densités de transistors augmentent de plusieurs ordres de grandeur. Le prix des calculs continuera à baisser, mais il baissera en raison de l'importance du parallélisme. Nous allons devoir trouver un moyen de tirer parti de cette puissance. * Les ordinateurs sont aujourd'hui fortement interconnectés et les applications modernes reposent sur la capacité à obtenir des informations riches à partir d'une variété de sources. D'un point de vue informatique, ces deux facteurs se résument essentiellement à la même idée de base : l'information sera de plus en plus disponible de manière asynchrone. Que l'information dont vous avez besoin soit calculée sur une autre puce de votre machine ou sur une puce à l'autre bout du monde n'a pas vraiment d'importance. Dans tous les cas, votre processeur brûle des milliards de cycles par seconde en attendant l'information alors qu'il pourrait faire un travail utile. Ce qui compte aujourd'hui, et ce qui comptera encore plus à l'avenir, ce n'est donc pas le multithreading en soi, mais plutôt la gestion de l'asynchronisme. Le multithreading n'est qu'une façon de le faire - une façon compliquée et sujette aux erreurs qui ne fera que devenir plus compliquée et plus sujette aux erreurs au fur et à mesure que les puces à modèle de mémoire faible deviendront de plus en plus répandues. Le défi pour les fournisseurs d'outils est de trouver un moyen plus efficace que le multithreading pour permettre à nos clients de gérer l'infrastructure asynchrone qu'ils utiliseront à l'avenir.
Quanto è importante il multithreading nell'attuale industria del software?
È estremamente importante. Ma è ancora più importante capire che il multithreading è solo un modo per risolvere il problema dell'asincronia. L'ambiente tecnico in cui oggi molti scrivono software si differenzia dall'ambiente storico di sviluppo del software (di applicazioni monolitiche che eseguono calcoli in batch) per due aspetti fondamentali: * Le macchine multicore sono ormai comuni. Non possiamo più aspettarci che la velocità di clock o la densità dei transistor aumentino di ordini di grandezza. Il prezzo del calcolo continuerà a diminuire, ma a causa del parallelismo. Dovremo trovare un modo per sfruttare questa potenza. * I computer sono ora pesantemente collegati in rete e le applicazioni moderne si basano sulla capacità di recuperare informazioni ricche da una varietà di fonti. Da un punto di vista computazionale, questi due fattori si riducono essenzialmente alla stessa idea di fondo: le informazioni saranno sempre più disponibili in modo asincrono. Non importa se le informazioni di cui avete bisogno vengono calcolate su un altro chip della vostra macchina o su un chip dall'altra parte del mondo. In ogni caso, il vostro processore sta bruciando miliardi di cicli al secondo in attesa di informazioni, mentre potrebbe svolgere un lavoro utile. Quindi ciò che conta ora, e che conterà ancora di più in futuro, non è il multithreading in sé, ma piuttosto la gestione dell'asincronia. Il multithreading è solo un modo per farlo, un modo complicato e soggetto a errori che diventerà sempre più complicato e soggetto a errori man mano che i chip con modello a memoria debole si diffonderanno. La sfida per i fornitori di strumenti è quella di trovare un modo migliore del multithreading per consentire ai nostri clienti di gestire l'infrastruttura asincrona che utilizzeranno in futuro.
75
Is it true that the price of diamonds is based on a monopoly? And who actually runs/owns this supposed monopoly? Is this likely to affect diamond prices if I am interested in purchasing?
Yes, the De Beers Group of Companies is a diamond cartel that had complete control of the diamond market for most of the 20th century. They still control a sizable portion of the market and their effort at marketing (particularly with the slogan "A Diamond is Forever") has done much to inflate the market for diamonds in our society. The intrinsic value of diamonds is much lower than the market prices currently reflect, but with the caveat that there is a rarity factor which does drive up the price of larger diamonds. The larger the diamond, the more likely it is to have flaws, so when it comes to diamonds that are 5 carats or greater, you are not as likely to see a new supply of diamonds disrupt the prices of those larger stones. Some other ways that high end jewelers and suppliers are differentiating themselves is by patenting a specific cut that they design. This is another barrier to entry that works to create some artificial price inflation. One common example is the Lucida cut sometimes referred to as the Tiffany cut. Diamonds can also be manufactured. The same carbon structure can be grown in a lab. These stones have the same carbon structure as natural diamonds but without the flaws and visible impurities. Most manufactured diamonds are used industrially, but processes have improved sufficiently to allow for gemstone quality synthetic diamonds. They sell at a decent discount, so that might be an option to consider if you want a substitute. In the years to come, you can expect prices for synthetic diamonds to continue to decrease which will probably put some further downward pressure on jewelers' prices.
Stimmt es, dass der Preis von Diamanten auf einem Monopol beruht? Und wer betreibt/besitzt eigentlich dieses angebliche Monopol? Wird sich dies wahrscheinlich auf die Diamantenpreise auswirken, wenn ich an einem Kauf interessiert bin?
Ja, die De Beers Group of Companies ist ein Diamantenkartell, das den größten Teil des 20. Jahrhunderts den Diamantenmarkt vollständig kontrollierte. Jahrhunderts die vollständige Kontrolle über den Diamantenmarkt hatte. Sie kontrollieren immer noch einen beträchtlichen Teil des Marktes und ihre Marketingbemühungen (insbesondere mit dem Slogan "A Diamond is Forever") haben viel dazu beigetragen, den Markt für Diamanten in unserer Gesellschaft aufzublähen. Der innere Wert von Diamanten ist viel niedriger als die Marktpreise derzeit widerspiegeln, allerdings mit dem Vorbehalt, dass es einen Seltenheitsfaktor gibt, der den Preis größerer Diamanten in die Höhe treibt. Je größer der Diamant ist, desto wahrscheinlicher ist es, dass er Mängel aufweist. Bei Diamanten von 5 Karat oder mehr ist es daher nicht so wahrscheinlich, dass ein neues Angebot an Diamanten die Preise dieser größeren Steine beeinträchtigt. Andere Möglichkeiten, mit denen sich hochwertige Juweliere und Anbieter abheben, sind die Patentierung eines bestimmten Schliffs, den sie entwerfen. Dies ist eine weitere Marktzutrittsschranke, die zu einer künstlichen Preisinflation führt. Ein gängiges Beispiel ist der Lucida-Schliff, der manchmal auch als Tiffany-Schliff bezeichnet wird. Diamanten können auch hergestellt werden. Die gleiche Kohlenstoffstruktur kann in einem Labor gezüchtet werden. Diese Steine haben die gleiche Kohlenstoffstruktur wie natürliche Diamanten, aber ohne die Fehler und sichtbaren Verunreinigungen. Die meisten industriell hergestellten Diamanten werden industriell verwendet, aber die Verfahren wurden so weit verbessert, dass auch synthetische Diamanten in Edelsteinqualität hergestellt werden können. Sie werden mit einem ordentlichen Preisnachlass verkauft, so dass Sie diese Option in Betracht ziehen können, wenn Sie einen Ersatz suchen. In den kommenden Jahren werden die Preise für synthetische Diamanten voraussichtlich weiter sinken, was die Preise der Juweliere weiter unter Druck setzen dürfte.
¿Es cierto que el precio de los diamantes se basa en un monopolio? ¿Y quién dirige/dueña realmente este supuesto monopolio? ¿Es probable que esto afecte a los precios de los diamantes si estoy interesado en comprarlos?
Sí, el grupo de empresas De Beers es un cártel del diamante que tuvo el control total del mercado del diamante durante la mayor parte del siglo XX. Siguen controlando una parte considerable del mercado y sus esfuerzos de marketing (sobre todo con el eslogan "Un diamante es para siempre") han contribuido mucho a inflar el mercado de diamantes en nuestra sociedad. El valor intrínseco de los diamantes es muy inferior al que reflejan actualmente los precios de mercado, pero existe un factor de rareza que hace subir el precio de los diamantes más grandes. Cuanto más grande es el diamante, más probable es que tenga defectos, así que cuando se trata de diamantes de 5 quilates o más, no es tan probable que una nueva oferta de diamantes altere los precios de esas piedras más grandes. Otra forma en que los joyeros y proveedores de alta gama se diferencian es patentando una talla específica que ellos mismos diseñan. Esta es otra barrera de entrada que crea una inflación artificial de los precios. Un ejemplo habitual es la talla Lucida, también conocida como talla Tiffany. Los diamantes también se pueden fabricar. Se puede cultivar la misma estructura de carbono en un laboratorio. Estas piedras tienen la misma estructura de carbono que los diamantes naturales, pero sin los defectos ni las impurezas visibles. La mayoría de los diamantes manufacturados se utilizan industrialmente, pero los procesos han mejorado lo suficiente como para permitir diamantes sintéticos de calidad gema. Se venden con un descuento decente, por lo que podría ser una opción a considerar si desea un sustituto. En los años que vienen, usted puede esperar que los precios para los diamantes sintéticos continúen disminuyendo que pondrán probablemente una cierta presión a la baja adicional sobre los precios de los joyeros.
Est-il vrai que le prix des diamants repose sur un monopole ? Et qui dirige/propriétaire de ce supposé monopole ? Cette situation est-elle susceptible d'affecter le prix des diamants si je souhaite en acheter ?
Oui, le groupe d'entreprises De Beers est un cartel du diamant qui a contrôlé entièrement le marché du diamant pendant la majeure partie du 20e siècle. Il contrôle toujours une part importante du marché et ses efforts de marketing (en particulier avec le slogan "Un diamant est éternel") ont largement contribué à gonfler le marché des diamants dans notre société. La valeur intrinsèque des diamants est bien inférieure à ce que les prix du marché reflètent actuellement, à ceci près qu'il existe un facteur de rareté qui fait grimper le prix des plus gros diamants. Plus le diamant est gros, plus il est susceptible d'avoir des défauts. Ainsi, lorsqu'il s'agit de diamants de 5 carats ou plus, il est peu probable qu'une nouvelle offre de diamants vienne perturber les prix de ces grosses pierres. Les bijoutiers et fournisseurs haut de gamme se différencient également en brevetant une taille spécifique qu'ils ont conçue. Il s'agit là d'une autre barrière à l'entrée qui contribue à créer une inflation artificielle des prix. Un exemple courant est la taille Lucida, parfois appelée taille Tiffany. Les diamants peuvent également être fabriqués. La même structure de carbone peut être cultivée en laboratoire. Ces pierres ont la même structure de carbone que les diamants naturels, mais sans les défauts et les impuretés visibles. La plupart des diamants fabriqués sont utilisés à des fins industrielles, mais les processus se sont suffisamment améliorés pour permettre la fabrication de diamants synthétiques de qualité pierre précieuse. Ils se vendent à des prix raisonnables, c'est donc une option à envisager si vous voulez un substitut. Dans les années à venir, on peut s'attendre à ce que les prix des diamants synthétiques continuent à baisser, ce qui exercera probablement une pression supplémentaire sur les prix pratiqués par les bijoutiers.
È vero che il prezzo dei diamanti si basa su un monopolio? E chi gestisce/proprietà di questo presunto monopolio? È probabile che questo influisca sui prezzi dei diamanti se sono interessato all'acquisto?
Sì, il gruppo De Beers è un cartello di diamanti che ha avuto il controllo completo del mercato dei diamanti per la maggior parte del XX secolo. Il gruppo controlla ancora una parte considerevole del mercato e il suo sforzo di marketing (in particolare con lo slogan "Un diamante è per sempre") ha fatto molto per gonfiare il mercato dei diamanti nella nostra società. Il valore intrinseco dei diamanti è molto più basso di quello che i prezzi di mercato attualmente riflettono, ma con l'avvertenza che esiste un fattore di rarità che fa salire il prezzo dei diamanti più grandi. Più grande è il diamante, più è probabile che abbia dei difetti, quindi quando si tratta di diamanti di 5 carati o più, non è così probabile che una nuova offerta di diamanti faccia salire i prezzi di queste pietre più grandi. Un altro modo in cui i gioiellieri e i fornitori di alta gamma si differenziano è quello di brevettare un taglio specifico da loro progettato. Si tratta di un'altra barriera all'ingresso che contribuisce a creare un'inflazione artificiale dei prezzi. Un esempio comune è il taglio Lucida, talvolta chiamato taglio Tiffany. I diamanti possono anche essere fabbricati. La stessa struttura di carbonio può essere coltivata in laboratorio. Queste pietre hanno la stessa struttura di carbonio dei diamanti naturali, ma senza i difetti e le impurità visibili. La maggior parte dei diamanti fabbricati viene utilizzata a livello industriale, ma i processi sono migliorati a sufficienza per consentire la produzione di diamanti sintetici di qualità gemmologica. Vengono venduti con un discreto sconto, quindi potrebbe essere un'opzione da prendere in considerazione se si desidera un sostituto. Nei prossimi anni, i prezzi dei diamanti sintetici continueranno a diminuire, esercitando un'ulteriore pressione al ribasso sui prezzi dei gioiellieri.
76
Normal filesystem images can be easily mounted: ```mount system.img /mnt ``` Examined, and modified. But when I try this with a Raspberry Pi system image (e.g. raspbian), I get: ```mount: unknown filesystem type '(null)' ``` And no matter what I try with ```-t```, it won't work. How can I mount this image?
You can't mount the image as a whole because it actually contains two partitions and a boot sector. However, you can mount the individual partitions in the image if you know their offset inside the file. To find them, examine the image as a block device with ```fdisk -l whatever.img```. The output should include a table like this: ```Device Boot Start End Blocks Id System whatever.img1 8192 122879 57344 c W95 FAT32 (LBA) whatever.img2 122880 5785599 2831360 83 Linux ``` These are the two partitions. The first one is labelled "FAT32", and the other one "Linux". Above this table, there's some other information about the device as a whole, including: ```Units: sectors of 1 * 512 = 512 bytes ``` We can find the offset in bytes by multiplying this unit size by the ```Start``` block of the partition: * 1st partition 512 * 8192 = 4194304 * 2nd partition 512 * 122880 = 62914560 These can be used with the ```offset``` option of the ```mount``` command. We also have a clue about the type of each partition from ```fdisk```. So, presuming we have directories ```/mnt/img/one``` and ```/mnt/img/two``` available as mount points: ```mount -v -o offset=4194304 -t vfat whatever.img /mnt/img/one mount -v -o offset=62914560 -t ext4 whatever.img /mnt/img/two ``` If you get an "overlapping loop" error here, your version of ```mount``` requires you to specify the size as well as the offset of the first partition. Unmount that, and use the number of blocks (57344) * 512 (= 29360128): ```mount -v -o offset=4194304,sizelimit=29360128 \ -t vfat whatever.img /mnt/img/one ``` The second partition doesn't need a sizelimit since there's nothing after it in the image. You can now access the two partitions. If you do not intend to change anything in them, use the ```-r``` (read-only) switch too. If you do change anything, those changes will be included in the ```.img``` file. Note that the first partition is probably mounted on ```/boot``` in the second partition when the system is running.
Normale Dateisystem-Images können einfach gemountet werden: ```mount system.img /mnt ``` Untersucht und verändert. Aber wenn ich dies mit einem Raspberry Pi System-Image (z.B. raspbian) versuche, bekomme ich: ```Mount: unbekannter Dateisystemtyp '(null)' ``` Und egal was ich mit ```-t``` versuche, es funktioniert nicht. Wie kann ich dieses Image mounten?
Sie können das Image nicht als Ganzes mounten, da es eigentlich zwei Partitionen und einen Bootsektor enthält. Sie koennen jedoch die einzelnen Partitionen des Images mounten, wenn Sie deren Offset innerhalb der Datei kennen. Um sie zu finden, untersuchen Sie das Image als Blockgerät mit ```fdisk -l whatever.img```. Die Ausgabe sollte eine Tabelle wie diese enthalten: ````Gerät Boot Start Ende Blöcke Id System whatever.img1 8192 122879 57344 c W95 FAT32 (LBA) wie auch immer.img2 122880 5785599 2831360 83 Linux ``` Dies sind die beiden Partitionen. Die erste ist mit "FAT32" beschriftet, die andere mit "Linux". Oberhalb dieser Tabelle befinden sich einige weitere Informationen über das Gerät als Ganzes, darunter: ```Einheiten: Sektoren von 1 * 512 = 512 Bytes ``` Wir können den Offset in Bytes ermitteln, indem wir diese Einheitsgröße mit dem ```Start``-Block der Partition multiplizieren: * 1. Partition 512 * 8192 = 4194304 * 2. Partition 512 * 122880 = 62914560 Diese können mit der Option ```Offset`` des Befehls ```mount`` verwendet werden. Wir haben auch einen Anhaltspunkt über den Typ jeder Partition von ```fdisk```. Angenommen, wir haben die Verzeichnisse ```/mnt/img/one`` und ```/mnt/img/two`` als Einhängepunkte zur Verfügung: ```mount -v -o offset=4194304 -t vfat whatever.img /mnt/img/one mount -v -o offset=62914560 -t ext4 wie auch immer.img /mnt/img/two ``` Wenn Sie hier einen "overlapping loop"-Fehler erhalten, verlangt Ihre Version von ```mount``, dass Sie sowohl die Größe als auch den Offset der ersten Partition angeben. Deaktivieren Sie diese und verwenden Sie die Anzahl der Blöcke (57344) * 512 (= 29360128): ```mount -v -o offset=4194304,sizelimit=29360128 \ -t vfat whatever.img /mnt/img/one ``` Die zweite Partition benoetigt kein Sizelimit, da nach ihr nichts mehr im Image vorhanden ist. Sie können nun auf die beiden Partitionen zugreifen. Wenn Sie nicht vorhaben, irgendetwas in den Partitionen zu veraendern, benutzen Sie auch den ```-r`` (read-only) Schalter. Wenn Sie etwas ändern, werden diese Änderungen in die Datei ```.img``` übernommen. Beachten Sie, dass die erste Partition wahrscheinlich auf ```/boot`` in der zweiten Partition gemountet ist, wenn das System läuft.
Las imágenes normales del sistema de archivos se pueden montar fácilmente: ```montar sistema.img /mnt ``` Examinar, y modificar. Pero cuando intento esto con una imagen de sistema Raspberry Pi (por ejemplo, raspbian), obtengo: ```mount: unknown filesystem type '(null)'' ``` Y no importa lo que intente con ```-t``, no funciona. ¿Cómo puedo montar esta imagen?
No puedes montar la imagen como un todo porque en realidad contiene dos particiones y un sector de arranque. Sin embargo, puede montar las particiones individuales de la imagen si conoce su desplazamiento dentro del archivo. Para encontrarlas, examine la imagen como un dispositivo de bloque con ```fdisk -l whatever.img``. El resultado debería incluir una tabla como ésta: ```Dispositivo Arranque Inicio Fin Bloques Id Sistema cualquiera.img1 8192 122879 57344 c W95 FAT32 (LBA) cualquiera.img2 122880 5785599 2831360 83 Linux ``` Estas son las dos particiones. La primera está etiquetada como "FAT32", y la otra como "Linux". Encima de esta tabla, hay algo más de información sobre el dispositivo en su conjunto, incluyendo: ```Unidades: sectores de 1 * 512 = 512 bytes ``` Podemos encontrar el offset en bytes multiplicando este tamaño de unidad por el bloque ```Start`` de la partición: * 1ª partición 512 * 8192 = 4194304 * 2ª partición 512 * 122880 = 62914560 Estos valores se pueden utilizar con la opción ```offset`` del comando ```mount``. También tenemos una pista sobre el tipo de cada partición a partir de ```fdisk``. Así, suponiendo que tenemos los directorios ```/mnt/img/one`` y ```/mnt/img/two`` disponibles como puntos de montaje: ```mount -v -o offset=4194304 -t vfat whatever.img /mnt/img/one mount -v -o offset=62914560 -t ext4 whatever.img /mnt/img/two ``` Si obtienes un error de "bucle solapado" aquí, tu versión de ```mount`` requiere que especifiques el tamaño así como el offset de la primera partición. Desmóntala y utiliza el número de bloques (57344) * 512 (= 29360128): ```mount -v -o offset=4194304,sizelimit=29360128 \ -t vfat whatever.img /mnt/img/one ``` La segunda partición no necesita un sizelimit ya que no hay nada después de ella en la imagen. Ahora puede acceder a las dos particiones. Si no tiene intención de cambiar nada en ellas, utilice también el modificador ```-r`` (sólo lectura). Si cambias algo, esos cambios se incluirán en el archivo ```.img``. Ten en cuenta que la primera partición probablemente está montada en ```/boot`` en la segunda partición cuando el sistema está funcionando.
Les images de systèmes de fichiers normaux peuvent être facilement montées : ```mount system.img /mnt ``` Examiné et modifié. Mais lorsque j'essaie de le faire avec une image système Raspberry Pi (par exemple raspbian), j'obtiens : ``mount : unknown filesystem type '(null)'' ``` Et peu importe ce que j'essaie avec ``-t```, cela ne fonctionne pas. Comment puis-je monter cette image ?
Vous ne pouvez pas monter l'image dans son ensemble, car elle contient en fait deux partitions et un secteur d'amorçage. Cependant, vous pouvez monter les partitions individuelles de l'image si vous connaissez leur position dans le fichier. Pour les trouver, examinez l'image comme un périphérique bloc avec ``fdisk -l whatever.img``. La sortie devrait inclure un tableau comme celui-ci : ``Périphérique Boot Start End Blocks Id System whatever.img1 8192 122879 57344 c W95 FAT32 (LBA) whatever.img2 122880 5785599 2831360 83 Linux ``` Voici les deux partitions. La première est étiquetée "FAT32", et l'autre "Linux". Au-dessus de ce tableau, il y a d'autres informations sur le périphérique dans son ensemble, y compris : ```Unités : secteurs de 1 * 512 = 512 octets ``` Nous pouvons trouver l'offset en octets en multipliant cette taille d'unité par le bloc ``Début`` de la partition : * 1ère partition 512 * 8192 = 4194304 * 2ème partition 512 * 122880 = 62914560 Ces données peuvent être utilisées avec l'option ``offset`` de la commande ``mount``. Nous avons également un indice sur le type de chaque partition grâce à ``fdisk``. Donc, en supposant que nous avons les répertoires ``/mnt/img/one`` et ``/mnt/img/two`` disponibles comme points de montage : ``mount -v -o offset=4194304 -t vfat whatever.img /mnt/img/one mount -v -o offset=62914560 -t ext4 whatever.img /mnt/img/two ``` Si vous obtenez une erreur de type "boucle chevauchante", votre version de ``mount`` vous demande de spécifier la taille ainsi que l'offset de la première partition. Démontez-la, et utilisez le nombre de blocs (57344) * 512 (= 29360128) : ```mount -v -o offset=4194304,sizelimit=29360128 \N -t vfat whatever.im -t vfat whatever.img /mnt/img/one ``` La deuxième partition n'a pas besoin de limite de taille puisqu'il n'y a rien après elle dans l'image. Vous pouvez maintenant accéder aux deux partitions. Si vous n'avez pas l'intention de changer quoi que ce soit, utilisez aussi le commutateur ``-r`` (lecture seule). Si vous changez quoi que ce soit, ces changements seront inclus dans le fichier ``.img``. Notez que la première partition est probablement montée sur ``/boot``` dans la seconde partition lorsque le système fonctionne.
Le immagini normali del filesystem possono essere montate facilmente: ``Montare system.img /mnt ``` Esaminate e modificate. Ma quando provo a farlo con un'immagine di sistema di Raspberry Pi (ad esempio raspbian), ottengo: ``mount: unknown filesystem type '(null)''. ``` E non importa cosa provo a fare con ```-t```, non funziona. Come posso montare questa immagine?
Non è possibile montare l'immagine nel suo complesso perché contiene due partizioni e un settore di avvio. Tuttavia, è possibile montare le singole partizioni dell'immagine se si conosce il loro offset all'interno del file. Per trovarle, esaminare l'immagine come dispositivo a blocchi con ``fdisk -l whatever.img```. L'output dovrebbe includere una tabella come questa: ``Dispositivo Avvio Inizio Fine Blocchi Id Sistema whatever.img1 8192 122879 57344 c W95 FAT32 (LBA) whatever.img2 122880 5785599 2831360 83 Linux ``` Queste sono le due partizioni. La prima è etichettata come "FAT32" e l'altra come "Linux". Sopra questa tabella, ci sono altre informazioni sul dispositivo nel suo complesso, tra cui: ```Unità: settori di 1 * 512 = 512 byte ``` Possiamo trovare l'offset in byte moltiplicando la dimensione dell'unità per il blocco ```Start`` della partizione: * 1a partizione 512 * 8192 = 4194304 * 2a partizione 512 * 122880 = 62914560 Questi dati possono essere utilizzati con l'opzione ```offset`` del comando ```mount``. Abbiamo anche un indizio sul tipo di ogni partizione da ```fdisk``. Quindi, supponendo di avere le directory ```/mnt/img/one``` e ````/mnt/img/two`` disponibili come punti di montaggio: ```mount -v -o offset=4194304 -t vfat whatever.img /mnt/img/one mount -v -o offset=62914560 -t ext4 whatever.img /mnt/img/two ``` Se si ottiene un errore di "overlapping loop", la versione di ``mount`` richiede di specificare la dimensione e l'offset della prima partizione. Smontatela e usate il numero di blocchi (57344) * 512 (= 29360128): ```mount -v -o offset=4194304,sizelimit=29360128 ´´. -t vfat whatever.img /mnt/img/one ``` La seconda partizione non ha bisogno di un sizelimit poiché non c'è nulla dopo di essa nell'immagine. Ora è possibile accedere alle due partizioni. Se non si intende modificare nulla al loro interno, utilizzare anche l'opzione ```-r``` (sola lettura). Se si modifica qualcosa, le modifiche saranno incluse nel file ```.img``. Si noti che la prima partizione è probabilmente montata su ```/boot`` nella seconda partizione quando il sistema è in funzione.
77
How does immersion passively help with learning a language?
There are a few reasons why immersion helps you learn a language without you actively trying: * You encounter the language more often. When you are immersed in a language, you don't go to class and do homework for a few hours a week, but rather use the language the entire day. You depend on the language to survive—to buy groceries, to talk to employers and customers, to ask for directions, etc. Being forced to use the language means you learn it even when you're not actively trying to. It becomes a way of life. * You learn the language in more than one way. Classroom learning focuses on specific activities at a time and generally is oriented around learning vocabulary and grammar. Immersion implicitly forces you to learn vocabulary (if you don't know a word, you simply can't communicate) and grammar (people will probably correct you if you say something incorrectly). You will learn these things whether you're trying to or not. In addition you will learn how to carry on a conversation, both by listening and participating in your own. This is something that simple exercises can very rarely accomplish. * You begin to think in the language. If you use the language enough you'll start to get good enough at it that you won't have time to think in your native language and translate. Immersion spurs this on because native speakers talk relatively quickly, signs you read may pass by in a moment, and you may quickly need to say "excuse me" or ask for help. Because you can't afford long delays, you'll begin to skip the translation step. This helps you use the language as a native speaker would. * Culture reinforces language learning. When you are immersed in a language, you often encounter the culture and traditions associated with speakers of that language. Your brain will retain the new knowledge and experiences you acquire better because it is different than what you are used to, and if the language is part of that cultural experience, you will remember it better. For example, you might remember an idiom or a joke that only exists in the language you are learning. This will expand your ability to communicate in that language.
Wie hilft die Immersion passiv beim Erlernen einer Sprache?
Es gibt einige Gründe, warum das Eintauchen in die Sprache Ihnen hilft, eine Sprache zu lernen, ohne dass Sie es aktiv versuchen: * Sie kommen häufiger mit der Sprache in Berührung. Wenn Sie in eine Sprache eintauchen, gehen Sie nicht ein paar Stunden pro Woche zum Unterricht und machen Hausaufgaben, sondern verwenden die Sprache den ganzen Tag. Sie sind auf die Sprache angewiesen, um zu überleben - um einzukaufen, um mit Arbeitgebern und Kunden zu sprechen, um nach dem Weg zu fragen, usw. Da man gezwungen ist, die Sprache zu benutzen, lernt man sie auch dann, wenn man es nicht aktiv versucht. Sie wird zu einer Lebensweise. * Man lernt die Sprache auf mehr als eine Weise. Das Lernen im Klassenzimmer konzentriert sich auf bestimmte Aktivitäten und ist im Allgemeinen auf das Lernen von Vokabeln und Grammatik ausgerichtet. Das Eintauchen in die Sprache zwingt Sie implizit dazu, Vokabeln zu lernen (wenn Sie ein Wort nicht kennen, können Sie sich nicht verständigen) und Grammatik zu lernen (die Leute werden Sie wahrscheinlich korrigieren, wenn Sie etwas Falsches sagen). Sie werden diese Dinge lernen, ob Sie es wollen oder nicht. Außerdem lernen Sie, wie man ein Gespräch führt, sowohl durch Zuhören als auch durch die Teilnahme an einem eigenen Gespräch. Das ist etwas, was man mit einfachen Übungen nur sehr selten erreichen kann. * Sie beginnen, in der Sprache zu denken. Wenn Sie die Sprache oft genug benutzen, werden Sie sie so gut beherrschen, dass Sie keine Zeit mehr haben, in Ihrer Muttersprache zu denken und zu übersetzen. Das Eintauchen in die Sprache fördert dies, denn Muttersprachler sprechen relativ schnell, Zeichen, die Sie lesen, können in einem Moment vorbeigehen, und Sie müssen vielleicht schnell "Entschuldigung" sagen oder um Hilfe bitten. Da Sie sich keine langen Wartezeiten leisten können, werden Sie anfangen, den Übersetzungsschritt zu überspringen. So können Sie die Sprache wie ein Muttersprachler verwenden. * Die Kultur verstärkt das Sprachenlernen. Wenn Sie in eine Sprache eintauchen, treffen Sie oft auf die Kultur und die Traditionen, die mit den Sprechern dieser Sprache verbunden sind. Ihr Gehirn speichert das neu erworbene Wissen und die Erfahrungen besser, weil es sich von dem unterscheidet, was Sie gewohnt sind, und wenn die Sprache Teil dieser kulturellen Erfahrung ist, werden Sie sich besser daran erinnern. Sie können sich zum Beispiel an eine Redewendung oder einen Witz erinnern, den es nur in der Sprache gibt, die Sie lernen. Dadurch wird Ihre Fähigkeit, sich in dieser Sprache zu verständigen, erweitert.
¿Cómo ayuda la inmersión pasiva a aprender un idioma?
Hay varias razones por las que la inmersión le ayuda a aprender un idioma sin que usted lo intente activamente: * Te encuentras con la lengua más a menudo. Cuando estás inmerso en un idioma, no vas a clase y haces deberes unas horas a la semana, sino que lo utilizas todo el día. Dependes de la lengua para sobrevivir: para hacer la compra, para hablar con jefes y clientes, para pedir direcciones, etc. Estar obligado a utilizar la lengua significa que la aprendes aunque no lo intentes activamente. Se convierte en una forma de vida. * El idioma se aprende de más de una manera. El aprendizaje en el aula se centra en actividades específicas y suele estar orientado al aprendizaje de vocabulario y gramática. La inmersión te obliga implícitamente a aprender vocabulario (si no conoces una palabra, sencillamente no puedes comunicarte) y gramática (la gente probablemente te corregirá si dices algo incorrectamente). Aprenderás estas cosas lo intentes o no. Además, aprenderás a mantener una conversación, tanto escuchando como participando en la tuya propia. Esto es algo que muy pocas veces se consigue con simples ejercicios. * Empiezas a pensar en la lengua. Si utilizas la lengua lo suficiente, empezarás a dominarla tan bien que no tendrás tiempo de pensar en tu lengua materna y traducir. La inmersión estimula esto porque los hablantes nativos hablan relativamente rápido, las señales que lees pueden pasar en un momento y puede que necesites rápidamente decir "perdón" o pedir ayuda. Como no puedes permitirte grandes retrasos, empezarás a saltarte el paso de la traducción. Esto le ayudará a utilizar la lengua como lo haría un hablante nativo. * La cultura refuerza el aprendizaje de idiomas. Cuando estás inmerso en un idioma, a menudo te encuentras con la cultura y las tradiciones asociadas a los hablantes de esa lengua. Su cerebro retendrá mejor los nuevos conocimientos y experiencias que adquiera porque son diferentes de lo que está acostumbrado, y si la lengua forma parte de esa experiencia cultural, la recordará mejor. Por ejemplo, puede que recuerde un modismo o un chiste que sólo existe en la lengua que está aprendiendo. Esto ampliará tu capacidad para comunicarte en esa lengua.
Comment l'immersion passive contribue-t-elle à l'apprentissage d'une langue ?
Il y a plusieurs raisons pour lesquelles l'immersion vous aide à apprendre une langue sans que vous ne fassiez d'efforts : * Vous rencontrez la langue plus souvent. Lorsque vous êtes immergé dans une langue, vous n'allez pas en classe et ne faites pas vos devoirs quelques heures par semaine, mais vous utilisez la langue toute la journée. Vous dépendez de la langue pour survivre - pour faire vos courses, pour parler à vos employeurs et à vos clients, pour demander votre chemin, etc. Le fait d'être obligé d'utiliser la langue signifie que vous l'apprenez même lorsque vous n'essayez pas activement de le faire. La langue devient un mode de vie. * Vous apprenez la langue de plusieurs manières. L'apprentissage en classe se concentre sur des activités spécifiques à la fois et est généralement axé sur l'apprentissage du vocabulaire et de la grammaire. L'immersion vous oblige implicitement à apprendre le vocabulaire (si vous ne connaissez pas un mot, vous ne pouvez tout simplement pas communiquer) et la grammaire (les gens vous corrigeront probablement si vous dites quelque chose d'incorrect). Vous apprendrez ces choses, que vous le vouliez ou non. En outre, vous apprendrez à tenir une conversation, à la fois en écoutant et en participant à la vôtre. C'est quelque chose que de simples exercices ne peuvent que très rarement accomplir. * Vous commencez à penser dans la langue. Si vous utilisez suffisamment la langue, vous commencerez à la maîtriser suffisamment pour ne plus avoir le temps de penser dans votre langue maternelle et de traduire. L'immersion favorise ce phénomène car les locuteurs natifs parlent relativement vite, les panneaux que vous lisez peuvent passer en un instant et vous pouvez rapidement avoir besoin de dire "excusez-moi" ou de demander de l'aide. Comme vous ne pouvez pas vous permettre de longs délais, vous commencerez à sauter l'étape de la traduction. Cela vous aide à utiliser la langue comme le ferait un locuteur natif. * La culture renforce l'apprentissage des langues. Lorsque vous êtes immergé dans une langue, vous rencontrez souvent la culture et les traditions associées aux locuteurs de cette langue. Votre cerveau retiendra mieux les nouvelles connaissances et expériences que vous acquérez parce qu'elles sont différentes de celles auxquelles vous êtes habitué, et si la langue fait partie de cette expérience culturelle, vous vous en souviendrez mieux. Par exemple, vous pourriez vous souvenir d'une expression idiomatique ou d'une blague qui n'existe que dans la langue que vous apprenez. Cela élargira votre capacité à communiquer dans cette langue.
In che modo l'immersione passiva aiuta l'apprendimento di una lingua?
Ci sono alcuni motivi per cui l'immersione aiuta a imparare una lingua senza che ci si sforzi attivamente: * Si incontra la lingua più spesso. Quando si è immersi in una lingua, non si va a lezione e non si fanno i compiti per poche ore alla settimana, ma si usa la lingua tutto il giorno. Si dipende dalla lingua per sopravvivere: per fare la spesa, per parlare con datori di lavoro e clienti, per chiedere indicazioni, ecc. Essere costretti a usare la lingua significa impararla anche quando non si cerca attivamente di farlo. Diventa uno stile di vita. * Si impara la lingua in più di un modo. L'apprendimento in classe si concentra su attività specifiche e generalmente è orientato all'apprendimento del vocabolario e della grammatica. L'immersione costringe implicitamente a imparare il vocabolario (se non si conosce una parola, semplicemente non si può comunicare) e la grammatica (le persone probabilmente vi correggeranno se dite qualcosa di sbagliato). Imparerete queste cose, che lo vogliate o meno. Inoltre, imparerete come portare avanti una conversazione, sia ascoltando che partecipando alla vostra. Questo è un risultato che i semplici esercizi possono ottenere molto raramente. * Si inizia a pensare in lingua. Se utilizzate la lingua a sufficienza, inizierete a diventare abbastanza bravi da non avere più il tempo di pensare nella vostra lingua madre e di tradurre. L'immersione stimola questo fenomeno perché i madrelingua parlano in modo relativamente veloce, i cartelli che leggete possono passare in un attimo e potreste aver bisogno di dire "scusa" o di chiedere aiuto. Poiché non potete permettervi lunghi ritardi, inizierete a saltare la fase di traduzione. Questo vi aiuta a usare la lingua come farebbe un madrelingua. * La cultura rafforza l'apprendimento della lingua. Quando ci si immerge in una lingua, spesso si incontrano la cultura e le tradizioni associate a chi parla quella lingua. Il cervello conserva meglio le nuove conoscenze ed esperienze acquisite perché sono diverse da quelle a cui si è abituati e, se la lingua fa parte di quell'esperienza culturale, la si ricorda meglio. Ad esempio, potreste ricordare un idioma o una battuta che esiste solo nella lingua che state imparando. Questo amplierà la vostra capacità di comunicare in quella lingua.
78
I have a script, that does not exit when I want it to. An example script with the same error is: ```#!/bin/bash function bla() { return 1 } bla || ( echo '1' ; exit 1 ) echo '2' ``` I would assume to see the output: ```:~$ ./test.sh 1 :~$ ``` But I actually see: ```:~$ ./test.sh 1 2 :~$ ``` Does the ```()``` command chaining somehow create a scope? What is ```exit``` exiting out of, if not the script?
```()``` runs commands in the subshell, so by ```exit``` you are exiting from subshell and returning to the parent shell. Use braces ```{}``` if you want to run commands in the current shell. From bash manual: (list) list is executed in a subshell environment. Variable assignments and builtin commands that affect the shell's environment do not remain in effect after the command completes. The return status is the exit status of list. { list; } list is simply executed in the current shell environment. list must be terminated with a newline or semicolon. This is known as a group command. The return status is the exit status of list. Note that unlike the metacharacters ( and ), { and } are reserved words and must occur where a reserved word is permitted to be recognized. Since they do not cause a word break, they must be separated from list by whitespace or another shell metacharacter. It's worth mentioning that the shell syntax is quite consistent and the subshell participates also in the other ```()``` constructs like command substitution (also with the old-style ````..```` syntax) or process substitution, so the following won't exit from the current shell either: ```echo $(exit) cat <(exit) ``` While it may be obvious that subshells are involved when commands are placed explicitly inside ```()```, the less visible fact is that they are also spawned in these other structures: * command started in the background ```exit & ``` doesn't exit the current shell because (after ```man bash```) If a command is terminated by the control operator &, the shell executes the command in the background in a subshell. The shell does not wait for the command to finish, and the return status is 0. * the pipeline ```exit | echo foo ``` still exits only from the subshell. However different shells behave differently in this regard. For example ```bash``` puts all components of the pipeline into separate subshells (unless you use the ```lastpipe``` option in invocations where job control is not enabled), but AT&T ```ksh``` and ```zsh``` run the last part inside the current shell (both behaviours are allowed by POSIX). Thus ```exit | exit | exit ``` does basically nothing in bash, but exits from the zsh because of the last ```exit```. * ```coproc exit``` also runs ```exit``` in a subshell.
Ich habe ein Skript, das nicht beendet wird, wenn ich es haben will. Ein Beispielskript mit dem gleichen Fehler ist: ```#!/bin/bash function bla() { return 1 } bla || ( echo '1' ; exit 1 ) echo '2' ``` Ich würde annehmen, dass ich die Ausgabe sehen würde: ```:~$ ./test.sh 1 :~$ ``` Aber ich sehe tatsächlich: ```:~$ ./test.sh 1 2 :~$ ``` Erzeugt die ```()``-Befehlskette irgendwie einen Bereich? Wovon wird ```exit`` verlassen, wenn nicht vom Skript?
```()``` führt Befehle in der Subshell aus, so dass Sie mit ```exit`` die Subshell verlassen und zur Parent-Shell zurückkehren. Verwenden Sie geschweifte Klammern ```{}``, wenn Sie Befehle in der aktuellen Shell ausführen wollen. Aus dem bash Handbuch: (list) list wird in einer Subshell-Umgebung ausgeführt. Variablenzuweisungen und eingebaute Befehle, die die Umgebung der Shell beeinflussen, bleiben nach Beendigung des Befehls nicht in Kraft. Der Rückgabestatus ist der Exit-Status von list. { list; } list wird einfach in der aktuellen Shell-Umgebung ausgeführt. list muss mit einem Zeilenumbruch oder Semikolon abgeschlossen werden. Dies ist ein sogenannter Gruppenbefehl. Der Rückgabestatus ist der Exit-Status von list. Beachten Sie, dass { und } im Gegensatz zu den Metazeichen ( und ) reservierte Wörter sind und dort auftreten müssen, wo ein reserviertes Wort erkannt werden darf. Da sie keinen Wortumbruch verursachen, müssen sie durch Leerzeichen oder ein anderes Shell-Metazeichen von list getrennt werden. Es ist erwaehnenswert, dass die Shellsyntax recht konsistent ist und die Subshell auch an den anderen ```()``Konstrukten wie Kommandosubstitution (auch mit der alten ````..````-Syntax) oder Prozesssubstitution teilnimmt, so dass das Folgende die aktuelle Shell auch nicht verlassen wird: ```echo $(exit) cat <(exit) ``` Während es offensichtlich ist, dass Subshells involviert sind, wenn Befehle explizit innerhalb von ```()``` platziert werden, ist die weniger sichtbare Tatsache, dass sie auch in diesen anderen Strukturen erzeugt werden: * im Hintergrund gestarteter Befehl ````Beenden & ``` beendet die aktuelle Shell nicht, weil (nach ```man bash```) Wenn ein Befehl durch den Steueroperator & beendet wird, führt die Shell den Befehl im Hintergrund in einer Subshell aus. Die Shell wartet nicht darauf, dass der Befehl beendet wird, und der Rückgabestatus ist 0. * die Pipeline ```exit | echo foo ``` wird immer noch nur von der Subshell beendet. Allerdings verhalten sich verschiedene Shells in dieser Hinsicht unterschiedlich. Zum Beispiel legt ```bash`` alle Komponenten der Pipeline in separaten Subshells ab (es sei denn, Sie verwenden die Option ```lastpipe`` in Aufrufen, in denen die Jobkontrolle nicht aktiviert ist), aber AT&T ```ksh``` und ```zsh`` lassen den letzten Teil innerhalb der aktuellen Shell laufen (beide Verhaltensweisen sind von POSIX erlaubt). Also ``exit | exit | exit ``` in der Bash so gut wie nichts, aber in der Zsh wird es wegen des letzten ```exit``` beendet. * ```coproc exit``` führt auch ```exit`` in einer Subshell aus.
Tengo un script que no sale cuando yo quiero. Un ejemplo de script con el mismo error es: ```#!/bin/bash function bla() { return 1 } bla || ( echo '1' ; exit 1 ) echo '2' ``` Supondría ver la salida ```:~$ ./test.sh 1 :~$ ``` Pero en realidad veo: ```:~$ ./test.sh 1 2 :~$ ``` ¿El encadenamiento de comandos ```()`` crea de alguna manera un ámbito? ¿De qué sale ```exit``, si no es del script?
```()`` ejecuta comandos en el subshell, así que con ```exit`` estás saliendo del subshell y volviendo al shell padre. Usa llaves ```{}`` si quieres ejecutar comandos en el shell actual. Del manual de bash: (list) list se ejecuta en un entorno de subshell. Las asignaciones de variables y los comandos incorporados que afectan el entorno del shell no permanecen en efecto después de que el comando se completa. El estado de retorno es el estado de salida de list. { list; } list simplemente se ejecuta en el entorno actual del shell. list debe terminar con una nueva línea o punto y coma. Esto se conoce como comando de grupo. El estado de retorno es el estado de salida de list. Tenga en cuenta que a diferencia de los metacaracteres ( y ), { y } son palabras reservadas y deben aparecer donde se permite el reconocimiento de una palabra reservada. Dado que no provocan una ruptura de palabra, deben separarse de list mediante espacios en blanco u otro metacarácter del shell. Vale la pena mencionar que la sintaxis del shell es bastante consistente y el subshell participa también en otras construcciones ```()`` como la sustitución de comandos (también con la sintaxis al viejo estilo ````..````) o la sustitución de procesos, por lo que lo siguiente tampoco saldrá del shell actual: ``echo $(exit) cat <(salida) ``` Mientras que puede ser obvio que los subshells están involucrados cuando los comandos se colocan explícitamente dentro de ```()``, el hecho menos visible es que también se generan en estas otras estructuras: *comando iniciado en segundo plano ```salir & ``` no sale del shell actual porque (después de ```man bash``) Si un comando es terminado por el operador de control &, el shell ejecuta el comando en segundo plano en un subshell. El shell no espera a que el comando termine, y el estado de retorno es 0. * la tubería ```exit | echo foo ``` sigue saliendo sólo de la subshell. Sin embargo, diferentes shells se comportan de manera diferente en este sentido. Por ejemplo ``bash`` pone todos los componentes de la tubería en subshells separadas (a menos que uses la opción ``lastpipe`` en invocaciones donde el control de trabajos no está habilitado), pero AT&T ``ksh`` y ```zsh`` ejecutan la última parte dentro de la shell actual (ambos comportamientos están permitidos por POSIX). Así ```exit | exit | exit ``` no hace básicamente nada en bash, pero sale del zsh por el último ``exit``. * ```coproc exit`` también ejecuta ```exit`` en un subshell.
J'ai un script qui ne se termine pas quand je le souhaite. Un exemple de script avec la même erreur est : ```#!/bin/bash function bla() { return 1 } bla || ( echo '1' ; exit 1 ) echo '2' ``` Je suppose que je verrais la sortie : ```:~$ ./test.sh 1 :~$ ``` Mais en fait, je vois : ```:~$ ./test.sh 1 2 :~$ ``` Est-ce que l'enchaînement de commandes ``()`` crée un champ d'application ? De quoi sort ``exit``, si ce n'est du script ?
``()`` exécute des commandes dans le sous-shell, donc par ``exit`` vous quittez le sous-shell et retournez dans le shell parent. Utilisez les accolades ``{}`` si vous voulez exécuter des commandes dans le shell courant. Extrait du manuel de bash : (list) list est exécuté dans un environnement subshell. Les affectations de variables et les commandes intégrées qui affectent l'environnement du shell ne restent pas en vigueur après la fin de la commande. L'état de retour est l'état de sortie de list. {La liste doit être terminée par une nouvelle ligne ou un point-virgule. Il s'agit d'une commande de groupe. L'état de retour est l'état de sortie de list. Notez que contrairement aux métacaractères ( et ), { et } sont des mots réservés et doivent apparaître là où un mot réservé est autorisé à être reconnu. Comme ils ne provoquent pas de rupture de mot, ils doivent être séparés de list par un espace blanc ou un autre métacaractère de l'interpréteur de commandes. Il est utile de mentionner que la syntaxe de l'interpréteur de commandes est assez cohérente et que le subshell participe également aux autres constructions ``()`` comme la substitution de commande (également avec l'ancienne syntaxe ````..````) ou la substitution de processus, donc ce qui suit ne sortira pas non plus de l'interpréteur de commandes actuel : ```echo $(exit) cat <(exit) ``` Bien qu'il soit évident que les sous-shells sont impliqués lorsque les commandes sont placées explicitement à l'intérieur de ``()``, le fait moins visible est qu'ils sont également créés dans ces autres structures : * commande lancée en arrière-plan ```exit & ``` ne quitte pas le shell courant parce que (après ``man bash``) Si une commande est terminée par l'opérateur de contrôle &, l'interpréteur de commandes exécute la commande en arrière-plan dans un sous-shell. L'interpréteur de commandes n'attend pas que la commande se termine, et le statut de retour est 0. * Le pipeline ```exit | echo foo ``` ne sort toujours que du sous-shell. Cependant, les différents shells se comportent différemment à cet égard. Par exemple ``bash`` place tous les composants du pipeline dans des sous-shells séparés (à moins que vous n'utilisiez l'option ``lastpipe`` dans les invocations où le contrôle des tâches n'est pas activé), mais AT&T ``ksh`` et ``zsh`` exécutent la dernière partie à l'intérieur du shell courant (les deux comportements sont autorisés par POSIX). Ainsi ``exit | exit | exit ``` ne fait rien dans bash, mais sort de zsh à cause du dernier ``exit``. * ``coproc exit`` exécute aussi ``exit`` dans un sous-shell.
Ho uno script che non esce quando voglio. Un esempio di script con lo stesso errore è: ```#!/bin/bash funzione bla() { return 1 } bla || ( echo '1' ; exit 1 ) echo '2' ``` Suppongo di vedere l'output: ```:~$ ./test.sh 1 :~$ ``` Ma in realtà vedo: ```:~$ ./test.sh 1 2 :~$ ``` Il concatenamento di comandi ```()`` crea in qualche modo un ambito? Da cosa esce ```exit'', se non dallo script?
```()`` esegue i comandi nella subshell, quindi con ```exit`` si esce dalla subshell e si torna alla shell madre. Usate le parentesi graffe ```{}`` se volete eseguire i comandi nella shell corrente. Dal manuale di bash: (list) list viene eseguito in un ambiente subshell. Le assegnazioni di variabili e i comandi incorporati che influenzano l'ambiente della shell non rimangono in vigore dopo il completamento del comando. Lo stato di ritorno è lo stato di uscita di list. {L'elenco deve essere terminato con una nuova linea o un punto e virgola. Questo è noto come comando di gruppo. Lo stato di ritorno è lo stato di uscita di list. Si noti che, a differenza dei metacaratteri ( e ), { e } sono parole riservate e devono essere presenti quando è consentito il riconoscimento di una parola riservata. Poiché non causano un'interruzione di parola, devono essere separati da spazi bianchi o da un altro metacarattere di shell. Vale la pena ricordare che la sintassi della shell è abbastanza coerente e che la subshell partecipa anche agli altri costrutti ```()`` come la sostituzione dei comandi (anche con la sintassi vecchio stile ````..````) o la sostituzione dei processi, per cui quanto segue non uscirà dalla shell corrente: ```echo $(exit) cat <(exit) ``` Sebbene possa essere ovvio che le subshell sono coinvolte quando i comandi sono inseriti esplicitamente all'interno di ```()```, il fatto meno visibile è che vengono generate anche in queste altre strutture: * comando avviato in background ```exit & ``` non esce dalla shell corrente, perché (dopo ```man bash``) Se un comando viene terminato dall'operatore di controllo &, la shell esegue il comando in background in una sottoguscia. La shell non aspetta che il comando finisca e lo stato di ritorno è 0. * la pipeline ```exit | echo foo ``` esce comunque solo dalla subshell. Tuttavia, le diverse shell si comportano in modo diverso da questo punto di vista. Per esempio ``bash`` mette tutti i componenti della pipeline in subshell separate (a meno che non si usi l'opzione ``lastpipe`` nelle invocazioni in cui il controllo dei lavori non è abilitato), ma AT&T ``ksh`` e ``zsh`` eseguono l'ultima parte all'interno della shell corrente (entrambi i comportamenti sono consentiti da POSIX). Quindi ```Esci | Esci | Esci ``` non fa praticamente nulla in bash, ma esce da zsh a causa dell'ultimo ``exit``. * ``coproc exit`` esegue anche ```exit`` in una subshell.
79
Adding a new swap file. How to edit fstab to enable swap after reboot?
These ares the steps to create a swap on a file: 1. Create a large file e.g. with ```sudo mkdir -p /var/cache/swap/ # create a directory that holds the swap file sudo dd if=/dev/zero of=/var/cache/swap/myswap bs=1M count=4096 # for 4 GByte ``` Of course any other method of creating a file of defined size would do. 2. Announce swap to the system ```sudo chmod 0600 /var/cache/swap/myswap # only root should have access sudo mkswap /var/cache/swap/myswap # format as swap sudo swapon /var/cache/swap/myswap # announce to system ``` Insert the following line in ```/etc/fstab``` for swap from the next boot: ```/var/cache/swap/myswap none swap sw 0 0 ``` Note: 1. In case you have your system files on a SSD you may want to consider to hold your swap file on a hard disk location. 2. You can not use a swap file for hibernation (see Ubuntu SwapFaq) 3. Additional note for Ubuntu >= 17.04: A swap on file ```/swapfile``` is created by default in a new installation (when no swap partition was present). We can manually create a swap partition later if we prefer. In case we want to replace an existing swap (e.g. partition) with another swap (e.g. on file) we need to remove the old swap with ```sudo swapoff -a # for all ``` Then remove the swap entry from ```/etc/fstab``` or replace it with the new swap respectively.
Hinzufügen einer neuen Auslagerungsdatei. Wie bearbeite ich fstab, um Swap nach dem Neustart zu aktivieren?
Dies sind die Schritte, um eine Auslagerung auf eine Datei zu erstellen: 1. Erstellen Sie eine große Datei z.B. mit sudo mkdir -p /var/cache/swap/ # Erstellen Sie ein Verzeichnis, das die Auslagerungsdatei enthält sudo dd if=/dev/zero of=/var/cache/swap/myswap bs=1M count=4096 # fuer 4 GByte ``` Natürlich würde auch jede andere Methode zur Erstellung einer Datei mit definierter Größe ausreichen. 2. Swap dem System ankündigen ```sudo chmod 0600 /var/cache/swap/myswap # nur root sollte Zugriff haben sudo mkswap /var/cache/swap/myswap # als Swap formatieren sudo swapon /var/cache/swap/myswap # dem System mitteilen ``` F?gen Sie die folgende Zeile in ```/etc/fstab`` f?r den Swap beim n?chsten Start ein: ```/var/cache/swap/myswap none swap sw 0 0 ``` Anmerkung: 1. Falls Sie Ihre Systemdateien auf einer SSD haben, sollten Sie in Betracht ziehen, Ihre Auslagerungsdatei auf einer Festplatte zu speichern. 2. Sie können eine Auslagerungsdatei nicht für den Ruhezustand verwenden (siehe Ubuntu SwapFaq) 3. Zusätzlicher Hinweis für Ubuntu >= 17.04: Eine Auslagerungsdatei ```/swapfile`` wird bei einer Neuinstallation standardmäßig angelegt (wenn keine Swap-Partition vorhanden war). Wir können später manuell eine Swap-Partition erstellen, wenn wir dies bevorzugen. Falls wir einen existierenden Swap (z.B. eine Partition) durch einen anderen Swap (z.B. auf Datei) ersetzen wollen, müssen wir den alten Swap entfernen mit ``sudo swapoff -a # für alle ``` Dann entfernen Sie den Swap-Eintrag aus ```/etc/fstab`` bzw. ersetzen ihn durch den neuen Swap.
Añadir un nuevo archivo swap. Cómo editar fstab para habilitar swap después de reiniciar?
Estos son los pasos para crear un swap en un fichero: 1. Crea un archivo grande por ejemplo con ``sudo mkdir -p /var/cache/swap/ # crear un directorio que contenga el fichero swap sudo dd if=/dev/zero of=/var/cache/swap/myswap bs=1M count=4096 # para 4 GByte ``` Por supuesto cualquier otro método de crear un fichero de tamaño definido serviría. 2. Anunciar swap al sistema ```sudo chmod 0600 /var/cache/swap/myswap # sólo root debería tener acceso sudo mkswap /var/cache/swap/myswap # formatear como swap sudo swapon /var/cache/swap/myswap # anunciar al sistema ``` Inserte la siguiente línea en ```/etc/fstab`` para swap desde el siguiente arranque: ```/var/cache/swap/myswap none swap sw 0 0 ``` Nota: 1. En caso de que usted tiene sus archivos de sistema en un SSD es posible que desee considerar para mantener su archivo de intercambio en una ubicación de disco duro. 2. Usted no puede utilizar un archivo de intercambio para la hibernación (ver Ubuntu SwapFaq) 3. Nota adicional para Ubuntu >= 17.04: Un archivo de intercambio ```/swapfile`` se crea por defecto en una nueva instalación (cuando no hay partición de intercambio). Podemos crear manualmente una partición swap más tarde si lo preferimos. En caso de que queramos reemplazar un swap existente (por ejemplo, una partición) con otro swap (por ejemplo, en un archivo) necesitamos eliminar el viejo swap con ``sudo swapoff -a # para todos ``` Después eliminamos la entrada swap de ```/etc/fstab`` o la sustituimos por la nueva swap respectivamente.
Ajout d'un nouveau fichier swap. Comment éditer fstab pour activer le swap après le redémarrage ?
Voici les étapes à suivre pour créer un swap sur un fichier : 1. Créez un grand fichier, par exemple avec ``sudo mkdir -p /var/cache/swap/ # créez un répertoire contenant le fichier de swap sudo dd if=/dev/zero of=/var/cache/swap/myswap bs=1M count=4096 # pour 4 GByte ``` Bien entendu, toute autre méthode de création d'un fichier de taille définie conviendrait. 2. Annoncer le swap au système ```sudo chmod 0600 /var/cache/swap/myswap # seul root devrait y avoir accès sudo mkswap /var/cache/swap/myswap # formatez comme swap sudo swapon /var/cache/swap/myswap # annonce au système ``` Insérez la ligne suivante dans ``/etc/fstab`` pour le swap à partir du prochain démarrage : ```/var/cache/swap/myswap none swap sw 0 0 ``` Note : Le système de gestion de l'espace de pagination est un système de gestion de l'espace : 1. Si vous avez vos fichiers système sur un SSD, vous pouvez envisager de conserver votre fichier d'échange sur un disque dur. 2. Vous ne pouvez pas utiliser un fichier d'échange pour l'hibernation (voir Ubuntu SwapFaq). 3. Note supplémentaire pour Ubuntu >= 17.04 : Un fichier d'échange ``/swapfile`` est créé par défaut lors d'une nouvelle installation (lorsqu'il n'y a pas de partition d'échange). Nous pouvons créer manuellement une partition d'échange plus tard si nous le préférons. Dans le cas où nous voulons remplacer un swap existant (par exemple une partition) par un autre swap (par exemple sur un fichier), nous devons supprimer l'ancien swap avec ``sudo swapoff -a # for all ``` Ensuite, supprimez l'entrée swap de ``/etc/fstab`` ou remplacez-la par le nouveau swap.
Aggiunta di un nuovo file di swap. Come modificare fstab per abilitare lo swap dopo il riavvio?
Ecco i passaggi per creare uno swap su un file: 1. Creare un file di grandi dimensioni, ad esempio con ``sudo mkdir -p /var/cache/swap/ # crea una directory che contiene il file di swap sudo dd if=/dev/zero of=/var/cache/swap/myswap bs=1M count=4096 # per 4 GByte ``` Naturalmente qualsiasi altro metodo per creare un file di dimensioni definite può andare bene. 2. Annunciare swap al sistema ``sudo chmod 0600 /var/cache/swap/myswap # solo root dovrebbe avere accesso sudo mkswap /var/cache/swap/myswap # formato come swap sudo swapon /var/cache/swap/myswap # annuncia al sistema ``` Inserire la seguente riga in ```/etc/fstab`` per lo swap dal prossimo avvio: ```/var/cache/swap/myswap none swap sw 0 0 ``` Nota: 1. Se i file di sistema sono su un'unità SSD, si consiglia di tenere il file di swap su un disco rigido. 2. Non è possibile utilizzare un file di swap per l'ibernazione (vedere Ubuntu SwapFaq). 3. Nota aggiuntiva per Ubuntu >= 17.04: Un file di swap ```/swapfile`` viene creato per impostazione predefinita in una nuova installazione (quando non è presente una partizione di swap). Se si preferisce, è possibile creare manualmente una partizione di swap in un secondo momento. Nel caso in cui si voglia sostituire una partizione di swap esistente (per esempio, una partizione) con un'altra (per esempio, un file), è necessario rimuovere la vecchia partizione di swap con ``sudo swapoff -a # per tutti ``` Quindi rimuovere la voce swap da ```/etc/fstab`` o sostituirla con il nuovo swap.
80
How do I add a validation to make sure the date string being passed to the method is in the ffg. format: ```'YYYY-MM-DD' ``` if it's not, method should raise some sort of error
The Python ```dateutil``` library is designed for this (and more). It will automatically convert this to a ```datetime``` object for you and raise a ```ValueError``` if it can't. As an example: ```>>> from dateutil.parser import parse >>> parse("2003-09-25") datetime.datetime(2003, 9, 25, 0, 0) ``` This raises a ```ValueError``` if the date is not formatted correctly: ``` ValueError: day is out of range for month ``` ```dateutil``` is also extremely useful if you start needing to parse other formats in the future, as it can handle most known formats intelligently and allows you to modify your specification: ```dateutil``` parsing examples. It also handles timezones if you need that. Update based on comments: ```parse``` also accepts the keyword argument ```dayfirst``` which controls whether the day or month is expected to come first if a date is ambiguous. This defaults to False. E.g. ```>>> parse('11/12/2001') >>> datetime.datetime(2001, 11, 12, 0, 0) # Nov 12 >>> parse('11/12/2001', dayfirst=True) >>> datetime.datetime(2001, 12, 11, 0, 0) # Dec 11 ```
Wie füge ich eine Validierung hinzu, um sicherzustellen, dass die an die Methode übergebene Datumszeichenkette das Format ffg. hat? ```'JJJJ-MM-TT' ``` Wenn dies nicht der Fall ist, sollte die Methode eine Fehlermeldung ausgeben
Die Python-Bibliothek ```dateutil`` ist für diese Aufgabe (und mehr) gedacht. Sie konvertiert diese Daten automatisch in ein ```Datetime``-Objekt und gibt einen ``ValueError`` aus, wenn sie es nicht kann. Ein Beispiel: ```>>> from dateutil.parser import parse >>> parse("2003-09-25") datetime.datetime(2003, 9, 25, 0, 0) ``` Dies führt zu einem ```ValueError``, wenn das Datum nicht korrekt formatiert ist: ``` ValueError: Tag liegt außerhalb des Bereichs für Monat ``` ```Dateutil`` ist auch sehr nützlich, wenn Sie in Zukunft andere Formate parsen müssen, da es die meisten bekannten Formate intelligent behandeln kann und es Ihnen erlaubt, Ihre Spezifikation zu ändern: ```Dateutil`` parsing examples. Es behandelt auch Zeitzonen, falls Sie das brauchen. Aktualisierung aufgrund von Kommentaren: ```parse``` akzeptiert auch das Schlüsselwortargument ```dayfirst``, das steuert, ob der Tag oder der Monat zuerst kommen soll, wenn ein Datum mehrdeutig ist. Die Voreinstellung ist False. z.B.. ```>>> parse('11/12/2001') >>> datetime.datetime(2001, 11, 12, 0, 0) # Nov 12 >>> parse('11/12/2001', dayfirst=True) >>> datetime.datetime(2001, 12, 11, 0, 0) # Dez 11 ```
¿Cómo añado una validación para asegurarme de que la cadena de fecha que se pasa al método tiene el formato ffg: ```'AAAA-MM-DD'' ``` si no es así, el método debe lanzar algún tipo de error
La librería ``dateutil`` de Python está diseñada para esto (y más). Automáticamente convertirá esto en un objeto ``datetime`` y lanzará un ``ValueError`` si no puede. Un ejemplo: ```><>> from dateutil.parser import parse >>> parse("2003-09-25") datetime.datetime(2003, 9, 25, 0, 0) ``` Esto genera un ``ValueError`` si la fecha no está formateada correctamente: ``` ValueError: day is out of range for month ``` ```dateutil`` también es extremadamente útil si en el futuro necesitas parsear otros formatos, ya que puede manejar la mayoría de los formatos conocidos de forma inteligente y te permite modificar su especificación: ```dateutil`` parsing examples. También maneja zonas horarias si lo necesitas. Actualización basada en comentarios: ```parse`` también acepta el argumento ``dayfirst`` que controla si se espera que el día o el mes vengan primero si una fecha es ambigua. El valor por defecto es False. Por ejemplo ```><>> parse('11/12/2001') >>> datetime.datetime(2001, 11, 12, 0, 0) # Nov 12 >>> parse('11/12/2001', dayfirst=True) >>> datetime.datetime(2001, 12, 11, 0, 0) # Dic 11 ```
Comment ajouter une validation pour s'assurer que la chaîne de date passée à la méthode est au format ffg : ```'AAAA-MM-JJ'' ``` Si ce n'est pas le cas, la méthode devrait générer une sorte d'erreur.
La bibliothèque Python ``dateutil`` est conçue pour cela (et plus encore). Elle convertira automatiquement cet objet en un objet ``datetime`` pour vous et lèvera une ``ValueError`` si elle n'y parvient pas. Voici un exemple : ```>>> from dateutil.parser import parse >>> parse("2003-09-25") datetime.datetime(2003, 9, 25, 0, 0) ``` Ceci lève une ``ValueError`` si la date n'est pas formatée correctement : ``` ValueError : day is out of range for month ``` ``dateutil`` est aussi extrêmement utile si vous avez besoin d'analyser d'autres formats dans le futur, car il peut gérer la plupart des formats connus de manière intelligente et vous permet de modifier votre spécification : ``dateutil`` exemples d'analyse. Il gère aussi les fuseaux horaires si vous en avez besoin. Mise à jour basée sur les commentaires : ``parse`` accepte aussi le mot-clé ``dayfirst`` qui contrôle si le jour ou le mois doit venir en premier si une date est ambiguë. La valeur par défaut est False. Par exemple ```>>> parse('11/12/2001') >>> datetime.datetime(2001, 11, 12, 0, 0) # Nov 12 >>> parse('11/12/2001', dayfirst=True) >>> datetime.datetime(2001, 12, 11, 0, 0) # Dec 11 ```
Come posso aggiungere una validazione per assicurarmi che la stringa di data passata al metodo sia nel formato ffg: ```'YYYY-MM-DD''. ``` se non lo è, il metodo dovrebbe sollevare un qualche tipo di errore
La libreria Python ```dateutil`` è progettata per questo (e altro). Converte automaticamente questo dato in un oggetto ```datetime`` e solleva un ```ValueError`` se non ci riesce. Un esempio: ````>> da dateutil.parser import parse >>> parse("2003-09-25") datetime.datetime(2003, 9, 25, 0, 0) ``` Questo solleva un ```ValueError`` se la data non è formattata correttamente: ``` ValueError: il giorno è fuori dall'intervallo per il mese ``` ```dateutil`` è anche estremamente utile se in futuro si avrà bisogno di analizzare altri formati, poiché è in grado di gestire in modo intelligente la maggior parte dei formati conosciuti e consente di modificare le proprie specifiche: esempi di parsing di ```dateutil``. Gestisce anche i fusi orari, se necessario. Aggiornamento basato sui commenti: ```parse`` accetta anche l'argomento parola chiave ```dayfirst`` che controlla se il giorno o il mese devono essere anteposti se una data è ambigua. L'impostazione predefinita è False. Ad esempio. ```>>> parse('11/12/2001') >>> datetime.datetime(2001, 11, 12, 0, 0) # Nov 12 >>> parse('11/12/2001', dayfirst=True) >>> datetime.datetime(2001, 12, 11, 0, 0) # Dic 11 ```
81
When to use UICollectionView instead of UITableView?
That depends on the requirements. How the application flows determines which type of UI to integrate into the application. People mainly use the ```UICollectionview``` for creating types of UIs with multiple images shown in a grid. This would have complex logic using ```UITableView```, but with ```UICollectionview```, it would be easy. When using ```UICollectionview```, you don't need to set buttons with tags or other things by getting selected items values. You can simply get ```-(void)collectionView:(UICollectionView *)collectionView didSelectItemAtIndexPath:(NSIndexPath *)indexPath``` and in ```UITableViewDelegate```: ````-(void)tableView:(UITableView *)tableView didSelectRowAtIndexPath:(NSIndexPath *)indexPath` ``` You get the selected row instead of the item, so for creating grid or modified items, using ```UICollectionview``` is best. For the listing details of each item, people use ```UITableView``` because it shows more info on each item. Apple Docs: UICollectionView Class Reference The UICollectionView class manages an ordered collection of data items and presents them using customizable layouts. Collection views provide the same general function as table views except that a collection view is able to support more than just single-column layouts. Collection views support customizable layouts that can be used to implement multi-column grids, tiled layouts, circular layouts, and many more. You can even change the layout of a collection view dynamically if you want. UITableView Class Reference A table view displays a list of items in a single column. UITableView is a subclass of UIScrollView, which allows users to scroll through the table, although UITableView allows vertical scrolling only. The cells comprising the individual items of the table are UITableViewCell objects; UITableView uses these objects to draw the visible rows of the table. Cells have content—titles and images—and can have, near the right edge, accessory views. Standard accessory views are disclosure indicators or detail disclosure buttons; the former leads to the next level in a data hierarchy and the latter leads to a detailed view of a selected item. Accessory views can also be framework controls, such as switches and sliders, or can be custom views. Table views can enter an editing mode where users can insert, delete, and reorder rows of the table.
Wann sollte man UICollectionView anstelle von UITableView verwenden?
Das hängt von den Anforderungen ab. Wie die Anwendung abläuft, bestimmt, welche Art von UI in die Anwendung integriert werden soll. Die meisten Leute benutzen ```UICollectionview`` für die Erstellung von UIs mit mehreren Bildern, die in einem Raster angezeigt werden. Dies würde mit ```UITableView`` eine komplexe Logik erfordern, aber mit ```UICollectionview`` wäre es einfach. Wenn man ```UICollectionview`` verwendet, braucht man keine Buttons mit Tags oder anderen Dingen zu setzen, indem man die Werte der ausgewählten Elemente abruft. Man kann einfach ```-(void)collectionView:(UICollectionView *)collectionView didSelectItemAtIndexPath:(NSIndexPath *)indexPath`` und in ```UITableViewDelegate`` abrufen: ````-(void)tableView:(UITableView *)tableView didSelectRowAtIndexPath:(NSIndexPath *)indexPath`` ``` Sie erhalten die ausgewählte Zeile anstelle des Eintrags, daher ist es am besten, ```UICollectionview`` zu verwenden, um ein Grid oder modifizierte Einträge zu erstellen. Für die Auflistung der Details jedes Eintrags verwenden die Leute ```UITableView``, weil es mehr Informationen über jeden Eintrag zeigt. Apple Docs: UICollectionView Klassenreferenz Die Klasse UICollectionView verwaltet eine geordnete Sammlung von Datenelementen und stellt sie in anpassbaren Layouts dar. Sammlungsansichten bieten die gleiche allgemeine Funktion wie Tabellenansichten, mit dem Unterschied, dass eine Sammlungsansicht mehr als nur einspaltige Layouts unterstützen kann. Sammlungsansichten unterstützen anpassbare Layouts, die zur Implementierung von mehrspaltigen Rastern, gekachelten Layouts, kreisförmigen Layouts und vielem mehr verwendet werden können. Sie können das Layout einer Sammlungsansicht sogar dynamisch ändern, wenn Sie dies wünschen. UITableView-Klassenreferenz Eine Tabellenansicht zeigt eine Liste von Elementen in einer einzigen Spalte an. UITableView ist eine Unterklasse von UIScrollView, die es dem Benutzer erlaubt, durch die Tabelle zu blättern, obwohl UITableView nur vertikales Blättern erlaubt. Die Zellen, die die einzelnen Elemente der Tabelle enthalten, sind UITableViewCell-Objekte; UITableView verwendet diese Objekte, um die sichtbaren Zeilen der Tabelle zu zeichnen. Die Zellen haben Inhalt - Titel und Bilder - und können in der Nähe des rechten Randes zusätzliche Ansichten haben. Standard-Zubehöransichten sind Anzeigeindikatoren oder Detailanzeige-Schaltflächen; erstere führen zur nächsten Ebene in einer Datenhierarchie und letztere zu einer detaillierten Ansicht eines ausgewählten Elements. Zubehöransichten können auch Rahmensteuerungen wie Schalter und Schieberegler oder benutzerdefinierte Ansichten sein. Tabellenansichten können in einen Bearbeitungsmodus versetzt werden, in dem Benutzer Zeilen der Tabelle einfügen, löschen und neu anordnen können.
¿Cuándo utilizar UICollectionView en lugar de UITableView?
Depende de los requisitos. Cómo fluye la aplicación determina qué tipo de UI integrar en la aplicación. La gente utiliza principalmente el ``UICollectionview`` para crear tipos de UIs con múltiples imágenes mostradas en una rejilla. Esto tendría una lógica compleja utilizando ``UITableView``, pero con ``UICollectionview``, sería fácil. Cuando usas ``UICollectionview``, no necesitas configurar botones con etiquetas u otras cosas obteniendo los valores de los elementos seleccionados. Simplemente puedes obtener ```-(void)collectionView:(UICollectionView *)collectionView didSelectItemAtIndexPath:(NSIndexPath *)indexPath`` y en ```UITableViewDelegate``: ````-(void)tableView:(UITableView *)tableView didSelectRowAtIndexPath:(NSIndexPath *)indexPath``. ``` Obtienes la fila seleccionada en lugar del ítem, por lo que para crear rejillas o ítems modificados, es mejor utilizar ```UICollectionview``. Para los detalles del listado de cada ítem, la gente usa ``UITableView`` porque muestra más información sobre cada ítem. Apple Docs: Referencia de la clase UICollectionView La clase UICollectionView gestiona una colección ordenada de elementos de datos y los presenta utilizando diseños personalizables. Las vistas de colección ofrecen la misma función general que las vistas de tabla, con la diferencia de que una vista de colección no sólo admite diseños de una sola columna. Las vistas de colección admiten diseños personalizables que pueden utilizarse para implementar cuadrículas de varias columnas, diseños en mosaico, diseños circulares y muchos más. Incluso puede cambiar el diseño de una vista de colección dinámicamente si lo desea. Referencia de la clase UITableView Una vista de tabla muestra una lista de elementos en una sola columna. UITableView es una subclase de UIScrollView, que permite a los usuarios desplazarse por la tabla, aunque UITableView sólo permite el desplazamiento vertical. Las celdas que componen los elementos individuales de la tabla son objetos UITableViewCell; UITableView utiliza estos objetos para dibujar las filas visibles de la tabla. Las celdas tienen contenido -títulos e imágenes- y pueden tener, cerca del borde derecho, vistas accesorias. Las vistas accesorias estándar son indicadores de divulgación o botones de divulgación detallada; los primeros conducen al siguiente nivel en una jerarquía de datos y los segundos conducen a una vista detallada de un elemento seleccionado. Las vistas accesorias también pueden ser controles de marco, como interruptores y deslizadores, o pueden ser vistas personalizadas. Las vistas de tabla pueden entrar en un modo de edición en el que los usuarios pueden insertar, eliminar y reordenar filas de la tabla.
Quand utiliser UICollectionView au lieu de UITableView ?
Cela dépend des besoins. La façon dont l'application circule détermine le type d'interface utilisateur à intégrer dans l'application. Les gens utilisent principalement ``UICollectionview`` pour créer des types d'IU avec plusieurs images affichées dans une grille. Cela nécessiterait une logique complexe avec ``UITableView``, mais avec ``UICollectionview``, ce serait facile. En utilisant ``UICollectionview``, vous n'avez pas besoin de définir des boutons avec des tags ou d'autres choses en récupérant les valeurs des éléments sélectionnés. Vous pouvez simplement obtenir ``-(void)collectionView :(UICollectionView *)collectionView didSelectItemAtIndexPath :(NSIndexPath *)indexPath`` et dans ``UITableViewDelegate`` : ````-(void)tableView :(UITableView *)tableView didSelectRowAtIndexPath :(NSIndexPath *)indexPath`` ``` Vous obtenez la ligne sélectionnée au lieu de l'élément, donc pour créer une grille ou des éléments modifiés, il est préférable d'utiliser ``UICollectionview``. Pour la liste des détails de chaque élément, les gens utilisent ``UITableView`` parce qu'il y a plus d'informations sur chaque élément. Apple Docs : Référence de la classe UICollectionView La classe UICollectionView gère une collection ordonnée d'éléments de données et les présente à l'aide de mises en page personnalisables. Les vues de collection offrent la même fonction générale que les vues de tableau, à ceci près qu'une vue de collection peut prendre en charge plus que des mises en page à colonne unique. Les vues de collection prennent en charge des mises en page personnalisables qui peuvent être utilisées pour mettre en œuvre des grilles à plusieurs colonnes, des mises en page en mosaïque, des mises en page circulaires et bien d'autres choses encore. Vous pouvez même modifier la présentation d'une vue de collection de manière dynamique si vous le souhaitez. Référence de la classe UITableView Une vue de table affiche une liste d'éléments dans une seule colonne. UITableView est une sous-classe de UIScrollView, qui permet aux utilisateurs de faire défiler le tableau, bien que UITableView n'autorise que le défilement vertical. Les cellules comprenant les différents éléments du tableau sont des objets UITableViewCell ; UITableView utilise ces objets pour dessiner les lignes visibles du tableau. Les cellules ont un contenu - titres et images - et peuvent avoir, près du bord droit, des vues accessoires. Les vues accessoires standard sont des indicateurs de divulgation ou des boutons de divulgation de détails ; le premier permet d'accéder au niveau suivant d'une hiérarchie de données et le second permet d'obtenir une vue détaillée d'un élément sélectionné. Les vues accessoires peuvent également être des contrôles de cadre, tels que des commutateurs et des curseurs, ou peuvent être des vues personnalisées. Les vues de tableau peuvent entrer dans un mode d'édition où les utilisateurs peuvent insérer, supprimer et réorganiser les lignes du tableau.
Quando utilizzare UICollectionView invece di UITableView?
Dipende dai requisiti. Il flusso dell'applicazione determina il tipo di interfaccia utente da integrare nell'applicazione. Si usa principalmente la ``UICollectionview`` per creare tipi di UI con più immagini mostrate in una griglia. Ciò richiederebbe una logica complessa utilizzando ``UITableView``, ma con ``UICollectionview`` sarebbe facile. Quando si usa ``UICollectionview``, non è necessario impostare i pulsanti con tag o altro, ottenendo i valori degli elementi selezionati. Si può semplicemente ottenere ```-(void)collectionView:(UICollectionView *)collectionView didSelectItemAtIndexPath:(NSIndexPath *)indexPath`` e in ```UITableViewDelegate``: ````-(void)tableView:(UITableView *)tableView didSelectRowAtIndexPath:(NSIndexPath *)indexPath``. ``` Si ottiene la riga selezionata invece dell'elemento, quindi per creare griglie o elementi modificati è meglio usare ``UICollectionview``. Per l'elenco dei dettagli di ogni elemento, si usa ``UITableView`` perché mostra più informazioni su ogni elemento. Documenti Apple: Riferimento alla classe UICollectionView La classe UICollectionView gestisce una raccolta ordinata di elementi di dati e li presenta con layout personalizzabili. Le viste di raccolta svolgono la stessa funzione generale delle viste di tabella, con la differenza che una vista di raccolta è in grado di supportare più di un layout a colonna singola. Le viste collezione supportano layout personalizzabili che possono essere utilizzati per implementare griglie a più colonne, layout a piastrelle, layout circolari e molto altro. È anche possibile modificare dinamicamente il layout di una vista collezione, se lo si desidera. Riferimento alla classe UITableView Una vista tabella visualizza un elenco di elementi in una singola colonna. UITableView è una sottoclasse di UIScrollView, che consente agli utenti di scorrere la tabella, anche se UITableView consente solo lo scorrimento verticale. Le celle che compongono i singoli elementi della tabella sono oggetti UITableViewCell; UITableView utilizza questi oggetti per disegnare le righe visibili della tabella. Le celle hanno contenuti - titoli e immagini - e possono avere, vicino al bordo destro, delle viste accessorie. Le viste accessorie standard sono gli indicatori di rivelazione o i pulsanti di rivelazione dei dettagli; il primo porta al livello successivo di una gerarchia di dati e il secondo porta a una vista dettagliata di un elemento selezionato. Le viste accessorie possono anche essere controlli quadro, come interruttori e cursori, oppure possono essere viste personalizzate. Le viste tabella possono entrare in una modalità di modifica in cui gli utenti possono inserire, eliminare e riordinare le righe della tabella.
82
On my branch I had some files in .gitignore On a different branch those files are not. I want to merge the different branch into mine, and I don't care if those files are no longer ignored or not. Unfortunately I get this: The following untracked working tree files would be overwritten by merge How would I modify my pull command to overwrite those files, without me having to find, move or delete those files myself?
Safely remove/overwrite only bothersome files When you want to ```merge```: ```git checkout -f donor-branch # replace bothersome files with tracked versions git checkout receiving-branch # tracked bothersome files disappear git merge donor-branch # merge works ``` When you want to ```pull```: ```git fetch git checkout -f origin/mybranch # replace bothersome files with tracked versions git checkout mybranch # tracked bothersome files disappear git pull origin/mybranch # pull works ``` That's all you need to know to use this. Below is an explanation. Detailed explanation The Bothersome Files that we are going to remove: * exist in the donor branch (for ```git pull```: the upstream branch), * do not exist in the receiving branch, * and are blocking the merge because they are present and untracked in your working directory. ```git merge -f``` and ```git pull -f``` do not exist, but ```git checkout -f``` does. We will use ```git checkout -f``` + ```git checkout``` to track + remove the Bothersome Files, and then your merge can proceed normally. Step 1. This step forcibly replaces untracked Bothersome Files with tracked versions of the donor branch (it also checks out the donor branch, and updates the rest of the working dir). ```git checkout -f donor-branch ``` Step 2. This step removes the Bothersome Files because they they are tracked in our current (donor) branch, and absent in the ```receiving-branch``` we switch to. ```git checkout receiving-branch ``` Step 3. Now that the Bothersome Files are absent, merging in the donor branch will not overwrite any untracked files, so we get no errors. ```git merge donor-branch ```
In meinem Zweig hatte ich einige Dateien in .gitignore In einem anderen Zweig werden diese Dateien nicht ignoriert. Ich möchte den anderen Zweig mit meinem zusammenführen, und es ist mir egal, ob diese Dateien nicht mehr ignoriert werden oder nicht. Leider bekomme ich dies: Die folgenden nicht verfolgten Arbeitsbaumdateien würden durch das Zusammenführen überschrieben werden Wie kann ich meinen Pull-Befehl so ändern, dass er diese Dateien überschreibt, ohne dass ich diese Dateien selbst suchen, verschieben oder löschen muss?
Sicheres Entfernen/Überschreiben von nur störenden Dateien Wenn Sie ```Merge`` machen wollen: ````git checkout -f donor-branch # störende Dateien durch getrackte Versionen ersetzen git checkout receiving-branch # überprüfte störende Dateien verschwinden git merge spender-zweig # Zusammenführen funktioniert ``` Wenn Sie ````ziehen`` wollen: ````git fetch git checkout -f origin/mybranch # lästige Dateien durch verfolgte Versionen ersetzen git checkout mybranch # Verfolgte, störende Dateien verschwinden git pull origin/mybranch # pull funktioniert ``` Das ist alles, was Sie wissen müssen, um dies zu benutzen. Unten ist eine Erklärung. Ausführliche Erklärung Die lästigen Dateien, die wir entfernen wollen: * existieren im Geberzweig (bei ```git pull``: dem Upstream-Zweig), * existieren nicht im empfangenden Zweig, * und blockieren den Merge, weil sie in Ihrem Arbeitsverzeichnis vorhanden und nicht getrackt sind. ```git merge -f`` und ```git pull -f`` existieren nicht, aber ```git checkout -f`` schon. Wir werden ````git checkout -f``` + ```git checkout`` benutzen, um die störenden Dateien aufzuspüren + zu entfernen, und dann kann Ihr Merge normal weitergehen. Schritt 1. Dieser Schritt ersetzt zwangsweise die nicht verfolgten störenden Dateien durch verfolgte Versionen des Spenderzweiges (er checkt auch den Spenderzweig aus und aktualisiert den Rest des Arbeitsverzeichnisses). ````git checkout -f donor-branch ``` Schritt 2. Dieser Schritt entfernt die störenden Dateien, da sie in unserem aktuellen (Spender-)Zweig verfolgt werden und in dem ```Empfangszweig``, zu dem wir wechseln, nicht vorhanden sind. ```git checkout empfangender-zweig ``` Schritt 3. Nun, da die störenden Dateien nicht mehr vorhanden sind, wird das Zusammenführen im Spenderzweig keine nicht verfolgten Dateien überschreiben, so dass wir keine Fehler erhalten. ````Git merge spender-zweig ```
En mi rama tenía algunos archivos en .gitignore En una rama diferente esos archivos no lo están. Quiero fusionar la rama diferente en la mía, y no me importa si esos archivos ya no son ignorados o no. Por desgracia me sale esto: Los siguientes archivos del árbol de trabajo sin seguimiento serían sobrescritos por la fusión ¿Cómo puedo modificar mi comando pull para que sobrescriba esos archivos, sin tener que buscarlos, moverlos o borrarlos yo mismo?
Eliminar/sobrescribir con seguridad sólo los archivos molestos Cuando quieras ``mezclar``: ```git checkout -f rama-donante # reemplaza los archivos molestos por versiones rastreadas git checkout rama-donante # desaparecen los archivos molestos rastreados git merge donor-branch # la fusión funciona ``` Cuando quieras ```pull``: ```git fetch git checkout -f origin/mybranch # reemplaza los archivos molestos por versiones rastreadas git checkout mybranch # los archivos molestos desaparecen git pull origin/mybranch # pull funciona ``` Eso es todo lo que necesitas saber para usar esto. Más abajo hay una explicación. Explicación detallada Los archivos molestos que vamos a eliminar: * existen en la rama donante (para ```git pull``: la rama upstream), * no existen en la rama receptora, * y están bloqueando la fusión porque están presentes y sin seguimiento en tu directorio de trabajo. ```git merge -f`` y ```git pull -f`` no existen, pero ```git checkout -f`` sí. Usaremos ``git checkout -f`` + ``git checkout`` para rastrear + eliminar los Archivos Molestos, y entonces tu fusión podrá proceder normalmente. Paso 1. Este paso reemplaza forzosamente los Ficheros Molestos no rastreados por versiones rastreadas de la rama donante (también comprueba la rama donante, y actualiza el resto del directorio de trabajo). ```git checkout -f rama-donante ``` Paso 2. Este paso elimina los archivos molestos porque se encuentran en nuestra rama actual (donante), y están ausentes en la rama ``receptor`` a la que cambiamos. ``git checkout rama-receptora ``` Tercer paso. Ahora que los archivos molestos están ausentes, la fusión en la rama donante no sobrescribirá ningún archivo sin seguimiento, por lo que no obtendremos errores. ```git merge rama-donante ```
Sur ma branche, j'avais des fichiers dans .gitignore Sur une autre branche, ces fichiers ne le sont pas. Je veux fusionner la branche différente avec la mienne, et je me fiche que ces fichiers ne soient plus ignorés ou non. Malheureusement, j'obtiens ceci : Les fichiers suivants de l'arbre de travail non suivi seraient écrasés par la fusion Comment puis-je modifier ma commande pull pour écraser ces fichiers, sans que je doive les trouver, les déplacer ou les supprimer moi-même ?
Supprimer/écrire en toute sécurité uniquement les fichiers gênants Lorsque vous voulez ``fusionner`` : ``git checkout -f donor-branch # remplace les fichiers gênants par des versions suivies git checkout receiving-branch # les fichiers gênants suivis disparaissent git merge donor-branch # fusionner les travaux ``` Quand vous voulez ``tirer`` : ``git fetch git checkout -f origin/mybranch # remplace les fichiers gênants par des versions suivies git checkout mybranch # disparition des fichiers gênants suivis git pull origin/mybranch # pull works ``` C'est tout ce que vous avez besoin de savoir pour l'utiliser. Vous trouverez ci-dessous une explication. Explication détaillée Les fichiers gênants que nous allons supprimer : * existent dans la branche donneuse (pour ``git pull`` : la branche amont), * n'existent pas dans la branche réceptrice, * et bloquent la fusion parce qu'ils sont présents et non suivis dans votre répertoire de travail. ``git merge -f`` et ``git pull -f`` n'existent pas, mais ``git checkout -f`` existe. Nous allons utiliser ``git checkout -f`` + ``git checkout`` pour suivre + supprimer les fichiers gênants, et ensuite votre fusion pourra se dérouler normalement. Etape 1. Cette étape remplace de force les Fichiers gênants non suivis par des versions suivies de la branche donneuse (elle vérifie aussi la branche donneuse, et met à jour le reste du répertoire de travail). ```git checkout -f branche-donateur ``` Etape 2. Cette étape supprime les fichiers gênants parce qu'ils sont suivis dans notre branche actuelle (donatrice), et absents dans la ``branche réceptrice`` vers laquelle nous basculons. ``git checkout receiving-branch ``` Etape 3. Maintenant que les fichiers gênants sont absents, la fusion dans la branche donneuse n'écrasera aucun fichier non suivi, donc nous n'aurons pas d'erreur. ```git merge donor-branch ```
Nel mio ramo avevo alcuni file in .gitignore In un ramo diverso quei file non lo sono. Voglio unire il ramo diverso al mio e non mi interessa se quei file non sono più ignorati o meno. Purtroppo ottengo questo: I seguenti file dell'albero di lavoro non tracciati verrebbero sovrascritti dall'unione Come posso modificare il mio comando pull per sovrascrivere questi file, senza doverli trovare, spostare o cancellare io stesso?
Rimuovere/sovrascrivere in modo sicuro solo i file fastidiosi Quando si vuole ``fondere'': ``git checkout -f donor-branch # sostituisce i file fastidiosi con le versioni tracciate git checkout receiving-branch # i file fastidiosi tracciati scompaiono git merge donor-branch # unisce i lavori ``` Quando si vuole ```prelevare'': ``git fetch git checkout -f origin/mybranch # sostituisce i file fastidiosi con le versioni tracciate git checkout mybranch # i file fastidiosi tracciati scompaiono git pull origin/mybranch # pull works ``` Questo è tutto ciò che occorre sapere per usarlo. Di seguito è riportata una spiegazione. Spiegazione dettagliata I file fastidiosi che stiamo per rimuovere: * esistono nel ramo donatore (per ```git pull``: il ramo upstream), * non esistono nel ramo ricevente, * e bloccano l'unione perché sono presenti e non tracciati nella propria directory di lavoro. ```git merge -f`` e ```git pull -f`` non esistono, ma ```git checkout -f``` sì. Useremo ```git checkout -f`` + ```git checkout`` per rintracciare + rimuovere i file fastidiosi e poi la fusione potrà procedere normalmente. Passo 1. Questo passo sostituisce forzatamente i Bothersome Files non tracciati con versioni tracciate del ramo donatore (esegue anche il checkout del ramo donatore e aggiorna il resto della directory di lavoro). ```git checkout -f ramo donatore ``` Passo 2. Questo passo rimuove i file fastidiosi perché sono tracciati nel ramo corrente (donatore) e assenti nel ramo ricevente in cui passiamo. ``git checkout ramo ricevente ``` Passo 3. Ora che i file fastidiosi sono assenti, l'unione nel ramo donatore non sovrascriverà alcun file non tracciato, quindi non avremo errori. ```git merge donor-branch ```
83
Since long time ago I have been thinking in two problems that I have not been able to solve. It seems that one of them was recently solved. I have been thinking a lot about the motivation and its consequences. Mostly because people used to motivate one of them with some very interesting implications. My conclusion however, is that there is a mistake in the motivation of the problem, and that, while being a really interesting result, it does not make any sense in the setting in which is formulated. As my opinion is not relevant compared to one of the experts in the area, I do not say anything. My question is if you can provide me some examples of conjectures that were believed to be interesting in the mathematical community because of a specific reason, but that once having the proof, people realized that the reason to motivate the problem was not truly related to its solution. Or in other words, the solution of the problem gives no clues about the original motivation.
The three-body problem is one of the most famous problems in the history of mathematics, which also has an important application in science: it was supposed to explain the Moon's motion, among other things. Enormous effort was spent on this problem by many famous mathematicians of the 18th and 19th centuries. Since Newton's time it was clear that there was no simple closed form solution. (The problem also had an important practical application in 18th century, namely to navigation. If you can predict the motion of the Moon for few years ahead with sufficient accuracy, you can determine longitude at sea without a chronometer, just by observing Moon's position with respect to the stars). In the middle of the 19th century, an exact mathematical formulation of what was desired was achieved: to express the motions of the bodies in the form of convergent series of functions of time, valid for all times. Few people remember nowadays that in this precise form the problem was actually solved (by Sundman, at the very end of the 19th century). This solution can be found in Siegel's book on celestial mechanics. But by that time it was already understood that this solution was useless for practical purposes, namely for prediction of the Moon's motion over long time periods. It was also useless for understanding the qualitative features of the motion.
Seit langer Zeit habe ich über zwei Probleme nachgedacht, die ich nicht lösen konnte. Es scheint, dass eines davon kürzlich gelöst wurde. Ich habe viel über die Motivation und ihre Folgen nachgedacht. Vor allem, weil die Menschen eines der beiden Probleme mit einigen sehr interessanten Folgen motiviert haben. Ich bin jedoch zu dem Schluss gekommen, dass es einen Fehler in der Motivation des Problems gibt, und dass es zwar ein wirklich interessantes Ergebnis ist, aber in der Umgebung, in der es formuliert wurde, keinen Sinn ergibt. Da meine Meinung im Vergleich zu einem der Experten auf diesem Gebiet nicht relevant ist, sage ich nichts. Meine Frage ist, ob Sie mir einige Beispiele für Vermutungen nennen können, die in der mathematischen Gemeinschaft aus einem bestimmten Grund für interessant gehalten wurden, bei denen man aber, nachdem der Beweis erbracht war, erkannte, dass der Grund für die Motivation des Problems nicht wirklich mit seiner Lösung zusammenhing. Oder anders ausgedrückt, die Lösung des Problems gibt keinen Aufschluss über die ursprüngliche Motivation.
Das Dreikörperproblem ist eines der berühmtesten Probleme in der Geschichte der Mathematik, das auch eine wichtige Anwendung in der Wissenschaft hat: Es sollte unter anderem die Bewegung des Mondes erklären. Viele berühmte Mathematiker des 18. und 19. Jahrhunderts haben sich intensiv mit diesem Problem beschäftigt. Seit Newton war klar, dass es keine einfache Lösung in geschlossener Form gab. (Das Problem hatte im 18. Jahrhundert auch eine wichtige praktische Anwendung, nämlich in der Navigation. Wenn man die Bewegung des Mondes für einige Jahre im Voraus mit ausreichender Genauigkeit vorhersagen kann, kann man den Längengrad auf See ohne Chronometer bestimmen, indem man einfach die Position des Mondes im Verhältnis zu den Sternen beobachtet.) Mitte des 19. Jahrhunderts gelang eine exakte mathematische Formulierung dessen, was man wollte: die Bewegungen der Körper in Form von konvergenten Reihen von Zeitfunktionen auszudrücken, die für alle Zeiten gültig sind. Nur wenige Menschen erinnern sich heute daran, dass das Problem in dieser genauen Form tatsächlich gelöst wurde (von Sundman, ganz am Ende des 19. Jahrhunderts). Diese Lösung ist in Siegels Buch über Himmelsmechanik zu finden. Zu diesem Zeitpunkt war jedoch bereits klar, dass diese Lösung für praktische Zwecke unbrauchbar war, nämlich für die Vorhersage der Mondbewegung über lange Zeiträume. Sie war auch unbrauchbar für das Verständnis der qualitativen Merkmale der Bewegung.
Desde hace tiempo vengo dándole vueltas a dos problemas que no he podido resolver. Parece que uno de ellos se ha resuelto recientemente. He estado pensando mucho en la motivación y sus consecuencias. Sobre todo porque la gente solía motivar a uno de ellos con algunas implicaciones muy interesantes. Mi conclusión, sin embargo, es que hay un error en la motivación del problema, y que, aun siendo un resultado realmente interesante, no tiene ningún sentido en el entorno en el que está formulado. Como mi opinión no es relevante comparada con la de uno de los expertos en la materia, no digo nada. Mi pregunta es si me puedes proporcionar algunos ejemplos de conjeturas que se creían interesantes en la comunidad matemática por una razón concreta, pero que una vez teniendo la demostración, la gente se dio cuenta de que la razón para motivar el problema no estaba realmente relacionada con su solución. O dicho de otro modo, la solución del problema no da pistas sobre la motivación original.
El problema de los tres cuerpos es uno de los más famosos de la historia de las matemáticas, que también tiene una importante aplicación en la ciencia: se suponía que explicaba el movimiento de la Luna, entre otras cosas. Muchos matemáticos famosos de los siglos XVIII y XIX dedicaron enormes esfuerzos a este problema. Desde los tiempos de Newton estaba claro que no existía una solución sencilla de forma cerrada. (El problema también tenía una importante aplicación práctica en el siglo XVIII, concretamente para la navegación. Si se puede predecir el movimiento de la Luna para unos años con suficiente exactitud, se puede determinar la longitud en el mar sin cronómetro, simplemente observando la posición de la Luna con respecto a las estrellas). A mediados del siglo XIX se logró una formulación matemática exacta de lo que se deseaba: expresar los movimientos de los cuerpos en forma de series convergentes de funciones del tiempo, válidas para todos los tiempos. Pocas personas recuerdan hoy en día que el problema se resolvió realmente de esta forma precisa (por Sundman, a finales del siglo XIX). Esta solución se encuentra en el libro de Siegel sobre mecánica celeste. Pero en aquella época ya se sabía que esta solución era inútil para fines prácticos, es decir, para predecir el movimiento de la Luna durante largos periodos de tiempo. Tampoco servía para comprender las características cualitativas del movimiento.
Depuis longtemps, je réfléchis à deux problèmes que je n'ai pas réussi à résoudre. Il semble que l'un d'entre eux ait été résolu récemment. J'ai beaucoup réfléchi à la motivation et à ses conséquences. Principalement parce que les gens avaient l'habitude de motiver l'un d'entre eux avec des implications très intéressantes. Ma conclusion, cependant, est qu'il y a une erreur dans la motivation du problème, et que, tout en étant un résultat vraiment intéressant, il n'a aucun sens dans le cadre dans lequel il est formulé. Comme mon opinion n'est pas pertinente par rapport à celle d'un des experts du domaine, je ne dis rien. Ma question est de savoir si vous pouvez me donner des exemples de conjectures qui ont été jugées intéressantes par la communauté mathématique pour une raison spécifique, mais qu'une fois la preuve apportée, les gens ont réalisé que la raison de motiver le problème n'était pas vraiment liée à sa solution. En d'autres termes, la solution du problème ne donne aucun indice sur la motivation initiale.
Le problème des trois corps est l'un des problèmes les plus célèbres de l'histoire des mathématiques, qui a également une application importante en science : il était censé expliquer le mouvement de la Lune, entre autres choses. De nombreux mathématiciens célèbres des XVIIIe et XIXe siècles ont consacré d'énormes efforts à ce problème. Depuis l'époque de Newton, il était clair qu'il n'existait pas de solution simple sous forme fermée. (Le problème avait également une application pratique importante au XVIIIe siècle, à savoir la navigation. Si l'on peut prédire le mouvement de la Lune quelques années à l'avance avec une précision suffisante, on peut déterminer la longitude en mer sans chronomètre, simplement en observant la position de la Lune par rapport aux étoiles). Au milieu du 19e siècle, on est parvenu à une formulation mathématique exacte de ce que l'on souhaitait : exprimer les mouvements des corps sous la forme de séries convergentes de fonctions du temps, valables pour tous les temps. Peu de gens se souviennent aujourd'hui que c'est sous cette forme précise que le problème a été résolu (par Sundman, à la toute fin du 19e siècle). Cette solution se trouve dans le livre de Siegel sur la mécanique céleste. Mais à cette époque, on avait déjà compris que cette solution était inutile à des fins pratiques, c'est-à-dire pour prédire le mouvement de la Lune sur de longues périodes de temps. Elle était également inutile pour comprendre les caractéristiques qualitatives du mouvement.
Da tempo penso a due problemi che non sono riuscito a risolvere. Sembra che uno di essi sia stato risolto di recente. Ho pensato molto alla motivazione e alle sue conseguenze. Soprattutto perché le persone erano solite motivare uno dei due problemi con implicazioni molto interessanti. La mia conclusione, tuttavia, è che c'è un errore nella motivazione del problema e che, pur essendo un risultato davvero interessante, non ha alcun senso nel contesto in cui è formulato. Poiché la mia opinione non è rilevante rispetto a quella di uno degli esperti del settore, non dico nulla. La mia domanda è se potete fornirmi qualche esempio di congetture che sono state ritenute interessanti dalla comunità matematica per un motivo specifico, ma che una volta ottenuta la dimostrazione, ci si è resi conto che la ragione per motivare il problema non era veramente legata alla sua soluzione. O, in altre parole, la soluzione del problema non fornisce alcun indizio sulla motivazione originale.
Il problema dei tre corpi è uno dei problemi più famosi della storia della matematica, che ha anche un'importante applicazione in campo scientifico: avrebbe dovuto spiegare, tra l'altro, il moto della Luna. Molti famosi matematici del XVIII e XIX secolo si sono dedicati a questo problema con enorme impegno. Fin dai tempi di Newton era chiaro che non esisteva una soluzione semplice e chiusa. (Il problema aveva anche un'importante applicazione pratica nel XVIII secolo, ovvero la navigazione. Se si riesce a prevedere con sufficiente precisione il moto della Luna per alcuni anni, è possibile determinare la longitudine in mare senza cronometro, semplicemente osservando la posizione della Luna rispetto alle stelle). A metà del XIX secolo si giunse a una formulazione matematica esatta di ciò che si desiderava: esprimere i moti dei corpi sotto forma di serie convergenti di funzioni del tempo, valide per tutti i tempi. Pochi ricordano oggi che in questa forma precisa il problema fu effettivamente risolto (da Sundman, proprio alla fine del XIX secolo). La soluzione si trova nel libro di Siegel sulla meccanica celeste. Ma a quel tempo si era già capito che questa soluzione era inutile per scopi pratici, cioè per prevedere il moto della Luna su lunghi periodi di tempo. Era anche inutile per comprendere le caratteristiche qualitative del moto.
84
How do GPS receivers communicate with satellites?
The first thing to know is the communication is one-way. There's a satellite-to-receiver transmission, nothing going in the opposite direction. So your cell phone doesn't have to find the radio power to send a signal all the way to space! (exceptions: The decommissioned Chinese BeiDou-1 system - and any products where the GPS receiver chip is used alongside a satellite transmitter, like a Cospas-Sarsat emergency locator beacon) The signal from GPS satellites is very faint - each satellite has to broadcast a signal to about half the planet, powered only by some solar panels! So the broadcast signal is modulated using a 'Gold Code' (in the case of the oldest public GPS signal) where part of the signal transmitted by the satellite is already known by the receiver - the GPS receiver can pick out the signal despite how faint it is, by tracking the cross-correlation between the received and expected signals. This also means multiple satellites can transmit their signals at the same frequency - so long as they use different gold codes, the receiver can track both signals independently. Newer GNSS signals replace gold codes with newer techniques - like 'multiplexed binary offset carriers' - which perform better, but do basically the same thing.
Wie kommunizieren die GPS-Empfänger mit den Satelliten?
Zunächst einmal muss man wissen, dass die Kommunikation nur in eine Richtung erfolgt. Es gibt eine Übertragung von Satellit zu Empfänger, nichts geht in die andere Richtung. Ihr Mobiltelefon muss also nicht die Funkleistung aufbringen, um ein Signal bis ins All zu senden! (Ausnahmen: Das ausgemusterte chinesische BeiDou-1-System - und alle Produkte, bei denen der GPS-Empfängerchip zusammen mit einem Satellitensender verwendet wird, wie z. B. ein Cospas-Sarsat-Notrufsender) Das Signal der GPS-Satelliten ist sehr schwach - jeder Satellit muss ein Signal an etwa die Hälfte des Planeten senden, das nur von einigen Sonnenkollektoren gespeist wird! Daher wird das ausgestrahlte Signal mit einem "Goldcode" moduliert (im Falle des ältesten öffentlichen GPS-Signals), bei dem ein Teil des vom Satelliten gesendeten Signals dem Empfänger bereits bekannt ist. Der GPS-Empfänger kann das Signal trotz seiner Schwäche erkennen, indem er die Kreuzkorrelation zwischen dem empfangenen und dem erwarteten Signal verfolgt. Dies bedeutet auch, dass mehrere Satelliten ihre Signale auf der gleichen Frequenz senden können - solange sie unterschiedliche Goldcodes verwenden, kann der Empfänger beide Signale unabhängig voneinander verfolgen. Bei neueren GNSS-Signalen werden die Gold-Codes durch neuere Techniken ersetzt, wie z. B. "Multiplexed Binary Offset Carrier", die zwar besser funktionieren, aber im Grunde das Gleiche bewirken.
¿Cómo se comunican los receptores GPS con los satélites?
Lo primero que hay que saber es que la comunicación es unidireccional. Hay una transmisión de satélite a receptor, nada va en dirección contraria. Así que tu móvil no tiene que encontrar la potencia de radio para enviar una señal hasta el espacio. (Excepciones: El sistema chino BeiDou-1, en desuso, y cualquier producto en el que el chip receptor GPS se utilice junto a un transmisor de satélite, como una baliza localizadora de emergencia Cospas-Sarsat). La señal de los satélites GPS es muy débil: cada satélite tiene que emitir una señal a aproximadamente la mitad del planeta, ¡alimentada únicamente por algunos paneles solares! Por ello, la señal emitida se modula utilizando un "Código de Oro" (en el caso de la señal GPS pública más antigua) en el que parte de la señal transmitida por el satélite ya es conocida por el receptor: el receptor GPS puede captar la señal a pesar de lo débil que es, rastreando la correlación cruzada entre las señales recibidas y las esperadas. Esto también significa que varios satélites pueden transmitir sus señales a la misma frecuencia, siempre y cuando utilicen códigos de oro diferentes y el receptor pueda seguir ambas señales de forma independiente. Las señales GNSS más recientes sustituyen los códigos oro por técnicas más modernas, como las "portadoras binarias offset multiplexadas", que funcionan mejor, pero hacen básicamente lo mismo.
Comment les récepteurs GPS communiquent-ils avec les satellites ?
La première chose à savoir est que la communication est à sens unique. Il y a une transmission de satellite à récepteur, rien ne va dans la direction opposée. Votre téléphone portable n'a donc pas besoin de trouver la puissance radio nécessaire pour envoyer un signal jusqu'à l'espace ! (exceptions : Le système chinois BeiDou-1, qui a été mis hors service, et tous les produits dans lesquels la puce du récepteur GPS est utilisée en même temps qu'un émetteur satellite, comme une balise de localisation d'urgence Cospas-Sarsat). Le signal émis par les satellites GPS est très faible - chaque satellite doit émettre un signal à destination de la moitié de la planète, alimenté uniquement par quelques panneaux solaires ! Le signal diffusé est donc modulé à l'aide d'un "code or" (dans le cas du plus ancien signal GPS public) dans lequel une partie du signal transmis par le satellite est déjà connue du récepteur. Le récepteur GPS peut détecter le signal malgré sa faible intensité, en suivant la corrélation croisée entre le signal reçu et le signal attendu. Cela signifie également que plusieurs satellites peuvent émettre leurs signaux à la même fréquence - tant qu'ils utilisent des codes or différents, le récepteur peut suivre les deux signaux indépendamment. Les signaux GNSS plus récents remplacent les codes or par des techniques plus récentes, telles que les "porteuses binaires décalées multiplexées", qui sont plus performantes, mais qui font fondamentalement la même chose.
Come comunicano i ricevitori GPS con i satelliti?
La prima cosa da sapere è che la comunicazione è unidirezionale. C'è una trasmissione da satellite a ricevitore, ma non c'è nulla che vada nella direzione opposta. Quindi il vostro cellulare non deve trovare la potenza radio per inviare un segnale fino allo spazio! (eccezioni: Il sistema cinese BeiDou-1, ormai in disuso, e tutti i prodotti in cui il chip del ricevitore GPS è utilizzato insieme a un trasmettitore satellitare, come il segnalatore di emergenza Cospas-Sarsat). Il segnale dei satelliti GPS è molto debole: ogni satellite deve trasmettere un segnale a circa metà del pianeta, alimentato solo da alcuni pannelli solari! Per questo motivo il segnale trasmesso è modulato utilizzando un "Codice Oro" (nel caso del più antico segnale GPS pubblico) in cui una parte del segnale trasmesso dal satellite è già nota al ricevitore, il quale è in grado di rilevare il segnale nonostante la sua debolezza, tracciando la correlazione incrociata tra il segnale ricevuto e quello atteso. Ciò significa anche che più satelliti possono trasmettere i loro segnali alla stessa frequenza: purché utilizzino codici aurei diversi, il ricevitore può tracciare entrambi i segnali in modo indipendente. I segnali GNSS più recenti sostituiscono i codici aurei con tecniche più recenti, come le "portanti binarie offset multiplexate", che offrono prestazioni migliori, ma fanno sostanzialmente la stessa cosa.
85
Why is iceberg lettuce bad for rabbits?
In short, iceberg lettuce is mostly water with little to no nutrient value. A rabbit can fill up on it (because of the bulk), but still need food because they didn't get enough calories, vitamins, minerals, etc. If you look at the USDA's webpage on iceberg lettuce. You'll notice that water makes up just about 95% of the nutrients, leaving 5% to be divided up between every other nutrient. Protein is a little less than 1%, Carbohydrates less than 3%, and sugars less than 2%. Most importantly, you want to pay attention to the vitamin and calorie content. Iceberg lettuce has only 14 calories per 100 grams (2 calories or less in each leaf), and 18mg of calcium. Other effects to consider, is when fed straight from the fridge, lettuce will be cold and wet, both are conditions that can upset a pet's stomach. In addition, since most rabbit breeders do not feed lettuce to their baby rabbits, it is an unfamiliar food and if the rabbit owner does not add lettuce to the diet gradually, it will cause stomach upset. Finally, it is often believed amoung rabbit breeders that Rabbits should not eat some lettuces (such as iceberg) as they contain a substance called laudanum which can be harmful in large quantities. RSPCA: Rabbit Diet Myths But this is disputed because Lettuce does not contain laudanum. Edible lettuce does contain a chemical called lactucin which is a component of lactucarian. Lactucarian is the milky fluid found in some species of lettuce and occurs in much larger amounts in wild lettuce, Lactuca virosa. Lactucarium has sedative and analgesic effects. It creates a sense of mild euphoria. The milky exudate resembles that of opium and it can also be reduced to a thick substance which can be smoked in the same way as opium. As a result of which it acquired the name ‘lettuce opium’. Edible lettuce, Lactuca sativa, does not even contain lactucarium although it does contain lactucin which is in lactucarium. Lettuce for Rabbits and Guinea Pigs (note that rabbits and guinea pigs have different digestive systems, this link is included for the information on lettuce composition). It is not known if lactucin turns into lactucarium during the digestive process in the rabbit, there are some accounts of rabbits appearing sedated after ingesting large quantities of lettuce. Regardless of the laudanum/lactucin status, there's no reason to feed iceberg because of the low nutrient value. The House Rabbit Society's website has even more details on what foods are good for rabbits and why.
Warum ist Eisbergsalat schlecht für Kaninchen?
Kurz gesagt, Eisbergsalat besteht größtenteils aus Wasser und hat wenig bis gar keinen Nährwert. Ein Kaninchen kann davon satt werden (wegen der Masse), braucht aber trotzdem Futter, weil es nicht genug Kalorien, Vitamine, Mineralien usw. bekommen hat. Schauen Sie sich die Webseite des USDA über Eisbergsalat an. Sie werden feststellen, dass Wasser etwa 95 % der Nährstoffe ausmacht und 5 % auf alle anderen Nährstoffe aufgeteilt werden müssen. Der Eiweißgehalt beträgt etwas weniger als 1 %, der Kohlenhydratgehalt weniger als 3 % und der Zuckergehalt weniger als 2 %. Am wichtigsten ist es, auf den Vitamin- und Kaloriengehalt zu achten. Eisbergsalat hat nur 14 Kalorien pro 100 Gramm (2 Kalorien oder weniger in jedem Blatt) und 18 mg Kalzium. Außerdem ist der Salat kalt und feucht, wenn er direkt aus dem Kühlschrank gefüttert wird; beides kann den Magen des Tieres verärgern. Da die meisten Kaninchenzüchter ihren Babykaninchen keinen Salat füttern, handelt es sich um ein ungewohntes Futter, und wenn der Kaninchenhalter den Salat nicht allmählich in die Ernährung aufnimmt, kann er Magenverstimmungen verursachen. Schließlich wird unter Kaninchenzüchtern oft angenommen, dass Kaninchen sollten einige Salate (z. B. Eisbergsalat) nicht fressen, da sie einen Stoff namens Laudanum enthalten, der in großen Mengen schädlich sein kann. RSPCA: Mythen über die Kaninchendiät Dies ist jedoch umstritten, denn Kopfsalat enthält kein Laudanum. Essbarer Kopfsalat enthält eine Chemikalie namens Lactucin, die ein Bestandteil von Lactuar ist. Lactucarium ist die milchige Flüssigkeit, die in einigen Salatarten vorkommt und in viel größeren Mengen im wilden Kopfsalat, Lactuca virosa, zu finden ist. Lactucarium hat eine beruhigende und schmerzlindernde Wirkung. Es erzeugt ein Gefühl von leichter Euphorie. Das milchige Exsudat ähnelt dem von Opium und kann auch zu einer dicken Substanz reduziert werden, die wie Opium geraucht werden kann. Daher hat er den Namen "Salatopium" erhalten. Essbarer Kopfsalat, Lactuca sativa, enthält nicht einmal Lactucarium, wohl aber Lactucin, das in Lactucarium enthalten ist. Kopfsalat für Kaninchen und Meerschweinchen (beachten Sie, dass Kaninchen und Meerschweinchen ein unterschiedliches Verdauungssystem haben; dieser Link ist wegen der Informationen über die Zusammensetzung von Kopfsalat angegeben). Es ist nicht bekannt, ob sich Lactucin während des Verdauungsprozesses beim Kaninchen in Lactucarium umwandelt. Es gibt einige Berichte über Kaninchen, die nach der Aufnahme großer Mengen von Salat sediert wirken. Unabhängig vom Laudanum-/Lactucin-Status gibt es keinen Grund, Eisbergsalat wegen des geringen Nährstoffgehalts zu füttern. Auf der Website der House Rabbit Society finden Sie noch mehr Informationen darüber, welche Nahrungsmittel für Kaninchen gut sind und warum.
¿Por qué la lechuga iceberg es mala para los conejos?
En resumen, la lechuga iceberg es principalmente agua con poco o ningún valor nutritivo. Un conejo puede llenarse con ella (por su volumen), pero sigue necesitando comida porque no ha ingerido suficientes calorías, vitaminas, minerales, etc. Si usted mira la página web del USDA sobre la lechuga iceberg. Te darás cuenta de que el agua constituye casi el 95% de los nutrientes, dejando un 5% para repartir entre todos los demás nutrientes. Las proteínas son algo menos del 1%, los carbohidratos menos del 3% y los azúcares menos del 2%. Lo más importante es prestar atención al contenido de vitaminas y calorías. La lechuga iceberg tiene sólo 14 calorías por 100 gramos (2 calorías o menos en cada hoja), y 18 mg de calcio. Otro efecto a tener en cuenta es que, si se le da directamente de la nevera, la lechuga estará fría y húmeda, condiciones ambas que pueden alterar el estómago de la mascota. Además, como la mayoría de los criadores de conejos no dan lechuga a sus gazapos, es un alimento con el que no están familiarizados y, si el propietario no añade la lechuga a la dieta gradualmente, causará malestar estomacal. Por último, entre los criadores de conejos se cree a menudo que Los conejos no deben comer algunas lechugas (como la iceberg), ya que contienen una sustancia llamada láudano que puede ser perjudicial en grandes cantidades. RSPCA: Mitos sobre la dieta de los conejos Pero esto se discute porque La lechuga no contiene láudano. La lechuga comestible sí contiene una sustancia química llamada lactucina, que es un componente del lactucariano. El lactucario es el fluido lechoso que se encuentra en algunas especies de lechuga y se da en cantidades mucho mayores en la lechuga silvestre, Lactuca virosa. El lactucario tiene efectos sedantes y analgésicos. Produce una sensación de euforia leve. El exudado lechoso se parece al del opio y también puede reducirse a una sustancia espesa que puede fumarse del mismo modo que el opio. De ahí que haya adquirido el nombre de "opio de lechuga". La lechuga comestible, Lactuca sativa, ni siquiera contiene lactucarium, aunque sí contiene lactucina, que está en el lactucarium. Lechuga para conejos y cobayas (tenga en cuenta que los conejos y las cobayas tienen sistemas digestivos diferentes, se incluye este enlace para la información sobre la composición de la lechuga). No se sabe si la lactucina se convierte en lactucarium durante el proceso digestivo en el conejo, hay algunos relatos de conejos que parecen sedados después de ingerir grandes cantidades de lechuga. Independientemente del estado de laudano/lactucina, no hay razón para alimentar con lechuga iceberg por su bajo valor nutritivo. El sitio web de la House Rabbit Society ofrece más información sobre qué alimentos son buenos para los conejos y por qué.
Pourquoi la laitue iceberg est-elle mauvaise pour les lapins ?
En bref, la laitue iceberg est essentiellement composée d'eau et n'a que peu ou pas de valeur nutritive. Un lapin peut s'en rassasier (en raison de son volume), mais il a toujours besoin de nourriture parce qu'il n'a pas reçu assez de calories, de vitamines, de minéraux, etc. Si vous consultez la page web de l'USDA sur la laitue iceberg. Vous remarquerez que l'eau représente environ 95 % des nutriments, ce qui laisse 5 % à répartir entre tous les autres nutriments. Les protéines représentent un peu moins de 1 %, les glucides moins de 3 % et les sucres moins de 2 %. Le plus important est de prêter attention à la teneur en vitamines et en calories. La laitue Iceberg ne contient que 14 calories pour 100 grammes (2 calories ou moins dans chaque feuille) et 18 mg de calcium. Il faut également tenir compte du fait que si la laitue sort directement du réfrigérateur, elle sera froide et humide, deux conditions qui peuvent perturber l'estomac de l'animal. De plus, comme la plupart des éleveurs de lapins ne donnent pas de laitue à leurs lapereaux, il s'agit d'un aliment inconnu et si le propriétaire du lapin n'ajoute pas progressivement de la laitue à son alimentation, cela provoquera des maux d'estomac. Enfin, les éleveurs de lapins croient souvent que Les lapins ne devraient pas manger certaines laitues (comme l'iceberg) car elles contiennent une substance appelée laudanum qui peut être nocive en grande quantité. RSPCA : Mythes sur l'alimentation des lapins Mais cette affirmation est contestée car La laitue ne contient pas de laudanum. La laitue comestible contient une substance chimique appelée lactucine, qui est un composant du lactucaire. Le lactucarium est le liquide laiteux que l'on trouve dans certaines espèces de laitue et que l'on retrouve en quantités beaucoup plus importantes dans la laitue sauvage, Lactuca virosa. Le lactucarium a des effets sédatifs et analgésiques. Il provoque une légère euphorie. L'exsudat laiteux ressemble à celui de l'opium et il peut également être réduit en une substance épaisse qui peut être fumée de la même manière que l'opium. C'est pour cette raison qu'elle a reçu le nom d'"opium de laitue". La laitue comestible, Lactuca sativa, ne contient même pas de lactucarium, bien qu'elle contienne de la lactucine, qui est présente dans le lactucarium. Laitue pour lapins et cochons d'Inde (les lapins et les cochons d'Inde ont des systèmes digestifs différents, ce lien est inclus pour les informations sur la composition de la laitue). On ne sait pas si la lactucine se transforme en lactucarium au cours du processus digestif chez le lapin, mais certains témoignages font état de lapins sédatés après avoir ingéré de grandes quantités de laitue. Indépendamment du statut laudanum/lactucine, il n'y a aucune raison de donner de l'iceberg à cause de sa faible valeur nutritive. Le site Internet de la House Rabbit Society donne encore plus de détails sur les aliments qui conviennent aux lapins et sur les raisons qui les motivent.
Perché la lattuga iceberg fa male ai conigli?
In breve, la lattuga iceberg è per lo più acqua e non ha alcun valore nutritivo. Un coniglio può saziarsi (a causa della massa), ma ha comunque bisogno di cibo perché non ha assunto abbastanza calorie, vitamine, minerali, ecc. Se guardate la pagina web dell'USDA sulla lattuga iceberg. noterete che l'acqua costituisce circa il 95% dei nutrienti, lasciando il 5% da dividere tra tutti gli altri nutrienti. Le proteine sono poco meno dell'1%, i carboidrati meno del 3% e gli zuccheri meno del 2%. La cosa più importante è prestare attenzione al contenuto di vitamine e calorie. La lattuga Iceberg ha solo 14 calorie per 100 grammi (2 calorie o meno in ogni foglia) e 18 mg di calcio. Un altro effetto da considerare è che se viene somministrata direttamente dal frigorifero, la lattuga è fredda e umida, condizioni che possono disturbare lo stomaco dell'animale. Inoltre, poiché la maggior parte degli allevatori di conigli non somministra la lattuga ai propri coniglietti, si tratta di un alimento sconosciuto e se il proprietario del coniglio non aggiunge gradualmente la lattuga alla dieta, può causare disturbi di stomaco. Infine, spesso si ritiene che gli allevatori di conigli ritengano che I conigli non dovrebbero mangiare alcune lattughe (come l'iceberg) perché contengono una sostanza chiamata laudano che può essere dannosa in grandi quantità. RSPCA: Miti sulla dieta del coniglio Ma questo è contestato perché La lattuga non contiene laudano. La lattuga commestibile contiene una sostanza chimica chiamata lattucina, che è un componente del lattucario. Il lattucario è il fluido lattiginoso presente in alcune specie di lattuga e si trova in quantità molto maggiori nella lattuga selvatica, la Lactuca virosa. Il lattucario ha effetti sedativi e analgesici. Crea un senso di leggera euforia. L'essudato lattiginoso assomiglia a quello dell'oppio e può essere ridotto a una sostanza densa che può essere fumata come l'oppio. Per questo motivo ha acquisito il nome di "oppio della lattuga". La lattuga commestibile, Lactuca sativa, non contiene nemmeno il lattucario, sebbene contenga la lattucina che è presente nel lattucario. Lattuga per conigli e porcellini d'India (si noti che i conigli e i porcellini d'India hanno sistemi digestivi diversi, questo link è stato inserito per le informazioni sulla composizione della lattuga). Non è noto se la lattucina si trasformi in lattucario durante il processo digestivo nel coniglio, ma ci sono alcune testimonianze di conigli che appaiono sedati dopo aver ingerito grandi quantità di lattuga. Indipendentemente dallo stato di laudano/lattucina, non c'è motivo di somministrare iceberg a causa del basso valore nutritivo. Il sito web della House Rabbit Society contiene ulteriori dettagli su quali alimenti sono adatti ai conigli e perché.
86
How do I open the JavaScript console in different browsers?
Chrome Opening the “Console” panel of Chrome’s DevTools: * Windows and Linux: Ctrl + Shift + J * Mac OS: Cmd + Opt + J Note: In addition to the “Console” panel, there also exists a smaller slide-up console which can be toggled via Esc while any of the other panels is active. Firefox Opening the “Console” panel in Firefox’s Developer Tools: * Windows: Ctrl + Shift + K * Mac OS: Cmd + Opt + K Note: In addition to the “Console” panel, there also exists a smaller slide-up console which can be toggled via Esc while any of the other panels is active. Internet Explorer Opening the “Console” panel in Internet Explorer’s F12 Developer Tools: * F12, then click on the “Console” tab Note: In addition to the “Console” panel, there also exists a smaller slide-up console which can be toggled via Ctrl + ` while any of the other panels is active. Safari Note: In order to view the console in Safari, you have to enable the “Show Develop menu in menu bar” setting in the “Advanced” pane of Safari’s preferences (screenshot). Opening the “Console” panel in Safari’s Web Inspector: * Cmd + Opt + C Note: In addition to the “Console” panel, there also exists a smaller slide-up console which can be toggled via Esc while any of the other panels is active. Opera * Windows and Linux: Ctrl + Shift + I * Mac : ⌘+⌥+I
Wie kann ich die JavaScript-Konsole in verschiedenen Browsern öffnen?
Chrome Öffnen des "Konsolen"-Bereichs der DevTools von Chrome: * Windows und Linux: Ctrl + Shift + J * Mac OS: Cmd + Opt + J Hinweis: Neben der "Konsole" gibt es auch eine kleinere, aufklappbare Konsole, die über Esc umgeschaltet werden kann, während eine der anderen Konsolen aktiv ist. Firefox Öffnen des Bereichs "Konsole" in den Firefox-Entwicklerwerkzeugen: * Windows: Strg + Umschalt + K * Mac OS: Cmd + Opt + K Hinweis: Neben der "Konsole" gibt es auch eine kleinere, aufklappbare Konsole, die über Esc umgeschaltet werden kann, während eine der anderen Konsolen aktiv ist. Internet Explorer Öffnen des Bereichs "Konsole" in den F12-Entwicklertools des Internet Explorers: * F12, dann auf die Registerkarte "Konsole" klicken Hinweis: Neben der "Konsole" gibt es auch eine kleinere, aufklappbare Konsole, die mit der Tastenkombination Strg + ` umgeschaltet werden kann, während eine der anderen Konsolen aktiv ist. Safari Hinweis: Um die Konsole in Safari anzuzeigen, müssen Sie die Einstellung "Menü "Entwickeln" in der Menüleiste anzeigen" im Bereich "Erweitert" der Safari-Einstellungen aktivieren (siehe Screenshot). Öffnen des Bereichs "Konsole" im Web Inspector von Safari: * Cmd + Opt + C Hinweis: Zusätzlich zum "Konsolen"-Bereich gibt es eine kleinere, aufklappbare Konsole, die über Esc umgeschaltet werden kann, während einer der anderen Bereiche aktiv ist. Opera * Windows und Linux: Ctrl + Shift + I * Mac: ⌘+⌥+I
¿Cómo se abre la consola JavaScript en distintos navegadores?
Chrome Abrir el panel "Consola" de las DevTools de Chrome: * Windows y Linux: Ctrl + Mayús + J * Mac OS: Cmd + Opt + J Nota: Además del panel "Consola", también existe una consola deslizante más pequeña que puede activarse mediante Esc mientras está activo cualquiera de los otros paneles. Firefox Abrir el panel "Consola" en las Herramientas de desarrollo de Firefox: * Windows: Ctrl + Mayús + K * Mac OS: Cmd + Opt + K Nota: Además del panel "Consola", también existe una consola deslizante más pequeña que puede activarse mediante Esc mientras está activo cualquiera de los otros paneles. Internet Explorer Abrir el panel "Consola" en las herramientas de desarrollo F12 de Internet Explorer: * F12 y, a continuación, haga clic en la pestaña "Consola Nota: Además del panel "Consola", también existe una consola deslizante más pequeña que puede activarse mediante Ctrl + ` mientras está activo cualquiera de los otros paneles. Safari Nota: Para ver la consola en Safari, tienes que activar la opción "Mostrar menú Desarrollo en la barra de menús" en el panel "Avanzado" de las preferencias de Safari (captura de pantalla). Abrir el panel "Consola" en el Inspector web de Safari: * Cmd + Opt + C Nota: Además del panel "Consola", también existe una consola deslizante más pequeña que puede activarse mediante Esc mientras cualquiera de los otros paneles está activo. Opera * Windows y Linux: Ctrl + Mayús + I * Mac : ⌘+⌥+I
Comment ouvrir la console JavaScript dans différents navigateurs ?
Chrome Ouverture du panneau "Console" des DevTools de Chrome : * Windows et Linux : Ctrl + Shift + J * Mac OS : Cmd + Opt + J Note : En plus du panneau "Console", il existe également une plus petite console coulissante qui peut être basculée via Esc lorsque l'un des autres panneaux est actif. Firefox Ouverture du panneau "Console" dans les outils de développement de Firefox : * Windows : Ctrl + Shift + K * Mac OS : Cmd + Opt + K Note : En plus du panneau "Console", il existe également une plus petite console coulissante qui peut être basculée via Esc lorsque l'un des autres panneaux est actif. Internet Explorer Ouverture du panneau "Console" dans les outils de développement F12 d'Internet Explorer : * F12, puis cliquer sur l'onglet "Console". Note : En plus du panneau "Console", il existe également une petite console coulissante qui peut être basculée via Ctrl + ` lorsque n'importe quel autre panneau est actif. Safari Note : Afin d'afficher la console dans Safari, vous devez activer le paramètre "Afficher le menu Développer dans la barre de menu" dans le panneau "Avancé" des préférences de Safari (capture d'écran). Ouverture du panneau "Console" dans l'inspecteur Web de Safari : * Cmd + Opt + C Note : En plus du panneau "Console", il existe également une petite console coulissante qui peut être basculée via Esc lorsque l'un des autres panneaux est actif. Opéra * Windows et Linux : Ctrl + Shift + I * Mac : ⌘+⌥+I
Come si apre la console JavaScript in diversi browser?
Chrome Apertura del pannello "Console" dei DevTools di Chrome: * Windows e Linux: Ctrl + Shift + J * Mac OS: Cmd + Opt + J Nota: oltre al pannello "Console", esiste anche una console più piccola a scorrimento che può essere attivata tramite Esc mentre è attivo uno qualsiasi degli altri pannelli. Firefox Apertura del pannello "Console" negli Strumenti per gli sviluppatori di Firefox: * Windows: Ctrl + Shift + K * Mac OS: Cmd + Opt + K Nota: oltre al pannello "Console", esiste anche una console più piccola a scorrimento che può essere attivata tramite Esc mentre è attivo uno qualsiasi degli altri pannelli. Internet Explorer Apertura del pannello "Console" negli Strumenti per sviluppatori F12 di Internet Explorer: * F12, quindi fare clic sulla scheda "Console". Nota: oltre al pannello "Console", esiste anche una console più piccola a scorrimento che può essere attivata tramite Ctrl + ` mentre è attivo uno qualsiasi degli altri pannelli. Safari Nota: per visualizzare la console in Safari, è necessario attivare l'impostazione "Mostra il menu Sviluppo nella barra dei menu" nel pannello "Avanzate" delle preferenze di Safari (schermata). Apertura del pannello "Console" nell'Ispettore Web di Safari: * Cmd + Opt + C Nota: oltre al pannello "Console", esiste anche una console più piccola a scorrimento che può essere attivata tramite Esc mentre è attivo uno qualsiasi degli altri pannelli. Opera * Windows e Linux: Ctrl + Shift + I * Mac : ⌘+⌥+I
87
I have Ubuntu 10 as the guest OS on a Windows 7 machine. I have been trying to setup shares through VirtualBox, but nothing is working. First, I create the share in VirtualBox and point it to a Windows folder. Then I try to mount the drive in Linux, but I keep getting ```/sbin/mount.vboxsf: mounting failed with the error: Protocol error ``` I have read so many solutions to this, but none seem to work. I have tried: * Using the mount.vboxsf syntax * Reinstalling VBox additions * Rebooting * Enabling and trying as root account I made a share called &quot;Test&quot; in VBox Shared folders. Then I made a directory in ubuntu named &quot;test2&quot;. Then I tried to execute this command: ```sudo mount -t vboxsf Test /mnt/test2 ``` Any other ideas?
In order to use shared folder functionality few prerequisites need to be met: * Make sure that Guest Additions are properly installed on the guest OS. * Users in a guest Ubuntu must be in the group ```vboxsf``` to be able to access shares. * Define a directory on the host that will be used in the virtual machine using the settings dialogue of Virtual Box. Depending on host or guest OS the following may also be needed: * Do not share personal folders like ```/home/username``` or ```My Documents``` * Avoid special characters or empty spaces in the path to the shared folder, especially if the host or VM is a Windows machine * Use different names for share and mountpoint * Create a mountpoint on the guest OS (best in your HOME directory). Testing shared folders functionality can be done by creating a shared directory on the host (e.g. ```C:\myshare```), define this as a shared folder for your guest system in Virtual Box settings (e.g. ```share```), create a mount point in your guest os (e.g. ```mkdir /home/username/host```) and mount this in the guest OS with the command: ```sudo mount -t vboxsf -o uid=1000,gid=1000 share /home/username/host ``` where the option -o makes sure that you will have access to the mount (that will otherwise be owned by root). For further information on shared folders see also the Virtual Box User Manual. Files or directories can also be shared over the network by using Samba on the host and the guest.
Ich habe Ubuntu 10 als Gastbetriebssystem auf einem Windows 7 Rechner. Ich habe versucht, Freigaben über VirtualBox einzurichten, aber nichts funktioniert. Zuerst erstelle ich die Freigabe in VirtualBox und verweise sie auf einen Windows-Ordner. Dann versuche ich, das Laufwerk in Linux zu mounten, aber ich erhalte immer ```/sbin/mount.vboxsf: Das Einhängen ist mit dem Fehler fehlgeschlagen: Protokollfehler ``` Ich habe so viele Lösungen für dieses Problem gelesen, aber keine scheint zu funktionieren. Ich habe es versucht: * Verwendung der mount.vboxsf-Syntax * Neuinstallation der VBox-Erweiterungen * Neustart * Aktivieren und Ausprobieren als root-Konto Ich habe eine Freigabe namens &quot;Test&quot; in VBox Shared Folders erstellt. Dann habe ich in ubuntu ein Verzeichnis mit dem Namen &quot;test2&quot; erstellt. Dann habe ich versucht, diesen Befehl auszuführen: ```sudo mount -t vboxsf Test /mnt/test2 ``` Irgendwelche anderen Ideen?
Um die Funktion der gemeinsamen Ordner nutzen zu können, müssen einige Voraussetzungen erfüllt sein: * Stellen Sie sicher, dass Guest Additions auf dem Gastbetriebssystem korrekt installiert sind. * Benutzer in einem Ubuntu-Gastbetriebssystem müssen in der Gruppe ``vboxsf`` sein, um auf Freigaben zugreifen zu können. * Definieren Sie ein Verzeichnis auf dem Host, das in der virtuellen Maschine verwendet werden soll, indem Sie den Einstellungsdialog von Virtual Box verwenden. Je nach Host- oder Gastbetriebssystem kann auch Folgendes erforderlich sein: * Geben Sie keine persönlichen Ordner wie ```/home/username`` oder ```Meine Dokumente`` frei. * Vermeiden Sie Sonderzeichen oder Leerzeichen im Pfad zum freigegebenen Ordner, insbesondere wenn der Host oder die VM ein Windows-Rechner ist. * Verwenden Sie unterschiedliche Namen für Freigabe und Einhängepunkt. * Erstellen Sie einen Einhängepunkt auf dem Gastbetriebssystem (am besten in Ihrem HOME-Verzeichnis). Um die Funktionalität von gemeinsamen Ordnern zu testen, erstellen Sie ein gemeinsames Verzeichnis auf dem Host (z.B. ``C:\myshare``), definieren Sie dieses als gemeinsamen Ordner für Ihr Gastsystem in den Virtual Box Einstellungen (z.B. ```share``), erstellen Sie einen Einhängepunkt in Ihrem Gastbetriebssystem (z.B. ```mkdir /home/username/host``) und mounten Sie dieses im Gastbetriebssystem mit dem Befehl: ```sudo mount -t vboxsf -o uid=1000,gid=1000 share /home/username/host ``` wobei die Option -o sicherstellt, dass Sie Zugriff auf die Freigabe haben (die ansonsten root gehört). Weitere Informationen zu freigegebenen Ordnern finden Sie auch im Virtual Box-Benutzerhandbuch. Dateien oder Verzeichnisse können auch über das Netzwerk freigegeben werden, indem Samba auf dem Host und dem Gast verwendet wird.
Tengo Ubuntu 10 como sistema operativo invitado en una máquina Windows 7. He estado intentando configurar recursos compartidos a través de VirtualBox, pero nada funciona. En primer lugar, creo el recurso compartido en VirtualBox y apuntar a una carpeta de Windows. Luego trato de montar la unidad en Linux, pero sigo recibiendo ```/sbin/mount.vboxsf: el montaje falló con el error: Error de protocolo ``` He leído tantas soluciones a esto, pero ninguno parece funcionar. He intentado: * Usando la sintaxis mount.vboxsf * Reinstalando las adiciones de VBox * Reiniciar * Habilitando y probando como cuenta root Hice un recurso compartido llamado &quot;Test&quot; en VBox carpetas compartidas. Luego hice un directorio en ubuntu llamado &quot;test2&quot;. Luego traté de ejecutar este comando ```sudo mount -t vboxsf Test /mnt/test2 ``` ¿Alguna otra idea?
Para utilizar la funcionalidad de carpetas compartidas es necesario cumplir algunos requisitos previos: * Asegúrese de que Guest Additions está correctamente instalado en el sistema operativo invitado. * Los usuarios en un invitado Ubuntu deben estar en el grupo ```vboxsf`` para poder acceder a los recursos compartidos. * Defina un directorio en el host que se utilizará en la máquina virtual utilizando el diálogo de configuración de Virtual Box. Dependiendo del sistema operativo anfitrión o invitado, también puede ser necesario lo siguiente: * No comparta carpetas personales como ```/home/username`` o ```My Documents``. * Evite caracteres especiales o espacios vacíos en la ruta a la carpeta compartida, especialmente si el host o la máquina virtual es una máquina Windows. * Utilice nombres diferentes para el punto de montaje y el recurso compartido. * Cree un punto de montaje en el sistema operativo invitado (mejor en su directorio HOME). Pruebe la funcionalidad de las carpetas compartidas creando un directorio compartido en el host (por ejemplo, ```C:\myshare``), defínalo como carpeta compartida para su sistema invitado en la configuración de Virtual Box (por ejemplo, ```share``), cree un punto de montaje en su sistema invitado (por ejemplo, ```mkdir /home/nombredeusuario/host``) y móntelo en el sistema invitado con el comando: ``sudo mount -t vboxsf -o uid=1000,gid=1000 share /home/nombredeusuario/host ``` donde la opción -o asegura que usted tendrá acceso al montaje (que de otra manera será propiedad de root). Para más información sobre carpetas compartidas consulta también el Manual de Usuario de Virtual Box. También se pueden compartir archivos o directorios a través de la red utilizando Samba en el host y en el invitado.
J'ai Ubuntu 10 comme système d'exploitation invité sur une machine Windows 7. J'ai essayé de configurer des partages via VirtualBox, mais rien ne fonctionne. Tout d'abord, je crée le partage dans VirtualBox et le dirige vers un dossier Windows. Ensuite, j'essaie de monter le lecteur dans Linux, mais j'obtiens toujours ```/sbin/mount.vboxsf : le montage a échoué avec l'erreur : Protocol error ``` J'ai lu de nombreuses solutions à ce problème, mais aucune ne semble fonctionner. J'ai essayé : * Utiliser la syntaxe mount.vboxsf * Réinstallation des ajouts à la VBox * Redémarrage * Activation et essai en tant que compte root J'ai créé un partage appelé &quot;Test&quot ; dans les dossiers partagés de VBox. J'ai ensuite créé un répertoire dans ubuntu nommé &quot;test2&quot ;. J'ai ensuite essayé d'exécuter cette commande : ``sudo mount -t vboxsf Test /mnt/test2 ``` D'autres idées ?
Pour utiliser la fonctionnalité des dossiers partagés, quelques conditions préalables doivent être remplies : * Assurez-vous que les ajouts d'invités sont correctement installés sur le système d'exploitation invité. * Les utilisateurs dans un Ubuntu invité doivent être dans le groupe ``vboxsf`` pour pouvoir accéder aux partages. * Définir un répertoire sur l'hôte qui sera utilisé dans la machine virtuelle en utilisant le dialogue des paramètres de Virtual Box. En fonction du système d'exploitation de l'hôte ou de l'invité, les éléments suivants peuvent également être nécessaires : * Ne partagez pas de dossiers personnels comme ``home/nom d'utilisateur`` ou ``My Documents`` * Éviter les caractères spéciaux ou les espaces vides dans le chemin d'accès au dossier partagé, en particulier si l'hôte ou la VM est une machine Windows. * Utilisez des noms différents pour le partage et le point de montage * Créez un point de montage sur le système d'exploitation invité (de préférence dans votre répertoire HOME). Tester la fonctionnalité des dossiers partagés peut être fait en créant un répertoire partagé sur l'hôte (par exemple ``C:\myshare``), définissez-le comme un dossier partagé pour votre système invité dans les paramètres de Virtual Box (par exemple ``share``), créez un point de montage dans votre OS invité (par exemple ``mkdir /home/nom d'utilisateur/hôte``) et montez-le dans l'OS invité avec la commande : ``sudo mount -t vboxsf -o uid=1000,gid=1000 share /home/username/host ``` où l'option -o permet de s'assurer que vous aurez accès au montage (qui sera autrement détenu par root). Pour plus d'informations sur les dossiers partagés, voir également le manuel de l'utilisateur de Virtual Box. Les fichiers ou les répertoires peuvent également être partagés sur le réseau en utilisant Samba sur l'hôte et l'invité.
Ho Ubuntu 10 come sistema operativo guest su una macchina Windows 7. Ho provato a configurare le condivisioni attraverso VirtualBox, ma non funziona nulla. Per prima cosa, creo la condivisione in VirtualBox e la faccio puntare a una cartella di Windows. Poi cerco di montare l'unità in Linux, ma continuo a ottenere ```/sbin/mount.vboxsf: montaggio fallito con l'errore: Errore di protocollo ``` Ho letto molte soluzioni a questo problema, ma nessuna sembra funzionare. Ho provato: * Utilizzando la sintassi mount.vboxsf * Reinstallare le aggiunte di VBox * Riavviare * Abilitare e provare come account root Ho creato una condivisione chiamata &quot;Test&quot; nelle cartelle condivise di VBox. Poi ho creato una directory in ubuntu chiamata &quot;test2&quot;. Poi ho provato a eseguire questo comando: ``sudo mount -t vboxsf Test /mnt/test2 ``` Qualche altra idea?
Per utilizzare la funzionalità di cartella condivisa è necessario soddisfare alcuni prerequisiti: * Assicurarsi che le Guest Additions siano correttamente installate sul sistema operativo guest. * Gli utenti di un guest Ubuntu devono far parte del gruppo ```vboxsf`` per poter accedere alle condivisioni. * Definire una directory sull'host che sarà utilizzata nella macchina virtuale utilizzando la finestra delle impostazioni di Virtual Box. A seconda del sistema operativo host o guest, potrebbero essere necessari anche i seguenti elementi: * Non condividere cartelle personali come ```/home/username`` o ```My Documents``. * Evitare caratteri speciali o spazi vuoti nel percorso della cartella condivisa, soprattutto se l'host o la macchina virtuale è un computer Windows. * Utilizzare nomi diversi per la condivisione e il mountpoint * Creare un mountpoint sul sistema operativo guest (meglio se nella directory HOME). Per testare la funzionalità delle cartelle condivise è possibile creare una cartella condivisa sull'host (ad esempio ``C:\myshare``), definirla come cartella condivisa per il sistema guest nelle impostazioni di Virtual Box (ad esempio ``share``), creare un punto di mount nel sistema operativo guest (ad esempio ```mkdir /home/username/host``) e montarlo nel sistema operativo guest con il comando: ``sudo mount -t vboxsf -o uid=1000,gid=1000 share /home/username/host ``` dove l'opzione -o assicura che si avrà accesso al mount (che altrimenti sarà di proprietà di root). Per ulteriori informazioni sulle cartelle condivise si veda anche il Manuale d'uso di Virtual Box. I file o le directory possono anche essere condivisi in rete utilizzando Samba sull'host e sul guest.
88
What does %~dp0 mean, and how does it work? I'd also like to know if it is a documented feature, or something prone to be deprecated.
Calling `for /?` in the command-line gives help about this syntax (which can be used outside FOR, too, this is just the place where help can be found). > In addition, substitution of FOR variable references has been enhanced. You can now use the following optional syntax: ```%~I - expands %I removing any surrounding quotes (") %~fI - expands %I to a fully qualified path name %~dI - expands %I to a drive letter only %~pI - expands %I to a path only %~nI - expands %I to a file name only %~xI - expands %I to a file extension only %~sI - expanded path contains short names only %~aI - expands %I to file attributes of file %~tI - expands %I to date/time of file %~zI - expands %I to size of file %~$PATH:I - searches the directories listed in the PATH environment variable and expands %I to the fully qualified name of the first one found. If the environment variable name is not defined or the file is not found by the search, then this modifier expands to the empty string ``` The modifiers can be combined to get compound results: ```%~dpI - expands %I to a drive letter and path only %~nxI - expands %I to a file name and extension only %~fsI - expands %I to a full path name with short names only %~dp$PATH:I - searches the directories listed in the PATH environment variable for %I and expands to the drive letter and path of the first one found. %~ftzaI - expands %I to a DIR like output line ``` In the above examples %I and PATH can be replaced by other valid values. The %~ syntax is terminated by a valid FOR variable name. Picking upper case variable names like %I makes it more readable and avoids confusion with the modifiers, which are not case sensitive. There are different letters you can use like ```f``` for "full path name", ```d``` for drive letter, ```p``` for path, and they can be combined. ```%~``` is the beginning for each of those sequences and a number ```I``` denotes it works on the parameter ```%I``` (where ```%0``` is the complete name of the batch file, just like you assumed).
Was bedeutet %~dp0, und wie funktioniert es? Ich würde auch gerne wissen, ob es sich um eine dokumentierte Funktion handelt, oder um etwas, das veraltet sein könnte.
Der Aufruf von `for /?` in der Kommandozeile liefert Hilfe zu dieser Syntax (die auch außerhalb von FOR verwendet werden kann, dies ist nur der Ort, an dem die Hilfe zu finden ist). > Außerdem wurde die Substitution von FOR-Variablenreferenzen verbessert. Sie können nun die folgende optionale Syntax verwenden: ```%~I - expandiert %I und entfernt alle umgebenden Anführungszeichen (") %~fI - erweitert %I zu einem voll qualifizierten Pfadnamen %~dI - erweitert %I nur zu einem Laufwerksbuchstaben %~pI - erweitert %I nur zu einem Pfad %~nI - erweitert %I nur zu einem Dateinamen %~xI - erweitert %I nur um eine Dateierweiterung %~sI - der erweiterte Pfad enthält nur kurze Namen %~aI - erweitert %I um Dateiattribute der Datei %~tI - erweitert %I um Datum/Uhrzeit der Datei %~zI - erweitert %I um die Größe der Datei %~$PATH:I - durchsucht die Verzeichnisse, die in der Umgebungsvariablen PATH aufgelistet sind, und expandiert %I in den voll qualifizierten Namen des ersten gefundenen Verzeichnisses. Wenn der Name der Umgebungsvariablen nicht definiert ist oder die Datei nicht gefunden wird, wird dieser Modifikator zu einer leeren Zeichenkette expandiert ``` Die Modifikatoren können kombiniert werden, um zusammengesetzte Ergebnisse zu erhalten: ```%~dpI - erweitert %I nur auf einen Laufwerksbuchstaben und Pfad %~nxI - erweitert %I nur auf einen Dateinamen und eine Erweiterung %~fsI - erweitert %I zu einem vollständigen Pfadnamen mit nur kurzen Namen %~dp$PATH:I - sucht in den Verzeichnissen, die in der Umgebungsvariablen PATH aufgeführt sind, nach %I und expandiert zum Laufwerksbuchstaben und Pfad des ersten gefundenen Verzeichnisses. %~ftzaI - expandiert %I in eine DIR-ähnliche Ausgabezeile ``` In den obigen Beispielen können %I und PATH durch andere gültige Werte ersetzt werden. Die %~-Syntax wird durch einen gültigen FOR-Variablennamen abgeschlossen. Die Wahl von Großbuchstaben bei Variablennamen wie %I macht die Syntax lesbarer und vermeidet Verwechslungen mit den Modifikatoren, die nicht zwischen Groß- und Kleinschreibung unterscheiden. Es gibt verschiedene Buchstaben, die Sie verwenden können, wie ```f`` für "full path name", ```d`` für Laufwerksbuchstabe, ```p`` für Pfad, und sie können kombiniert werden. ```%~``` ist der Anfang für jede dieser Sequenzen und eine Nummer ```I``` bedeutet, dass es mit dem Parameter ```%I``` funktioniert (wobei ```%0`` der vollständige Name der Batchdatei ist, wie Sie angenommen haben).
¿Qué significa %~dp0 y cómo funciona? También me gustaría saber si es una característica documentada, o algo propenso a ser obsoleto.
Llamando a `for /?` en la línea de comandos se obtiene ayuda sobre esta sintaxis (que también se puede utilizar fuera de FOR, éste es sólo el lugar donde se puede encontrar la ayuda). > Además, se ha mejorado la sustitución de referencias a variables FOR. Ahora puede utilizar la siguiente sintaxis opcional opcional: ```%~I - expande %I eliminando las comillas que lo rodean (") %~fI - expande %I a un nombre de ruta completamente cualificado %~dI - expande %I a una letra de unidad solamente %~pI - expande %I a una ruta solamente %~nI - expande %I sólo a un nombre de archivo %~xI - amplía %I sólo a una extensión de archivo %~sI - la ruta expandida sólo contiene nombres cortos %~aI - expande %I a los atributos del archivo %~tI - expande %I a la fecha/hora del archivo %~zI - expande %I al tamaño del archivo %~$PATH:I - busca en los directorios listados en la variable de entorno PATH y expande %I al nombre completo del primero encontrado. Si el nombre de la variable de entorno no está definido o el archivo no se encuentra en la búsqueda, este modificador se expande a la cadena vacía ``` Los modificadores pueden combinarse para obtener resultados compuestos: ```%~dpI - expande %I a una letra de unidad y ruta solamente %~nxI - expande %I a un nombre de archivo y extensión solamente %~fsI - expande %I a un nombre de ruta completo sólo con nombres cortos %~dp$PATH:I - busca %I en los directorios listados en la variable de entorno PATH y expande a la letra de unidad y ruta del primero encontrado. %~ftzaI - expande %I a una línea de salida similar a DIR ``` En los ejemplos anteriores %I y PATH pueden ser reemplazados por otros valores válidos. La sintaxis %~ termina con un nombre de variable FOR válido. Elegir nombres de variables en mayúsculas como %I lo hace más legible y evita confusiones con los modificadores, que no distinguen mayúsculas de minúsculas. Hay diferentes letras que puedes usar como ```f`` para "nombre de ruta completo", ```d`` para letra de unidad, ```p`` para ruta, y se pueden combinar. ```%~`` es el comienzo para cada una de esas secuencias y un número ```I`` denota que funciona sobre el parámetro ```%I`` (donde ```%0`` es el nombre completo del fichero batch, tal y como supusiste).
Que signifie %~dp0 et comment cela fonctionne-t-il ? J'aimerais également savoir s'il s'agit d'une fonctionnalité documentée ou d'une fonctionnalité susceptible d'être dépréciée.
L'appel à `for /?` dans la ligne de commande donne de l'aide sur cette syntaxe (qui peut aussi être utilisée en dehors de FOR, c'est juste l'endroit où l'on peut trouver de l'aide). > De plus, la substitution des références de variables FOR a été améliorée. Vous pouvez maintenant utiliser la syntaxe optionnelle suivante syntaxe suivante : ```%~I - développe %I en supprimant les guillemets (") %~fI - développe %I en un nom de chemin entièrement qualifié %~dI - étend %I à une lettre de lecteur uniquement %~pI - étend %I à un chemin d'accès uniquement %~nI - remplace %I par un nom de fichier uniquement %~xI - étend %I à une extension de fichier uniquement %~sI - le chemin développé ne contient que des noms courts %~aI - étend %I aux attributs du fichier %~tI - étend %I à la date et à l'heure du fichier %~zI - étend %I à la taille du fichier %~$PATH:I - recherche les répertoires répertoriés dans la variable d'environnement PATH et remplace %I par le nom complet du premier répertoire trouvé. Si le nom de la variable d'environnement n'est pas défini ou si le fichier n'est pas trouvé par la recherche, ce modificateur se développe en une chaîne vide ``` Les modificateurs peuvent être combinés pour obtenir des résultats composés : ```%~dpI - étend %I à une lettre de lecteur et à un chemin d'accès uniquement %~nxI - étend %I à un nom de fichier et à une extension uniquement %~fsI - étend %I à un nom de chemin complet avec des noms courts uniquement %~dp$PATH:I - recherche %I dans les répertoires listés dans la variable d'environnement PATH et l'étend à la lettre du lecteur et au chemin du premier trouvé. %~ftzaI - développe %I en une ligne de sortie de type DIR ``` Dans les exemples ci-dessus, %I et PATH peuvent être remplacés par d'autres valeurs valides. La syntaxe %~ se termine par un nom de variable FOR valide. Le fait de choisir des noms de variables en majuscules, comme %I, rend la syntaxe plus lisible et évite toute confusion avec les modificateurs, qui ne sont pas sensibles à la casse. Il y a différentes lettres que vous pouvez utiliser comme ``f`` pour le "nom complet du chemin", ``d`` pour la lettre du lecteur, ``p`` pour le chemin, et elles peuvent être combinées. ``%~`` est le début de chacune de ces séquences et un nombre ``I`` indique qu'il fonctionne sur le paramètre ``%I`` (où ``%0`` est le nom complet du fichier batch, comme vous l'avez supposé).
Cosa significa %~dp0 e come funziona? Mi piacerebbe anche sapere se si tratta di una funzionalità documentata o di qualcosa che tende a essere deprecato.
Chiamando `for /?` nella riga di comando si ottiene un aiuto su questa sintassi (che può essere usata anche al di fuori di FOR, questo è solo il posto dove si può trovare l'aiuto). > Inoltre, la sostituzione dei riferimenti alle variabili FOR è stata migliorata. È ora possibile utilizzare la seguente sintassi opzionale opzionale: ```%~I - espande %I rimuovendo gli apici circostanti (") %~fI - espande %I a un nome di percorso completamente qualificato %~dI - espande %I solo a una lettera di unità %~pI - espande %I solo a un percorso %~nI - espande %I solo a un nome di file %~xI - espande %I solo a un'estensione di file %~sI - il percorso espanso contiene solo nomi brevi %~aI - espande %I agli attributi di un file %~tI - espande %I alla data/ora del file %~zI - espande %I alla dimensione del file %~$PATH:I - cerca le directory elencate nella variabile d'ambiente PATH ed espande %I al nome pienamente qualificato della prima trovata. Se il nome della variabile d'ambiente non è definito o il file non viene trovato dalla ricerca, questo modificatore si espande alla stringa vuota ``` I modificatori possono essere combinati per ottenere risultati composti: ```%~dpI - espande %I solo a una lettera di unità e a un percorso %~nxI - espande %I solo al nome e all'estensione di un file %~fsI - espande %I a un nome di percorso completo con solo nomi brevi %~dp$PATH:I - cerca %I nelle directory elencate nella variabile d'ambiente PATH ed espande alla lettera di unità e al percorso della prima trovata. %~ftzaI - espande %I in una riga di output simile a DIR ``` Negli esempi precedenti, %I e PATH possono essere sostituiti da altri valori validi. La sintassi %~ è terminata da un nome di variabile FOR valido. Scegliere nomi di variabili maiuscoli come %I rende il tutto più leggibile ed evita la confusione con i modificatori, che non sono sensibili alle maiuscole. Ci sono diverse lettere che si possono usare, come ```f``` per il "nome completo del percorso", ```d``` per la lettera dell'unità, ```p``` per il percorso, e possono essere combinate. ````%~``` è l'inizio di ognuna di queste sequenze e un numero ```I``` denota che funziona sul parametro ```%I`` (dove ````%0`` è il nome completo del file batch, proprio come si suppone).
89
Should a tester feel bad about finding too many defects/bugs in the product?
If this is a medical application you are talking about it is serious stuff. What if the bugs affected real users? Developers would be much less happy if they put in life threat someone or if management has to retire a product or make public excuses. Nowadays it is pretty standard for software having minor bugs, but a medical application should be as much as bug-free as possible. A good developer should not be angry about bugs, but rather be happy, and a good manager already know how software development work so should not put under too much pressure its team unless really necessary: * It has been caught before product release * It is pretty standard for a programmer fixing bugs daily * If you have to focus on programming it is hard also to focus on testing * A tester Always reports bugs * A regular user usually not (unless particularly angry or determined) * If the user is your client, he will report bugs and he will not be happy if the project already cost him much money or required a good amount of time. Literally a project for which bugs are not reported at least on a weekly basis: * Too simple project: no value every other company could easily create a better clone * Not much-used project: maybe there are bugs but no one incurred in them * Bad management: if there are no bugs it's time to move on further work (extra features or different projects). * Bug fixes should drive development, they give a correct idea of what should work and is not working, this allows to manage priorities between fixes and features * In important projects it makes sense adding automated testing so that every fix and feature comes with new tests that avoid breaking pre-existing functionality
Sollte ein Tester ein schlechtes Gewissen haben, wenn er zu viele Mängel/Fehler im Produkt findet?
Wenn es sich um eine medizinische Anwendung handelt, ist das eine ernste Sache. Was wäre, wenn die Fehler echte Benutzer beträfen? Die Entwickler wären sehr viel weniger glücklich, wenn sie jemanden in Lebensgefahr bringen oder wenn das Management ein Produkt zurückziehen oder sich öffentlich entschuldigen muss. Heutzutage ist es ziemlich normal, dass Software kleinere Fehler hat, aber eine medizinische Anwendung sollte so weit wie möglich fehlerfrei sein. Ein guter Entwickler sollte sich nicht über Fehler ärgern, sondern sich freuen, und ein guter Manager weiß bereits, wie Softwareentwicklung funktioniert, und sollte sein Team nicht zu sehr unter Druck setzen, wenn es nicht wirklich notwendig ist: * Der Fehler wurde vor der Veröffentlichung des Produkts gefunden. * Es ist ziemlich normal, dass ein Programmierer täglich Fehler behebt * Wenn man sich auf das Programmieren konzentrieren muss, ist es schwer, sich auch auf das Testen zu konzentrieren * Ein Tester meldet immer Bugs * Ein normaler Benutzer normalerweise nicht (es sei denn, er ist besonders wütend oder entschlossen) * Wenn der Benutzer Ihr Kunde ist, wird er Fehler melden und er wird nicht glücklich sein, wenn das Projekt ihn bereits viel Geld gekostet oder viel Zeit in Anspruch genommen hat. Buchstäblich ein Projekt, bei dem nicht mindestens wöchentlich Fehler gemeldet werden: * Zu einfaches Projekt: kein Wert, jedes andere Unternehmen könnte leicht einen besseren Klon erstellen * Wenig genutztes Projekt: vielleicht gibt es Fehler, aber niemand hat sie verursacht * Schlechtes Management: wenn es keine Fehler gibt, ist es an der Zeit, die Arbeit fortzusetzen (zusätzliche Funktionen oder andere Projekte). * Fehlerbehebungen sollten die Entwicklung vorantreiben, sie geben eine korrekte Vorstellung davon, was funktionieren sollte und was nicht funktioniert, dies erlaubt es, Prioritäten zwischen Fehlerbehebungen und Funktionen zu setzen * Bei wichtigen Projekten ist es sinnvoll, automatisierte Tests einzuführen, so dass jede Fehlerbehebung und jedes neue Feature mit neuen Tests einhergeht, die verhindern, dass bereits vorhandene Funktionen zerstört werden.
¿Debe un evaluador sentirse mal por encontrar demasiados defectos o fallos en el producto?
Si se trata de una aplicación médica, la cosa es seria. ¿Y si los fallos afectaran a usuarios reales? Los desarrolladores estarían mucho menos contentos si pusieran en peligro la vida de alguien o si la dirección tuviera que retirar un producto o dar excusas públicas. Hoy en día es bastante normal que el software tenga fallos menores, pero una aplicación médica debería estar lo más libre de fallos posible. Un buen desarrollador no debería enfadarse por los fallos, sino estar contento, y un buen gestor ya sabe cómo funciona el desarrollo de software, así que no debería presionar demasiado a su equipo a menos que sea realmente necesario: * Se haya detectado antes del lanzamiento del producto * Es bastante normal para un programador corregir errores a diario. * Si tienes que centrarte en la programación, es difícil que también te centres en las pruebas. * Un tester siempre informa de los errores * Un usuario normal normalmente no (a menos que esté particularmente enfadado o decidido) * Si el usuario es tu cliente, reportará bugs y no estará contento si el proyecto ya le costó mucho dinero o requirió una buena cantidad de tiempo. Literalmente un proyecto del que no se reportan bugs al menos semanalmente: * Proyecto demasiado simple: sin valor, cualquier otra empresa podría crear fácilmente un clon mejor. * Proyecto poco utilizado: puede que haya bugs pero nadie incurrió en ellos * Mala gestión: si no hay bugs es hora de seguir trabajando (características extra o proyectos diferentes). * Las correcciones de errores deberían impulsar el desarrollo, ya que dan una idea correcta de lo que debería funcionar y lo que no, lo que permite gestionar las prioridades entre correcciones y características. * En proyectos importantes tiene sentido añadir pruebas automatizadas para que cada corrección y característica venga con nuevas pruebas que eviten romper la funcionalidad preexistente.
Un testeur doit-il se sentir mal à l'aise s'il trouve trop de défauts/bugs dans le produit ?
S'il s'agit d'une application médicale, c'est du sérieux. Et si les bogues affectaient des utilisateurs réels ? Les développeurs seraient beaucoup moins heureux s'ils mettaient en danger la vie de quelqu'un ou si la direction devait retirer un produit ou faire des excuses publiques. De nos jours, il est assez courant qu'un logiciel présente des bogues mineurs, mais une application médicale doit être aussi exempte de bogues que possible. Un bon développeur ne devrait pas être en colère à cause des bogues, mais plutôt être heureux, et un bon manager sait déjà comment fonctionne le développement de logiciels et ne devrait donc pas mettre trop de pression sur son équipe, à moins que cela ne soit vraiment nécessaire : * le bogue a été détecté avant la sortie du produit * Il est tout à fait normal qu'un programmeur corrige les bogues quotidiennement. * Si vous devez vous concentrer sur la programmation, il est difficile de se concentrer également sur les tests. * Un testeur signale toujours les bogues * Un utilisateur régulier ne le fait généralement pas (sauf s'il est particulièrement en colère ou déterminé). * Si l'utilisateur est votre client, il signalera les bogues et ne sera pas satisfait si le projet lui a déjà coûté beaucoup d'argent ou lui a demandé beaucoup de temps. Littéralement, un projet pour lequel les bogues ne sont pas signalés au moins une fois par semaine : * Projet trop simple : aucune valeur, toute autre entreprise pourrait facilement créer un meilleur clone. * Projet peu utilisé : il y a peut-être des bogues, mais personne ne s'en préoccupe. * mauvaise gestion : s'il n'y a pas de bogues, il est temps de passer à d'autres travaux (fonctionnalités supplémentaires ou projets différents). * Les corrections de bogues devraient conduire le développement, elles donnent une idée correcte de ce qui devrait fonctionner et de ce qui ne fonctionne pas, ce qui permet de gérer les priorités entre les corrections et les fonctionnalités. * Dans les projets importants, il est judicieux d'ajouter des tests automatisés afin que chaque correction et chaque fonctionnalité soient accompagnées de nouveaux tests qui évitent de casser les fonctionnalités préexistantes.
Un tester dovrebbe sentirsi in colpa se trova troppi difetti/bug nel prodotto?
Se si tratta di un'applicazione medica, si tratta di cose serie. E se i bug riguardassero utenti reali? Gli sviluppatori sarebbero molto meno contenti se mettessero in pericolo di vita qualcuno o se la direzione dovesse ritirare un prodotto o trovare scuse pubbliche. Al giorno d'oggi è abbastanza normale che un software abbia bug minori, ma un'applicazione medica dovrebbe essere il più possibile priva di bug. Un buon sviluppatore non dovrebbe arrabbiarsi per i bug, ma piuttosto essere felice, e un buon manager sa già come funziona lo sviluppo del software, quindi non dovrebbe mettere troppo sotto pressione il suo team a meno che non sia davvero necessario: * È stato individuato prima del rilascio del prodotto * È abbastanza normale per un programmatore correggere i bug quotidianamente. * Se devi concentrarti sulla programmazione, è difficile concentrarti anche sul testing. * Un tester segnala sempre i bug * Un utente normale di solito non lo fa (a meno che non sia particolarmente arrabbiato o determinato). * Se l'utente è il vostro cliente, segnalerà i bug e non sarà contento se il progetto gli è già costato molto denaro o ha richiesto una buona quantità di tempo. Letteralmente un progetto per il quale non vengono segnalati bug almeno su base settimanale: * Progetto troppo semplice: nessun valore, ogni altra azienda potrebbe facilmente creare un clone migliore. * Progetto poco utilizzato: forse ci sono dei bug, ma nessuno ci è incorso. * Cattiva gestione: se non ci sono bug è ora di passare ad altro lavoro (funzionalità aggiuntive o progetti diversi). * Le correzioni dei bug dovrebbero guidare lo sviluppo, danno un'idea corretta di ciò che dovrebbe funzionare e non funziona, e questo permette di gestire le priorità tra correzioni e funzionalità. * In progetti importanti ha senso aggiungere test automatizzati, in modo che ogni correzione e funzionalità sia accompagnata da nuovi test che evitino di interrompere le funzionalità preesistenti.
90
Millions of colors in the visible spectrum can be generated by mixing red, green and blue - the RGB color system. Is there a basic set of smells that, when mixed, can yield all, or nearly all detectable smells ?
There are about 100 (Purves, 2001) to 400 (Zozulya et al., 2001) functional olfactory receptors in man. While the total tally of olfactory receptor genes exceeds 1000, more than half of them are inactive pseudogenes. The combined activity of the expressed functional receptors accounts for the number of distinct odors that can be discriminated by the human olfactory system, which is estimated to be about 10,000 (Purves, 2001). Different receptors are sensitive to subsets of chemicals that define a “tuning curve.” Depending on the particular olfactory receptor molecules they contain, some olfactory receptor neurons exhibit marked selectivity to particular chemical stimuli, whereas others are activated by a number of different odorant molecules. In addition, olfactory receptor neurons can exhibit different thresholds for a particular odorant. How these olfactory responses encode a specific odorant is a complex issue that is unlikely to be explained at the level of the primary neurons (Purves, 2001). So in a way, the answer to your question is yes, as there are approximately 100 to 400 olfactory receptors. Just like the photoreceptors in the visual system, each sensory neuron in the olfactory epithelium in the nose expresses only a single receptor gene (Kimball). In the visual system for color vision there are just three (red, green and blue cones - RGB) types of sensory neurons, so it's a bit more complicated in olfaction. References - Purves et al, Neuroscience, 2nd ed. Sunderland (MA): Sinauer Associates; 2001 - Zozulya et al., Genome Biol (2001); 2(6): research0018.1–0018.12 Sources - Kimball's Biology Pages
Millionen von Farben im sichtbaren Spektrum können durch Mischen von Rot, Grün und Blau erzeugt werden - das RGB-Farbsystem. Gibt es eine Grundmenge von Gerüchen, die, wenn sie gemischt werden, alle oder fast alle wahrnehmbaren Gerüche ergeben können?
Beim Menschen gibt es etwa 100 (Purves, 2001) bis 400 (Zozulya et al., 2001) funktionelle Geruchsrezeptoren. Während die Gesamtzahl der Geruchsrezeptorgene 1000 übersteigt, sind mehr als die Hälfte von ihnen inaktive Pseudogene. Die kombinierte Aktivität der exprimierten funktionellen Rezeptoren macht die Anzahl der verschiedenen Gerüche aus, die das menschliche Geruchssystem unterscheiden kann, und die auf etwa 10.000 geschätzt wird (Purves, 2001). Verschiedene Rezeptoren reagieren auf eine Untergruppe von Chemikalien, die eine "Abstimmungskurve" definieren. Abhängig von den jeweiligen Geruchsrezeptormolekülen, die sie enthalten, weisen einige Geruchsrezeptorneuronen eine ausgeprägte Selektivität für bestimmte chemische Reize auf, während andere durch eine Reihe verschiedener Geruchsmoleküle aktiviert werden. Darüber hinaus können Geruchsrezeptorneuronen unterschiedliche Schwellenwerte für einen bestimmten Geruchsstoff aufweisen. Wie diese Geruchsreaktionen einen bestimmten Geruchsstoff kodieren, ist ein komplexes Thema, das sich wahrscheinlich nicht auf der Ebene der Primärneuronen erklären lässt (Purves, 2001). In gewisser Weise ist die Antwort auf Ihre Frage also ja, denn es gibt etwa 100 bis 400 Geruchsrezeptoren. Genau wie die Photorezeptoren im visuellen System exprimiert jedes sensorische Neuron im Geruchsepithel der Nase nur ein einziges Rezeptorgen (Kimball). Im visuellen System für das Farbensehen gibt es nur drei Arten von sensorischen Neuronen (rote, grüne und blaue Zapfen - RGB), daher ist es im Geruchssinn etwas komplizierter. Referenzen - Purves et al, Neurowissenschaften, 2. Aufl. Sunderland (MA): Sinauer Associates; 2001 - Zozulya et al., Genome Biol (2001); 2(6): research0018.1-0018.12 Quellen - Kimball's Biologie-Seiten
Se pueden generar millones de colores en el espectro visible mezclando rojo, verde y azul: el sistema de color RGB. ¿Existe un conjunto básico de olores que, al mezclarse, pueda dar lugar a todos o casi todos los olores detectables?
Existen entre 100 (Purves, 2001) y 400 (Zozulya et al., 2001) receptores olfativos funcionales en el hombre. Aunque el número total de genes receptores olfativos supera los 1.000, más de la mitad de ellos son pseudogenes inactivos. La actividad combinada de los receptores funcionales expresados explica el número de olores distintos que puede discriminar el sistema olfativo humano, que se estima en unos 10.000 (Purves, 2001). Los distintos receptores son sensibles a subconjuntos de sustancias químicas que definen una "curva de sintonización". Dependiendo de las moléculas receptoras olfativas concretas que contengan, algunas neuronas receptoras olfativas muestran una marcada selectividad ante estímulos químicos particulares, mientras que otras se activan con varias moléculas odorantes diferentes. Además, las neuronas receptoras olfativas pueden mostrar diferentes umbrales para un odorante concreto. El modo en que estas respuestas olfativas codifican un odorante específico es una cuestión compleja que probablemente no pueda explicarse a nivel de las neuronas primarias (Purves, 2001). Así que, en cierto modo, la respuesta a su pregunta es sí, ya que existen aproximadamente entre 100 y 400 receptores olfativos. Al igual que los fotorreceptores del sistema visual, cada neurona sensorial del epitelio olfativo de la nariz expresa un único gen receptor (Kimball). En el sistema visual para la visión del color sólo hay tres tipos (conos rojos, verdes y azules - RGB) de neuronas sensoriales, por lo que es un poco más complicado en la olfacción. Referencias - Purves et al, Neuroscience, 2ª ed. Sunderland (MA): Sinauer Associates; 2001 - Zozulya et al, Genome Biol (2001); 2(6): research0018.1-0018.12 Fuentes - Páginas de Biología de Kimball
Des millions de couleurs dans le spectre visible peuvent être générées en mélangeant le rouge, le vert et le bleu - le système de couleurs RVB. Existe-t-il un ensemble d'odeurs de base qui, lorsqu'elles sont mélangées, peuvent produire toutes les odeurs détectables, ou presque ?
Il existe environ 100 (Purves, 2001) à 400 (Zozulya et al., 2001) récepteurs olfactifs fonctionnels chez l'homme. Si le nombre total de gènes de récepteurs olfactifs dépasse les 1000, plus de la moitié d'entre eux sont des pseudogènes inactifs. L'activité combinée des récepteurs fonctionnels exprimés explique le nombre d'odeurs distinctes pouvant être distinguées par le système olfactif humain, qui est estimé à environ 10 000 (Purves, 2001). Les différents récepteurs sont sensibles à des sous-ensembles de substances chimiques qui définissent une "courbe d'accord". En fonction des molécules réceptrices olfactives particulières qu'ils contiennent, certains neurones récepteurs olfactifs présentent une sélectivité marquée à des stimuli chimiques particuliers, tandis que d'autres sont activés par un certain nombre de molécules odorantes différentes. En outre, les neurones récepteurs olfactifs peuvent présenter des seuils différents pour un odorant particulier. La manière dont ces réponses olfactives codent pour une substance odorante spécifique est une question complexe qu'il est peu probable d'expliquer au niveau des neurones primaires (Purves, 2001). D'une certaine manière, la réponse à votre question est donc oui, puisqu'il existe environ 100 à 400 récepteurs olfactifs. Tout comme les photorécepteurs du système visuel, chaque neurone sensoriel de l'épithélium olfactif du nez n'exprime qu'un seul gène de récepteur (Kimball). Dans le système visuel, il n'existe que trois types de neurones sensoriels (cônes rouges, verts et bleus - RVB) pour la vision des couleurs, ce qui rend l'olfaction un peu plus compliquée. Références bibliographiques - Purves et al, Neuroscience, 2nd ed. Sunderland (MA) : Sinauer Associates ; 2001 - Zozulya et al, Genome Biol (2001) ; 2(6) : research0018.1-0018.12 Sources - Pages de biologie de Kimball
Milioni di colori nello spettro visibile possono essere generati mescolando rosso, verde e blu - il sistema di colori RGB. Esiste un insieme di base di odori che, se mescolati, possono produrre tutti o quasi gli odori rilevabili?
Nell'uomo esistono circa 100 (Purves, 2001) - 400 (Zozulya et al., 2001) recettori olfattivi funzionali. Sebbene il totale dei geni dei recettori olfattivi superi i 1000, più della metà di essi sono pseudogeni inattivi. L'attività combinata dei recettori funzionali espressi spiega il numero di odori distinti che possono essere discriminati dal sistema olfattivo umano, stimato in circa 10.000 (Purves, 2001). Recettori diversi sono sensibili a sottoinsiemi di sostanze chimiche che definiscono una "curva di sintonizzazione". A seconda delle particolari molecole dei recettori olfattivi che contengono, alcuni neuroni dei recettori olfattivi mostrano una marcata selettività a particolari stimoli chimici, mentre altri sono attivati da una serie di molecole odoranti diverse. Inoltre, i neuroni dei recettori olfattivi possono presentare soglie diverse per un particolare odorante. Come queste risposte olfattive codifichino uno specifico odorante è una questione complessa che difficilmente può essere spiegata a livello dei neuroni primari (Purves, 2001). Quindi, in un certo senso, la risposta alla sua domanda è sì, poiché esistono circa 100-400 recettori olfattivi. Proprio come i fotorecettori del sistema visivo, ogni neurone sensoriale dell'epitelio olfattivo del naso esprime un solo gene recettoriale (Kimball). Nel sistema visivo per la visione dei colori ci sono solo tre tipi di neuroni sensoriali (coni rossi, verdi e blu - RGB), quindi l'olfatto è un po' più complicato. Riferimenti - Purves et al, Neuroscience, 2nd ed. Sunderland (MA): Sinauer Associates; 2001 - Zozulya et al., Genome Biol (2001); 2(6): research0018.1-0018.12 Fonti - Pagine di biologia di Kimball
91
Do you bleed to death after your penis is cut off?
Assuming the person is not taking anticoagulants, it's actually quite difficult to bleed to death from dismemberment of small members (hands, feet, penis, ears, nose, etc). Even large members such as arms and legs are often survivable because the body is very good at protecting itself from blood loss. For example, transected arteries will spasm and clamp off blood flow, and loss of blood will cause the body to divert blood flow away from the extremities and to the vital organs, thereby slowing the bleeding and allowing it to clot. In fact, the whole shock process can be viewed as a set of defensive measures by the body to ensure survival in the face of serious injury. This was a bitter lesson learned by emergency medicine only fairly recently. The standard practice used to be to infuse hypovolemic patients with fluids to maintain normal blood pressure. The trouble is, a normal blood pressure prevents the body from realizing it has inadequate blood volume and turns off its defensive measures, thus allowing the bleeding to continue unabated. Left to fend for himself, a healthy adult would almost certainly survive having his penis removed. With modern medical care, that becomes a certainty. Could he still urinate? Sure, as long as the urethra wasn't blocked. It could become blocked by clotted blood, but eventually the pressure of a full bladder would overcome the blockage.
Verbluten Sie, wenn Ihnen der Penis abgeschnitten wird?
Unter der Voraussetzung, dass die Person keine gerinnungshemmenden Mittel einnimmt, ist es eigentlich ziemlich schwierig, an der Zerstückelung kleiner Gliedmaßen (Hände, Füße, Penis, Ohren, Nase usw.) zu verbluten. Selbst große Gliedmaßen wie Arme und Beine sind oft überlebensfähig, weil der Körper sich sehr gut vor Blutverlust schützen kann. Durchtrennte Arterien verkrampfen sich beispielsweise und unterbrechen den Blutfluss, und der Blutverlust veranlasst den Körper, den Blutfluss von den Extremitäten zu den lebenswichtigen Organen umzuleiten, wodurch die Blutung verlangsamt wird und gerinnen kann. Tatsächlich kann der gesamte Schockprozess als eine Reihe von Abwehrmaßnahmen des Körpers betrachtet werden, die das Überleben angesichts einer schweren Verletzung sicherstellen sollen. Diese bittere Lektion hat die Notfallmedizin erst vor relativ kurzer Zeit gelernt. Früher bestand die Standardpraxis darin, hypovolämischen Patienten Flüssigkeit zuzuführen, um einen normalen Blutdruck aufrechtzuerhalten. Das Problem dabei ist, dass ein normaler Blutdruck verhindert, dass der Körper merkt, dass sein Blutvolumen nicht ausreicht, und seine Abwehrmaßnahmen abschaltet, so dass die Blutung ungehindert weitergehen kann. Ein gesunder Erwachsener, der sich selbst überlassen ist, würde die Entfernung seines Penis mit ziemlicher Sicherheit überleben. Mit der modernen medizinischen Versorgung ist das eine Gewissheit. Könnte er noch urinieren? Sicher, solange die Harnröhre nicht verstopft ist. Sie könnte durch geronnenes Blut verstopft werden, aber der Druck einer vollen Blase würde die Verstopfung schließlich überwinden.
¿Te desangras después de que te corten el pene?
Suponiendo que la persona no esté tomando anticoagulantes, en realidad es bastante difícil morir desangrado por el desmembramiento de miembros pequeños (manos, pies, pene, orejas, nariz, etc.). Incluso los miembros grandes, como brazos y piernas, suelen sobrevivir porque el cuerpo es muy bueno protegiéndose de la pérdida de sangre. Por ejemplo, las arterias seccionadas sufrirán espasmos y bloquearán el flujo sanguíneo, y la pérdida de sangre hará que el cuerpo desvíe el flujo sanguíneo de las extremidades a los órganos vitales, lo que ralentizará la hemorragia y permitirá su coagulación. De hecho, todo el proceso de shock puede considerarse un conjunto de medidas defensivas del organismo para garantizar la supervivencia ante una lesión grave. La medicina de urgencias no ha aprendido esta amarga lección hasta hace poco. La práctica habitual solía ser infundir líquidos a los pacientes hipovolémicos para mantener una tensión arterial normal. El problema es que una presión arterial normal impide que el cuerpo se dé cuenta de que tiene un volumen sanguíneo inadecuado y desactiva sus medidas defensivas, permitiendo así que la hemorragia continúe sin cesar. Abandonado a su suerte, es casi seguro que un adulto sano sobreviviría a la extirpación del pene. Con la atención médica moderna, eso se convierte en una certeza. ¿Podría seguir orinando? Claro, siempre y cuando la uretra no estuviera bloqueada. La sangre coagulada podría obstruirla, pero la presión de una vejiga llena acabaría con la obstrucción.
Saignez-vous à mort après l'ablation de votre pénis ?
En supposant que la personne ne prenne pas d'anticoagulants, il est en fait assez difficile de mourir d'une hémorragie causée par le démembrement de petits membres (mains, pieds, pénis, oreilles, nez, etc.). Même les membres de grande taille, comme les bras et les jambes, peuvent souvent être sauvés, car le corps se protège très bien contre la perte de sang. Par exemple, les artères sectionnées se spasment et bloquent la circulation sanguine, et la perte de sang amène le corps à détourner le flux sanguin des extrémités vers les organes vitaux, ce qui ralentit l'hémorragie et permet la coagulation. En fait, l'ensemble du processus de choc peut être considéré comme un ensemble de mesures défensives prises par l'organisme pour assurer sa survie face à une blessure grave. La médecine d'urgence n'a appris cette leçon amère que très récemment. La pratique courante consistait à perfuser les patients hypovolémiques afin de maintenir une pression artérielle normale. Le problème, c'est qu'une tension artérielle normale empêche l'organisme de se rendre compte que le volume sanguin est insuffisant et d'arrêter ses mesures de défense, ce qui permet à l'hémorragie de se poursuivre sans relâche. Livré à lui-même, un adulte en bonne santé survivrait presque certainement à l'ablation de son pénis. Avec les soins médicaux modernes, cela devient une certitude. Pourrait-il encore uriner ? Bien sûr, tant que l'urètre n'est pas bloqué. Elle pourrait être obstruée par des caillots de sang, mais la pression d'une vessie pleine finirait par vaincre l'obstruction.
Si muore dissanguati dopo il taglio del pene?
Supponendo che la persona non stia assumendo anticoagulanti, in realtà è abbastanza difficile morire dissanguati per lo smembramento di membri piccoli (mani, piedi, pene, orecchie, naso, ecc.). Anche i membri più grandi, come braccia e gambe, sono spesso sopravvissuti perché il corpo è molto bravo a proteggersi dalla perdita di sangue. Ad esempio, le arterie recise vanno incontro a spasmi e bloccano il flusso sanguigno, mentre la perdita di sangue induce l'organismo a deviare il flusso sanguigno dalle estremità agli organi vitali, rallentando così l'emorragia e consentendo la coagulazione. In effetti, l'intero processo di shock può essere visto come una serie di misure difensive da parte dell'organismo per garantire la sopravvivenza di fronte a una lesione grave. Questa è stata un'amara lezione appresa dalla medicina d'urgenza solo di recente. La pratica standard consisteva nell'infondere liquidi ai pazienti ipovolemici per mantenere una pressione sanguigna normale. Il problema è che una pressione sanguigna normale impedisce all'organismo di rendersi conto di avere un volume di sangue inadeguato e di disattivare le sue misure difensive, permettendo così all'emorragia di continuare senza sosta. Se lasciato a se stesso, un adulto sano sopravviverebbe quasi certamente all'asportazione del pene. Con le moderne cure mediche, questo diventa una certezza. Potrebbe ancora urinare? Certo, purché l'uretra non fosse ostruita. Potrebbe bloccarsi a causa del sangue coagulato, ma alla fine la pressione della vescica piena supererebbe l'ostruzione.
92
In Swift, is there a clever way of using the higher order methods on Array to return the 5 first objects? The obj-c way of doing it was saving an index, and for-loop through the array incrementing index until it was 5 and returning the new array. Is there a way to do this with ```filter```, ```map``` or ```reduce```?
With Swift 5, according to your needs, you may choose one of the 6 following Playground codes in order to solve your problem. #1. Using ```subscript(_:)``` subscript ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array[..<5] //let arraySlice = array[0..<5] // also works //let arraySlice = array[0...4] // also works //let arraySlice = array[...4] // also works let newArray = Array(arraySlice) print(newArray) // prints: ["A", "B", "C", "D", "E"] ``` #2. Using ```prefix(_:)``` method Complexity: O(1) if the collection conforms to ```RandomAccessCollection```; otherwise, O(k), where k is the number of elements to select from the beginning of the collection. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(5) let newArray = Array(arraySlice) print(newArray) // prints: ["A", "B", "C", "D", "E"] ``` Apple states for ```prefix(_:)```: If the maximum length exceeds the number of elements in the collection, the result contains all the elements in the collection. #3. Using ```prefix(upTo:)``` method Complexity: O(1) ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(upTo: 5) let newArray = Array(arraySlice) print(newArray) // prints: ["A", "B", "C", "D", "E"] ``` Apple states for ```prefix(upTo:)```: Using the ```prefix(upTo:)``` method is equivalent to using a partial half-open range as the collection's subscript. The subscript notation is preferred over ```prefix(upTo:)```. #4. Using ```prefix(through:)``` method ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(through: 4) let newArray = Array(arraySlice) print(newArray) // prints: ["A", "B", "C", "D", "E"] ``` #5. Using ```removeSubrange(_:)``` method Complexity: O(n), where n is the length of the collection. ```var array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] array.removeSubrange(5...) print(array) // prints: ["A", "B", "C", "D", "E"] ``` #6. Using ```dropLast(_:)``` method Complexity: O(1) if the collection conforms to ```RandomAccessCollection```; otherwise, O(k), where k is the number of elements to drop. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let distance = array.distance(from: 5, to: array.endIndex) let arraySlice = array.dropLast(distance) let newArray = Array(arraySlice) print(newArray) // prints: ["A", "B", "C", "D", "E"] ```
Gibt es in Swift eine clevere Möglichkeit, die Methoden höherer Ordnung auf Array zu verwenden, um die ersten 5 Objekte zurückzugeben? Der obj-c Weg war, einen Index zu speichern und in einer for-Schleife durch das Array zu gehen, den Index zu erhöhen, bis er 5 ist und das neue Array zurückzugeben. Gibt es eine Möglichkeit, dies mit ```Filter``, ``Map`` oder ``Reduce`` zu tun?
Mit Swift 5 können Sie je nach Bedarf einen der 6 folgenden Playground-Codes wählen, um Ihr Problem zu lösen. #1. Verwendung von ```subscript(_:)```` ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array[..<5] //let arraySlice = array[0..<5] // funktioniert auch //let arraySlice = array[0...4] // funktioniert auch //let arraySlice = array[...4] // funktioniert auch let newArray = Array(arraySlice) print(newArray) // druckt: ["A", "B", "C", "D", "E"] ``` #2. Verwendung der Methode ``Prefix(_:)```` Komplexität: O(1) wenn die Sammlung ```RandomAccessCollection`` entspricht; andernfalls O(k), wobei k die Anzahl der Elemente ist, die vom Anfang der Sammlung ausgewählt werden sollen. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(5) let newArray = Array(arraySlice) print(newArray) // druckt: ["A", "B", "C", "D", "E"] ``` Apple-Zustände für ```Präfix(_:)```: Wenn die maximale Länge die Anzahl der Elemente in der Sammlung überschreitet, enthält das Ergebnis alle Elemente der Sammlung. #3. Verwendung der Methode ``Prefix(upTo:)```` Komplexität: O(1) ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(bis zu: 5) let newArray = Array(arraySlice) print(newArray) // druckt: ["A", "B", "C", "D", "E"] ``` Apple-Zustände für ```Präfix(bisZu:)```: Die Verwendung der Methode ``Präfix(bisZu:)`` ist äquivalent zur Verwendung eines halboffenen Bereichs als tiefgestelltes Zeichen der Sammlung. Die tiefgestellte Schreibweise wird gegenüber ``Präfix(bisZu:)`` bevorzugt. #4. Verwendung der Methode ``Präfix(bis:)``'' ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(durch: 4) let newArray = Array(arraySlice) print(newArray) // druckt: ["A", "B", "C", "D", "E"] ``` #5. Verwendung der Methode ``removeSubrange(_:)```` Komplexität: O(n), wobei n die Länge der Sammlung ist. ```var array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] array.removeTeilbereich(5...) print(array) // druckt: ["A", "B", "C", "D", "E"] ``` #6. Verwendung der Methode ```dropLast(_:)``` Komplexität: O(1) wenn die Sammlung ```RandomAccessCollection`` entspricht; andernfalls O(k), wobei k die Anzahl der zu löschenden Elemente ist. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let distance = array.distance(from: 5, to: array.endIndex) let arraySlice = array.dropLast(Abstand) let newArray = Array(arraySlice) print(newArray) // druckt: ["A", "B", "C", "D", "E"] ```
En Swift, ¿hay una manera inteligente de utilizar los métodos de orden superior en Array para devolver los 5 primeros objetos? La forma de hacerlo en obj-c era guardar un índice, y hacer un bucle for a través del array incrementando el índice hasta que fuera 5 y devolviendo el nuevo array. ¿Hay alguna manera de hacer esto con ``filter``, ``map`` o ``reduce``?
Con Swift 5, según sus necesidades, puede elegir uno de los 6 códigos Playground siguientes para resolver su problema. #1. Usando ``subscript(_:)`` subscript ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"]. let matrizCorte = matriz[..<5] //let arraySlice = array[0..<5] // también funciona //let arraySlice = array[0...4] // también funciona //let arraySlice = array[...4] // también funciona let nuevaMatriz = Matriz(rebanadaMatriz) print(nuevaMatriz) // imprime: ["A", "B", "C", "D", "E"] ``` #2. Usando el método ``prefix(_:)``` Complejidad: O(1) si la colección se ajusta a ```RandomAccessCollection``; en caso contrario, O(k), donde k es el número de elementos a seleccionar desde el principio de la colección. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"]. let matrizCorte = matriz.prefijo(5) let nuevaMatriz = Matriz(rebanadaMatriz) print(nuevaMatriz) // imprime: ["A", "B", "C", "D", "E"] ``` Estados de Apple para ``prefix(_:)``: Si la longitud máxima excede el número de elementos de la colección, el resultado contiene todos los elementos de la colección. #3. Utilizando el método ``prefix(upTo:)`` Complejidad: O(1) ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"]. let matrizCorte = matriz.prefijo(hasta: 5) let nuevaMatriz = Matriz(rebanadaMatriz) print(nuevaMatriz) // imprime: ["A", "B", "C", "D", "E"] ``` Estados de Apple para ``prefix(upTo:)``: Utilizar el método ``prefix(upTo:)`` equivale a utilizar un rango parcial semiabierto como subíndice de la colección. La notación de subíndice es preferible a ``prefix(upTo:)``. #4. Usando el método ``prefix(through:)`` ``let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"]. let arraySlice = array.prefix(hasta: 4) let nuevaMatriz = Matriz(matrizCorte) print(nuevaMatriz) // imprime: ["A", "B", "C", "D", "E"] ``` #5. Usando el método ```removeSubrange(_:)``` Complejidad: O(n), donde n es la longitud de la colección. ``var array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"]. array.removeSubrange(5...) print(array) // imprime: ["A", "B", "C", "D", "E"] ``` #6. Usando el método ``dropLast(_:)``` Complejidad: O(1) si la colección se ajusta a ```RandomAccessCollection``; en caso contrario, O(k), donde k es el número de elementos a eliminar. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"]. let distancia = array.distancia(desde: 5, hasta: array.endIndex) let matrizRebanada = array.dropLast(distancia) let nuevaMatriz = Matriz(rebanadaMatriz) print(nuevaMatriz) // imprime: ["A", "B", "C", "D", "E"] ```
En Swift, existe-t-il un moyen astucieux d'utiliser les méthodes d'ordre supérieur sur Array pour retourner les 5 premiers objets ? La méthode obj-c consistait à enregistrer un index, et à faire une boucle for à travers le tableau en incrémentant l'index jusqu'à ce qu'il soit 5 et en renvoyant le nouveau tableau. Existe-t-il un moyen de faire cela avec ``filtre``, ``map`` ou ``reduce`` ?
Avec Swift 5, selon vos besoins, vous pouvez choisir l'un des 6 codes Playground suivants afin de résoudre votre problème. #1. Utiliser l'indice ``subscript(_ :)``. let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array[..<5] //let arraySlice = array[0..<5] // fonctionne également //let arraySlice = array[0...4] // fonctionne aussi //let arraySlice = array[...4] // fonctionne également let newArray = Array(arraySlice) print(newArray) // imprime : ["A", "B", "C", "D", "E"] ``` #2. Utilisation de la méthode ``prefix(_ :)``. Complexité : O(1) si la collection est conforme à ``RandomAccessCollection`` ; sinon, O(k), où k est le nombre d'éléments à sélectionner au début de la collection. let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(5) let newArray = Array(arraySlice) print(newArray) // imprime : ["A", "B", "C", "D", "E"] ``` États Apple pour ``prefix(_ :)`` : Si la longueur maximale dépasse le nombre d'éléments de la collection, le résultat contient tous les éléments de la collection. #3. Utiliser la méthode ``prefix(upTo :)``. Complexité : O(1) ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(upTo : 5) let newArray = Array(arraySlice) print(newArray) // imprime : ["A", "B", "C", "D", "E"] ``` États Apple pour ``prefix(upTo :)`` : L'utilisation de la méthode ``prefix(upTo :)`` est équivalente à l'utilisation d'un intervalle partiel semi-ouvert comme indice de la collection. L'indice est préféré à ``prefix(upTo :)``. #4. Utiliser la méthode ``prefix(through :)``. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(through : 4) let newArray = Array(arraySlice) print(newArray) // imprime : ["A", "B", "C", "D", "E"] ``` #5. Utiliser la méthode ``removeSubrange(_ :)``. Complexité : O(n), où n est la longueur de la collection. ```var array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] array.removeSubrange(5...) print(array) // imprime : ["A", "B", "C", "D", "E"] ``` #6. Utiliser la méthode ``dropLast(_ :)```. Complexité : O(1) si la collection est conforme à ``RandomAccessCollection`` ; sinon, O(k), où k est le nombre d'éléments à supprimer. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let distance = array.distance(from : 5, to : array.endIndex) let arraySlice = array.dropLast(distance) let newArray = Array(arraySlice) print(newArray) // imprime : ["A", "B", "C", "D", "E"] ```
In Swift, esiste un modo intelligente per utilizzare i metodi di ordine superiore su Array per restituire i primi 5 oggetti? Il modo in cui obj-c lo faceva era salvare un indice e fare un for-loop attraverso l'array incrementando l'indice fino a 5 e restituendo il nuovo array. C'è un modo per farlo con ```filtro``, ```mappa`` o ```riduzione``?
Con Swift 5, in base alle vostre esigenze, potete scegliere uno dei 6 codici Playground seguenti per risolvere il vostro problema. #1. Utilizzo del pedice ``subscript(_:)`` ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array[..<5] //let arraySlice = array[0..<5] // funziona anche //let arraySlice = array[0...4] // funziona anche //let arraySlice = array[...4] // funziona anche let newArray = Array(arraySlice) print(newArray) // stampa: ["A", "B", "C", "D", "E"]. ``` #2. Utilizzo del metodo ``prefix(_:)`` Complessità: O(1) se la collezione è conforme a ```RandomAccessCollection``; altrimenti, O(k), dove k è il numero di elementi da selezionare dall'inizio della collezione. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(5) let newArray = Array(arraySlice) print(newArray) // stampa: ["A", "B", "C", "D", "E"]. ``` Stati Apple per ``prefix(_:)```: Se la lunghezza massima supera il numero di elementi dell'insieme, il risultato contiene tutti gli elementi dell'insieme. #3. Utilizzo del metodo ``prefix(upTo:)`` Complessità: O(1) ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(upTo: 5) let newArray = Array(arraySlice) print(newArray) // stampa: ["A", "B", "C", "D", "E"]. ``` Stati Apple per ``prefix(upTo:)```: L'uso del metodo ``prefix(upTo:)`` equivale all'uso di un intervallo parziale semiaperto come pedice dell'insieme. La notazione del pedice è preferibile a ``prefix(upTo:)```. #4. Uso del metodo ``prefix(through:)``` ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let arraySlice = array.prefix(through: 4) let newArray = Array(arraySlice) print(newArray) // stampa: ["A", "B", "C", "D", "E"]. ``` #5. Uso del metodo ``removeSubrange(_:)``` Complessità: O(n), dove n è la lunghezza dell'insieme. ``var array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] array.removeSubrange(5...) print(array) // stampa: ["A", "B", "C", "D", "E"]. ``` #6. Utilizzo del metodo ``dropLast(_:)``` Complessità: O(1) se la collezione è conforme a ```RandomAccessCollection``; altrimenti, O(k), dove k è il numero di elementi da abbandonare. ```let array = ["A", "B", "C", "D", "E", "F", "G", "H", "I", "J", "K", "L"] let distance = array.distance(from: 5, to: array.endIndex) let arraySlice = array.dropLast(distance) let newArray = Array(arraySlice) print(newArray) // stampa: ["A", "B", "C", "D", "E"]. ```
93
What's the simplest way to get an environment variable from a docker container that has not been declared in the Dockerfile? For instance, an environment variable that has been set through some ```docker exec container /bin/bash``` session? I can do ```docker exec container env | grep ENV_VAR```, but I would prefer something that just returns the value. I've tried using ```docker exec container echo "$ENV_VAR"```, but the substitution seems to happen outside of the container, so I don't get the env var from the container, but rather the env var from my own computer. Thanks.
The downside of using ```docker exec``` is that it requires a running container, so ```docker inspect -f``` might be handy if you're unsure a container is running. Example #1. Output a list of space-separated environment variables in the specified container: ```docker inspect -f \ '{{range $index, $value := .Config.Env}}{{$value}} {{end}}' container_name ``` the output will look like this: ```ENV_VAR1=value1 ENV_VAR2=value2 ENV_VAR3=value3 ``` Example #2. Output each env var on new line and ```grep``` the needed items, for example, the mysql container's settings could be retrieved like this: ```docker inspect -f \ '{{range $index, $value := .Config.Env}}{{println $value}}{{end}}' \ container_name | grep MYSQL_ ``` will output: ```MYSQL_PASSWORD=secret MYSQL_ROOT_PASSWORD=supersecret MYSQL_USER=demo MYSQL_DATABASE=demodb MYSQL_MAJOR=5.5 MYSQL_VERSION=5.5.52 ``` Example #3. Let's modify the example above to get a bash friendly output which can be directly used in your scripts: ```docker inspect -f \ '{{range $index, $value := .Config.Env}}export {{$value}}{{println}}{{end}}' \ container_name | grep MYSQL ``` will output: ```export MYSQL_PASSWORD=secret export MYSQL_ROOT_PASSWORD=supersecret export MYSQL_USER=demo export MYSQL_DATABASE=demodb export MYSQL_MAJOR=5.5 export MYSQL_VERSION=5.5.52 ``` If you want to dive deeper, then go to Go’s text/template package documentation with all the details of the format.
Was ist der einfachste Weg, um eine Umgebungsvariable aus einem Docker-Container zu erhalten, die nicht in der Dockerdatei deklariert wurde? Zum Beispiel eine Umgebungsvariable, die durch eine ```docker exec container /bin/bash`` Sitzung gesetzt wurde? Ich kann ```docker exec container env | grep ENV_VAR`` machen, aber ich würde etwas bevorzugen, das einfach den Wert zurückgibt. Ich habe es mit ```docker exec container echo "$ENV_VAR"``` versucht, aber die Ersetzung scheint außerhalb des Containers zu passieren, so dass ich nicht die env var aus dem Container bekomme, sondern die env var von meinem eigenen Computer. Danke!
Der Nachteil von ```docker exec``` ist, dass es einen laufenden Container voraussetzt. ```docker inspect -f``` kann daher nützlich sein, wenn Sie sich nicht sicher sind, ob ein Container läuft. Beispiel #1. Eine Liste von durch Leerzeichen getrennten Umgebungsvariablen im angegebenen Container ausgeben: ```docker inspect -f \ '{{bereich $index, $wert := .Config.Env}}{{$wert}} {{end}}' container_name ``` Die Ausgabe sieht dann so aus: ```ENV_VAR1=wert1 ENV_VAR2=wert2 ENV_VAR3=wert3 ``` Beispiel #2. Geben Sie jede env var in einer neuen Zeile aus und ```grep`` die benoetigten Elemente, zum Beispiel koennten die Einstellungen des mysql Containers so abgerufen werden: ```docker inspect -f \ '{{range $index, $value := .Config.Env}}{{println $value}}{{end}}' \ container_name | grep MYSQL_ ``` wird ausgegeben: ```MYSQL_PASSWORT=geheim MYSQL_ROOT_PASSWORT=supersecret MYSQL_USER=demo MYSQL_DATENBASE=demodb MYSQL_MAJOR=5.5 MYSQL_VERSION=5.5.52 ``` Beispiel #3. Lassen Sie uns das obige Beispiel modifizieren, um eine bash-freundliche Ausgabe zu erhalten, die direkt in Ihren Skripten verwendet werden kann: ````docker inspect -f \ '{{range $index, $value := .Config.Env}}exportiere {{$value}}{{println}}{{end}}' \ container_name | grep MYSQL ``` wird ausgegeben: ```export MYSQL_PASSWORT=geheim export MYSQL_ROOT_PASSWORT=supersecret export MYSQL_USER=demo export MYSQL_DATABASE=demodb exportieren MYSQL_MAJOR=5.5 export MYSQL_VERSION=5.5.52 ``` Wenn Sie tiefer eintauchen wollen, dann schauen Sie sich die Dokumentation des Text/Template-Pakets von Go mit allen Details des Formats an.
¿Cuál es la forma más sencilla de obtener una variable de entorno de un contenedor docker que no ha sido declarada en el Dockerfile? Por ejemplo, ¿una variable de entorno que se ha establecido a través de alguna sesión ``docker exec container /bin/bash``? Puedo hacer ``docker exec container env | grep ENV_VAR``, pero preferiría algo que simplemente devolviera el valor. He intentado usar ``docker exec container echo "$ENV_VAR"``, pero la sustitución parece ocurrir fuera del contenedor, así que no obtengo la var env del contenedor, sino la var env de mi propio ordenador. Gracias.
La desventaja de usar ``docker exec`` es que requiere un contenedor en ejecución, por lo que ``docker inspect -f`` puede ser útil si no estás seguro de que un contenedor se está ejecutando. Ejemplo 1. Obtener una lista de variables de entorno separadas por espacios en el contenedor especificado: ``docker inspect -f \ {{range $index, $value := .Config.Env}}{{$value}}' container_index, $value := .Config.Env}}{{{value}} {{end}}' nombre_contenedor ``` la salida se verá así: ```ENV_VAR1=valor1 ENV_VAR2=valor2 ENV_VAR3=valor3 ``` Ejemplo #2. Muestra cada env var en una nueva línea y ``grep`` los elementos necesarios, por ejemplo, la configuración del contenedor mysql podría ser recuperada de la siguiente manera: ``docker inspect -f \ '{{range $index, $value := .Config.Env}}{{println $value}}{{end}}' \ nombre_contenedor | grep MYSQL_ ``` se mostrará: ```MYSQL_PASSWORD=secret MYSQL_ROOT_PASSWORD=supersecreto MYSQL_USER=demo MYSQL_DATABASE=demodb MYSQL_MAYOR=5.5 MYSQL_VERSION=5.5.52 ``` Ejemplo #3. Vamos a modificar el ejemplo anterior para obtener una salida amigable bash que se puede utilizar directamente en sus scripts: ```docker inspect -f \ {{range $index, $value := .Config.Env}}export {{$value}}{{println}}{{end}}'. \ nombre_contenedor | grep MYSQL ``` saldrá: ```export MYSQL_PASSWORD=secret export MYSQL_ROOT_PASSWORD=supersecreto export MYSQL_USER=demo export MYSQL_DATABASE=demodb export MYSQL_MAJOR=5.5 export MYSQL_VERSION=5.5.52 ``` Si quieres profundizar más, entonces ve a la documentación del paquete de texto/plantilla de Go con todos los detalles del formato.
Quel est le moyen le plus simple d'obtenir une variable d'environnement d'un conteneur Docker qui n'a pas été déclarée dans le fichier Docker ? Par exemple, une variable d'environnement qui a été définie par une session ``docker exec container /bin/bash`` ? Je peux faire ``docker exec container env | grep ENV_VAR``, mais je préférerais quelque chose qui retourne juste la valeur. J'ai essayé d'utiliser ``docker exec container echo "$ENV_VAR"``, mais la substitution semble se produire en dehors du conteneur, de sorte que je ne reçois pas la var env du conteneur, mais plutôt la var env de mon propre ordinateur. Merci de votre compréhension.
L'inconvénient de l'utilisation de ``docker exec`` est qu'elle nécessite un conteneur en cours d'exécution, donc ``docker inspect -f`` peut être pratique si vous n'êtes pas sûr qu'un conteneur soit en cours d'exécution. Exemple 1. Afficher une liste de variables d'environnement séparées par des espaces dans le conteneur spécifié : ``docker inspect -f \N- '{{range $index}''. '{{range $index, $value := .Config.Env}}{{$value}} {{end}}' nom_du_conteneur ``` la sortie ressemblera à ceci : ```ENV_VAR1=valeur1 ENV_VAR2=valeur2 ENV_VAR3=valeur3 ``` Exemple 2. Sortir chaque env var sur une nouvelle ligne et ``grep`` les éléments nécessaires, par exemple, les paramètres du conteneur mysql pourraient être récupérés comme ceci : ``docker inspect -f \N- '{{range $index}''. '{{range $index, $value := .Config.Env}{{println $value}}{{end}}' \ nom_du_conteneur | grep MYSQL_ ``` produira un résultat : ``MYSQL_PASSWORD=secret MYSQL_ROOT_PASSWORD=supersecret MYSQL_USER=demo MYSQL_DATABASE=demodb MYSQL_MAJOR=5.5 MYSQL_VERSION=5.5.52 ``` Exemple 3. Modifions l'exemple ci-dessus pour obtenir une sortie bash qui peut être directement utilisée dans vos scripts : ```docker inspect -f \N- '{{range $indee} '{{range $index, $value := .Config.Env}}export {{$value}}{{println}}{{end}}' \ nom_du_conteneur | grep MYSQL ``` produira un résultat : ``export MYSQL_PASSWORD=secret export MYSQL_ROOT_PASSWORD=supersecret export MYSQL_USER=demo export MYSQL_DATABASE=demodb export MYSQL_MAJOR=5.5 export MYSQL_VERSION=5.5.52 ``` Si vous voulez aller plus loin, vous pouvez consulter la documentation du paquet texte/template de Go qui contient tous les détails du format.
Qual è il modo più semplice per ottenere una variabile d'ambiente da un contenitore docker che non è stata dichiarata nel file Docker? Per esempio, una variabile d'ambiente che è stata impostata attraverso una sessione ``docker exec container /bin/bash``? Posso fare ``docker exec container env | grep ENV_VAR``, ma preferirei qualcosa che restituisca solo il valore. Ho provato a usare ``docker exec container echo "$ENV_VAR"``, ma la sostituzione sembra avvenire al di fuori del contenitore, quindi non ottengo la env var dal contenitore, ma piuttosto la env var dal mio computer. Grazie.
Lo svantaggio dell'uso di ``docker exec`` è che richiede un contenitore in esecuzione, quindi ```docker inspect -f`` potrebbe essere utile se non si è sicuri che un contenitore sia in esecuzione. Esempio #1. Visualizza un elenco di variabili d'ambiente separate da spazi nel contenitore specificato: ``docker inspect -f \ '{{range $index, $value := .Config.Env}}{{$value}} {{fine}}' nome_contenitore ``` l'output sarà simile a questo: ``ENV_VAR1=valore1 ENV_VAR2=valore2 ENV_VAR3=valore3 ``` Esempio #2. Si può creare una nuova riga per ogni env var e ```grep`` gli elementi necessari; per esempio, le impostazioni del contenitore mysql possono essere recuperate in questo modo: ``docker inspect -f \ '{{range $index, $value := .Config.Env}}{println $value}}{{end}}' \ nome_contenitore | grep MYSQL_ ``` darà come risultato: ``MYSQL_PASSWORD=secret MYSQL_ROOT_PASSWORD=supersecret UTENTE MYSQL=demo MYSQL_DATABASE=demodb MYSQL_MAJOR=5.5 MYSQL_VERSION=5.5.52 ``` Esempio #3. Modifichiamo l'esempio precedente per ottenere un output bash friendly che possa essere usato direttamente nei vostri script: ``docker inspect -f \ '{{range $index, $value := .Config.Env}}export {{$value}}{{println}}{{end}}' \ nome_contenitore | grep MYSQL ``` darà come risultato: ``esporta MYSQL_PASSWORD=secret esportare MYSQL_ROOT_PASSWORD=supersecret esportare MYSQL_USER=demo esportare MYSQL_DATABASE=demodb esportare MYSQL_MAJOR=5.5 esportare MYSQL_VERSION=5.5.52 ``` Se volete approfondire, consultate la documentazione del pacchetto testo/template di Go con tutti i dettagli del formato.
94
I am confused about the use cases for both ```InputStream``` and ```OutputStream```. Please include a snippet of code to go along with your explanation.
InputStream is used for reading, OutputStream for writing. They are connected as decorators to one another such that you can read/write all different types of data from all different types of sources. For example, you can write primitive data to a file: ```File file = new File("C:/text.bin"); file.createNewFile(); DataOutputStream stream = new DataOutputStream(new FileOutputStream(file)); stream.writeBoolean(true); stream.writeInt(1234); stream.close(); ``` To read the written contents: ```File file = new File("C:/text.bin"); DataInputStream stream = new DataInputStream(new FileInputStream(file)); boolean isTrue = stream.readBoolean(); int value = stream.readInt(); stream.close(); System.out.printlin(isTrue + " " + value); ``` You can use other types of streams to enhance the reading/writing. For example, you can introduce a buffer for efficiency: ```DataInputStream stream = new DataInputStream( new BufferedInputStream(new FileInputStream(file))); ``` You can write other data such as objects: ```MyClass myObject = new MyClass(); // MyClass have to implement Serializable ObjectOutputStream stream = new ObjectOutputStream( new FileOutputStream("C:/text.obj")); stream.writeObject(myObject); stream.close(); ``` You can read from other different input sources: ```byte[] test = new byte[] {0, 0, 1, 0, 0, 0, 1, 1, 8, 9}; DataInputStream stream = new DataInputStream(new ByteArrayInputStream(test)); int value0 = stream.readInt(); int value1 = stream.readInt(); byte value2 = stream.readByte(); byte value3 = stream.readByte(); stream.close(); System.out.println(value0 + " " + value1 + " " + value2 + " " + value3); ``` For most input streams there is an output stream, also. You can define your own streams to reading/writing special things and there are complex streams for reading complex things (for example there are Streams for reading/writing ZIP format).
Ich bin verwirrt über die Anwendungsfälle für ```InputStream`` und ``OutputStream``. Bitte fügen Sie einen Codeschnipsel zu Ihrer Erklärung hinzu.
InputStream wird zum Lesen verwendet, OutputStream zum Schreiben. Sie sind als Dekoratoren miteinander verbunden, so dass Sie alle verschiedenen Arten von Daten aus allen verschiedenen Arten von Quellen lesen/schreiben können. Zum Beispiel können Sie primitive Daten in eine Datei schreiben: ```File file = new File("C:/text.bin"); file.createNewFile(); DataOutputStream stream = new DataOutputStream(new FileOutputStream(file)); stream.writeBoolean(true); stream.writeInt(1234); stream.close(); ``` Um den geschriebenen Inhalt zu lesen: ```File file = new File("C:/text.bin"); DataInputStream stream = new DataInputStream(new FileInputStream(file)); boolean isTrue = stream.readBoolean(); int value = stream.readInt(); stream.close(); System.out.printlin(isTrue + " " + value); ``` Sie können andere Arten von Streams verwenden, um das Lesen/Schreiben zu verbessern. Zum Beispiel können Sie einen Puffer für die Effizienz einführen: ```DataInputStream stream = new DataInputStream( new BufferedInputStream(new FileInputStream(file))); ``` Sie können auch andere Daten wie Objekte schreiben: ```MyClass myObject = new MyClass(); // MyClass muss Serializable implementieren ObjectOutputStream stream = new ObjectOutputStream( new FileOutputStream("C:/text.obj")); stream.writeObject(meinObjekt); stream.close(); ``` Sie können auch aus anderen Eingabequellen lesen: ```Byte[] test = new byte[] {0, 0, 1, 0, 0, 0, 1, 1, 8, 9}; DataInputStream stream = new DataInputStream(new ByteArrayInputStream(test)); int wert0 = stream.readInt(); int wert1 = stream.readInt(); byte wert2 = stream.readByte(); byte wert3 = stream.readByte(); stream.close(); System.out.println(wert0 + " " + wert1 + " " + wert2 + " " + wert3); ``` Für die meisten Eingabeströme gibt es auch einen Ausgabestrom. Sie können Ihre eigenen Streams zum Lesen/Schreiben spezieller Dinge definieren und es gibt komplexe Streams zum Lesen komplexer Dinge (zum Beispiel gibt es Streams zum Lesen/Schreiben des ZIP-Formats).
Estoy confundido acerca de los casos de uso para ambos ``InputStream`` y ``OutputStream``. Por favor, incluya un fragmento de código para ir junto con su explicación.
InputStream se utiliza para leer, OutputStream para escribir. Están conectados entre sí como decoradores, de forma que se pueden leer/escribir todos los tipos de datos desde todos los tipos de fuentes. Por ejemplo, puedes escribir datos primitivos en un fichero: ```Archivo archivo = nuevo Archivo("C:/texto.bin"); file.createNewFile(); DataOutputStream stream = new DataOutputStream(new FileOutputStream(file)); stream.writeBoolean(true); stream.writeInt(1234); stream.close(); ``` Para leer el contenido escrito: ```File file = new File("C:/text.bin"); DataInputStream stream = new DataInputStream(new FileInputStream(file)); boolean isTrue = stream.readBoolean(); int valor = stream.readInt(); stream.close(); System.out.printlin(isTrue + " " + value); ``` Puedes utilizar otros tipos de flujos para mejorar la lectura/escritura. Por ejemplo, puedes introducir un buffer por eficiencia: ```DataInputStream stream = new DataInputStream( new BufferedInputStream(new FileInputStream(file))); ``` Puedes escribir otros datos como objetos: ```MyClass myObject = new MyClass(); // MyClass tiene que implementar Serializable ObjectOutputStream stream = new ObjectOutputStream( new FileOutputStream("C:/text.obj")); stream.writeObject(miObjeto); stream.close(); ``` Puedes leer desde otras fuentes de entrada diferentes: ```byte[] test = new byte[] {0, 0, 1, 0, 0, 0, 1, 1, 8, 9}; DataInputStream stream = new DataInputStream(new ByteArrayInputStream(test)); int valor0 = stream.readInt(); int valor1 = stream.readInt(); byte value2 = stream.readByte(); byte value3 = stream.readByte(); stream.close(); System.out.println(valor0 + " " + valor1 + " " + valor2 + " " + valor3); ``` Para la mayoría de los flujos de entrada también existe un flujo de salida. Puedes definir tus propios flujos para leer/escribir cosas especiales y hay flujos complejos para leer cosas complejas (por ejemplo hay flujos para leer/escribir formato ZIP).
Je ne comprends pas bien les cas d'utilisation de ``InputStream`` et de ``OutputStream``. Veuillez inclure un extrait de code pour accompagner votre explication.
InputStream est utilisé pour la lecture et OutputStream pour l'écriture. Ils sont connectés l'un à l'autre en tant que décorateurs, de sorte que vous pouvez lire/écrire tous les différents types de données à partir de tous les différents types de sources. Par exemple, vous pouvez écrire des données primitives dans un fichier : ```Fichier file = new File("C:/text.bin") ; file.createNewFile() ; DataOutputStream stream = new DataOutputStream(new FileOutputStream(file)) ; stream.writeBoolean(true) ; stream.writeInt(1234) ; stream.close() ; ``` Pour lire le contenu écrit : ``File file = new File("C:/text.bin") ; DataInputStream stream = new DataInputStream(new FileInputStream(file)) ; boolean isTrue = stream.readBoolean() ; int value = stream.readInt() ; stream.close() ; System.out.printlin(isTrue + " " + valeur) ; ``` Vous pouvez utiliser d'autres types de flux pour améliorer la lecture/écriture. Par exemple, vous pouvez introduire un tampon pour plus d'efficacité : ```DataInputStream stream = new DataInputStream( new BufferedInputStream(new FileInputStream(file))) ; ``` Vous pouvez écrire d'autres données telles que des objets : ```MyClass myObject = new MyClass() ; // MyClass doit implémenter Serializable ObjectOutputStream stream = new ObjectOutputStream( new FileOutputStream("C:/text.obj")) ; stream.writeObject(myObject) ; stream.close() ; ``` Vous pouvez lire à partir d'autres sources d'entrée différentes : ```byte[] test = new byte[] {0, 0, 1, 0, 0, 0, 1, 1, 8, 9} ; DataInputStream stream = new DataInputStream(new ByteArrayInputStream(test)) ; int value0 = stream.readInt() ; int value1 = stream.readInt() ; byte value2 = stream.readByte() ; byte value3 = stream.readByte() ; stream.close() ; System.out.println(value0 + " " + value1 + " " + value2 + " " + value3) ; ``` Pour la plupart des flux d'entrée, il existe également un flux de sortie. Vous pouvez définir vos propres flux pour lire/écrire des choses spéciales et il existe des flux complexes pour lire des choses complexes (par exemple, il existe des flux pour lire/écrire le format ZIP).
Sono confuso sui casi d'uso di ``InputStream'' e ``OutputStream''. Si prega di includere uno snippet di codice per accompagnare la spiegazione.
InputStream è usato per la lettura, OutputStream per la scrittura. Sono collegati tra loro come decoratori, in modo da poter leggere/scrivere tutti i diversi tipi di dati da tutti i diversi tipi di sorgenti. Per esempio, è possibile scrivere dati primitivi in un file: ```File file = new File("C:/text.bin"); file.createNewFile(); DataOutputStream stream = new DataOutputStream(new FileOutputStream(file)); stream.writeBoolean(true); stream.writeInt(1234); stream.close(); ``` Per leggere il contenuto scritto: ```File file = new File("C:/text.bin"); DataInputStream stream = new DataInputStream(new FileInputStream(file)); booleano isTrue = stream.readBoolean(); int value = stream.readInt(); stream.close(); System.out.printlin(isTrue + " " + value); ``` È possibile utilizzare altri tipi di stream per migliorare la lettura/scrittura. Ad esempio, si può introdurre un buffer per aumentare l'efficienza: ```DataInputStream stream = new DataInputStream( new BufferedInputStream(new FileInputStream(file)); ``` È possibile scrivere altri dati, come gli oggetti: ```MyClass myObject = new MyClass(); // MyClass deve implementare Serializable ObjectOutputStream stream = new ObjectOutputStream( new FileOutputStream("C:/text.obj")); stream.writeObject(myObject); stream.close(); ``` È possibile leggere da altre fonti di input diverse: ```byte[] test = new byte[] {0, 0, 1, 0, 0, 0, 1, 1, 8, 9}; DataInputStream stream = new DataInputStream(new ByteArrayInputStream(test)); int valore0 = stream.readInt(); int valore1 = stream.readInt(); byte value2 = stream.readByte(); byte value3 = stream.readByte(); stream.close(); System.out.println(value0 + " " + value1 + " " + value2 + " " + value3); ``` Per la maggior parte dei flussi di input esiste anche un flusso di output. È possibile definire i propri flussi per leggere/scrivere cose speciali e ci sono flussi complessi per leggere cose complesse (per esempio ci sono flussi per leggere/scrivere il formato ZIP).
95
What is the difference between: ```npm install [package_name] ``` and: ```npm install [package_name] --save ``` and: ```npm install [package_name] --save-dev ``` What does this mean? And what is really the effect of ```--save``` and ```-dev``` keywords?
The difference between ```--save``` and ```--save-dev``` may not be immediately noticeable if you have tried them both on your own projects. So here are a few examples... Let's say you were building an app that used the moment package to parse and display dates. Your app is a scheduler so it really needs this package to run, as in: cannot run without it. In this case you would use ```npm install moment --save ``` This would create a new value in your package.json ```&quot;dependencies&quot;: { ... &quot;moment&quot;: &quot;^2.17.1&quot; } ``` When you are developing, it really helps to use tools such as test suites and may need jasmine-core and karma. In this case you would use ```npm install jasmine-core --save-dev npm install karma --save-dev ``` This would also create a new value in your package.json ```&quot;devDependencies&quot;: { ... &quot;jasmine-core&quot;: &quot;^2.5.2&quot;, &quot;karma&quot;: &quot;^1.4.1&quot;, } ``` You do not need the test suite to run the app in its normal state, so it is a ```--save-dev``` type dependency, nothing more. You can see how if you do not understand what is really happening, it is a bit hard to imagine. Taken directly from NPM docs docs#dependencies > Dependencies > Dependencies are specified in a simple object that maps a package name to a version range. The version range is a string that has one or more space-separated descriptors. Dependencies can also be identified with a tarball or git URL. Please do not put test harnesses or transpilers in your dependencies object. See devDependencies, below. Even in the docs, it asks you to use ```--save-dev``` for modules such as test harnesses.
Was ist der Unterschied zwischen: ```npm install [package_name] ``` und: ```npm install [Paketname] --save ``` und: ```npm install [package_name] --save-dev ``` Was hat das zu bedeuten? Und was bewirken die Schlüsselwörter ```--save``` und ```-dev``` wirklich?
Der Unterschied zwischen ```--save``` und ```--save-dev``` wird Ihnen vielleicht nicht sofort auffallen, wenn Sie beide an Ihren eigenen Projekten ausprobiert haben. Hier sind also ein paar Beispiele... Nehmen wir an, Sie bauen eine Anwendung, die das Moment-Paket zum Parsen und Anzeigen von Daten verwendet. Ihre Anwendung ist ein Scheduler, so dass sie dieses Paket wirklich braucht, um zu laufen, d.h. sie kann ohne es nicht laufen. In diesem Fall würden Sie verwenden ``npm install moment --save ``` Dies würde einen neuen Wert in Ihrer package.json erstellen ``&quot;dependencies&quot;: { ... &quot;moment&quot;: &quot;^2.17.1&quot; } ``` Bei der Entwicklung ist es sehr hilfreich, Werkzeuge wie Testsuiten zu verwenden und eventuell Jasmine-Core und Karma zu benötigen. In diesem Fall würden Sie verwenden ```npm install jasmine-core --save-dev npm install karma --save-dev ``` Dies würde auch einen neuen Wert in Ihrer package.json erstellen ``&quot;devDependencies&quot;: { ... &quot;jasmine-core&quot;: &quot;^2.5.2&quot;, &quot;karma&quot;: &quot;^1.4.1&quot;, } ``` Sie brauchen die Testsuite nicht, um die Anwendung in ihrem normalen Zustand laufen zu lassen, also ist es eine ```--save-dev```-Abhängigkeit, nichts weiter. Sie sehen, dass es schwer vorstellbar ist, wenn Sie nicht verstehen, was hier wirklich passiert. Direkt aus den NPM-Dokumenten docs#dependencies entnommen > Abhängigkeiten > Abhängigkeiten werden in einem einfachen Objekt angegeben, das einen Paketnamen auf einen Versionsbereich abbildet. Der Versionsbereich ist eine Zeichenkette, die einen oder mehrere durch Leerzeichen getrennte Deskriptoren enthält. Abhängigkeiten können auch mit einem Tarball oder einer Git-URL angegeben werden. Bitte fügen Sie keine Test-Harness oder Transpiler in Ihr Dependencies-Objekt ein. Siehe devDependencies, unten. Sogar in der Dokumentation werden Sie aufgefordert, ```--save-dev``` für Module wie Test-Harnesse zu verwenden.
¿Cuál es la diferencia entre: ```npm install [nombre_paquete] ``` y: ``npm install [nombre_paquete] --save ``` y: ``npm install [nombre_paquete] --save-dev ``` ¿Qué significa esto? ¿Y cuál es realmente el efecto de las palabras clave ``--save`` y ```-dev``?
La diferencia entre ``--save`` y ``--save-dev`` puede no ser inmediatamente perceptible si has probado ambos en tus propios proyectos. He aquí algunos ejemplos... Digamos que estás construyendo una aplicación que utiliza el paquete moment para analizar y mostrar fechas. Tu aplicación es un planificador por lo que realmente necesita este paquete para funcionar, es decir: no puede funcionar sin él. En este caso usarías ```npm install moment --save ``` Esto crearía un nuevo valor en tu package.json ```&quot;dependencies&quot;: { ... &quot;momento&quot;: &quot;^2.17.1&quot; } ``` Cuando estás desarrollando, realmente ayuda usar herramientas como test suites y puede que necesites jasmine-core y karma. En este caso usarías ```npm install jasmine-core --save-dev npm install karma --save-dev ``` Esto también crearía un nuevo valor en tu package.json ```&quot;devDependencies&quot;: { ... &quot;jasmine-core&quot;: &quot;^2.5.2&quot;, &quot;karma&quot;: &quot;^1.4.1&quot;, } ``` No necesitas la suite de pruebas para ejecutar la aplicación en su estado normal, así que es una dependencia del tipo ```--save-dev``, nada más. Puedes ver como si no entiendes lo que realmente está pasando, es un poco difícil de imaginar. Tomado directamente de NPM docs docs#dependencies > Dependencias > Las dependencias se especifican en un simple objeto que mapea un nombre de paquete a un rango de versiones. El rango de versiones es una cadena que tiene uno o más descriptores separados por espacios. Las dependencias también pueden identificarse con una URL tarball o git. Por favor, no pongas arneses de prueba o transpiladores en tu objeto dependencias. Véase devDependencies, más abajo. Incluso en la documentación, te pide que uses ``--save-dev`` para módulos como los arneses de pruebas.
Quelle est la différence entre : ``npm install [nom_du_paquet] ``` et : ``npm install [nom_du_paquet] --save ``` et : ``npm install [nom_du_paquet] --save-dev ``` Qu'est-ce que cela signifie ? Et quel est vraiment l'effet des mots-clés ``--save`` et ``-dev`` ?
La différence entre ``--save`` et ``--save-dev`` peut ne pas être immédiatement perceptible si vous les avez essayées toutes les deux sur vos propres projets. Voici donc quelques exemples... Supposons que vous construisiez une application qui utilise le paquet moment pour analyser et afficher les dates. Votre application est un planificateur, donc elle a vraiment besoin de ce paquet pour fonctionner, c'est-à-dire qu'elle ne peut pas fonctionner sans lui. Dans ce cas, vous utiliseriez ```npm install moment --save ``` Cela créerait une nouvelle valeur dans votre package.json ``&quot;dependencies&quot; : { ... &quot;moment&quot; : &quot;^2.17.1&quot ; } ``` Lorsque vous développez, il est vraiment utile d'utiliser des outils tels que des suites de tests et vous pouvez avoir besoin de jasmine-core et de karma. Dans ce cas, vous utiliserez ```npm install jasmine-core --save-dev npm install karma --save-dev ``` Cela créera également une nouvelle valeur dans votre package.json ```&quot;devDependencies&quot; : { ... &quot;jasmine-core&quot; : &quot;^2.5.2&quot ;, &quot;karma&quot; : &quot;^1.4.1&quot ;, } ``` Vous n'avez pas besoin de la suite de tests pour lancer l'application dans son état normal, c'est donc une dépendance de type ``--save-dev``, rien de plus. Vous pouvez voir que si vous ne comprenez pas ce qui se passe réellement, c'est un peu difficile à imaginer. Tiré directement de la documentation de NPM docs#dependencies > Dépendances > Les dépendances sont spécifiées dans un objet simple qui associe un nom de paquet à une plage de versions. La plage de versions est une chaîne de caractères comportant un ou plusieurs descripteurs séparés par des espaces. Les dépendances peuvent également être identifiées par un fichier tarball ou une URL git. Ne mettez pas de test harnesses ou de transpilers dans votre objet dependencies. Voir devDependencies, ci-dessous. Même dans la documentation, il est demandé d'utiliser ``--save-dev`` pour les modules tels que les harnais de test.
Qual è la differenza tra: ``npm install [nome_pacchetto] ``` e: ``npm install [nome_pacchetto] --save ``` e: ``npm install [nome_pacchetto] --save-dev ``` Che cosa significa? E qual è l'effetto delle parole chiave ``--save`` e ```-dev``?
La differenza tra ```--save`` e ````-save-dev`` potrebbe non essere immediatamente percepibile se li si è provati entrambi sui propri progetti. Ecco alcuni esempi... Supponiamo che si stia costruendo un'applicazione che utilizza il pacchetto moment per analizzare e visualizzare le date. La vostra applicazione è uno scheduler, quindi ha bisogno di questo pacchetto per funzionare, nel senso che non può funzionare senza. In questo caso si userebbe ``npm install moment --save ``` In questo modo si creerà un nuovo valore nel file package.json ```&quot;dependencies&quot;: ... &quot;moment&quot;: &quot;^2.17.1&quot; } ``` Quando si sviluppa, è davvero utile usare strumenti come le suite di test e potrebbe essere necessario usare jasmine-core e karma. In questo caso si dovrebbe usare ```npm install jasmine-core --save-dev npm install karma --save-dev ``` Questo creerà anche un nuovo valore nel vostro package.json ```&quot;devDependencies&quot;: ... &quot;jasmine-core&quot;: &quot;^2.5.2&quot;, &quot;karma&quot;: &quot;^1.4.1&quot;, } ``` La suite di test non è necessaria per eseguire l'applicazione nel suo stato normale, quindi è una dipendenza del tipo ```--save-dev``, niente di più. Si può notare come, se non si capisce cosa sta realmente accadendo, sia un po' difficile da immaginare. Tratto direttamente dai documenti di NPM docs#dependencies > Dipendenze > Le dipendenze sono specificate in un semplice oggetto che mappa il nome di un pacchetto in un intervallo di versioni. L'intervallo di versioni è una stringa con uno o più descrittori separati da spazi. Le dipendenze possono anche essere identificate con un tarball o un URL git. Non inserire i test harness o i transpiler nell'oggetto dipendenze. Vedere devDependencies, più avanti. Anche nei documenti si chiede di usare ```--save-dev`` per moduli come i test harness.
96
pod install -bash: pod: command not found
Please follow the following steps to install Pod: 1. Open terminal and type: ```sudo gem install cocoapods ``` Gem will get installed in Ruby inside the System library. Or try on 10.11 Mac OSX El Capitan, type: ```sudo gem install -n /usr/local/bin cocoapods ``` If there is an error &quot;activesupport requires Ruby version >= 2.xx&quot;, then install the latest active support first by typing in the terminal. ```sudo gem install activesupport -v 4.2.6 ``` 2. After installation, there will be a lot of messages, read them and if no error found, it means cocoa pod installation is done. Next, you need to set up the cocoa pod master repo. Type in terminal: ```pod setup ``` And wait it will download the master repo. The size is very big (370.0MB in Dec 2016). So it can be a while. You can track the download by opening Activity and go to the Network tab and search for git-remote-https. Alternatively, you can try adding verbose to the command like so: ```pod setup --verbose ``` 3. Once done it will output &quot;Setup Complete&quot;, and you can create your XCode project and save it. 4. Then in a terminal cd to &quot;your XCode project root directory&quot; (where your .xcodeproj file resides) and type: ```pod init ``` 5. Then open your project's podfile by typing in terminal: ```open -a Xcode Podfile ``` 6. Your Podfile will get open in text mode. Initially, there will be some default commands in there. Here is where you add your project's dependencies. For example, in the podfile, type ```/****** These are Third party pods names ******/ pod 'OpenSSL-Universal' pod 'IQKeyboardManager' pod 'FTPopOverMenu' pod 'TYMActivityIndicatorView' pod 'SCSkypeActivityIndicatorView' pod 'Google/SignIn' pod 'UPStackMenu' ``` (this is For example of adding library to your project). When you are done editing the podfile, save it and close XCode. 7. Then install pods into your project by typing in terminal: ```pod install ``` Depending on how many libraries you added to your podfile for your project, the time to complete this varies. Once completed, there will be a message that says &quot;Pod installation complete! There are X dependencies from the Podfile and X total pods installed.&quot;
pod install -bash: pod: Befehl nicht gefunden
Bitte befolgen Sie die folgenden Schritte zur Installation von Pod: 1. Öffnen Sie das Terminal und geben Sie ein: ```sudo gem install cocoapods ``` Gem wird in Ruby innerhalb der Systembibliothek installiert. Oder versuchen Sie es auf 10.11 Mac OSX El Capitan, geben Sie ein: ```sudo gem install -n /usr/local/bin cocoapods ``` Wenn die Fehlermeldung &quot;activesupport erfordert Ruby Version >= 2.xx&quot; erscheint, dann installieren Sie zuerst die neueste Version von active support, indem Sie im Terminal eingeben. ``sudo gem install activesupport -v 4.2.6 ``` 2. Nach der Installation erscheint eine Reihe von Meldungen, lesen Sie diese und wenn kein Fehler gefunden wird, bedeutet dies, dass die Installation des Cocoa Pods abgeschlossen ist. Als nächstes müssen Sie das cocoa pod master repo einrichten. Geben Sie im Terminal ein: ```pod setup ``` Warten Sie, bis das Master Repo heruntergeladen ist. Die Größe ist sehr groß (370.0MB im Dezember 2016). Es kann also eine Weile dauern. Sie können den Download verfolgen, indem Sie die Aktivität öffnen, auf die Registerkarte Netzwerk gehen und nach git-remote-https suchen. Alternativ können Sie versuchen, dem Befehl verbose hinzuzufügen, etwa so: ```pod setup --verbose ``` 3. Danach wird &quot;Setup Complete&quot; ausgegeben, und Sie können Ihr XCode-Projekt erstellen und speichern. 4. Wechseln Sie dann in einem Terminal in &quot;Ihr XCode-Projekt-Stammverzeichnis&quot; (wo sich Ihre .xcodeproj-Datei befindet) und geben Sie ein: ```pod init ``` 5. Dann öffnen Sie die Poddatei Ihres Projekts, indem Sie im Terminal eingeben: ```open -a Xcode Podfile ``` 6. Ihr Podfile wird im Textmodus geöffnet. Zu Beginn werden dort einige Standardbefehle angezeigt. Hier fügen Sie die Abhängigkeiten zu Ihrem Projekt hinzu. Geben Sie zum Beispiel in das Podfile ein ```/****** Dies sind die Namen der Pods von Drittanbietern ******/ pod 'OpenSSL-Universal' pod 'IQKeyboardManager' pod 'FTPopOverMenu' pod 'TYMActivityIndicatorView' (Aktivitätsanzeige) pod 'SCSkypeActivityIndicatorView' (Aktivitätsanzeige) pod 'Google/SignIn' pod 'UPStackMenu' ``` (Dies ist ein Beispiel für das Hinzufügen einer Bibliothek zu Ihrem Projekt). Wenn Sie mit der Bearbeitung der Poddatei fertig sind, speichern Sie sie und schließen Sie XCode. 7. Installieren Sie dann Pods in Ihr Projekt, indem Sie im Terminal eingeben: ```pod install ``` Je nachdem, wie viele Bibliotheken Sie Ihrem Podfile für Ihr Projekt hinzugefügt haben, variiert die Zeit, um diesen Vorgang abzuschließen. Sobald der Vorgang abgeschlossen ist, erscheint eine Meldung, die besagt: &quot;Pod-Installation abgeschlossen! Es sind X Abhängigkeiten aus dem Podfile und insgesamt X Pods installiert.&quot;
pod install -bash: pod: comando no encontrado
Siga los siguientes pasos para instalar Pod: 1. Abra el terminal y escriba: ``sudo gem install cocoapods ``` La gema se instalará en Ruby dentro de la librería System. O pruebe en 10.11 Mac OSX El Capitan, escriba: ``sudo gem install -n /usr/local/bin cocoapods ``` Si se produce un error &quot;activesupport requiere la versión de Ruby >= 2.xx&quot;, instale primero la última versión de active support escribiendo en el terminal. ```sudo gem install activesupport -v 4.2.6 ``` 2. Después de la instalación, habrá un montón de mensajes, léalos y si no se encuentra ningún error, significa que la instalación de cocoa pod está hecha. A continuación, tienes que configurar el repositorio maestro de cocoa pod. Escriba en el terminal: ``pod setup ``` Y espera a que se descargue el repositorio maestro. El tamaño es muy grande (370.0MB en Dic 2016). Así que puede tardar un rato. Puedes seguir la descarga abriendo Actividad y yendo a la pestaña Red y buscando git-remote-https. Alternativamente, puedes intentar añadir verbose al comando así: ```pod setup --verbose ``` 3. Una vez hecho saldrá &quot;Setup Complete&quot;, y podrás crear tu proyecto XCode y guardarlo. 4. A continuación, en un terminal cd a &quot;su directorio raíz del proyecto XCode&quot; (donde reside su archivo .xcodeproj) y escriba: ``pod init ``` 5. A continuación, abra el archivo podfile de su proyecto escribiendo en terminal ```open -a Xcode Podfile ``` 6. Su Podfile se abrirá en modo texto. Inicialmente, habrá algunos comandos por defecto. Aquí es donde debe añadir las dependencias de su proyecto. Por ejemplo, en el podfile, escriba ```/****** Estos son los nombres de los pods de terceros ******/ pod 'OpenSSL-Universal' pod 'IQKeyboardManager' (Gestor de teclados IQ) pod "FTPopOverMenu pod "TYMActivityIndicatorView pod "SCSkypeActivityIndicatorView pod 'Google/SignIn pod 'UPStackMenu ``` (este es un ejemplo de cómo añadir una librería a su proyecto). Cuando termine de editar el podfile, guárdelo y cierre XCode. 7. A continuación, instale los pods en su proyecto escribiendo en el terminal ``pod install ``` Dependiendo de cuántas librerías haya añadido a su podfile para su proyecto, el tiempo para completar esto varía. Una vez completado, aparecerá un mensaje que dice &quot;¡Instalación Pod completada! Hay X dependencias del Podfile y X pods totales instalados.&quot;
pod install -bash : pod : commande non trouvée
Veuillez suivre les étapes suivantes pour installer Pod : 1. Ouvrez le terminal et tapez : ``sudo gem install cocoapods ``` La gemme sera installée dans Ruby à l'intérieur de la bibliothèque System. Ou essayez sur Mac OSX 10.11 El Capitan, tapez : ``sudo gem install -n /usr/local/bin cocoapods ``` S'il y a une erreur &quot;activesupport requires Ruby version >= 2.xx&quot ;, alors installez d'abord la dernière version d'active support en tapant dans le terminal. ``sudo gem install activesupport -v 4.2.6 ``` 2. Après l'installation, il y aura beaucoup de messages, lisez-les et si aucune erreur n'est trouvée, cela signifie que l'installation du pod cacao est terminée. Ensuite, vous devez configurer le repo maître de cocoa pod. Tapez dans le terminal : ``Pod setup ``` Et attendez qu'il télécharge le master repo. La taille est très importante (370.0MB en décembre 2016). Cela peut donc prendre un certain temps. Vous pouvez suivre le téléchargement en ouvrant Activity et en allant dans l'onglet Network et en recherchant git-remote-https. Alternativement, vous pouvez essayer d'ajouter verbose à la commande comme suit : ```pod setup --verbose ``` 3. Une fois que c'est fait, la commande affichera &quot;Setup Complete&quot ; et vous pourrez créer votre projet XCode et le sauvegarder. 4. Ensuite, dans un terminal, allez dans le répertoire racine de votre projet XCode (où se trouve votre fichier .xcodeproj) et tapez : "``pod init'' : ``pod init ``` 5. Ensuite, ouvrez le fichier podfile de votre projet en tapant dans le terminal : ``open -a Xcode Podfile ``` 6. Votre Podfile s'ouvrira en mode texte. Initialement, il y aura quelques commandes par défaut. C'est ici que vous ajoutez les dépendances de votre projet. Par exemple, dans le fichier podfile, tapez ```/****** Ce sont des noms de pods tiers ******/ pod 'OpenSSL-Universal' (en anglais) Pod 'IQKeyboardManager' (Gestionnaire de clavier) pod 'FTPopOverMenu' pod 'TYMActivityIndicatorView' (vue de l'indicateur d'activité) pod 'SCSkypeActivityIndicatorView' (Vue de l'indicateur d'activité SCSkype) pod 'Google/SignIn' pod 'UPStackMenu' ``` (c'est un exemple d'ajout de bibliothèque à votre projet). Lorsque vous avez fini d'éditer le fichier pod, sauvegardez-le et fermez XCode. 7. Ensuite, installez les pods dans votre projet en tapant dans le terminal : ``pod install ``` En fonction du nombre de bibliothèques que vous avez ajoutées à votre podfile pour votre projet, le temps nécessaire pour terminer cette opération varie. Une fois l'installation terminée, il y aura un message qui dira : " Pod installation complete ! Il y a X dépendances du fichier pod et X pods installés au total.&quot ;
pod install -bash: pod: comando non trovato
Per installare Pod, seguire la seguente procedura: 1. Aprire il terminale e digitare: ``sudo gem install cocoapods ``` La gemma verrà installata in Ruby all'interno della libreria System. Oppure provate su Mac OSX 10.11 El Capitan, digitando: ``sudo gem install -n /usr/local/bin cocoapods ``` Se compare l'errore &quot;activesupport richiede la versione di Ruby >= 2.xx&quot;, installare prima l'ultima versione di active support digitando nel terminale. ``sudo gem install activesupport -v 4.2.6 ``` 2. Dopo l'installazione, ci saranno molti messaggi, leggeteli e se non viene trovato alcun errore, significa che l'installazione di cocoa pod è stata completata. Successivamente, è necessario configurare il repo master di cocoa pod. Digitare nel terminale: ``pod setup ``` E attendere che venga scaricato il repo master. La dimensione è molto grande (370.0MB nel dicembre 2016). Quindi potrebbe volerci un po' di tempo. È possibile seguire il download aprendo Attività, andando nella scheda Rete e cercando git-remote-https. In alternativa, si può provare ad aggiungere verbose al comando in questo modo: ``pod setup --verbose ``` 3. Una volta terminato, verrà visualizzato &quot;Setup Complete&quot; e si potrà creare il progetto XCode e salvarlo. 4. Quindi, in un terminale, digitate &quot;la cartella principale del progetto XCode&quot; (dove risiede il file .xcodeproj) e digitate: ``pod init ``` 5. Quindi aprite il podfile del progetto digitando nel terminale: ``open -a Xcode Podfile ``` 6. Il vostro Podfile verrà aperto in modalità testo. Inizialmente, ci saranno alcuni comandi predefiniti. È qui che si aggiungono le dipendenze del progetto. Per esempio, nel file pod, digitare ```/****** Questi sono i nomi dei pod di terze parti ******/ pod 'OpenSSL-Universal' pod 'IQKeyboardManager' pod 'FTPopOverMenu' pod 'TYMActivityIndicatorView' pod 'SCSkypeActivityIndicatorView' pod 'Google/SignIn' pod 'UPStackMenu' ``` (questo è un esempio di aggiunta di libreria al progetto). Una volta terminata la modifica del file pod, salvarlo e chiudere XCode. 7. Quindi installate i pod nel vostro progetto digitando nel terminale: ``pod install ``` A seconda del numero di librerie aggiunte al podfile per il progetto, il tempo di completamento varia. Una volta completata, apparirà un messaggio che dice &quot;Installazione di Pod completata! Ci sono X dipendenze dal Podfile e X pod totali installati.&quot;
97
I read in the Essential C# 3.0 and .NET 3.5 book that: GetHashCode()’s returns over the life of a particular object should be constant (the same value), even if the object’s data changes. In many cases, you should cache the method return to enforce this. Is this a valid guideline? I have tried a couple built-in types in .NET and they didn't behave like this.
The answer is mostly, it is a valid guideline, but perhaps not a valid rule. It also doesn't tell the whole story. The point being made is that for mutable types, you cannot base the hash code on the mutable data because two equal objects must return the same hash code and the hash code has to be valid for the lifetime of the object. If the hash code changes, you end up with an object that gets lost in a hashed collection because it no longer lives in the correct hash bin. For example, object A returns hash of 1. So, it goes in bin 1 of the hash table. Then you change object A such that it returns a hash of 2. When a hash table goes looking for it, it looks in bin 2 and can't find it - the object is orphaned in bin 1. This is why the hash code must not change for the lifetime of the object, and just one reason why writing GetHashCode implementations is a pain in the butt. A guideline is just a guide, not a rule. In reality, ```GetHashCode``` only has to follow these guidelines when things expect the object to follow the guidelines, such as when it is being stored in a hash table. If you never intend to use your objects in hash tables (or anything else that relies on the rules of ```GetHashCode```), your implementation doesn't need to follow the guidelines. When you see "for the lifetime of the object", you should read "for the time the object needs to co-operate with hash tables" or similar. Like most things, ```GetHashCode``` is about knowing when to break the rules.
Ich habe in dem Buch Essential C# 3.0 and .NET 3.5 gelesen, dass: GetHashCode()'s Rückgaben über die Lebensdauer eines bestimmten Objekts sollte sein konstant sein (der gleiche Wert), auch wenn sich die Daten des Objekts ändern. In vielen Fällen sollten Sie die Methodenrückgabe zwischenspeichern, um dies zu erzwingen. Ist dies ein gültiger Leitfaden? Ich habe einige eingebaute Typen in .NET ausprobiert, und sie verhielten sich nicht so.
Die Antwort lautet meist, dass es sich um eine gültige Leitlinie handelt, aber vielleicht nicht um eine gültige Regel. Sie gibt auch nicht die ganze Geschichte wieder. Es geht darum, dass man bei veränderlichen Typen den Hash-Code nicht auf die veränderlichen Daten stützen kann, weil zwei gleiche Objekte denselben Hash-Code zurückgeben müssen und der Hash-Code für die Lebensdauer des Objekts gültig sein muss. Wenn sich der Hash-Code ändert, geht ein Objekt in einer Hash-Sammlung verloren, weil es nicht mehr im richtigen Hash-Bin liegt. Beispiel: Objekt A gibt den Hashwert 1 zurück und landet somit in Feld 1 der Hashtabelle. Dann ändert man Objekt A so, dass es einen Hash-Wert von 2 zurückgibt. Wenn eine Hash-Tabelle danach sucht, findet sie es nicht in Bin 2 - das Objekt ist in Bin 1 verwaist. Das ist der Grund, warum sich der Hash-Code während der Lebensdauer des Objekts nicht ändern darf, und nur ein Grund, warum das Schreiben von GetHashCode-Implementierungen so mühsam ist. Eine Richtlinie ist nur ein Leitfaden, keine Regel. In Wirklichkeit muss ````GetHashCode`` diese Richtlinien nur dann befolgen, wenn erwartet wird, dass das Objekt die Richtlinien befolgt, z.B. wenn es in einer Hashtabelle gespeichert wird. Wenn Sie nie vorhaben, Ihre Objekte in Hash-Tabellen zu verwenden (oder irgendetwas anderes, das sich auf die Regeln von ```GetHashCode``` verlässt), muss Ihre Implementierung die Richtlinien nicht befolgen. Wenn Sie "für die Lebensdauer des Objekts" sehen, sollten Sie "für die Zeit, in der das Objekt mit Hash-Tabellen zusammenarbeiten muss" oder ähnliches lesen. Wie bei den meisten Dingen geht es auch bei ```GetHashCode`` darum zu wissen, wann man die Regeln brechen sollte.
Leí en el libro Essential C# 3.0 and .NET 3.5 que: Los retornos de GetHashCode() a lo largo de la vida de un objeto concreto deben ser constante (el mismo valor), aunque cambien los datos del objeto. En muchos casos, debe almacenar en caché el retorno del método para hacer cumplir esto. ¿Es esta una directriz válida? He probado un par de tipos incorporados en .NET y no se comportaban así.
La respuesta es mayoritariamente que es una directriz válida, pero quizá no una regla válida. Tampoco cuenta toda la historia. Lo que se quiere decir es que para los tipos mutables, no se puede basar el código hash en los datos mutables porque dos objetos iguales deben devolver el mismo código hash y el código hash tiene que ser válido durante toda la vida del objeto. Si el código hash cambia, acabas con un objeto que se pierde en una colección hash porque ya no vive en la ubicación hash correcta. Por ejemplo, el objeto A devuelve un hash de 1. Por lo tanto, va a la bandeja 1 de la tabla hash. Entonces cambias el objeto A para que devuelva un hash de 2. Cuando una tabla hash va a buscarlo, busca en la bandeja 2 y no puede encontrarlo - el objeto queda huérfano en la bandeja 1. Esta es la razón por la que el código hash no debe cambiar durante el tiempo de vida del objeto, y sólo una razón por la que escribir implementaciones de GetHashCode es un coñazo. Una directriz es sólo una guía, no una regla. En realidad, ``GetHashCode`` sólo tiene que seguir estas directrices cuando se espera que el objeto las siga, como cuando se almacena en una tabla hash. Si nunca vas a usar tus objetos en tablas hash (o cualquier otra cosa que dependa de las reglas de ``GetHashCode``), tu implementación no necesita seguir las directrices. Cuando veas "durante el tiempo de vida del objeto", deberías leer "durante el tiempo que el objeto necesite cooperar con las tablas hash" o similar. Como la mayoría de las cosas, ``GetHashCode`` se trata de saber cuándo romper las reglas.
J'ai lu dans le livre Essential C# 3.0 and .NET 3.5 que : Les retours de GetHashCode() au cours de la vie d'un objet particulier doivent être constants (la même valeur), même si les données de l'objet changent. constant (la même valeur), même si les données de l'objet changent. Dans de nombreux Dans de nombreux cas, vous devez mettre en cache le retour de la méthode pour faire respecter cette règle. S'agit-il d'une directive valable ? J'ai essayé quelques types intégrés dans .NET et ils ne se sont pas comportés de la sorte.
La réponse est en grande partie qu'il s'agit d'une ligne directrice valable, mais peut-être pas d'une règle valable. Elle ne dit pas non plus tout. En effet, deux objets identiques doivent renvoyer le même code de hachage et ce dernier doit être valide pendant toute la durée de vie de l'objet. Si le code de hachage change, vous vous retrouvez avec un objet qui se perd dans une collection hachée parce qu'il ne vit plus dans le bon emplacement de hachage. Par exemple, l'objet A renvoie un code de hachage de 1. Il est donc placé dans l'emplacement 1 de la table de hachage. Ensuite, vous modifiez l'objet A pour qu'il renvoie un hachage de 2. Lorsque la table de hachage le recherche, elle regarde dans le bac 2 et ne le trouve pas - l'objet est orphelin dans le bac 1. C'est la raison pour laquelle le code de hachage ne doit pas changer pendant toute la durée de vie de l'objet, et l'une des raisons pour lesquelles l'écriture d'implémentations GetHashCode est une véritable plaie. Une directive n'est qu'un guide, pas une règle. En réalité, ``GetHashCode`` ne doit suivre ces directives que lorsque l'on s'attend à ce que l'objet suive les directives, comme lorsqu'il est stocké dans une table de hachage. Si vous n'avez jamais l'intention d'utiliser vos objets dans des tables de hachage (ou quoi que ce soit d'autre qui repose sur les règles de ``GetHashCode``), votre implémentation n'a pas besoin de suivre les directives. Quand vous voyez "pour la durée de vie de l'objet", vous devriez lire "pour la durée pendant laquelle l'objet a besoin de coopérer avec les tables de hachage" ou quelque chose de similaire. Comme la plupart des choses, ``GetHashCode`` est une question de savoir quand enfreindre les règles.
Nel libro Essential C# 3.0 and .NET 3.5 ho letto che: I ritorni di GetHashCode() durante la vita di un particolare oggetto dovrebbero essere costante (lo stesso valore), anche se i dati dell'oggetto cambiano. In molti in molti casi, è necessario memorizzare nella cache il ritorno del metodo per far rispettare questo principio. È una linea guida valida? Ho provato un paio di tipi incorporati in .NET e non si sono comportati così.
La risposta è per lo più: è una linea guida valida, ma forse non una regola valida. Inoltre, non racconta tutta la storia. Il punto è che per i tipi mutabili, non si può basare il codice hash sui dati mutabili, perché due oggetti uguali devono restituire lo stesso codice hash e il codice hash deve essere valido per tutta la vita dell'oggetto. Se il codice hash cambia, si finisce per avere un oggetto che si perde in una collezione di hash, perché non vive più nel contenitore hash corretto. Per esempio, l'oggetto A restituisce l'hash 1. Quindi, va nel bin 1 della tabella hash. Poi si modifica l'oggetto A in modo che restituisca un hash pari a 2. Quando una tabella hash va a cercarlo, lo cerca nel bin 2 e non lo trova: l'oggetto è orfano nel bin 1. Questo è il motivo per cui il codice hash non deve cambiare per tutta la vita dell'oggetto e uno dei motivi per cui scrivere implementazioni di GetHashCode è una rottura di scatole. Una linea guida è solo una guida, non una regola. In realtà, ```GetHashCode`` deve seguire queste linee guida solo quando ci si aspetta che l'oggetto le segua, come quando viene memorizzato in una tabella hash. Se non si intende mai usare i propri oggetti in tabelle hash (o qualsiasi altra cosa che si basi sulle regole di ```GetHashCode``), la propria implementazione non ha bisogno di seguire le linee guida. Quando si vede "per la durata dell'oggetto", si dovrebbe leggere "per il tempo in cui l'oggetto ha bisogno di cooperare con le tabelle hash" o simili. Come la maggior parte delle cose, ```GetHashCode`` si tratta di sapere quando infrangere le regole.
98
Especially in blitz or bullet games, it is possible that a player makes an illegal move, for example castles through check. * If the opponent does notice the illegal move, then as far as I know the first player is obliged to make a legal move with the same piece, if one exists. What if there are no legal moves? * What if the opponent, being in time pressure, doesn't notice the illegal move and makes a move. What happens after they realize that? Does the person who made the illegal move forfeit? Or is the whole game cancelled? Are there any standard rules for these kinds of situations?
This only really applies to over the board games (since online chess servers prevent illegal moves). In a standard time control game, under USCF rules, when the illegal move is noticed by one of the players, a few things happen. First, the illegal move must have been made within the last 10 moves. If not, then the current position stands, and play continues. Assuming that the move is recent, the position is restored to the position immediately before the illegal move. Then, the player that made the illegal move now must make a legal move with the same piece (if one exists). If there are no legal moves, then the player is free to make any move. This is due to the touch move rule. Finally, if the offending player has pressed the clock, a two minute &quot;bonus&quot; is added to the opponent's clock to compensate them for any time lost and to penalize the offending player. Here is the relevant passage from the USCF rulebook: 11A. Illegal move during last ten moves. If, during a game, it is found that one of either player's last ten moves was illegal, the position shall be reinstated to what it was before the illegal move. The game shall then continue by applying Rule 10, The Touched Piece, to the move replacing the illegal move. If the position cannot be reinstated, then the illegal move shall stand. Move counters on clocks that have them may by readjusted. 11D. Illegal move. If, a player completes an illegal move by pressing the clock, in addition to the usual obligation to make a legal move with the touched piece if possible, the standard penalty specified in rule 1C2a applies (i.e. two minutes added to the opponent's clock). In blitz chess, the rules are different. According to the WBCA (World Blitz Chess Association) rules, a player who makes an illegal move loses the game instantly. This rule is frequently enforced in casual games too. The most common way that this occurs is that one player doesn't notice that they are in check and makes a move that doesn't get out of check. Then the checking player simply captures the king and claims a victory. Because blitz is a much faster pace game, the illegal move must be noticed within two moves. If it is not, then the current position stands and play continues. At no point is the game cancelled due to an illegal move. Pretty much once a game starts and both players make a move, a result of win, loss, or draw will be recorded.
Besonders in Blitz- oder Kugelspielen ist es möglich, dass ein Spieler einen illegalen Zug macht, zum Beispiel Rochaden durch Schach. * Wenn der Gegner den illegalen Zug bemerkt, ist der erste Spieler meines Wissens verpflichtet, einen legalen Zug mit der gleichen Figur zu machen, falls es einen gibt. Was ist, wenn es keine legalen Züge gibt? * Was ist, wenn der Gegner unter Zeitdruck den illegalen Zug nicht bemerkt und einen Zug macht? Was passiert, nachdem er das bemerkt hat? Verliert die Person, die den illegalen Zug gemacht hat, die Partie? Oder wird das ganze Spiel abgebrochen? Gibt es Standardregeln für diese Art von Situationen?
Dies gilt eigentlich nur für Partien über das Brett (da Online-Schachserver illegale Züge verhindern). Wenn in einer normalen Zeitkontrollpartie nach den USCF-Regeln ein illegaler Zug von einem der Spieler bemerkt wird, geschehen mehrere Dinge. Erstens muss der illegale Zug innerhalb der letzten 10 Züge gemacht worden sein. Ist dies nicht der Fall, bleibt die aktuelle Stellung bestehen, und das Spiel wird fortgesetzt. Angenommen, der Zug ist erst kürzlich erfolgt, wird die Stellung auf den Stand unmittelbar vor dem illegalen Zug zurückgesetzt. Dann muss der Spieler, der den unzulässigen Zug gemacht hat, mit der gleichen Figur einen zulässigen Zug machen (falls vorhanden). Wenn es keine erlaubten Züge gibt, kann der Spieler einen beliebigen Zug machen. Dies ist auf die Berührungszugregel zurückzuführen. Wenn der fehlbare Spieler die Uhr gedrückt hat, wird der gegnerischen Uhr ein Bonus von zwei Minuten hinzugefügt, um den Zeitverlust auszugleichen und den fehlbaren Spieler zu bestrafen. Hier ist die entsprechende Passage aus dem USCF-Regelwerk: 11A. Unerlaubter Zug während der letzten zehn Züge. Wird während einer Partie festgestellt, dass einer der letzten zehn Züge eines Spielers unzulässig war, wird die Stellung wieder so hergestellt, wie sie vor dem unzulässigen Zug war. Die Partie wird dann unter Anwendung von Regel 10, Die berührte Figur, auf den Zug fortgesetzt, der den illegalen Zug ersetzt. Kann die Stellung nicht wiederhergestellt werden, so bleibt der unzulässige Zug bestehen. Zugzähler auf Uhren, die solche haben, können neu eingestellt werden. 11D. Unerlaubter Zug. Wenn ein Spieler einen unerlaubten Zug durch Drücken der Uhr ausführt, gilt zusätzlich zu der üblichen Verpflichtung, einen legalen Zug mit der berührten Figur auszuführen, wenn möglich, die in Regel 1C2a festgelegte Standardstrafe (d.h. zwei Minuten zusätzlich zur gegnerischen Uhr). Im Blitzschach sind die Regeln anders. Nach den Regeln der WBCA (World Blitz Chess Association) verliert ein Spieler, der einen illegalen Zug macht, die Partie sofort. Diese Regel wird auch bei Gelegenheitsspielen häufig angewandt. Am häufigsten geschieht dies, wenn ein Spieler nicht merkt, dass er im Schach steht, und einen Zug macht, der nicht aus dem Schach herausführt. Dann schlägt der Schachspieler einfach den König und beansprucht den Sieg für sich. Da das Blitzspiel ein viel schnelleres Spiel ist, muss der illegale Zug innerhalb von zwei Zügen bemerkt werden. Ist dies nicht der Fall, bleibt die aktuelle Stellung bestehen und das Spiel wird fortgesetzt. Die Partie wird zu keinem Zeitpunkt wegen eines illegalen Zuges abgebrochen. Sobald eine Partie beginnt und beide Spieler einen Zug machen, wird das Ergebnis als Sieg, Niederlage oder Unentschieden festgehalten.
Especialmente en partidas blitz o de balas, es posible que un jugador haga una jugada ilegal, por ejemplo enroques a través de jaque. * Si el adversario se da cuenta de la jugada ilegal, entonces, por lo que yo sé, el primer jugador está obligado a hacer una jugada legal con la misma pieza, si existe. ¿Y si no hay jugadas legales? * ¿Y si el adversario, al estar presionado por el tiempo, no se da cuenta de la jugada ilegal y hace una jugada. ¿Qué ocurre después de que se den cuenta? ¿Pierde la partida la persona que hizo el movimiento ilegal? ¿O se anula toda la partida? ¿Existen reglas estándar para este tipo de situaciones?
Esto sólo se aplica a las partidas presenciales (ya que los servidores de ajedrez online impiden las jugadas ilegales). En una partida estándar con control de tiempo, según las reglas de la USCF, cuando uno de los jugadores se da cuenta de la jugada ilegal, ocurren varias cosas. En primer lugar, la jugada ilegal debe haberse realizado en los últimos 10 movimientos. Si no es así, la posición actual se mantiene y el juego continúa. Asumiendo que la jugada es reciente, la posición se restablece a la posición inmediatamente anterior a la jugada ilegal. Entonces, el jugador que hizo el movimiento ilegal debe hacer un movimiento legal con la misma pieza (si existe). Si no hay movimientos legales, entonces el jugador es libre de hacer cualquier movimiento. Esto se debe a la regla del movimiento de toque. Finalmente, si el jugador infractor ha presionado el reloj, se añade una "bonificación" de dos minutos al reloj del adversario para compensarle por el tiempo perdido y penalizar al jugador infractor. He aquí el pasaje pertinente del reglamento de la USCF: 11A. Jugada ilegal durante las últimas diez jugadas. Si, durante una partida, se descubre que una de las últimas diez jugadas de cualquiera de los jugadores fue ilegal, la posición se restablecerá a lo que era antes de la jugada ilegal. La partida continuará entonces aplicando la Regla 10, La Pieza Tocada, a la jugada que sustituye a la jugada ilegal. Si no se puede restablecer la posición, se mantiene la jugada ilegal. Los contadores de jugadas en los relojes que los tengan pueden reajustarse. 11D. Jugada ilegal. Si un jugador completa una jugada ilegal pulsando el reloj, además de la obligación habitual de realizar una jugada legal con la pieza tocada si es posible, se aplica la penalización estándar especificada en la regla 1C2a (es decir, dos minutos añadidos al reloj del adversario). En el ajedrez relámpago, las reglas son diferentes. Según las reglas de la WBCA (World Blitz Chess Association), un jugador que realiza una jugada ilegal pierde la partida instantáneamente. Esta regla también se aplica con frecuencia en las partidas casuales. La forma más común de que esto ocurra es que un jugador no se dé cuenta de que está en jaque y haga una jugada con la que no sale del jaque. Entonces el jugador en jaque simplemente captura el rey y reclama la victoria. Dado que el blitz es un juego mucho más rápido, la jugada ilegal debe notarse en dos movimientos. Si no es así, la posición actual se mantiene y el juego continúa. En ningún momento se cancela la partida debido a una jugada ilegal. Básicamente, una vez que la partida comienza y ambos jugadores realizan una jugada, se registra un resultado de victoria, derrota o tablas.
En particulier dans les parties de blitz ou de balle, il est possible qu'un joueur joue un coup illégal, par exemple un roque en échec. * Si l'adversaire remarque le coup illégal, le premier joueur est, à ma connaissance, obligé de jouer un coup légal avec la même pièce, s'il y en a une. Que se passe-t-il s'il n'y a pas de coup légal ? * Que se passe-t-il si l'adversaire, pressé par le temps, ne remarque pas le coup illégal et joue un coup ? Que se passe-t-il après qu'il s'en soit rendu compte ? La personne qui a effectué le coup illégal déclare-t-elle forfait ? Ou bien la partie est-elle annulée ? Existe-t-il des règles standard pour ce type de situation ?
Cela ne s'applique vraiment qu'aux jeux de plateau (puisque les serveurs d'échecs en ligne empêchent les coups illégaux). Dans une partie standard avec contrôle du temps, selon les règles de l'USCF, lorsque le coup illégal est remarqué par l'un des joueurs, plusieurs choses se produisent. Tout d'abord, le coup illégal doit avoir été effectué au cours des 10 derniers coups. Si ce n'est pas le cas, la position actuelle est maintenue et le jeu continue. En supposant que le coup soit récent, la position est rétablie à la position précédant immédiatement le coup illégal. Ensuite, le joueur qui a effectué le coup illégal doit maintenant effectuer un coup légal avec la même pièce (s'il y en a une). S'il n'y a pas de coup légal, le joueur est libre de jouer n'importe quel coup. Ceci est dû à la règle du coup en touche. Enfin, si le joueur fautif a appuyé sur la pendule, un "bonus" de deux minutes est ajouté à la pendule de l'adversaire pour le dédommager du temps perdu et pour pénaliser le joueur fautif. Voici le passage correspondant du règlement de l'USCF : 11A. Coup illégal au cours des dix derniers coups. Si, au cours d'une partie, il est constaté que l'un des dix derniers coups de l'un des deux joueurs était illégal, la position doit être rétablie à ce qu'elle était avant le coup illégal. La partie se poursuit alors en appliquant la règle 10, Pièce touchée, au coup remplaçant le coup illégal. Si la position ne peut pas être rétablie, le coup illégal est maintenu. Les compteurs de coups des horloges qui en sont équipées peuvent être réajustés. 11D. Mouvement illégal. Si un joueur termine un coup illégal en appuyant sur la pendule, en plus de l'obligation habituelle d'effectuer un coup légal avec la pièce touchée si possible, la pénalité standard spécifiée dans la règle 1C2a s'applique (c'est-à-dire deux minutes ajoutées à la pendule de l'adversaire). Aux échecs blitz, les règles sont différentes. Selon les règles de la WBCA (World Blitz Chess Association), un joueur qui joue un coup illégal perd la partie instantanément. Cette règle est souvent appliquée dans les parties occasionnelles. La façon la plus courante dont cela se produit est qu'un joueur ne remarque pas qu'il est en échec et joue un coup qui ne lui permet pas de sortir de l'échec. Le joueur en échec prend alors simplement le roi et s'attribue la victoire. Le blitz étant un jeu beaucoup plus rapide, le coup illégal doit être remarqué dans les deux coups. Si ce n'est pas le cas, la position actuelle est maintenue et le jeu continue. À aucun moment la partie n'est annulée à cause d'un coup illégal. Dès qu'une partie commence et que les deux joueurs jouent un coup, un résultat de victoire, de défaite ou de match nul est enregistré.
Soprattutto nelle partite blitz o bullet, è possibile che un giocatore faccia una mossa illegale, ad esempio un arrocco attraverso uno scacco. * Se l'avversario si accorge della mossa illegale, per quanto ne so il primo giocatore è obbligato a fare una mossa legale con lo stesso pezzo, se esiste. Cosa succede se non ci sono mosse legali? * E se l'avversario, essendo sotto pressione, non si accorge della mossa illegale e fa una mossa. Cosa succede dopo che se ne è accorto? La persona che ha fatto la mossa illegale dà forfait? O l'intera partita viene annullata? Esistono regole standard per questo tipo di situazioni?
Questo vale solo per le partite su scacchiera (poiché i server di scacchi online impediscono le mosse illegali). In una partita standard di controllo del tempo, secondo le regole USCF, quando la mossa illegale viene notata da uno dei giocatori, succedono alcune cose. Innanzitutto, la mossa illegale deve essere stata fatta entro le ultime 10 mosse. In caso contrario, la posizione attuale rimane invariata e il gioco continua. Supponendo che la mossa sia recente, la posizione viene ripristinata a quella immediatamente precedente la mossa illegale. A questo punto, il giocatore che ha effettuato la mossa illegale deve effettuare una mossa legale con lo stesso pezzo (se ne esiste una). Se non ci sono mosse legali, il giocatore è libero di fare qualsiasi mossa. Ciò è dovuto alla regola della mossa di tocco. Infine, se il giocatore che ha commesso l'infrazione ha premuto l'orologio, un &quot;bonus&quot; di due minuti viene aggiunto all'orologio dell'avversario per compensare il tempo perso e per penalizzare il giocatore che ha commesso l'infrazione. Ecco il passaggio pertinente del regolamento USCF: 11A. Mossa illegale durante le ultime dieci mosse. Se, durante una partita, si scopre che una delle ultime dieci mosse di uno dei due giocatori era illegale, la posizione sarà ripristinata a quella che era prima della mossa illegale. La partita continuerà applicando la Regola 10, Il pezzo toccato, alla mossa che sostituisce quella illegale. Se la posizione non può essere ripristinata, la mossa illegale rimane valida. I contatori delle mosse sugli orologi che ne sono provvisti possono essere riadattati. 11D. Mossa illegale. Se un giocatore completa una mossa illegale premendo l'orologio, oltre al consueto obbligo di eseguire una mossa legale con il pezzo toccato, se possibile, si applica la penalità standard specificata nella regola 1C2a (cioè due minuti aggiunti all'orologio dell'avversario). Negli scacchi blitz le regole sono diverse. Secondo le regole della WBCA (World Blitz Chess Association), un giocatore che fa una mossa illegale perde la partita all'istante. Questa regola viene spesso applicata anche nelle partite casuali. Il modo più comune in cui ciò accade è che un giocatore non si accorga di essere sotto scacco e faccia una mossa che non gli permetta di uscire dallo scacco. Il giocatore in scacco cattura semplicemente il re e rivendica la vittoria. Poiché il blitz è un gioco molto più veloce, la mossa illegale deve essere notata entro due mosse. Se non viene notata, la posizione corrente rimane invariata e il gioco continua. In nessun caso la partita viene annullata a causa di una mossa illegale. In pratica, una volta che la partita inizia ed entrambi i giocatori effettuano una mossa, viene registrato un risultato di vittoria, sconfitta o pareggio.
99
How to set button click effect in Android?
It is simpler when you have a lot of image buttons, and you don't want to write xml-s for every button. Kotlin Version: ```fun buttonEffect(button: View) { button.setOnTouchListener { v, event -> when (event.action) { MotionEvent.ACTION_DOWN -> { v.background.setColorFilter(-0x1f0b8adf, PorterDuff.Mode.SRC_ATOP) v.invalidate() } MotionEvent.ACTION_UP -> { v.background.clearColorFilter() v.invalidate() } } false } } ``` Java Version: ```public static void buttonEffect(View button){ button.setOnTouchListener(new OnTouchListener() { public boolean onTouch(View v, MotionEvent event) { switch (event.getAction()) { case MotionEvent.ACTION_DOWN: { v.getBackground().setColorFilter(0xe0f47521,PorterDuff.Mode.SRC_ATOP); v.invalidate(); break; } case MotionEvent.ACTION_UP: { v.getBackground().clearColorFilter(); v.invalidate(); break; } } return false; } }); } ```
Wie kann man den Klick-Effekt in Android einstellen?
Es ist einfacher, wenn Sie eine Menge von Bild-Schaltflächen haben, und Sie wollen nicht xml-s für jede Schaltfläche zu schreiben. Kotlin Version: ```fun buttonEffect(button: View) { button.setOnTouchListener { v, event -> when (event.action) { MotionEvent.ACTION_DOWN -> { v.background.setColorFilter(-0x1f0b8adf, PorterDuff.Mode.SRC_ATOP) v.invalidate() } MotionEvent.ACTION_UP -> { v.background.clearColorFilter() v.invalidate() } } false } } ``` Java-Version: ```public static void buttonEffect(View button){ button.setOnTouchListener(new OnTouchListener() { public boolean onTouch(View v, MotionEvent event) { switch (event.getAction()) { case MotionEvent.ACTION_DOWN: { v.getBackground().setColorFilter(0xe0f47521,PorterDuff.Mode.SRC_ATOP); v.invalidate(); break; } case MotionEvent.ACTION_UP: { v.getBackground().clearColorFilter(); v.invalidate(); break; } } return false; } }); } ```
¿Cómo establecer el efecto de clic de botón en Android?
Es más simple cuando tienes muchos botones de imagen, y no quieres escribir xml-s para cada botón. Versión Kotlin: ```fun buttonEffect(button: View) { button.setOnTouchListener { v, evento -> when (event.action) { MotionEvent.ACTION_DOWN -> { v.background.setColorFilter(-0x1f0b8adf, PorterDuff.Mode.SRC_ATOP) v.invalidate() } MotionEvent.ACTION_UP -> { v.background.clearColorFilter() v.invalidate() } } false } } ``` Versión Java: ```public static void buttonEffect(View button){ button.setOnTouchListener(new OnTouchListener() { public boolean onTouch(View v, MotionEvent event) { switch (event.getAction()) { case MotionEvent.ACTION_DOWN: { v.getBackground().setColorFilter(0xe0f47521,PorterDuff.Mode.SRC_ATOP); v.invalidate(); break; } case MotionEvent.ACTION_UP: { v.getBackground().clearColorFilter(); v.invalidate(); break; } } return false; } }); } ```
Comment définir l'effet de clic sur un bouton dans Android ?
C'est plus simple quand on a beaucoup de boutons images, et qu'on ne veut pas écrire des xml-s pour chaque bouton. Version Kotlin : ```fun buttonEffect(button : View) { button.setOnTouchListener { v, event -> when (event.action) { MotionEvent.ACTION_DOWN -> { v.background.setColorFilter(-0x1f0b8adf, PorterDuff.Mode.SRC_ATOP) v.invalidate() } MotionEvent.ACTION_UP -> { v.background.clearColorFilter() v.invalidate() } } false } } ``` Version Java : ```public static void buttonEffect(View button){ button.setOnTouchListener(new OnTouchListener() { public boolean onTouch(View v, MotionEvent event) { switch (event.getAction()) { case MotionEvent.ACTION_DOWN : { v.getBackground().setColorFilter(0xe0f47521,PorterDuff.Mode.SRC_ATOP) ; v.invalidate() ; break ; } case MotionEvent.ACTION_UP : { v.getBackground().clearColorFilter() ; v.invalidate() ; break ; } } return false ; } }) ; } ```
Come impostare l'effetto del clic del pulsante in Android?
È più semplice quando si hanno molti pulsanti immagine e non si vuole scrivere xml-s per ogni pulsante. Versione Kotlin: ```fun buttonEffect(button: View) { button.setOnTouchListener { v, event -> when (event.action) { MotionEvent.ACTION_DOWN -> { v.background.setColorFilter(-0x1f0b8adf, PorterDuff.Mode.SRC_ATOP) v.invalidate() } MotionEvent.ACTION_UP -> { v.background.clearColorFilter() v.invalidate() } } false } } ``` Versione Java: ```public static void buttonEffect(View button){ button.setOnTouchListener(new OnTouchListener() { public boolean onTouch(View v, MotionEvent event) { switch (event.getAction()) { case MotionEvent.ACTION_DOWN: { v.getBackground().setColorFilter(0xe0f47521,PorterDuff.Mode.SRC_ATOP); v.invalidate(); break; } caso MotionEvent.ACTION_UP: { v.getBackground().clearColorFilter(); v.invalidate(); break; } } return false; } }); } ```