Dataset Viewer
Auto-converted to Parquet
id_numeric
int64
0
1.03k
en_input
stringlengths
12
7.84k
en_output
stringlengths
15
17.7k
de_input
stringlengths
13
8.96k
de_output
stringlengths
15
21.1k
es_input
stringlengths
16
8.77k
es_output
stringlengths
15
18.6k
fr_input
stringlengths
15
9.16k
fr_output
stringlengths
15
20.6k
it_input
stringlengths
8
8.7k
it_output
stringlengths
15
19.6k
0
Can brain cells move? By movement I mean long distance migration (preferably within the brain only).
The question is relatively broad and one should take into account that the brain not only consists of neurons, but also glial cells (supportive cells) and pre-mitotic neuronal stem cells. Furthermore, as critical fellow-scientists have indicated, developmental stage is very important, as the developing embryonic brain is very different from the adult brain. However, after sifting through various publications, the answer to the question is actually remarkably simple: Yes, brain cells migrate. In the adult brain glial cells migrate in the brain (Klämbt, 2009). Glial cells are involved in a myriad of functions, but a notable example of migrating glial cells are the oligodendrocytes that migrate relative long distances to find their target axons onto which they wrap themselves to form the insulating myelin sheath (Tsai and Miller, 2002). Neuronal stem cells migrate over long distances in response to injury (Imitola et al., 2004) and they migrate from specific stem-cell locations (e.g., hippocampus and subventricular zone) to other regions (Clarke, 2003). Post-mitotic, but non-differentiated neurons have been shown to migrate in the adult brain in fish (Scott et al., 2012), and in mammals and non-human primates as well (Sawada et al., 2011). Not surprisingly, glial cells, stem cells and neurons also migrate during embryonic development. Most notably, post-mitotic neurons destined to fulfill peripheral functions have to migrate over relatively long distances from the neural crest to their target locations (Neuroscience, 2nd ed, Neuronal Migration).
Können sich Gehirnzellen bewegen? Mit Bewegung meine ich die Wanderung über große Entfernungen (vorzugsweise nur innerhalb des Gehirns).
Die Frage ist relativ weit gefasst, und man sollte berücksichtigen, dass das Gehirn nicht nur aus Neuronen besteht, sondern auch aus Gliazellen (Stützzellen) und prä-mitotischen neuronalen Stammzellen. Außerdem ist, wie kritische Kollegen anmerkten, das Entwicklungsstadium sehr wichtig, da sich das sich entwickelnde embryonale Gehirn stark vom erwachsenen Gehirn unterscheidet. Nach Durchsicht verschiedener Veröffentlichungen ist die Antwort auf die Frage jedoch eigentlich bemerkenswert einfach: Ja, Gehirnzellen wandern. Im erwachsenen Gehirn wandern Gliazellen im Gehirn (Klämbt, 2009). Gliazellen sind an einer Vielzahl von Funktionen beteiligt, aber ein bemerkenswertes Beispiel für wandernde Gliazellen sind die Oligodendrozyten, die über relativ große Entfernungen wandern, um ihre Zielaxone zu finden, um die sie sich wickeln und die isolierende Myelinscheide bilden (Tsai und Miller, 2002). Neuronale Stammzellen wandern als Reaktion auf Verletzungen über weite Entfernungen (Imitola et al., 2004) und sie wandern von bestimmten Stammzellstandorten (z. B. Hippocampus und subventrikuläre Zone) in andere Regionen (Clarke, 2003). Bei Fischen (Scott et al., 2012), aber auch bei Säugetieren und nichtmenschlichen Primaten (Sawada et al., 2011) wurde gezeigt, dass post-mitotische, aber nicht-differenzierte Neuronen in das erwachsene Gehirn wandern. Es überrascht nicht, dass Gliazellen, Stammzellen und Neuronen auch während der Embryonalentwicklung wandern. Vor allem postmitotische Neuronen, die periphere Funktionen erfüllen sollen, müssen über relativ lange Strecken von der Neuralleiste zu ihren Zielorten wandern (Neuroscience, 2nd ed, Neuronal Migration).
¿Pueden moverse las células cerebrales? Por movimiento entiendo migración a larga distancia (preferiblemente sólo dentro del cerebro).
La pregunta es relativamente amplia y hay que tener en cuenta que el cerebro no sólo está formado por neuronas, sino también por células gliales (células de sostén) y células madre neuronales premíticas. Además, como han indicado compañeros científicos críticos, la etapa de desarrollo es muy importante, ya que el cerebro embrionario en desarrollo es muy diferente del cerebro adulto. Sin embargo, tras escudriñar diversas publicaciones, la respuesta a la pregunta es en realidad notablemente sencilla: Sí, las células cerebrales migran. En el cerebro adulto, las células gliales migran en el cerebro (Klämbt, 2009). Las células gliales están implicadas en una miríada de funciones, pero un ejemplo notable de células gliales migratorias son los oligodendrocitos, que migran distancias relativamente largas para encontrar sus axones diana sobre los que se envuelven para formar la vaina aislante de mielina (Tsai y Miller, 2002). Las células madre neuronales migran largas distancias en respuesta a una lesión (Imitola et al., 2004) y migran desde localizaciones específicas de células madre (por ejemplo, hipocampo y zona subventricular) a otras regiones (Clarke, 2003). Se ha demostrado que las neuronas postmitóticas, pero no diferenciadas, migran en el cerebro adulto en peces (Scott et al., 2012), y también en mamíferos y primates no humanos (Sawada et al., 2011). No es sorprendente que las células gliales, las células madre y las neuronas también migren durante el desarrollo embrionario. En particular, las neuronas posmitóticas destinadas a desempeñar funciones periféricas tienen que migrar distancias relativamente largas desde la cresta neural hasta sus lugares de destino (Neuroscience, 2nd ed, Neuronal Migration).
Les cellules du cerveau peuvent-elles se déplacer ? Par mouvement, j'entends une migration sur une longue distance (de préférence à l'intérieur du cerveau uniquement).
La question est relativement vaste et il faut tenir compte du fait que le cerveau n'est pas seulement constitué de neurones, mais aussi de cellules gliales (cellules de soutien) et de cellules souches neuronales pré-mitotiques. En outre, comme l'ont indiqué des collègues scientifiques critiques, le stade de développement est très important, car le cerveau embryonnaire en développement est très différent du cerveau adulte. Cependant, après avoir passé au crible diverses publications, la réponse à la question est en fait remarquablement simple : Oui, les cellules cérébrales migrent. Dans le cerveau adulte, les cellules gliales migrent dans le cerveau (Klämbt, 2009). Les cellules gliales sont impliquées dans une myriade de fonctions, mais un exemple notable de cellules gliales migrantes sont les oligodendrocytes qui migrent sur des distances relativement longues pour trouver leurs axones cibles sur lesquels ils s'enroulent pour former la gaine isolante de myéline (Tsai et Miller, 2002). Les cellules souches neuronales migrent sur de longues distances en réponse à une lésion (Imitola et al., 2004) et elles migrent d'endroits spécifiques (par exemple, l'hippocampe et la zone subventriculaire) vers d'autres régions (Clarke, 2003). Il a été démontré que les neurones post-mitotiques, mais non différenciés, migrent dans le cerveau adulte des poissons (Scott et al., 2012), ainsi que chez les mammifères et les primates non humains (Sawada et al., 2011). Il n'est pas surprenant que les cellules gliales, les cellules souches et les neurones migrent également au cours du développement embryonnaire. En particulier, les neurones post-mitotiques destinés à remplir des fonctions périphériques doivent migrer sur des distances relativement longues depuis la crête neurale jusqu'à leur emplacement cible (Neuroscience, 2e édition, Neuronal Migration).
Le cellule cerebrali possono muoversi? Per movimento intendo migrazione a lunga distanza (preferibilmente solo all'interno del cervello).
La questione è relativamente ampia e bisogna tenere conto del fatto che il cervello non è costituito solo da neuroni, ma anche da cellule gliali (cellule di supporto) e da cellule staminali neuronali pre-mitotiche. Inoltre, come hanno indicato i colleghi critici, lo stadio di sviluppo è molto importante, poiché il cervello embrionale in via di sviluppo è molto diverso da quello adulto. Tuttavia, dopo aver passato al setaccio diverse pubblicazioni, la risposta alla domanda è in realtà straordinariamente semplice: Sì, le cellule cerebrali migrano. Nel cervello adulto le cellule gliali migrano (Klämbt, 2009). Le cellule gliali sono coinvolte in una miriade di funzioni, ma un esempio notevole di cellule gliali che migrano sono gli oligodendrociti che migrano per distanze relativamente lunghe per trovare gli assoni bersaglio sui quali si avvolgono per formare la guaina mielinica isolante (Tsai e Miller, 2002). Le cellule staminali neuronali migrano su lunghe distanze in risposta a lesioni (Imitola et al., 2004) e migrano da specifiche sedi di cellule staminali (ad esempio, ippocampo e zona subventricolare) ad altre regioni (Clarke, 2003). È stato dimostrato che i neuroni post-mitotici, ma non differenziati, migrano nel cervello adulto dei pesci (Scott et al., 2012) e anche nei mammiferi e nei primati non umani (Sawada et al., 2011). Non sorprende che anche le cellule gliali, le cellule staminali e i neuroni migrino durante lo sviluppo embrionale. In particolare, i neuroni post-mitotici destinati a svolgere funzioni periferiche devono migrare per distanze relativamente lunghe dalla cresta neurale alle loro sedi di destinazione (Neuroscience, 2nd ed, Neuronal Migration).
1
In our computer systems lecture we were introduced to the MIPS processor. It was (re)developed over the course of the term and has in fact been quite easy to understand. It uses a RISC design, that is its elementary commands are regularly encoded and there are only few of them in order to keep the wires simple. It was mentioned that CISC follows a different philosophy. I looked briefly at the x86 instruction set and was shocked. I can not image how anyone would want to build a processor that uses so complex a command set! So I figure there have to be good arguments why large portions of the processor market use CISC architectures. What are they?
There is a general historical trend. In the olden days, memories were small, and so programs were perforce small. Also, compilers were not very smart, and many programs were written in assembler, so it was considered a good thing to be able to write a program using few instructions. Instruction pipelines were simple, and processors grabbed one instruction at a time to execute it. The machinery inside the processor was quite complex anyway; decoding instructions was not felt to be much of a burden. In the 1970s, CPU and compiler designers realized that having such complex instructions was not so helpful after all. It was difficult to design processors in which those instructions were really efficient, and it was difficult to design compilers that really took advantage of these instructions. Chip area and compiler complexity was better spent on more generic pursuits such as more general-purpose registers. The Wikipedia article on RISC explains this in more detail. MIPS is the ultimate RISC architecture, which is why it's taught so often. The x86 family is a bit different. It was originally a CISC architecture meant for systems with very small memory (no room for large instructions), and has undergone many successive versions. Today's x86 instruction set is not only complicated because it's CISC, but because it's really a 8088 with a 80386 with a Pentium possibly with an x86_64 processor. In today's world, RISC and CISC are no longer the black-and-white distinction they might have been once. Most CPU architectures have evolved to different shades of grey. On the RISC side, some modern MIPS variants have added multiplication and division instructions, with a non-uniform encoding. ARM processors have become more complex: many of them have a 16-bit instruction set called Thumb in addition to the “original” 32-bit instructions, not to mention Jazelle to execute JVM instructions on the CPU. Modern ARM processors also have SIMD instructions for multimedia applications: some complex instructions do pay after all. On the CISC side, all recent processors are to some extent RISC inside. They have microcode to define all these complex macro instructions. The sheer complexity of the processor makes the design of each model take several years, even with a RISC design, what with the large number of components, with pipelining and predictive execution and whatnot. So why do the fastest processors remain CISC outside? Part of it, in the case of the x86 (32-bit and 64-bit) family, is historical compatibility. But that's not the whole of it. In the early 2000s, Intel tried pushing the Itanium architecture. Itanium is an extreme case of complex instructions (not really CISC, though: its design has been dubbed EPIC). It even does away with the old-fashioned idea of executing instructions in sequence: all instructions are executed in parallel until the next barrier. One of the reasons Itanium didn't take is that nobody, whether at Intel or elsewhere, could write a decent compiler for it. Now a good old mostly-sequential processor like x86_64, that's something we understand.
In unserer Vorlesung über Computersysteme wurden wir mit dem MIPS-Prozessor bekannt gemacht. Er wurde im Laufe des Semesters (neu) entwickelt und ist eigentlich recht einfach zu verstehen. Er verwendet ein RISC-Design, d.h. seine elementaren Befehle sind regelmäßig kodiert und es gibt nur wenige davon, um die Verdrahtung einfach zu halten. Es wurde erwähnt, dass CISC eine andere Philosophie verfolgt. Ich habe mir kurz den x86-Befehlssatz angesehen und war schockiert. Ich kann mir nicht vorstellen, wie jemand einen Prozessor bauen will, der einen so komplexen Befehlssatz verwendet! Es muss also gute Argumente geben, warum große Teile des Prozessormarktes CISC-Architekturen verwenden. Welche sind das?
Es gibt einen allgemeinen historischen Trend. Früher waren die Speicher klein und die Programme daher zwangsläufig auch klein. Außerdem waren die Compiler nicht sehr intelligent, und viele Programme wurden in Assembler geschrieben, so dass es als vorteilhaft galt, ein Programm mit wenigen Anweisungen schreiben zu können. Die Befehlspipelines waren einfach, und die Prozessoren nahmen einen Befehl nach dem anderen auf und führten ihn aus. Die Maschinerie im Inneren des Prozessors war ohnehin recht komplex; die Dekodierung von Anweisungen wurde nicht als große Belastung empfunden. In den 1970er Jahren erkannten die Entwickler von CPUs und Compilern, dass solch komplexe Befehle doch nicht so hilfreich waren. Es war schwierig, Prozessoren zu entwickeln, in denen diese Befehle wirklich effizient waren, und es war schwierig, Compiler zu entwickeln, die diese Befehle wirklich nutzten. Der Platz auf dem Chip und die Komplexität des Compilers wurden besser für allgemeinere Aufgaben wie z. B. Mehrzweckregister verwendet. Der Wikipedia-Artikel über RISC erklärt dies ausführlicher. MIPS ist die ultimative RISC-Architektur, weshalb sie auch so oft gelehrt wird. Die x86-Familie ist ein wenig anders. Ursprünglich handelte es sich um eine CISC-Architektur, die für Systeme mit sehr kleinem Speicher (kein Platz für große Befehle) gedacht war und viele aufeinander folgende Versionen durchlaufen hat. Der heutige x86-Befehlssatz ist nicht nur kompliziert, weil es sich um eine CISC-Architektur handelt, sondern weil es sich in Wirklichkeit um einen 8088 mit einem 80386 mit einem Pentium, möglicherweise mit einem x86_64-Prozessor, handelt. In der heutigen Welt sind RISC und CISC nicht mehr die Schwarz-Weiß-Unterscheidung, die sie vielleicht einmal waren. Die meisten CPU-Architekturen haben sich zu verschiedenen Grautönen entwickelt. Auf der RISC-Seite haben einige moderne MIPS-Varianten Multiplikations- und Divisionsbefehle mit einer uneinheitlichen Kodierung hinzugefügt. ARM-Prozessoren sind komplexer geworden: Viele von ihnen haben zusätzlich zu den "ursprünglichen" 32-Bit-Befehlen einen 16-Bit-Befehlssatz namens Thumb, ganz zu schweigen von Jazelle zur Ausführung von JVM-Befehlen auf der CPU. Moderne ARM-Prozessoren verfügen auch über SIMD-Befehle für Multimedia-Anwendungen: einige komplexe Befehle lohnen sich also doch. Auf der CISC-Seite sind alle neueren Prozessoren bis zu einem gewissen Grad RISC-intern. Sie verfügen über Mikrocode, um all diese komplexen Makrobefehle zu definieren. Die schiere Komplexität des Prozessors führt dazu, dass die Entwicklung jedes Modells mehrere Jahre in Anspruch nimmt, selbst bei einem RISC-Design, angesichts der großen Anzahl von Komponenten, des Pipelining und der vorausschauenden Ausführung und so weiter. Warum also bleiben die schnellsten Prozessoren außerhalb des CISC-Bereichs? Im Fall der x86-Familie (32-Bit und 64-Bit) ist ein Teil davon die historische Kompatibilität. Aber das ist nicht der ganze Grund. In den frühen 2000er Jahren versuchte Intel, die Itanium-Architektur voranzutreiben. Itanium ist ein Extremfall komplexer Anweisungen (allerdings nicht wirklich CISC: sein Design wurde als EPIC bezeichnet). Er verzichtet sogar auf die altmodische Idee, Befehle nacheinander auszuführen: Alle Befehle werden bis zur nächsten Barriere parallel ausgeführt. Einer der Gründe, warum sich Itanium nicht durchgesetzt hat, ist, dass niemand, weder bei Intel noch anderswo, einen anständigen Compiler dafür schreiben konnte. Bei einem guten alten, meist sequenziellen Prozessor wie x86_64 ist das etwas, das wir verstehen.
En nuestra clase sobre sistemas informáticos conocimos el procesador MIPS. Se ha ido (re)desarrollando a lo largo del curso y, de hecho, es bastante fácil de entender. Utiliza un diseño RISC, es decir, sus comandos elementales están codificados de forma regular y sólo hay unos pocos para mantener los cables simples. Se ha mencionado que CISC sigue una filosofía diferente. Miré brevemente el conjunto de instrucciones x86 y me quedé asombrado. No puedo imaginarme cómo alguien querría construir un procesador que utiliza un conjunto de instrucciones tan complejo. Así que me imagino que tiene que haber buenos argumentos para que gran parte del mercado de procesadores utilice arquitecturas CISC. ¿Cuáles son?
Existe una tendencia histórica general. Antiguamente, las memorias eran pequeñas y, por tanto, los programas también lo eran. Además, los compiladores no eran muy inteligentes y muchos programas se escribían en ensamblador, por lo que se consideraba positivo poder escribir un programa utilizando pocas instrucciones. Los pipelines de instrucciones eran sencillos, y los procesadores cogían una instrucción cada vez para ejecutarla. De todas formas, la maquinaria del procesador era bastante compleja, por lo que decodificar instrucciones no se consideraba una gran carga. En los años 70, los diseñadores de CPU y compiladores se dieron cuenta de que tener instrucciones tan complejas no era tan útil después de todo. Era difícil diseñar procesadores en los que esas instrucciones fueran realmente eficientes, y era difícil diseñar compiladores que realmente aprovecharan esas instrucciones. El área del chip y la complejidad del compilador se empleaban mejor en tareas más genéricas, como registros de propósito más general. El artículo de Wikipedia sobre RISC lo explica con más detalle. MIPS es la arquitectura RISC por excelencia, y por eso se enseña tan a menudo. La familia x86 es un poco diferente. Originalmente era una arquitectura CISC pensada para sistemas con muy poca memoria (sin espacio para instrucciones grandes), y ha sufrido muchas versiones sucesivas. El conjunto de instrucciones x86 actual no sólo es complicado por ser CISC, sino porque en realidad es un 8088 con un 80386 con un Pentium posiblemente con un procesador x86_64. En el mundo actual, RISC y CISC ya no son la distinción en blanco y negro que podían ser antaño. La mayoría de las arquitecturas de CPU han evolucionado hacia distintos tonos de gris. En el lado RISC, algunas variantes modernas de MIPS han añadido instrucciones de multiplicación y división, con una codificación no uniforme. Los procesadores ARM se han vuelto más complejos: muchos de ellos tienen un conjunto de instrucciones de 16 bits llamado Thumb, además de las instrucciones "originales" de 32 bits, por no hablar de Jazelle para ejecutar instrucciones JVM en la CPU. Los procesadores ARM modernos también tienen instrucciones SIMD para aplicaciones multimedia: al fin y al cabo, algunas instrucciones complejas merecen la pena. En el lado CISC, todos los procesadores recientes son hasta cierto punto RISC en su interior. Disponen de microcódigo para definir todas estas macroinstrucciones complejas. La mera complejidad del procesador hace que el diseño de cada modelo lleve varios años, incluso con un diseño RISC, debido al gran número de componentes, el pipelining, la ejecución predictiva y demás. Entonces, ¿por qué los procesadores más rápidos siguen siendo CISC fuera? En parte, en el caso de la familia x86 (32 y 64 bits), por compatibilidad histórica. Pero eso no es todo. A principios de la década de 2000, Intel intentó impulsar la arquitectura Itanium. Itanium es un caso extremo de instrucciones complejas (aunque no realmente CISC: su diseño se ha denominado EPIC). Incluso prescinde de la anticuada idea de ejecutar las instrucciones en secuencia: todas las instrucciones se ejecutan en paralelo hasta la siguiente barrera. Una de las razones por las que Itanium no triunfó es que nadie, ni en Intel ni en ningún otro sitio, fue capaz de escribir un compilador decente para él. Ahora, un buen procesador secuencial como x86_64 es algo que entendemos.
Dans notre cours sur les systèmes informatiques, nous avons découvert le processeur MIPS. Il a été (re)développé au cours du semestre et s'est en fait avéré assez facile à comprendre. Il utilise une conception RISC, c'est-à-dire que ses commandes élémentaires sont codées régulièrement et qu'elles sont peu nombreuses pour que les fils restent simples. Il a été mentionné que le CISC suit une philosophie différente. J'ai examiné brièvement le jeu d'instructions x86 et j'ai été choqué. Je n'arrive pas à imaginer comment quelqu'un pourrait vouloir construire un processeur qui utilise un jeu d'instructions aussi complexe ! Je me suis donc dit qu'il devait y avoir de bons arguments pour expliquer pourquoi une grande partie du marché des processeurs utilise des architectures CISC. De quoi s'agit-il ?
Il existe une tendance historique générale. Autrefois, les mémoires étaient petites, et donc les programmes étaient forcément petits. En outre, les compilateurs n'étaient pas très intelligents et de nombreux programmes étaient écrits en assembleur, de sorte qu'il était considéré comme une bonne chose de pouvoir écrire un programme en utilisant peu d'instructions. Les pipelines d'instructions étaient simples et les processeurs saisissaient une instruction à la fois pour l'exécuter. La machinerie à l'intérieur du processeur était de toute façon assez complexe ; le décodage des instructions n'était pas considéré comme un fardeau. Dans les années 1970, les concepteurs d'unités centrales et de compilateurs se sont rendu compte que des instructions aussi complexes n'étaient finalement pas si utiles. Il était difficile de concevoir des processeurs dans lesquels ces instructions étaient vraiment efficaces, et il était difficile de concevoir des compilateurs qui tirent vraiment parti de ces instructions. La surface des puces et la complexité des compilateurs étaient mieux utilisées pour des tâches plus génériques telles que des registres à usage plus général. L'article de Wikipédia sur les RISC explique cela plus en détail. MIPS est l'architecture RISC par excellence, c'est pourquoi elle est si souvent enseignée. La famille x86 est un peu différente. Il s'agissait à l'origine d'une architecture CISC destinée aux systèmes dotés d'une très petite mémoire (pas de place pour les instructions volumineuses), qui a connu de nombreuses versions successives. Le jeu d'instructions x86 d'aujourd'hui n'est pas seulement compliqué parce qu'il s'agit d'une architecture CISC, mais aussi parce qu'il s'agit en fait d'un 8088 avec un 80386 avec un Pentium éventuellement avec un processeur x86_64. Dans le monde d'aujourd'hui, RISC et CISC ne sont plus la distinction noire et blanche qu'ils ont pu être par le passé. La plupart des architectures de processeurs ont évolué vers différentes nuances de gris. Du côté RISC, certaines variantes modernes du MIPS ont ajouté des instructions de multiplication et de division, avec un codage non uniforme. Les processeurs ARM sont devenus plus complexes : nombre d'entre eux disposent d'un jeu d'instructions de 16 bits appelé Thumb en plus des instructions "originales" de 32 bits, sans parler de Jazelle pour exécuter les instructions JVM sur l'unité centrale. Les processeurs ARM modernes disposent également d'instructions SIMD pour les applications multimédias : certaines instructions complexes sont en effet payantes. Du côté CISC, tous les processeurs récents sont, dans une certaine mesure, RISC à l'intérieur. Ils disposent d'un microcode pour définir toutes ces macro-instructions complexes. La complexité même du processeur fait que la conception de chaque modèle prend plusieurs années, même avec une conception RISC, compte tenu du grand nombre de composants, du pipelining, de l'exécution prédictive, etc. Alors pourquoi les processeurs les plus rapides restent-ils des processeurs CISC ? Dans le cas de la famille x86 (32 et 64 bits), il s'agit en partie d'une compatibilité historique. Mais ce n'est pas tout. Au début des années 2000, Intel a tenté de promouvoir l'architecture Itanium. L'Itanium est un cas extrême d'instructions complexes (pas vraiment CISC, cependant : sa conception a été baptisée EPIC). Elle abandonne même l'idée démodée d'exécuter les instructions en séquence : toutes les instructions sont exécutées en parallèle jusqu'à la barrière suivante. L'une des raisons pour lesquelles l'Itanium n'a pas été adopté est que personne, que ce soit chez Intel ou ailleurs, n'a pu écrire un compilateur décent pour lui. Maintenant, un bon vieux processeur essentiellement séquentiel comme x86_64, c'est quelque chose que nous comprenons.
Durante la lezione sui sistemi informatici ci è stato presentato il processore MIPS. Questo processore è stato (ri)sviluppato nel corso del semestre ed è stato abbastanza facile da capire. Utilizza un design RISC, cioè i suoi comandi elementari sono codificati regolarmente e sono pochi per mantenere i fili semplici. È stato detto che il CISC segue una filosofia diversa. Ho dato una breve occhiata al set di istruzioni x86 e sono rimasto scioccato. Non riesco a immaginare come qualcuno possa voler costruire un processore che utilizza un set di comandi così complesso! Quindi ho pensato che ci devono essere buoni argomenti per cui gran parte del mercato dei processori utilizza architetture CISC. Quali sono?
Esiste una tendenza storica generale. Un tempo le memorie erano piccole e quindi i programmi erano per forza piccoli. Inoltre, i compilatori non erano molto intelligenti e molti programmi erano scritti in assembler, per cui era considerata una buona cosa poter scrivere un programma utilizzando poche istruzioni. Le pipeline di istruzioni erano semplici e i processori prendevano un'istruzione alla volta per eseguirla. Il macchinario all'interno del processore era comunque piuttosto complesso; la decodifica delle istruzioni non era considerata un grosso peso. Negli anni '70, i progettisti di CPU e compilatori si resero conto che avere istruzioni così complesse non era poi così utile. Era difficile progettare processori in cui queste istruzioni fossero davvero efficienti, ed era difficile progettare compilatori che sfruttassero davvero queste istruzioni. L'area del chip e la complessità del compilatore erano meglio impiegate in attività più generiche, come i registri di uso più generale. L'articolo di Wikipedia sui RISC spiega questo aspetto in modo più dettagliato. MIPS è l'architettura RISC per eccellenza, ed è per questo che viene insegnata così spesso. La famiglia x86 è un po' diversa. Originariamente era un'architettura CISC destinata a sistemi con memoria molto piccola (non c'è spazio per istruzioni di grandi dimensioni) e ha subito molte versioni successive. L'odierno set di istruzioni x86 non è complicato solo perché è CISC, ma anche perché è in realtà un 8088 con un 80386 con un Pentium forse con un processore x86_64. Nel mondo di oggi, RISC e CISC non sono più una distinzione in bianco e nero come lo erano un tempo. La maggior parte delle architetture delle CPU si è evoluta verso diverse sfumature di grigio. Sul versante RISC, alcune moderne varianti di MIPS hanno aggiunto istruzioni di moltiplicazione e divisione, con una codifica non uniforme. I processori ARM sono diventati più complessi: molti di essi hanno un set di istruzioni a 16 bit chiamato Thumb in aggiunta alle istruzioni "originali" a 32 bit, per non parlare di Jazelle per eseguire le istruzioni JVM sulla CPU. I moderni processori ARM dispongono anche di istruzioni SIMD per le applicazioni multimediali: alcune istruzioni complesse, dopotutto, pagano. Per quanto riguarda il lato CISC, tutti i processori recenti sono in qualche misura RISC all'interno. Hanno un microcodice per definire tutte le macroistruzioni complesse. La complessità del processore fa sì che la progettazione di ogni modello richieda diversi anni, anche se si tratta di un progetto RISC, per via del gran numero di componenti, del pipelining, dell'esecuzione predittiva e così via. Allora perché i processori più veloci rimangono CISC? In parte, nel caso della famiglia x86 (32 e 64 bit), si tratta di compatibilità storica. Ma non è tutto. Nei primi anni 2000, Intel ha cercato di spingere l'architettura Itanium. Itanium è un caso estremo di istruzioni complesse (non proprio CISC, però: il suo design è stato definito EPIC). Non esiste nemmeno l'idea antiquata di eseguire le istruzioni in sequenza: tutte le istruzioni vengono eseguite in parallelo fino alla barriera successiva. Uno dei motivi per cui Itanium non ha avuto successo è che nessuno, né in Intel né altrove, è riuscito a scrivere un compilatore decente per Itanium. Ora, un buon vecchio processore prevalentemente sequenziale come x86_64, è qualcosa che comprendiamo.
2
View tabular file such as CSV from command line, having horizontal and vertical scrolling would be great.
Sure, please take a look at csvkit. It provides a set of tools that adhere to the UNIX philosophy (meaning they are small, simple, single-purposed and can be combined). Here is an example that extracts the ten most populated cities in Germany from the free Maxmind World Cities database and displays the result in a console-readable format: ```$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | line_number | Country | AccentCity | Population | ----------------------------------------------------- | 1 | de | Berlin | 3398362 | | 2 | de | Hamburg | 1733846 | | 3 | de | Munich | 1246133 | | 4 | de | Cologne | 968823 | | 5 | de | Frankfurt | 648034 | | 6 | de | Dortmund | 594255 | | 7 | de | Stuttgart | 591688 | | 8 | de | Düsseldorf | 577139 | | 9 | de | Essen | 576914 | | 10 | de | Bremen | 546429 | ----------------------------------------------------- ``` Csvkit is platform independent because it is written in Python.
Anzeige von Tabellendateien wie CSV von der Kommandozeile aus, horizontales und vertikales Scrollen wäre toll.
Sicher, werfen Sie einen Blick auf csvkit. Es bietet eine Reihe von Werkzeugen, die der UNIX-Philosophie folgen (d.h. sie sind klein, einfach, zweckgebunden und können kombiniert werden). Hier ist ein Beispiel, das die zehn bevölkerungsreichsten Städte in Deutschland aus der freien Maxmind World Cities Datenbank extrahiert und das Ergebnis in einem konsolenlesbaren Format anzeigt: ```$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | line_number | Land | AccentCity | Bevölkerung | ----------------------------------------------------- | 1 | de | Berlin | 3398362 | de | 2 | de | Hamburg | 1733846 | 3 | de | München | 1246133 | 4 | de | Köln | 968823 | 5 | de | Frankfurt | 648034 | 6 | de | Dortmund | 594255 | Dortmund | 7 | die | Stuttgart | 591688 | 8 | the | Düsseldorf | 577139 | 9 | de | Essen | 576914 | 10 | de | Bremen | 546429 ----------------------------------------------------- ``` Csvkit ist plattformunabhängig, da es in Python geschrieben ist.
Ver archivo tabular como CSV desde la línea de comandos, tener desplazamiento horizontal y vertical sería genial.
Claro, echa un vistazo a csvkit. Proporciona un conjunto de herramientas que se adhieren a la filosofía UNIX (lo que significa que son pequeñas, simples, de un solo propósito y se pueden combinar). He aquí un ejemplo que extrae las diez ciudades más pobladas de Alemania de la base de datos gratuita Maxmind World Cities y muestra el resultado en un formato legible por consola: ```$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | País Ciudad Acento Población ----------------------------------------------------- | 1 de Berlín 3398362 de | 2 Hamburgo 1733846 | 3 Múnich 1246133 | 4. Colonia 968823 | 5. Frankfurt 648034 | 6. de Dortmund 594255 | 7. Stuttgart 591688 | 8. Düsseldorf 577139 | 9. Essen 576914 | 10. Bremen 546429 ----------------------------------------------------- ``` Csvkit es independiente de la plataforma porque está escrito en Python.
Visualiser un fichier tabulaire tel que CSV à partir de la ligne de commande, avoir un défilement horizontal et vertical serait formidable.
Bien sûr, jetez un coup d'œil à csvkit. Il fournit un ensemble d'outils qui adhèrent à la philosophie UNIX (c'est-à-dire qu'ils sont petits, simples, à usage unique et peuvent être combinés). Voici un exemple qui extrait les dix villes les plus peuplées d'Allemagne de la base de données gratuite Maxmind World Cities et affiche le résultat dans un format lisible par la console : ``$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | numéro_de_ligne | Pays | AccentCity | Population | ----------------------------------------------------- | 1 | de | Berlin | 3398362 | de | 2 | de | Hamburg | 1733846 | 3 | de Munich | 1246133 | 4 | de | Cologne | 968823 | 5 | de | Francfort | 648034 | 6 | de | Dortmund | 594255 | Dortmund | 7 | le | Stuttgart | 591688 | Düsseldorf | 577139 | 9 | de | Essen | 576914 | 10 | de | Bremen | 546429 ----------------------------------------------------- ``` Csvkit est indépendant de la plate-forme car il est écrit en Python.
Visualizzare file tabellari come CSV dalla riga di comando, con scorrimento orizzontale e verticale sarebbe fantastico.
Certo, date un'occhiata a csvkit. Fornisce un insieme di strumenti che aderiscono alla filosofia UNIX (cioè sono piccoli, semplici, a scopo singolo e possono essere combinati). Ecco un esempio che estrae le dieci città più popolate della Germania dal database gratuito Maxmind World Cities e mostra il risultato in un formato leggibile da console: ```$ csvgrep -e iso-8859-1 -c 1 -m "de" worldcitiespop | csvgrep -c 5 -r "\d+" | csvsort -r -c 5 -l | csvcut -c 1,2,4,6 | head -n 11 | csvlook ----------------------------------------------------- | numero_linea | Paese | AccentCity | Popolazione | ----------------------------------------------------- | 1 | de | Berlino | 3398362 | de | 2 | de | Amburgo | 1733846 | 3 | de Monaco | 1246133 | 4 | de | Colonia | 968823 | 5 | de | Francoforte | 648034 | 6 | de | Dortmund | 594255 | Dortmund | 7 | the | Stoccarda | 591688 | 8 | the | Düsseldorf | 577139 | 9 | de | Essen | 576914 | 10 | de | Brema | 546429 ----------------------------------------------------- ``` Csvkit è indipendente dalla piattaforma perché è scritto in Python.
3
Slater type orbitals (STO) are considered to be more accurate than gaussian type orbitals (GTO) for atomic and molecular QM calculations because - among other reasons - they decay with $e^{-\alpha r}$ as $r \to \infty$. But GTOs are more popular because they are easier to calculate with. GTOs decay with $e^{-\alpha r^2}$, so its adequate to sometimes add diffuse functions to the GTO basis set to compensate for gaussian decay behaviour. Also, exact hydrogen wavefunctions decay exponentially, so the motivation for STOs. I understand that the only boundary requirement for solving the Schrödinger equation for atoms and molecules in free space is that the wavefunction goes zero as $r \to \infty$, but there are no a priori requirements for the way it decays as it does so. My question is: do we have theoretical (ab initio) and/or experimental reasons to believe that all atomic and molecular wavefunctions decay like $e^{-\alpha r}$ as $r \to \infty$.
I'll answer this question from the theoretical side. The exponential behavior follows simply from the Schrödinger equation. Consider the one-electron Schrödinger equation: $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ At spatial points that are very far away from the nucleus, $V(\mathbf{r})\approx 0$, so that the asymptotic solution is given by $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ This differential equation has basic solutions of the form $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ for some unit vector $\mathbf{k}$. The real asymptotic behavior of $\psi(\mathbf{r})$ is thus a linear combination of these basic solutions. The linear combination may bring a polynomial prefactor to the exponential, but will never alter the exponent. Thus we have not only proved the exponential behavior, but also derived the correct exponent $\alpha = \sqrt{-2\epsilon}$. For a multi-electronic, non-interacting system, the overall decay rate is governed by the slowest decaying orbital, i.e. the HOMO. Of course, the real wavefunction can only be described by a multi-electron Schrödinger equation. But we can work on the equivalent Kohn-Sham system and show that the Kohn-Sham wavefunction decays at a rate given by the Kohn-Sham HOMO energy. By Janak's theorem, the Kohn-Sham HOMO energy is just the negative of the ionization potential of the exact system. To see this, consider a huge ensemble of $N$ identical, non-interacting molecules. If we remove one electron from the ensemble and let the hole delocalize evenly between all the molecules, then as $N\to +\infty$, the electron removal has a negligible impact on the electron density of any molecule (and therefore the Kohn-Sham potential of each molecule). Therefore under the Kohn-Sham framework we see that removing such an electron costs an energy of $-\epsilon_{\mathrm{HOMO}}$ (it does not matter whether the HOMO refers to that of the ensemble or that of a molecule, since their orbital energies are equal), since the electron is taken from an energy level whose energy is $\epsilon_{\mathrm{HOMO}}$ and the Hamiltonian is not changed in this process. On the other hand, from the perspective of the real system it is clear that the energy cost is equal to the first ionization energy of one of the molecules, $I$. Therefore we have $\epsilon_{\mathrm{HOMO}} = -I$, which means that the Kohn-Sham wavefunction decays like (again up to a possible polynomial prefactor; the precise determination of this polynomial prefactor is a much more difficult question) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Although the Kohn-Sham wavefunction is fictional, its density is equal to the true multielectronic density, and in order for the true density to have the same asymptotic behavior as the Kohn-Sham density, the true wavefunction must have the same asymptotic behavior as the Kohn-Sham wavefunction. Q.E.D.
Slater-Orbitale (STO) gelten für atomare und molekulare QM-Berechnungen als genauer als Gauß-Orbitale (GTO), weil sie - neben anderen Gründen - mit $e^{-\alpha r}$ als $r \zu \infty$ zerfallen. Aber GTOs sind beliebter, weil sie einfacher zu berechnen sind. GTOs zerfallen mit $e^{-\alpha r^2}$, so dass es manchmal angemessen ist, dem GTO-Basissatz diffuse Funktionen hinzuzufügen, um das gaußsche Zerfallsverhalten zu kompensieren. Auch exakte Wasserstoffwellenfunktionen zerfallen exponentiell, daher die Motivation für STOs. Soweit ich weiß, ist die einzige Randbedingung für die Lösung der Schrödingergleichung für Atome und Moleküle im freien Raum, dass die Wellenfunktion mit $r \to \infty$ gegen Null geht, aber es gibt keine a priori Anforderungen an die Art und Weise, wie sie dabei zerfällt. Meine Frage lautet: Gibt es theoretische (ab initio) und/oder experimentelle Gründe für die Annahme, dass alle atomaren und molekularen Wellenfunktionen wie $e^{-\alpha r}$ mit $r \zu \infty$ zerfallen.
Ich werde diese Frage von der theoretischen Seite her beantworten. Das exponentielle Verhalten ergibt sich einfach aus der Schrödinger-Gleichung. Betrachten Sie die Ein-Elektronen-Schrödinger-Gleichung: $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ An räumlichen Punkten, die sehr weit vom Kern entfernt sind, geht $V(\mathbf{r})\gegen 0$, so dass die asymptotische Lösung gegeben ist durch $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Diese Differentialgleichung hat Basislösungen der Form $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ für einen Einheitsvektor $\mathbf{k}$. Das reale asymptotische Verhalten von $\psi(\mathbf{r})$ ist also eine Linearkombination dieser Basislösungen. Die Linearkombination kann dem Exponentialwert einen polynomialen Vorfaktor geben, wird aber niemals den Exponenten verändern. Damit haben wir nicht nur das exponentielle Verhalten bewiesen, sondern auch den richtigen Exponenten $\alpha = \sqrt{-2\epsilon}$ abgeleitet. Für ein mehrelektronisches, nicht wechselwirkendes System wird die Gesamtzerfallsrate durch das am langsamsten zerfallende Orbital, d.h. das HOMO, bestimmt. Natürlich kann die reale Wellenfunktion nur durch eine Mehrelektronen-Schrödinger-Gleichung beschrieben werden. Aber wir können mit dem äquivalenten Kohn-Sham-System arbeiten und zeigen, dass die Kohn-Sham-Wellenfunktion mit einer Geschwindigkeit zerfällt, die durch die Kohn-Sham-HOMO-Energie gegeben ist. Nach dem Janak-Theorem ist die Kohn-Sham-HOMO-Energie nur das Negativ des Ionisierungspotenzials des exakten Systems. Man betrachte dazu ein riesiges Ensemble von $N$ identischen, nicht wechselwirkenden Molekülen. Entfernt man ein Elektron aus dem Ensemble und lässt das Loch gleichmäßig zwischen allen Molekülen delokalisieren, dann hat die Entfernung des Elektrons mit $N$ bis +\infty$ eine vernachlässigbare Auswirkung auf die Elektronendichte eines jeden Moleküls (und damit auf das Kohn-Sham-Potenzial jedes Moleküls). Daher sehen wir im Kohn-Sham-Rahmen, dass das Entfernen eines solchen Elektrons eine Energie von $-\epsilon_{\mathrm{HOMO}}$ kostet (es spielt keine Rolle, ob sich das HOMO auf das des Ensembles oder das eines Moleküls bezieht, da ihre Orbitalenergien gleich sind), da das Elektron aus einem Energieniveau entnommen wird, dessen Energie $\epsilon_{\mathrm{HOMO}}$ ist, und der Hamiltonian in diesem Prozess nicht verändert wird. Andererseits ist aus der Perspektive des realen Systems klar, dass der Energieaufwand gleich der ersten Ionisierungsenergie eines der Moleküle, $I$, ist. Daher haben wir $\epsilon_{\mathrm{HOMO}} = -I$, was bedeutet, dass die Kohn-Sham-Wellenfunktion wie folgt zerfällt (wiederum bis zu einem möglichen polynomialen Vorfaktor; die genaue Bestimmung dieses polynomialen Vorfaktors ist eine viel schwierigere Frage) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Obwohl die Kohn-Sham-Wellenfunktion fiktiv ist, ist ihre Dichte gleich der wahren multielektronischen Dichte, und damit die wahre Dichte das gleiche asymptotische Verhalten wie die Kohn-Sham-Dichte hat, muss die wahre Wellenfunktion das gleiche asymptotische Verhalten wie die Kohn-Sham-Wellenfunktion haben. Q.E.D.
Los orbitales tipo Slater (STO) se consideran más precisos que los orbitales tipo Gauss (GTO) para cálculos QM atómicos y moleculares porque -entre otras razones- decaen con $e^{-\alpha r}$ a medida que $r \to \infty$. Pero los GTO son más populares porque son más fáciles de calcular. Los GTO decaen con $e^{-\alpha r^2}$, por lo que a veces es adecuado añadir funciones difusas al conjunto de bases GTO para compensar el comportamiento de decaimiento gaussiano. Además, las funciones de onda exactas del hidrógeno decaen exponencialmente, de ahí la motivación de las OST. Entiendo que el único requisito de contorno para resolver la ecuación de Schrödinger para átomos y moléculas en el espacio libre es que la función de onda se hace cero cuando $r \a \infty$, pero no hay requisitos a priori para la forma en que decae cuando lo hace. Mi pregunta es: ¿tenemos razones teóricas (ab initio) y/o experimentales para creer que todas las funciones de onda atómicas y moleculares decaen como $e^{-\alpha r}$ cuando $r \a \infty$?
Responderé a esta pregunta desde el punto de vista teórico. El comportamiento exponencial se deduce simplemente de la ecuación de Schrödinger. Consideremos la ecuación de Schrödinger de un electrón: $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ En puntos espaciales muy alejados del núcleo, $V(\mathbf{r})\aprox 0$, de modo que la solución asintótica viene dada por $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Esta ecuación diferencial tiene soluciones básicas de la forma $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ para algún vector unitario $\mathbf{k}$. El comportamiento asintótico real de $\psi(\mathbf{r})$ es pues una combinación lineal de estas soluciones básicas. La combinación lineal puede aportar un prefactor polinómico a la exponencial, pero nunca alterará el exponente. Así pues, no sólo hemos demostrado el comportamiento exponencial, sino que también hemos deducido el exponente correcto $\alpha = \sqrt{-2\epsilon}$. Para un sistema multielectrónico que no interactúa, la tasa de desintegración global se rige por el orbital de desintegración más lenta, es decir, el HOMO. Por supuesto, la función de onda real sólo puede describirse mediante una ecuación de Schrödinger multielectrónica. Pero podemos trabajar con el sistema Kohn-Sham equivalente y demostrar que la función de onda Kohn-Sham decae a una velocidad dada por la energía del HOMO de Kohn-Sham. Por el teorema de Janak, la energía HOMO de Kohn-Sham es sólo el negativo del potencial de ionización del sistema exacto. Para ver esto, considere un enorme conjunto de $N$ moléculas idénticas, que no interactúan. Si quitamos un electrón del conjunto y dejamos que el agujero se deslocalice uniformemente entre todas las moléculas, entonces como $N\to +\infty$, la eliminación de electrones tiene un impacto insignificante en la densidad de electrones de cualquier molécula (y por lo tanto el potencial de Kohn-Sham de cada molécula). Por lo tanto, bajo el marco de Kohn-Sham vemos que la eliminación de un electrón de este tipo cuesta una energía de $-\epsilon_{\mathrm{HOMO}}$ (no importa si el HOMO se refiere al del conjunto o al de una molécula, ya que sus energías orbitales son iguales), ya que el electrón se toma de un nivel de energía cuya energía es $\epsilon_{\mathrm{HOMO}}$ y el Hamiltoniano no se modifica en este proceso. Por otro lado, desde la perspectiva del sistema real está claro que el coste energético es igual a la primera energía de ionización de una de las moléculas, $I$. Por lo tanto tenemos $\epsilon_{\mathrm{HOMO}} = -I$, lo que significa que la función de onda de Kohn-Sham decae como (de nuevo hasta un posible prefactor polinómico; la determinación precisa de este prefactor polinómico es una cuestión mucho más difícil) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Aunque la función de onda de Kohn-Sham es ficticia, su densidad es igual a la densidad multielectrónica verdadera, y para que la densidad verdadera tenga el mismo comportamiento asintótico que la densidad de Kohn-Sham, la función de onda verdadera debe tener el mismo comportamiento asintótico que la función de onda de Kohn-Sham. Q.E.D.
Les orbitales de type Slater (STO) sont considérées comme plus précises que les orbitales de type Gaussien (GTO) pour les calculs atomiques et moléculaires de la MQ car - entre autres raisons - elles se décomposent avec $e^{-\alpha r}$ lorsque $r \à \infty$. Mais les GTO sont plus populaires parce qu'ils sont plus faciles à calculer. Les GTO se décomposent avec $e^{-\alpha r^2}$, il convient donc d'ajouter parfois des fonctions diffuses à l'ensemble de bases GTO pour compenser le comportement gaussien de la décomposition. En outre, les fonctions d'onde exactes de l'hydrogène se décomposent de manière exponentielle, d'où la motivation pour les STO. Je comprends que la seule condition limite pour résoudre l'équation de Schrödinger pour les atomes et les molécules dans l'espace libre est que la fonction d'onde devienne nulle lorsque $r \à \infty$, mais il n'y a pas d'exigences a priori pour la façon dont elle se décompose à ce moment-là. Ma question est la suivante : avons-nous des raisons théoriques (ab initio) et/ou expérimentales de croire que toutes les fonctions d'onde atomiques et moléculaires se décomposent comme $e^{-\alpha r}$ lorsque $r passe à \infty$.
Je répondrai à cette question d'un point de vue théorique. Le comportement exponentiel découle simplement de l'équation de Schrödinger. Considérons l'équation de Schrödinger à un électron : $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Aux points spatiaux très éloignés du noyau, $V(\mathbf{r})\approx 0$, de sorte que la solution asymptotique est donnée par $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Cette équation différentielle a des solutions de base de la forme $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ pour un vecteur unitaire $\mathbf{k}$. Le comportement asymptotique réel de $\psi(\mathbf{r})$ est donc une combinaison linéaire de ces solutions de base. La combinaison linéaire peut apporter un préfacteur polynomial à l'exponentielle, mais ne modifiera jamais l'exposant. Ainsi, nous avons non seulement prouvé le comportement exponentiel, mais aussi dérivé l'exposant correct $\alpha = \sqrt{-2\epsilon}$. Pour un système multi-électronique sans interaction, le taux de désintégration global est régi par l'orbitale à désintégration la plus lente, c'est-à-dire l'HOMO. Bien entendu, la fonction d'onde réelle ne peut être décrite que par une équation de Schrödinger multi-électronique. Mais nous pouvons travailler sur le système équivalent de Kohn-Sham et montrer que la fonction d'onde de Kohn-Sham se décompose à une vitesse donnée par l'énergie du HOMO de Kohn-Sham. Par le théorème de Janak, l'énergie HOMO de Kohn-Sham est juste le négatif du potentiel d'ionisation du système exact. Pour s'en convaincre, considérons un énorme ensemble de $N$ molécules identiques, sans interaction. Si nous retirons un électron de l'ensemble et laissons le trou se délocaliser uniformément entre toutes les molécules, alors, à mesure que $N\à +\infty$, le retrait de l'électron a un impact négligeable sur la densité électronique de chaque molécule (et donc sur le potentiel de Kohn-Sham de chaque molécule). Par conséquent, dans le cadre de Kohn-Sham, nous constatons que l'élimination d'un tel électron coûte une énergie de $-\epsilon_{\mathrm{HOMO}}$ (peu importe que l'HOMO se réfère à celle de l'ensemble ou à celle d'une molécule, puisque leurs énergies orbitales sont égales), puisque l'électron est prélevé d'un niveau d'énergie dont l'énergie est $\epsilon_{\mathrm{HOMO}}$ et que l'hamiltonien n'est pas modifié au cours de ce processus. D'autre part, du point de vue du système réel, il est clair que le coût énergétique est égal à l'énergie de première ionisation de l'une des molécules, $I$. Par conséquent, nous avons $\epsilon_{\mathrm{HOMO}} = -I$, ce qui signifie que la fonction d'onde de Kohn-Sham se décompose comme (encore une fois jusqu'à un préfacteur polynomial possible ; la détermination précise de ce préfacteur polynomial est une question beaucoup plus difficile) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Bien que la fonction d'onde de Kohn-Sham soit fictive, sa densité est égale à la véritable densité multiélectronique, et pour que la véritable densité ait le même comportement asymptotique que la densité de Kohn-Sham, la véritable fonction d'onde doit avoir le même comportement asymptotique que la fonction d'onde de Kohn-Sham. Q.E.D.
Gli orbitali di tipo Slater (STO) sono considerati più accurati degli orbitali di tipo gaussiano (GTO) per i calcoli di MQ atomica e molecolare perché - tra le altre ragioni - decadono con $e^{-alfa r}$ al variare di $r ´a ´infty$. Ma i GTO sono più popolari perché sono più facili da calcolare. I GTO decadono con $e^{-alfa r^2}$, quindi è opportuno aggiungere talvolta funzioni diffuse all'insieme di basi GTO per compensare il comportamento del decadimento gaussiano. Inoltre, le funzioni d'onda esatte dell'idrogeno decadono in modo esponenziale, quindi la motivazione per gli STO. So che l'unico requisito fondamentale per risolvere l'equazione di Schrödinger per gli atomi e le molecole nello spazio libero è che la funzione d'onda vada a zero quando $r \a \infty$, ma non ci sono requisiti a priori per il modo in cui decade. La mia domanda è: abbiamo ragioni teoriche (ab initio) e/o sperimentali per credere che tutte le funzioni d'onda atomiche e molecolari decadano come $e^{-alfa r}$ quando $r \a \infty$.
Risponderò a questa domanda dal punto di vista teorico. Il comportamento esponenziale deriva semplicemente dall'equazione di Schrödinger. Consideriamo l'equazione di Schrödinger di un elettrone: $$ (-\frac{1}{2}\nabla^2 + V(\mathbf{r}))\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ In punti spaziali molto distanti dal nucleo, $V(\mathbf{r})\ circa 0$, per cui la soluzione asintotica è data da $$ -\frac{1}{2}\nabla^2\psi(\mathbf{r}) = \epsilon\psi(\mathbf{r}), \epsilon < 0 $$ Questa equazione differenziale ha soluzioni di base della forma $$ \psi(\mathbf{r}) = Ce^{-\sqrt{-2\epsilon}\mathbf{k}\cdot\mathbf{r}} $$ per un vettore unitario $mathbf{k}$. Il comportamento asintotico reale di $psi(\mathbf{r})$ è quindi una combinazione lineare di queste soluzioni di base. La combinazione lineare può apportare un prefattore polinomiale all'esponenziale, ma non altera mai l'esponente. In questo modo non solo abbiamo dimostrato il comportamento dell'esponenziale, ma abbiamo anche ricavato l'esponente corretto $alfa = \sqrt{-2\epsilon}$. Per un sistema multi-elettronico e non interagente, il tasso di decadimento complessivo è governato dall'orbitale che decade più lentamente, cioè l'HOMO. Naturalmente, la funzione d'onda reale può essere descritta solo da un'equazione di Schrödinger a più elettroni. Ma possiamo lavorare sul sistema Kohn-Sham equivalente e dimostrare che la funzione d'onda Kohn-Sham decade a una velocità data dall'energia dell'HOMO di Kohn-Sham. Per il teorema di Janak, l'energia HOMO di Kohn-Sham è solo il negativo del potenziale di ionizzazione del sistema esatto. Per rendersene conto, si consideri un enorme insieme di $N$ molecole identiche e non interagenti. Se rimuoviamo un elettrone dall'insieme e lasciamo che il buco si delocalizzi uniformemente tra tutte le molecole, allora, con l'approssimarsi di $N\a +\infty$, la rimozione dell'elettrone ha un impatto trascurabile sulla densità elettronica di ogni molecola (e quindi sul potenziale di Kohn-Sham di ogni molecola). Pertanto, nell'ambito del quadro di Kohn-Sham, vediamo che la rimozione di un elettrone costa un'energia di $-epsilon_{\mathrm{HOMO}}$ (non importa se l'HOMO si riferisce a quello dell'insieme o a quello di una molecola, poiché le energie dei loro orbitali sono uguali), poiché l'elettrone viene prelevato da un livello energetico la cui energia è $epsilon_{\mathrm{HOMO}}$ e l'Hamiltoniana non viene modificata in questo processo. D'altra parte, dal punto di vista del sistema reale è chiaro che il costo energetico è uguale all'energia di prima ionizzazione di una delle molecole, $I$. Pertanto si ha $epsilon_{mathrm{HOMO}} = -I$, il che significa che la funzione d'onda di Kohn-Sham decade come (ancora una volta fino a un possibile prefattore polinomiale; la determinazione precisa di questo prefattore polinomiale è una domanda molto più difficile) $$ \psi(\mathbf{r}) = Ce^{-\sqrt{2I}\mathbf{k}\cdot\mathbf{r}} $$ Sebbene la funzione d'onda di Kohn-Sham sia fittizia, la sua densità è uguale alla vera densità multielettronica e, affinché la vera densità abbia lo stesso comportamento asintotico della densità di Kohn-Sham, la vera funzione d'onda deve avere lo stesso comportamento asintotico della funzione d'onda di Kohn-Sham. Q.E.D.
4
Explain what "git reset" does. I come from a SVN background and Git is a whole new paradigm. I got mercurial easily, but Git is much more technical. I think ```git reset``` is close to ```hg revert```, but it seems there are differences. Please include detailed explanations about: * the options ```--hard```, ```--soft``` and ```--merge```; * the strange notation you use with ```HEAD``` such as ```HEAD^``` and ```HEAD~1```; * concrete use cases and work flows; * consequences on the working copy, the ```HEAD``` and your global stress level.
Remember that in ```git``` you have: * the ```HEAD``` pointer, which tells you what commit you're working on * the working tree, which represents the state of the files on your system * the staging area (also called the index), which "stages" changes so that they can later be committed together > Please include detailed explanations about: ```--hard```, ```--soft``` and ```--merge```; In increasing order of dangerous-ness: * ```--soft``` moves ```HEAD``` but doesn't touch the staging area or the working tree. * ```--mixed``` moves ```HEAD``` and updates the staging area, but not the working tree. * ```--merge``` moves ```HEAD```, resets the staging area, and tries to move all the changes in your working tree into the new working tree. * ```--hard``` moves ```HEAD``` and adjusts your staging area and working tree to the new ```HEAD```, throwing away everything. > concrete use cases and workflows; * Use ```--soft``` when you want to move to another commit and patch things up without "losing your place". It's pretty rare that you need this. ``` # git reset --soft example touch foo // Add a file, make some changes. git add foo // git commit -m "bad commit message" // Commit... D'oh, that was a mistake! git reset --soft HEAD^ // Go back one commit and fix things. git commit -m "good commit" // There, now it's right. ``` -- * Use ```--mixed``` (which is the default) when you want to see what things look like at another commit, but you don't want to lose any changes you already have. * Use ```--merge``` when you want to move to a new spot but incorporate the changes you already have into that the working tree. * Use ```--hard``` to wipe everything out and start a fresh slate at the new commit.
Erklären Sie, was "git reset" bewirkt. Ich komme aus einem SVN-Hintergrund und Git ist ein ganz neues Paradigma. Ich habe Mercurial leicht verstanden, aber Git ist viel technischer. Ich denke, ```Git reset`` ist ähnlich wie ```Hg revert```, aber es scheint Unterschiede zu geben. Bitte fügen Sie detaillierte Erklärungen bei: * die Optionen ```--hard``, ```--soft`` und ```--merge``; * die seltsame Schreibweise, die Sie mit ``HEAD`` verwenden, wie ``HEAD^``` und ``HEAD~1```; * konkrete Anwendungsfälle und Arbeitsabläufe; * Auswirkungen auf die Arbeitskopie, den ```HEAD`` und Ihren globalen Stresslevel.
Erinnern Sie sich, dass Sie in ```Git`` haben: * den ```HEAD``-Zeiger, der Ihnen sagt, an welchem Commit Sie gerade arbeiten * den Arbeitsbaum, der den Zustand der Dateien auf deinem System darstellt * den Staging-Bereich (auch Index genannt), der Änderungen "stuft", so dass sie später zusammen übertragen werden können > Bitte fügen Sie detaillierte Erklärungen über: ```--hard```, ```--soft``` und ```--merge``; In aufsteigender Reihenfolge der Gefährlichkeit: * ````-weich`` bewegt sich ```KOPF``, berührt aber nicht den Bereitstellungsraum oder den Arbeitsbaum. * ```--mixed``` verschiebt ```HEAD`` und aktualisiert die Staging Area, aber nicht den Working Tree. * ```--merge``` verschiebt ```HEAD``, setzt die Staging Area zurück und versucht, alle Änderungen im Arbeitsbaum in den neuen Arbeitsbaum zu verschieben. * ```--hard``` verschiebt ```HEAD`` und passt den Bereitstellungsbereich und den Arbeitsbaum an den neuen ```HEAD`` an, wobei alles weggeworfen wird. > konkrete Anwendungsfälle und Arbeitsabläufe; * Benutzen Sie ```--soft``, wenn Sie zu einem anderen Commit wechseln und Dinge ausbessern wollen, ohne "Ihren Platz zu verlieren". Es ist ziemlich selten, dass man das braucht. ``` # git reset --soft Beispiel touch foo // Füge eine Datei hinzu, mache ein paar Änderungen. git add foo // git commit -m "bad commit message" // Commit... D'oh, das war ein Fehler! git reset --soft HEAD^ // Einen Commit zurückgehen und Dinge korrigieren. git commit -m "good commit" // So, jetzt ist es richtig. ``` -- * Benutze ```--mixed``` (das ist die Standardeinstellung), wenn du sehen willst, wie die Dinge bei einem anderen Commit aussehen, aber du willst keine Änderungen verlieren, die du bereits hast. * Benutzen Sie ```--merge```, wenn Sie an eine neue Stelle wechseln wollen, aber die Änderungen, die Sie bereits haben, in den Arbeitsbaum einfügen wollen. * Benutzen Sie ```--hard``, um alles zu löschen und mit dem neuen Commit neu zu beginnen.
Explica lo que hace "git reset". Vengo de un fondo SVN y Git es un paradigma completamente nuevo. Entendí mercurial fácilmente, pero Git es mucho más técnico. Creo que ``git reset`` es parecido a ```hg revert``, pero parece que hay diferencias. Por favor, incluya explicaciones detalladas sobre: * las opciones ```--hard``, ```--soft`` y ```--merge``; * la extraña notación que usas con ```HEAD`` como ```HEAD^`` y ```HEAD~1``; * casos concretos de uso y flujos de trabajo; * consecuencias en la copia de trabajo, la ```HEAD`` y tu nivel de estrés global.
Recuerda que en ``git`` tienes: * el puntero ```HEAD``, que te dice en qué confirmación estás trabajando * el árbol de trabajo, que representa el estado de los archivos en tu sistema * el área de preparación (también llamada índice), que "ordena" los cambios para que puedan ser confirmados juntos más tarde. > Por favor, incluya explicaciones detalladas sobre: ```--hard``, ```--soft`` y ```--merge``; En orden creciente de peligrosidad: * ```--soft`` mueve ```HEAD`` pero no toca el área de preparación o el árbol de trabajo. * ```--mixed`` mueve ```HEAD`` y actualiza el área de preparación, pero no el árbol de trabajo. * ```--merge`` mueve ```HEAD``, reinicia el área de preparación, e intenta mover todos los cambios de tu árbol de trabajo al nuevo árbol de trabajo. * ```--hard`` mueve ```HEAD`` y ajusta tu área de preparación y árbol de trabajo al nuevo ```HEAD``, desechando todo. > casos de uso y flujos de trabajo concretos; * Usa ```--soft`` cuando quieras moverte a otro commit y arreglar las cosas sin "perder tu sitio". Es bastante raro que necesites esto. ``` # git reset --soft ejemplo touch foo // Añadir un archivo, hacer algunos cambios. git add foo // git commit -m "bad commit message" // Confirmar... D'oh, ¡eso fue un error! git reset --soft HEAD^ // Retrocede una confirmación y arregla las cosas. git commit -m "good commit" // Ya está, ahora está bien. ``` -- * Usa ```--mixed`` (que es la opción por defecto) cuando quieras ver cómo quedan las cosas en otro commit, pero no quieras perder ningún cambio que ya tengas. * Usa ``--merge`` cuando quieras moverte a un nuevo punto pero incorporando los cambios que ya tienes en el árbol de trabajo. * Usa ``--hard`` para borrar todo y empezar de cero en el nuevo commit.
Expliquez ce que fait "git reset". Je viens de SVN et Git est un tout nouveau paradigme. J'ai facilement compris mercurial, mais Git est beaucoup plus technique. Je pense que ``git reset`` est proche de ``hg revert``, mais il semble qu'il y ait des différences. Merci d'inclure des explications détaillées sur : * les options ``--hard``, ``--soft`` et ``--merge`` ; * la notation étrange que vous utilisez avec ``HEAD`` comme ``HEAD^`` et ``HEAD~1`` ; * des cas d'utilisation concrets et des flux de travail ; * les conséquences sur la copie de travail, le ``HEAD`` et votre niveau de stress global.
Rappelez-vous que dans ``git`` vous avez : * le pointeur ``HEAD``, qui vous indique sur quel commit vous travaillez * l'arbre de travail, qui représente l'état des fichiers sur votre système * la zone de mise à disposition (aussi appelée index), qui "met en scène" les changements de façon à ce qu'ils puissent être livrés ensemble plus tard > Veuillez inclure des explications détaillées sur : ``--hard``, ``--soft`` et ``--merge`` ; Par ordre croissant de dangerosité : * ``-soft`` déplace ``HEAD`` mais ne touche pas la zone de préparation ou l'arbre de travail. * ``--mixed`` déplace ``HEAD`` et met à jour la staging area, mais pas l'arbre de travail. * ``--merge`` déplace ``HEAD``, réinitialise la zone de travail, et essaie de déplacer toutes les modifications de votre arbre de travail dans le nouvel arbre de travail. * ``--hard`` déplace ``HEAD`` et ajuste votre staging area et votre arbre de travail au nouveau ``HEAD``, en jetant tout. > Les cas d'utilisation concrets et les flux de travail ; * Utilisez ``--soft`` lorsque vous voulez passer à un autre commit et corriger les choses sans "perdre votre place". Il est assez rare que vous ayez besoin de cela. ``` # git reset --soft exemple touch foo // Ajoute un fichier, fait quelques changements. git add foo // git commit -m "mauvais message de livraison" // Livraison... D'oh, c'était une erreur ! git reset --soft HEAD^ // Revenir en arrière d'un commit et corriger les choses. git commit -m "good commit" // Voilà, c'est bon. ``` -- * Utilisez ``--mixed`` (qui est l'option par défaut) quand vous voulez voir à quoi ressemblent les choses dans un autre commit, mais que vous ne voulez pas perdre les changements que vous avez déjà. * Utilisez ``--merge`` quand vous voulez changer de place mais incorporer les changements que vous avez déjà dans l'arbre de travail. * Utilisez ``--hard`` pour tout effacer et repartir à zéro avec le nouveau commit.
Spiega cosa fa "git reset". Vengo da un background SVN e Git è un paradigma completamente nuovo. Ho capito mercurial facilmente, ma Git è molto più tecnico. Penso che ``git reset`` sia vicino a ``hg revert``, ma sembra che ci siano delle differenze. Si prega di includere spiegazioni dettagliate su: * le opzioni ```--hard``, ```--soft`` e ````merge``; * la strana notazione che si usa con ```HEAD`` come ```HEAD^`` e ```HEAD~1``; * casi d'uso concreti e flussi di lavoro; * le conseguenze sulla copia di lavoro, sul ``HEAD`` e sul livello di stress globale.
Ricordate che in ```git`` si ha: * il puntatore ```HEAD``, che dice su quale commit si sta lavorando * l'albero di lavoro, che rappresenta lo stato dei file sul vostro sistema * l'area di staging (chiamata anche indice), che "mette in scena" le modifiche in modo che possano essere poi impegnate insieme > Si prega di includere spiegazioni dettagliate su: ```--hard``, ```--soft`` e ````merge``; In ordine crescente di pericolosità: * ```-soft`` si sposta ```HEAD`` ma non tocca l'area di sosta o l'albero di lavoro. * ```--mixed`` sposta ```HEAD`` e aggiorna l'area di staging, ma non l'albero di lavoro. * ```--merge`` sposta ```HEAD``, ripristina l'area di staging e cerca di spostare tutte le modifiche nell'albero di lavoro nel nuovo albero di lavoro. * ```--hard`` sposta ```HEAD`` e adatta l'area di staging e l'albero di lavoro alla nuova ```HEAD``, buttando via tutto. > casi d'uso e flussi di lavoro concreti; * Usare ```--soft`` quando si vuole passare a un altro commit e sistemare le cose senza "perdere il posto". È piuttosto raro che sia necessario. ``` # git reset --soft esempio touch foo // Aggiungere un file, fare qualche modifica. git add foo // git commit -m "bad commit message" // Impegna... D'oh, c'è stato un errore! git reset --soft HEAD^ // Tornare indietro di un commit e sistemare le cose. git commit -m "good commit" // Ecco, ora è giusto. ``` -- * Usare ```--mixed`` (che è il default) quando si vuole vedere come sono le cose in un altro commit, ma non si vogliono perdere le modifiche già fatte. * Usare ```--merge`` quando si vuole passare a un nuovo punto ma incorporare le modifiche già fatte nell'albero di lavoro. * Usare ```--hard`` per cancellare tutto e ricominciare da capo con il nuovo commit.
5
I am looking to use Java to get the MD5 checksum of a file. How is it done?
The com.google.common.hash API offers: * A unified user-friendly API for all hash functions * Seedable 32- and 128-bit implementations of murmur3 * md5(), sha1(), sha256(), sha512() adapters, change only one line of code to switch between these, and murmur. * goodFastHash(int bits), for when you don't care what algorithm you use * General utilities for HashCode instances, like combineOrdered / combineUnordered Read the User Guide (IO Explained, Hashing Explained). For your use-case ```Files.hash()``` computes and returns the digest value for a file. For example a sha-1 digest calculation (change SHA-1 to MD5 to get MD5 digest) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()); "SHA-1: " + hc.toString(); ``` Note that crc32 is much faster than md5, so use crc32 if you do not need a cryptographically secure checksum. Note also that md5 should not be used to store passwords and the like since it is to easy to brute force, for passwords use bcrypt, scrypt or sha-256 instead. For long term protection with hashes a Merkle signature scheme adds to the security and The Post Quantum Cryptography Study Group sponsored by the European Commission has recommended use of this cryptography for long term protection against quantum computers (ref). Note that crc32 has a higher collision rate than the others. What part of Files.hash as stated above does not cover Files.hash ?
Ich möchte mit Java die MD5-Prüfsumme einer Datei ermitteln. Wie wird das gemacht?
Die com.google.common.hash API bietet: * Eine einheitliche, benutzerfreundliche API für alle Hash-Funktionen * Seedfähige 32- und 128-Bit-Implementierungen von murmur3 * md5(), sha1(), sha256(), sha512() Adapter, ändern Sie nur eine Zeile Code, um zwischen diesen und murmur zu wechseln. * goodFastHash(int bits), wenn es Ihnen egal ist, welchen Algorithmus Sie verwenden * Allgemeine Dienstprogramme für HashCode-Instanzen, wie combineOrdered / combineUnordered Lesen Sie das Benutzerhandbuch (IO Explained, Hashing Explained). Für Ihren Anwendungsfall ```Files.hash()``` berechnet und liefert den Digest-Wert für eine Datei. Zum Beispiel eine sha-1 Hash-Berechnung (ändern Sie SHA-1 in MD5, um MD5 Hash zu erhalten) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()); "SHA-1: " + hc.toString(); ``` Beachten Sie, dass crc32 viel schneller ist als md5, verwenden Sie also crc32, wenn Sie keine kryptografisch sichere Prüfsumme benötigen. Beachten Sie auch, dass md5 nicht zum Speichern von Passwörtern und ähnlichem verwendet werden sollte, da es zu leicht zu erzwingen ist. Verwenden Sie für Passwörter stattdessen bcrypt, scrypt oder sha-256. Die Post Quantum Cryptography Study Group, die von der Europäischen Kommission gesponsert wird, hat die Verwendung dieser Kryptographie für den langfristigen Schutz vor Quantencomputern empfohlen (ref). Beachten Sie, dass crc32 eine höhere Kollisionsrate hat als die anderen. Welcher Teil von Files.hash deckt sich nicht mit Files.hash, wie oben angegeben?
Quiero utilizar Java para obtener la suma de comprobación MD5 de un archivo. ¿Cómo se hace?
La API com.google.common.hash ofrece: * Una API unificada y fácil de usar para todas las funciones hash. * Implementaciones sembrables de 32 y 128 bits de murmur3 * Adaptadores md5(), sha1(), sha256(), sha512(), cambie sólo una línea de código para cambiar entre éstos, y murmur. * goodFastHash(int bits), para cuando no te importa que algoritmo usar * Utilidades generales para instancias HashCode, como combineOrdered / combineUnordered Lee la Guía del Usuario (IO Explained, Hashing Explained). Para tu caso de uso ```Files.hash()`` calcula y devuelve el valor de resumen de un fichero. Por ejemplo un cálculo sha-1 digest (cambia SHA-1 por MD5 para obtener MD5 digest) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()); "SHA-1: " + hc.toString(); ``` Tenga en cuenta que crc32 es mucho más rápido que md5, así que use crc32 si no necesita una suma de comprobación criptográficamente segura. Tenga en cuenta también que md5 no debe ser utilizado para almacenar contraseñas y similares, ya que es muy fácil de fuerza bruta, para las contraseñas de uso bcrypt, scrypt o sha-256 en su lugar. El Grupo de Estudio de Criptografía Post Cuántica patrocinado por la Comisión Europea ha recomendado el uso de esta criptografía para la protección a largo plazo contra los ordenadores cuánticos (ref). Tenga en cuenta que crc32 tiene una tasa de colisión más alta que los otros. ¿Qué parte de Files.hash no cubre Files.hash?
Je cherche à utiliser Java pour obtenir la somme de contrôle MD5 d'un fichier. Comment faire ?
L'API com.google.common.hash offre : * Une API unifiée et conviviale pour toutes les fonctions de hachage * Des implémentations de murmur3 en 32 et 128 bits pouvant être semées * des adaptateurs md5(), sha1(), sha256(), sha512(), qui ne changent qu'une ligne de code pour passer de l'un à l'autre et de murmur à l'autre. * goodFastHash(int bits), pour les cas où vous ne vous souciez pas de l'algorithme que vous utilisez. * Utilitaires généraux pour les instances de HashCode, comme combineOrdered / combineUnordered Lisez le guide de l'utilisateur (IO Explained, Hashing Explained). Pour votre cas d'utilisation, ``Files.hash()`` calcule et renvoie la valeur du condensé d'un fichier. Par exemple, le calcul d'un condensé sha-1 (remplacez SHA-1 par MD5 pour obtenir un condensé MD5) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()) ; "SHA-1 : " + hc.toString() ; ``` Notez que crc32 est beaucoup plus rapide que md5, donc utilisez crc32 si vous n'avez pas besoin d'une somme de contrôle cryptographiquement sécurisée. Notez également que md5 ne doit pas être utilisé pour stocker des mots de passe ou autres, car il est trop facile à forcer. Pour les mots de passe, utilisez plutôt bcrypt, scrypt ou sha-256. Pour une protection à long terme avec des hachages, un schéma de signature Merkle ajoute à la sécurité et le Post Quantum Cryptography Study Group sponsorisé par la Commission européenne a recommandé l'utilisation de cette cryptographie pour une protection à long terme contre les ordinateurs quantiques (ref). Notez que crc32 a un taux de collision plus élevé que les autres. Quelle partie de Files.hash, comme indiqué ci-dessus, ne couvre pas Files.hash ?
Sto cercando di utilizzare Java per ottenere il checksum MD5 di un file. Come si fa?
L'API com.google.common.hash offre: * Un'API unificata di facile utilizzo per tutte le funzioni hash. * Implementazioni di murmur3 a 32 e 128 bit con possibilità di semina * Adattatori md5(), sha1(), sha256(), sha512(), cambiando solo una riga di codice per passare da uno all'altro e murmur. * goodFastHash(int bits), per i casi in cui non vi interessa quale algoritmo utilizzare. * utilità generali per le istanze di HashCode, come combineOrdered / combineUnordered Leggere la Guida per l'utente (IO spiegato, Hashing spiegato). Per il vostro caso d'uso ```Files.hash()``` calcola e restituisce il valore digest di un file. Per esempio, il calcolo di un digest sha-1 (cambiare SHA-1 in MD5 per ottenere il digest MD5) ```HashCode hc = Files.asByteSource(file).hash(Hashing.sha1()); "SHA-1: " + hc.toString(); ``` Si noti che crc32 è molto più veloce di md5, quindi si usi crc32 se non si ha bisogno di un checksum crittograficamente sicuro. Si noti anche che md5 non dovrebbe essere usato per memorizzare password e simili, poiché è troppo facile da forzare; per le password si usi invece bcrypt, scrypt o sha-256. Per una protezione a lungo termine con gli hash, uno schema di firma Merkle aumenta la sicurezza e il Post Quantum Cryptography Study Group, sponsorizzato dalla Commissione Europea, ha raccomandato l'uso di questa crittografia per una protezione a lungo termine contro i computer quantistici (rif.). Si noti che crc32 ha un tasso di collisione più elevato rispetto agli altri. Quale parte di Files.hash, come detto sopra, non copre Files.hash?
6
What are the primary objections Democrats have to a border wall?
It's not clear to me that Democrats are opposed to border-wall construction (your one source suggests they are fine with border walls/fences where necessary), so much as they opposed to some of the plans for full-border walls that have been put forth so far. Recently, in response to reports that the spending bill would include funding for a border wall, 5 Democratic senators released a letter voicing concerns over the cost, the effectiveness, and the legal issues of constructing it. We are also concerned with reports that there may be an effort to include funding for a very expensive new wall along the southern border with Mexico and a “deportation force.” According to non-partisan experts, the proposed new border wall could cost as much as $25 million per mile and raises considerable issues that have not been resolved by the Congress or the Department of Homeland Security. First, many experts believe that such a border wall will not work. Second, there is real concern that the Administration, put simply, has no plan to build the border wall. For example, the Administration has not detailed how to 1) use eminent domain and other procedures to acquire land from private landowners and Native American tribes, 2) design the wall, 3) locate the wall, 4) construct the wall, and 5) require Mexico to pay for the wall given the President’s clear and repeated promises that he would force Mexico to do so. Finally, there are objections to the construction of a wall from Democratic and Republican members of Congress that represent border states. Given these and other concerns, we believe it would be inappropriate to insist on the inclusion of such funding in a must-pass appropriations bill that is needed for the Republican majority in control of the Congress to avert a government shutdown so early in President Trump’s Administration. [...] Senator Charles Schumer Senator Richard Durbin Senator Patty Murray Senator Debbie Stabenow Senator Patrick Leahy Based on this letter, it appears their main objections to a full border wall are currently the cost-benefit ratio and the legal issues of taking land from Americans to build it on; objections that may not be unique to Democrats.
Was sind die Haupteinwände der Demokraten gegen eine Grenzmauer?
Für mich ist nicht klar, dass die Demokraten gegen den Bau einer Grenzmauer sind (Ihre eine Quelle deutet darauf hin, dass sie mit Grenzmauern/Zäunen einverstanden sind, wo dies notwendig ist), sondern sie sind vielmehr gegen einige der Pläne für vollständige Grenzmauern, die bisher vorgelegt wurden. Kürzlich veröffentlichten fünf demokratische Senatoren als Reaktion auf Berichte, dass das Haushaltsgesetz Mittel für eine Grenzmauer vorsehen würde, ein Schreiben, in dem sie Bedenken hinsichtlich der Kosten, der Wirksamkeit und der rechtlichen Aspekte des Baus einer solchen Mauer äußerten. Wir sind auch besorgt über Berichte, wonach es Bestrebungen geben könnte, Mittel für eine sehr teure neue Mauer entlang der südlichen Grenze zu Mexiko und eine "Abschiebetruppe" einzuplanen. Unparteiischen Experten zufolge könnte die vorgeschlagene neue Grenzmauer bis zu 25 Millionen Dollar pro Meile kosten und wirft erhebliche Fragen auf, die weder vom Kongress noch vom Ministerium für Innere Sicherheit gelöst wurden. Erstens glauben viele Experten, dass eine solche Grenzmauer nicht funktionieren wird. Zweitens gibt es echte Bedenken, dass die Regierung, vereinfacht gesagt, keinen Plan zum Bau der Grenzmauer hat. So hat die Regierung beispielsweise nicht dargelegt, wie sie 1) die Enteignung und andere Verfahren zum Erwerb von Land von privaten Landbesitzern und indianischen Stämmen nutzen, 2) die Mauer entwerfen, 3) den Standort der Mauer bestimmen, 4) die Mauer errichten und 5) von Mexiko verlangen will, für die Mauer zu zahlen, obwohl der Präsident eindeutig und wiederholt versprochen hat, Mexiko dazu zu zwingen. Schließlich gibt es auch Einwände gegen den Bau einer Mauer von demokratischen und republikanischen Kongressmitgliedern, die Grenzstaaten vertreten. In Anbetracht dieser und anderer Bedenken halten wir es für unangemessen, auf die Aufnahme einer solchen Finanzierung in ein Haushaltsgesetz zu bestehen, das die republikanische Mehrheit im Kongress benötigt, um einen Regierungsstillstand so früh in der Amtszeit von Präsident Trump abzuwenden. [...] Senator Charles Schumer Senator Richard Durbin Senatorin Patty Murray Senatorin Debbie Stabenow Senator Patrick Leahy Aus diesem Schreiben geht hervor, dass ihre Haupteinwände gegen eine vollständige Grenzmauer derzeit das Kosten-Nutzen-Verhältnis und die rechtlichen Probleme sind, die entstehen, wenn man den Amerikanern Land wegnimmt, um die Mauer zu bauen.
¿Cuáles son las principales objeciones de los demócratas a un muro fronterizo?
No tengo claro que los demócratas se opongan a la construcción de muros fronterizos (la fuente de la que usted habla sugiere que les parece bien que se construyan muros o vallas cuando sea necesario), sino que se oponen a algunos de los planes de construcción de muros fronterizos que se han presentado hasta ahora. Recientemente, en respuesta a los informes de que el proyecto de ley de gastos incluiría financiación para un muro fronterizo, 5 senadores demócratas publicaron una carta expresando su preocupación por el coste, la eficacia y las cuestiones legales de su construcción. También nos preocupan los informes de que puede haber un esfuerzo para incluir financiación para un nuevo muro muy caro a lo largo de la frontera sur con México y una "fuerza de deportación". Según expertos no partidistas, el nuevo muro fronterizo propuesto podría costar hasta 25 millones de dólares por milla y plantea cuestiones considerables que no han sido resueltas por el Congreso ni por el Departamento de Seguridad Nacional. En primer lugar, muchos expertos creen que ese muro fronterizo no funcionará. En segundo lugar, existe una preocupación real porque la Administración, sencillamente, no tiene un plan para construir el muro fronterizo. Por ejemplo, la Administración no ha detallado cómo 1) utilizar el dominio eminente y otros procedimientos para adquirir terrenos de propietarios privados y tribus nativas americanas, 2) diseñar el muro, 3) ubicar el muro, 4) construir el muro y 5) exigir a México que pague por el muro, dadas las claras y repetidas promesas del Presidente de que obligaría a México a hacerlo. Por último, existen objeciones a la construcción de un muro por parte de miembros demócratas y republicanos del Congreso que representan a estados fronterizos. Dadas estas y otras preocupaciones, creemos que sería inapropiado insistir en la inclusión de dicha financiación en un proyecto de ley de asignaciones de aprobación obligatoria que es necesario para que la mayoría republicana en el control del Congreso evite un cierre del gobierno tan temprano en la Administración del presidente Trump. [...] Senador Charles Schumer Senador Richard Durbin Senadora Patty Murray Senadora Debbie Stabenow Senador Patrick Leahy Basándose en esta carta, parece que sus principales objeciones a un muro fronterizo completo son actualmente la relación coste-beneficio y las cuestiones legales de quitar tierras a los estadounidenses para construirlo; objeciones que pueden no ser exclusivas de los demócratas.
Quelles sont les principales objections des démocrates à la construction d'un mur frontalier ?
Je ne pense pas que les démocrates soient opposés à la construction de murs frontaliers (votre seule source suggère qu'ils sont d'accord avec les murs/clôtures frontaliers lorsque cela est nécessaire), mais plutôt qu'ils s'opposent à certains des projets de murs frontaliers complets qui ont été présentés jusqu'à présent. Récemment, en réponse à des informations selon lesquelles le projet de loi de finances inclurait le financement d'un mur frontalier, cinq sénateurs démocrates ont publié une lettre exprimant leurs inquiétudes quant au coût, à l'efficacité et aux problèmes juridiques de sa construction. Nous sommes également préoccupés par les informations selon lesquelles il pourrait y avoir un effort pour inclure le financement d'un nouveau mur très coûteux le long de la frontière sud avec le Mexique et d'une "force d'expulsion". Selon des experts non partisans, le nouveau mur frontalier proposé pourrait coûter jusqu'à 25 millions de dollars par kilomètre et soulève des questions considérables qui n'ont pas été résolues par le Congrès ou le ministère de la sécurité intérieure. Tout d'abord, de nombreux experts estiment qu'un tel mur frontalier ne fonctionnera pas. Deuxièmement, il existe une réelle inquiétude quant au fait que l'administration n'a tout simplement pas de plan pour construire le mur frontalier. Par exemple, l'administration n'a pas détaillé comment 1) utiliser le domaine éminent et d'autres procédures pour acquérir des terres auprès de propriétaires privés et de tribus amérindiennes, 2) concevoir le mur, 3) localiser le mur, 4) construire le mur et 5) exiger du Mexique qu'il paie pour le mur, étant donné les promesses claires et répétées du président qu'il obligerait le Mexique à le faire. Enfin, des membres démocrates et républicains du Congrès représentant des États frontaliers s'opposent à la construction d'un mur. Compte tenu de ces préoccupations et d'autres, nous pensons qu'il serait inapproprié d'insister sur l'inclusion d'un tel financement dans un projet de loi de crédits obligatoire qui est nécessaire pour que la majorité républicaine qui contrôle le Congrès évite une fermeture du gouvernement si tôt dans l'administration du président Trump. [...] Le sénateur Charles Schumer Sénateur Richard Durbin Sénatrice Patty Murray Sénatrice Debbie Stabenow Sénateur Patrick Leahy Sur la base de cette lettre, il apparaît que leurs principales objections à un mur frontalier complet sont actuellement le rapport coût-bénéfice et les questions juridiques liées au fait de prendre des terres aux Américains pour le construire ; des objections qui ne sont peut-être pas propres aux démocrates.
Quali sono le principali obiezioni dei Democratici al muro di confine?
Non mi sembra chiaro che i Democratici si oppongano alla costruzione di muri di confine (la vostra fonte suggerisce che sono d'accordo con muri e recinzioni di confine, se necessario), quanto piuttosto che si oppongano ad alcuni dei piani per muri di confine completi che sono stati presentati finora. Recentemente, in risposta alle notizie secondo cui il disegno di legge sulla spesa avrebbe incluso i fondi per un muro di confine, 5 senatori democratici hanno pubblicato una lettera in cui esprimevano preoccupazione per i costi, l'efficacia e le questioni legali legate alla sua costruzione. Siamo anche preoccupati per le notizie secondo cui si starebbe cercando di includere i fondi per un nuovo muro molto costoso lungo il confine meridionale con il Messico e per una "forza di deportazione". Secondo esperti non di parte, il nuovo muro di confine proposto potrebbe costare fino a 25 milioni di dollari per miglio e solleva questioni considerevoli che non sono state risolte dal Congresso o dal Dipartimento per la Sicurezza Nazionale. In primo luogo, molti esperti ritengono che tale muro di confine non funzionerà. In secondo luogo, c'è la preoccupazione reale che l'Amministrazione, in parole povere, non abbia un piano per costruire il muro di confine. Ad esempio, l'Amministrazione non ha descritto dettagliatamente come 1) utilizzare il dominio pubblico e altre procedure per acquisire terreni da proprietari privati e tribù di nativi americani, 2) progettare il muro, 3) localizzare il muro, 4) costruire il muro e 5) richiedere al Messico di pagare il muro, viste le chiare e ripetute promesse del Presidente di costringere il Messico a farlo. Infine, ci sono obiezioni alla costruzione di un muro da parte di membri democratici e repubblicani del Congresso che rappresentano gli Stati di confine. Alla luce di queste e altre preoccupazioni, riteniamo che sarebbe inopportuno insistere sull'inclusione di tali finanziamenti in una legge sugli stanziamenti che deve essere approvata e che è necessaria alla maggioranza repubblicana che controlla il Congresso per evitare uno shutdown del governo così presto nell'amministrazione del Presidente Trump. [...] Il senatore Charles Schumer Il senatore Richard Durbin Senatore Patty Murray Senatrice Debbie Stabenow Senatore Patrick Leahy In base a questa lettera, sembra che le loro principali obiezioni a un muro di confine completo siano attualmente il rapporto costi-benefici e le questioni legali legate alla sottrazione di terra agli americani per costruirlo; obiezioni che potrebbero non essere uniche per i Democratici.
7
I'm converting a video to GIF file with ```ffmpeg```: ```ffmpeg \ -i input.flv \ -ss 00:00:00.000 \ -pix_fmt rgb24 \ -r 10 \ -s 320x240 \ -t 00:00:10.000 \ output.gif ``` It works great, but output gif file has a very low quality. Any ideas how can I improve quality of converted gif?
If you would prefer to avoid intermediate image files, the commands provided by LordNeckBeard can be piped between ```ffmpeg``` and ImageMagick's ```convert``` so that no intermediate files are required: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` The ```-f image2pipe``` tells ffmpeg to split the video into images and make it suitable to be piped out, and ```-vcodec ppm``` specifies the output format to be ppm (for some reason if the format is png, either ```convert``` does not read all the images from the pipe, or ffmpeg does not output them all). The ```-``` for both commands specifies that a pipe will be used for output and input respectively. To optimize the result without saving a file, you can pipe the output from ```convert``` to a second ```convert``` command: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` The ```gif:-``` tells ```convert``` to pipe its output as gif formatted data and ```-layers Optimize``` tells the second ```convert``` to perform ```optimize-frame``` and ```optimize-transparancy``` methods (see the ImageMagick Introduction to Animation Optimization). Note that the output from the ```-layers Optimize``` may not always provide a smaller file size, so you may want to try converting to a gif without optimization first to be sure. Remember that during this whole process everything is in memory so you may need sufficient memory if the images are quite large.
Ich konvertiere ein Video in eine GIF-Datei mit ````ffmpeg``: ``ffmpeg \ -i input.flv \ -ss 00:00:00.000 \ -pix_fmt rgb24 \ -r 10 \ -s 320x240 \ -t 00:00:10.000 \ ausgabe.gif ``` Es funktioniert gut, aber die ausgegebene gif-Datei hat eine sehr schlechte Qualität. Hat jemand eine Idee, wie ich die Qualität der konvertierten gif-Datei verbessern kann?
Wenn Sie es vorziehen, Zwischendateien zu vermeiden, können die von LordNeckBeard bereitgestellten Befehle zwischen ``ffmpeg`` und ImageMagicks ``convert`` eingefügt werden, so dass keine Zwischendateien erforderlich sind: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` Der Befehl ```-f image2pipe`` weist ffmpeg an, das Video in Bilder aufzuteilen und für die Ausgabe über die Pipeline vorzubereiten, und ```-vcodec ppm`` gibt das Ausgabeformat ppm an (aus irgendeinem Grund liest ```convert`` nicht alle Bilder aus der Pipeline, wenn das Format png ist, oder ffmpeg gibt sie nicht alle aus). Das ```-``` für beide Befehle gibt an, dass eine Pipe für die Ausgabe bzw. Eingabe verwendet wird. Um das Ergebnis zu optimieren, ohne eine Datei zu speichern, können Sie die Ausgabe von ```convert`` an einen zweiten ```convert`` Befehl weiterleiten: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` Das ```gif:-`` sagt ```convert``, daß es seine Ausgabe als gif-formatierte Daten weiterleiten soll und ```-layers Optimize`` sagt dem zweiten ```convert``, daß es die Methoden ```optimize-frame``` und ```optimize-transparancy`` ausführen soll (siehe die ImageMagick Einführung in die Optimierung von Animationen). Beachten Sie, dass die Ausgabe von ```-layers Optimize`` nicht immer zu einer kleineren Dateigröße führt, daher sollten Sie zunächst versuchen, ohne Optimierung in ein gif zu konvertieren, um sicher zu gehen. Denken Sie daran, dass während des gesamten Prozesses alles im Speicher liegt, so dass Sie ausreichend Speicher benötigen, wenn die Bilder recht groß sind.
Estoy convirtiendo un vídeo a archivo GIF con ```ffmpeg``: ```ffmpeg \ -i entrada.flv -ss 00:00:00.000 -pix_fmt rgb24 -pix_fmt rgb24 -r 10 -r 10 \ -s 320x240 \ -t 00:00:10.000 \ output.gif ``` Funciona muy bien, pero el archivo gif de salida tiene una calidad muy baja. ¿Alguna idea de cómo puedo mejorar la calidad del gif convertido?
Si prefiere evitar archivos de imagen intermedios, los comandos proporcionados por LordNeckBeard se pueden canalizar entre ```ffmpeg`` y ``convert`` de ImageMagick para que no se necesiten archivos intermedios: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` El ```-f image2pipe`` le dice a ffmpeg que divida el vídeo en imágenes y lo haga apto para ser canalizado, y ```-vcodec ppm`` especifica que el formato de salida sea ppm (por alguna razón si el formato es png, o bien ```convert`` no lee todas las imágenes de la tubería, o bien ffmpeg no las saca todas). El ```-`` para ambos comandos especifica que se utilizará una tubería para la salida y la entrada respectivamente. Para optimizar el resultado sin guardar un fichero, puede enviar la salida de ```convert`` a un segundo comando ```convert``: ``ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` El ``gif:-`` le dice a ```convert`` que canalice su salida como datos con formato gif y ``-layers Optimize`` le dice al segundo ``convert`` que ejecute los métodos ``optimize-frame`` y ``optimize-transparancy`` (ver la Introducción a la Optimización de Animaciones de ImageMagick). Tenga en cuenta que la salida de ```layers Optimize`` no siempre puede proporcionar un tamaño de archivo más pequeño, por lo que es posible que desee intentar convertir a un gif sin optimización primero para estar seguro. Recuerde que durante todo este proceso todo está en memoria, por lo que puede necesitar memoria suficiente si las imágenes son bastante grandes.
Je convertis une vidéo en fichier GIF avec ``ffmpeg`` : ``ffmpeg \N-i input.flv \N -i input.flv \N- -ss 00:00:00.000 \N -ss 00:00:00.000 \N- -pix_fmt rv \N- -pix_fmt rv \N -pix_fmt rgb24 \N -r 10 \N -r 10 \ -s 320x240 \N -t 00:00:10.000 \ output.gif ``` Cela fonctionne très bien, mais le fichier gif de sortie est de très mauvaise qualité. Une idée pour améliorer la qualité du fichier gif converti ?
Si vous préférez éviter les fichiers images intermédiaires, les commandes fournies par LordNeckBeard peuvent être transférées entre ``ffmpeg`` et ``convert`` d'ImageMagick de façon à ce qu'aucun fichier intermédiaire ne soit nécessaire : ``ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` Le ``-f image2pipe`` demande à ffmpeg de découper la vidéo en images et de la rendre apte à être diffusée, et ``-vcodec ppm`` spécifie que le format de sortie doit être ppm (pour une raison quelconque, si le format est png, soit ``convert`` ne lit pas toutes les images depuis le tube, soit ffmpeg ne les sort pas toutes). Le ``-`` pour les deux commandes spécifie qu'un tube sera utilisé pour la sortie et l'entrée respectivement. Pour optimiser le résultat sans sauvegarder de fichier, vous pouvez diriger la sortie de ``convert`` vers une seconde commande ``convert`` : ``ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` Le ``gif:-`` indique à ``convert`` d'acheminer sa sortie sous forme de données formatées gif et ``-layers Optimize`` indique au second ``convert`` d'exécuter les méthodes ``optimize-frame`` et ``optimize-transparancy`` (voir l'Introduction à l'Optimisation de l'Animation d'ImageMagick). Notez que la sortie des ``couches Optimiser`` ne fournit pas toujours une taille de fichier plus petite, donc vous pouvez essayer de convertir en gif sans optimisation d'abord pour être sûr. Rappelez-vous que pendant tout ce processus, tout est en mémoire, vous aurez donc besoin de suffisamment de mémoire si les images sont assez grandes.
Sto convertendo un video in un file GIF con ``ffmpeg``: ``ffmpeg \ -i input.flv \ -ss 00:00:00.000 \ -pix_fmt rgb24 ´ -r 10 \ -s 320x240 \ -t 00:00:10.000 \ output.gif ``` Funziona benissimo, ma il file gif di output ha una qualità molto bassa. Qualche idea su come migliorare la qualità della gif convertita?
Se si preferisce evitare i file immagine intermedi, i comandi forniti da LordNeckBeard possono essere trasmessi tra ``ffmpeg`` e ``convert`` di ImageMagick in modo da non richiedere file intermedi: ```ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - output.gif ``` L'opzione ```-f image2pipe`` dice a ffmpeg di dividere il video in immagini e di renderlo adatto all'uscita, mentre ```-vcodec ppm`` specifica che il formato di uscita deve essere ppm (per qualche motivo, se il formato è png, o ```convert`` non legge tutte le immagini dalla pipe, o ffmpeg non le produce tutte). L'opzione ```-`` per entrambi i comandi specifica che verrà utilizzata una pipe rispettivamente per l'uscita e l'ingresso. Per ottimizzare il risultato senza salvare un file, è possibile inviare l'output di ``convert`` a un secondo comando ``convert``: ``ffmpeg -i input.flv -vf scale=320:-1 -r 10 -f image2pipe -vcodec ppm - | convert -delay 10 -loop 0 - gif:- | convert -layers Optimize - output.gif ``` Il ``gif:-`` dice a ``convert`` di inviare il suo output come dati formattati in gif e ```-layers Optimize`` dice al secondo ``convert`` di eseguire i metodi ```optimize-frame`` e ```optimize-transparancy`` (si veda ImageMagick Introduction to Animation Optimization). Si noti che l'output dell'ottimizzazione dei livelli non sempre fornisce una dimensione minore del file, quindi si può provare a convertire in una gif senza ottimizzazione per essere sicuri. Ricordate che durante l'intero processo tutto è in memoria, quindi potrebbe essere necessaria una quantità di memoria sufficiente se le immagini sono piuttosto grandi.
8
Tor can only handle TCP connections, but DNS is a UDP protocol. How does Tor route DNS requests over its TCP based network? Why can the same approach not be used to route all UDP traffic over Tor?
Tor clients do not, in general, directly do DNS requests. When you open a connection through the tor network you usually ask your client (on its socks ports) to connect you to a hostname and port, say www.example.com:80. Your tor client, once it has created a circuit, will send that hostname and port to the exit node in its RELAY_BEGIN cell. The exit node will then do a DNS resolve and open a TCP connection to the target. Once that's established it will tell your client that the connection is open, and for informational purposes will also tell your client what address that hostname resolved to. Tor, in addition to that, has some sort of "remote DNS resolve" protocol built in. This support allows clients to query for certain resource types, like IPv4 or IPv6 addresses. Here too, the exit node does the actual DNS packet sending and receiving and just relays the answer to the client. No UDP packets are actually ever routed from the client. There's also a proposal to add more full featured DNS support to Tor. So far it hasn't been implemented. Tor Protocol Specification references * 6.2. Opening streams and transferring data * 6.4. Remote hostname lookup * Proposal 219 - Support for full DNS and DNSSEC resolution in Tor
Tor kann nur TCP-Verbindungen verarbeiten, aber DNS ist ein UDP-Protokoll. Wie leitet Tor DNS-Anfragen über sein TCP-basiertes Netzwerk weiter? Warum kann der gleiche Ansatz nicht verwendet werden, um den gesamten UDP-Verkehr über Tor zu leiten?
Tor-Clients führen im Allgemeinen keine direkten DNS-Anfragen durch. Wenn du eine Verbindung durch das Tor-Netzwerk öffnest, bittest du normalerweise deinen Client (auf seinen Socken-Ports), dich mit einem Hostnamen und einem Port zu verbinden, zum Beispiel www.example.com:80. Sobald dein Tor-Client eine Verbindung aufgebaut hat, sendet er diesen Hostnamen und Port an den Exit-Knoten in seiner RELAY_BEGIN-Zelle. Der Exit-Node wird dann eine DNS-Auflösung durchführen und eine TCP-Verbindung zum Ziel öffnen. Sobald die Verbindung aufgebaut ist, teilt er deinem Client mit, dass die Verbindung offen ist, und zu Informationszwecken teilt er deinem Client auch mit, zu welcher Adresse der Hostname aufgelöst wurde. Tor hat außerdem eine Art "Remote-DNS-Auflösungsprotokoll" eingebaut. Diese Unterstützung erlaubt es Clients, nach bestimmten Ressourcentypen wie IPv4- oder IPv6-Adressen zu fragen. Auch hier übernimmt der Exit-Knoten das Senden und Empfangen von DNS-Paketen und leitet die Antwort lediglich an den Client weiter. Es werden keine UDP-Pakete vom Client weitergeleitet. Es gibt auch einen Vorschlag, Tor mit einer vollwertigen DNS-Unterstützung auszustatten. Bis jetzt wurde es noch nicht implementiert. Referenzen zur Spezifikation des Tor-Protokolls * 6.2. Öffnen von Streams und Übertragen von Daten * 6.4. Nachschlagen von entfernten Hostnamen * Vorschlag 219 - Unterstützung für vollständige DNS- und DNSSEC-Auflösung in Tor
Tor sólo puede manejar conexiones TCP, pero DNS es un protocolo UDP. ¿Cómo enruta Tor las peticiones DNS sobre su red basada en TCP? ¿Por qué no se puede usar el mismo enfoque para enrutar todo el tráfico UDP sobre Tor?
Los clientes Tor, en general, no hacen directamente peticiones DNS. Cuando abres una conexión a través de la red tor normalmente le pides a tu cliente (en sus puertos socks) que te conecte a un nombre de host y puerto, digamos www.example.com:80. Su cliente tor, una vez que ha creado un circuito, enviará ese nombre de host y puerto al nodo de salida en su celda RELAY_BEGIN. El nodo de salida entonces hará un DNS resolver y abrir una conexión TCP con el objetivo. Una vez establecida, le dirá a su cliente que la conexión está abierta, y para propósitos informativos también le dirá a su cliente a qué dirección se resolvió el nombre de host. Tor, además de eso, tiene algún tipo de protocolo de "resolución DNS remota" incorporado. Este soporte permite a los clientes consultar ciertos tipos de recursos, como direcciones IPv4 o IPv6. También en este caso, el nodo de salida se encarga de enviar y recibir los paquetes DNS y se limita a transmitir la respuesta al cliente. En realidad, nunca se enrutan paquetes UDP desde el cliente. También hay una propuesta para añadir un soporte DNS más completo a Tor. Hasta ahora no se ha implementado. Referencias a la Especificación del Protocolo Tor * 6.2. 6.3. Apertura de flujos y transferencia de datos * 6.4. Búsqueda remota de nombres de host * Propuesta 219 - Soporte para DNS completo y resolución DNSSEC en Tor
Tor ne peut gérer que des connexions TCP, mais le DNS est un protocole UDP. Comment Tor achemine-t-il les requêtes DNS sur son réseau basé sur TCP ? Pourquoi la même approche ne peut-elle pas être utilisée pour acheminer tout le trafic UDP sur Tor ?
En général, les clients Tor n'effectuent pas directement de requêtes DNS. Lorsque vous ouvrez une connexion à travers le réseau Tor, vous demandez généralement à votre client (sur ses ports socks) de vous connecter à un nom d'hôte et à un port, par exemple www.example.com:80. Votre client Tor, une fois qu'il a créé un circuit, envoie ce nom d'hôte et ce port au nœud de sortie dans sa cellule RELAY_BEGIN. Le nœud de sortie effectuera alors une résolution DNS et ouvrira une connexion TCP à la cible. Une fois la connexion établie, il indiquera à votre client que la connexion est ouverte et, à titre d'information, il lui indiquera également l'adresse à laquelle le nom d'hôte a été résolu. Tor, en plus de cela, a une sorte de protocole de "résolution DNS à distance" intégré. Ce support permet aux clients d'interroger certains types de ressources, comme les adresses IPv4 ou IPv6. Ici aussi, le nœud de sortie se charge de l'envoi et de la réception des paquets DNS et se contente de relayer la réponse au client. Aucun paquet UDP n'est en fait acheminé depuis le client. Il existe également une proposition visant à ajouter un support DNS plus complet à Tor. Jusqu'à présent, cela n'a pas été mis en oeuvre. Références de la spécification du protocole Tor * 6.2. Ouverture de flux et transfert de données * 6.4. Recherche de nom d'hôte à distance * Proposition 219 - Prise en charge du DNS complet et de la résolution DNSSEC dans Tor
Tor può gestire solo connessioni TCP, ma il DNS è un protocollo UDP. Come fa Tor a instradare le richieste DNS sulla sua rete basata su TCP? Perché non si può usare lo stesso approccio per instradare tutto il traffico UDP su Tor?
I client Tor, in generale, non effettuano direttamente richieste DNS. Quando si apre una connessione attraverso la rete Tor, di solito si chiede al proprio client (sulle sue porte socks) di connettersi a un nome host e a una porta, ad esempio www.example.com:80. Il client tor, una volta creato il circuito, invierà l'hostname e la porta al nodo di uscita nella cella RELAY_BEGIN. Il nodo di uscita eseguirà quindi una risoluzione DNS e aprirà una connessione TCP all'obiettivo. Una volta stabilita, comunicherà al client che la connessione è aperta e, a scopo informativo, dirà anche a quale indirizzo si è risolto l'hostname. Tor, inoltre, ha una sorta di protocollo di "risoluzione DNS remota" incorporato. Questo supporto consente ai client di interrogare alcuni tipi di risorse, come gli indirizzi IPv4 o IPv6. Anche in questo caso, il nodo di uscita esegue l'invio e la ricezione dei pacchetti DNS e si limita a trasmettere la risposta al client. Nessun pacchetto UDP viene instradato dal client. Esiste anche una proposta per aggiungere a Tor un supporto DNS più completo. Finora non è stato implementato. Riferimenti alle specifiche del protocollo Tor * 6.2. Apertura di flussi e trasferimento di dati * 6.4. Ricerca di un hostname remoto * Proposta 219 - Supporto per la risoluzione DNS completa e DNSSEC in Tor
9
Why does this throw ```NullPointerException``` ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false; // NPE on this line. System.out.println(b); } public static Boolean returnsNull() { return null; } ``` while this doesn't ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false; System.out.println(b); // null } ``` ? The solution is by the way to replace ```false``` by ```Boolean.FALSE``` to avoid ```null``` being unboxed to ```boolean``` --which isn't possible. But that isn't the question. The question is why? Are there any references in JLS which confirms this behaviour, especially of the 2nd case?
The difference is that the explicit type of the ```returnsNull()``` method affects the static typing of the expressions at compile time: ```E1: `true ? returnsNull() : false` - boolean (auto-unboxing 2nd operand to boolean) E2: `true ? null : false` - Boolean (autoboxing of 3rd operand to Boolean) ``` See Java Language Specification, section 15.25 Conditional Operator ? : * For E1, the types of the 2nd and 3rd operands are ```Boolean``` and ```boolean``` respectively, so this clause applies: If one of the second and third operands is of type boolean and the type of the other is of type Boolean, then the type of the conditional expression is boolean. Since the type of the expression is ```boolean```, the 2nd operand must be coerced to ```boolean```. The compiler inserts auto-unboxing code to the 2nd operand (return value of ```returnsNull()```) to make it type ```boolean```. This of course causes the NPE from the ```null``` returned at run-time. * For E2, types of the 2nd and 3rd operands are `````` (not ```Boolean``` as in E1!) and ```boolean``` respectively, so no specific typing clause applies (go read 'em!), so the final "otherwise" clause applies: Otherwise, the second and third operands are of types S1 and S2 respectively. Let T1 be the type that results from applying boxing conversion to S1, and let T2 be the type that results from applying boxing conversion to S2. The type of the conditional expression is the result of applying capture conversion (§5.1.10) to lub(T1, T2) (§15.12.2.7). * S1 == `````` (see §4.1) * S2 == ```boolean``` * T1 == box(S1) == `````` (see last item in list of boxing conversions in §5.1.7) * T2 == box(S2) == `Boolean * lub(T1, T2) == ```Boolean``` So the type of the conditional expression is ```Boolean``` and the 3rd operand must be coerced to ```Boolean```. The compiler inserts auto-boxing code for the 3rd operand (```false```). The 2nd operand doesn't need the auto-unboxing as in ```E1```, so no auto-unboxing NPE when ```null``` is returned. This question needs a similar type analysis: Java conditional operator ?: result type
Warum führt dies zu einer ```NullPointerException``? ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false; // NPE in dieser Zeile. System.out.println(b); } public static Boolean returnsNull() { return null; } ``` während dies nicht der Fall ist ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false; System.out.println(b); // null } ``` ? Die Lösung ist übrigens, ```false`` durch ```Boolean.FALSE`` zu ersetzen, um zu vermeiden, dass ```null`` zu ```boolean`` unboxed wird - was nicht möglich ist. Aber das ist nicht die Frage. Die Frage ist, warum? Gibt es irgendwelche Hinweise in JLS, die dieses Verhalten bestätigen, insbesondere für den 2. Fall?
Der Unterschied besteht darin, dass der explizite Typ der Methode ``returnsNull()```` die statische Typisierung der Ausdrücke zur Kompilierungszeit beeinflusst: ```E1: `true ? returnsNull() : false` - Boolean (automatisches Entpacken des 2. Operanden in Boolean) E2: `true ? null : false` - Boolean (automatische Umwandlung des 3. Operanden in Boolean) ``` Siehe Java Language Specification, Abschnitt 15.25 Bedingter Operator ? : * Für E1 sind die Typen des 2. und 3. Operanden ```Boolean``` bzw. ```Bolean```, so dass diese Klausel gilt: Wenn einer der zweiten und dritten Operanden vom Typ Boolean ist und der Typ des anderen vom Typ Boolean, dann ist der Typ des bedingten Ausdrucks Boolean. Da der Typ des Ausdrucks ```boolean`` ist, muss der 2. Operand in ```boolean`` umgewandelt werden. Der Compiler fügt Auto-Unboxing-Code in den 2. Operanden (Rückgabewert von ```returnsNull()``) ein, um ihn in den Typ ```boolean`` zu überführen. Dies verursacht natürlich den NPE von ```Null``, der zur Laufzeit zurückgegeben wird. * Für E2 sind die Typen des 2. und 3. Operanden `````` (nicht ``Boolean`` wie in E1!) bzw. ```boolean``, so dass keine spezielle Typisierungsklausel gilt (lesen Sie sie!), so dass die abschließende "Sonst"-Klausel gilt: Ansonsten sind der zweite und dritte Operand vom Typ S1 bzw. S2. Sei T1 der Typ, der sich aus der Anwendung der Boxing-Konversion auf S1 ergibt, und sei T2 der Typ, der sich aus der Anwendung der Boxing-Konversion auf S2 ergibt. Der Typ des bedingten Ausdrucks ist das Ergebnis der Anwendung von capture conversion (§5.1.10) auf lub(T1, T2) (§15.12.2.7). * S1 == `````` (siehe §4.1) * S2 == ``boolean`` * T1 == box(S1) == `````` (siehe letzter Punkt in der Liste der boxing-Konvertierungen in §5.1.7) * T2 == box(S2) == `Boolean * lub(T1, T2) == ```Boolean``` Der Typ des bedingten Ausdrucks ist also ```Boolean`` und der 3. Operand muss in ```Boolean`` umgewandelt werden. Der Compiler fügt Auto-Boxing-Code für den 3. Operanden ein (```false```). Der 2. Operand braucht kein Auto-Unboxing wie in ```E1``, also kein Auto-Unboxing NPE wenn ```Null`` zurückgegeben wird. Diese Frage erfordert eine ähnliche Typanalyse: Java bedingter Operator ?: Ergebnistyp
¿Por qué lanza esto una ```NullPointerException``? ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false; // NPE en esta línea. System.out.println(b); } public static Boolean returnsNull() { return null; } ``` mientras que esto no ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false; System.out.println(b); // null } ``` ? La solución es, por cierto, sustituir ``false`` por ``Boolean.FALSE`` para evitar que ``null`` sea unboxed a ```boolean`` --lo cual no es posible. Pero esa no es la cuestión. La pregunta es ¿por qué? ¿Hay alguna referencia en JLS que confirme este comportamiento, especialmente del 2º caso?
La diferencia es que el tipo explícito del método ``returnsNull()`` afecta al tipado estático de las expresiones en tiempo de compilación: ```E1: ``true ? returnsNull() : false`` - boolean (auto-unboxing 2nd operand to boolean) E2: `true ? null : false` - Boolean (autodescomposición del 3er operando a booleano) ``` Véase Java Language Specification, sección 15.25 Operador condicional ? * Para E1, los tipos del 2º y 3º operandos son ``Boolean`` y ``boolean`` respectivamente, por lo que se aplica esta cláusula: Si uno de los operandos segundo y tercero es de tipo booleano y el tipo del otro es de tipo booleano, entonces el tipo de la expresión condicional es booleano. Como el tipo de la expresión es ``boolean``, el segundo operando debe ser coercionado a ```boolean``. El compilador inserta código de auto-unboxing en el 2º operando (valor de retorno de ``returnsNull()``) para que sea de tipo ```boolean``. Esto, por supuesto, causa el NPE del ```null`` devuelto en tiempo de ejecución. * Para E2, los tipos del segundo y tercer operandos son `````` (¡no ``Boolean`` como en E1!) y ```boolean`` respectivamente, por lo que no se aplica ninguna cláusula específica de tipado (¡vaya a leerlas!), así que se aplica la cláusula final "otherwise": En caso contrario, el segundo y tercer operando son de tipo S1 y S2 respectivamente. Sea T1 el tipo resultante de aplicar la conversión boxing a S1, y sea T2 el tipo resultante de aplicar la conversión boxing a S2. El tipo de la expresión condicional es el resultado de aplicar la conversión de captura (§5.1.10) a lub(T1, T2) (§15.12.2.7). * S1 == `````` (véase §4.1) * S2 == ```boolean`` * T1 == box(S1) == `````` (véase el último punto de la lista de conversiones de box en §5.1.7) * T2 == box(S2) == `Boolean * lub(T1, T2) == ```Boolean`` Así que el tipo de la expresión condicional es ``Boolean`` y el tercer operando debe ser coercionado a ``Boolean``. El compilador inserta código auto-boxing para el tercer operando (```false``). El 2º operando no necesita el auto-unboxing como en ``E1``, así que no hay NPE de auto-unboxing cuando se devuelve ```null``. Esta pregunta necesita un análisis de tipo similar: Operador condicional Java ?: tipo de resultado
Pourquoi cela lance-t-il une ``NullPointerException`` ? ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false ; // NPE sur cette ligne. System.out.println(b) ; } public static Boolean returnsNull() { return null ; } ``` alors que ceci ne le fait pas ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false ; System.out.println(b) ; // null } ``` ? La solution est d'ailleurs de remplacer ``false`` par ``Boolean.FALSE`` pour éviter que ``null`` soit unboxé en ``boolean`` --ce qui n'est pas possible. Mais ce n'est pas la question. La question est de savoir pourquoi. Existe-t-il des références dans JLS qui confirment ce comportement, en particulier dans le 2e cas ?
La différence est que le type explicite de la méthode ``returnsNull()`` affecte le typage statique des expressions au moment de la compilation : E1 : `true ? returnsNull() : false` - booléen (auto-unboxing 2nd operand to boolean) E2 : `true ? null : false` - booléen (conversion automatique de l'opérande 3 en booléen) ``` Voir la spécification du langage Java, section 15.25 Opérateur conditionnel ? * Pour E1, les types des 2ème et 3ème opérandes sont respectivement ``Booléen`` et ``booléen``, donc cette clause s'applique : Si l'un des deuxième et troisième opérandes est de type booléen et que le type de l'autre est de type booléen, alors le type de l'expression conditionnelle est booléen. Puisque le type de l'expression est ``booléen``, le second opérande doit être contraint à ``booléen``. Le compilateur insère un code d'auto-unboxing au 2ème opérande (valeur de retour de ``returnsNull()``)) pour le rendre de type ``booléen``. Ceci cause bien sûr le NPE du ``null`` retourné à l'exécution. * Pour E2, les types des 2ème et 3ème opérandes sont `````` (pas ``Booléen`` comme dans E1 !) et ``boolean`` respectivement, donc aucune clause de typage spécifique ne s'applique (allez les lire !), donc la clause finale "otherwise" s'applique : Sinon, les deuxième et troisième opérandes sont respectivement de types S1 et S2. Soit T1 le type qui résulte de l'application de la conversion en boîte à S1, et T2 le type qui résulte de l'application de la conversion en boîte à S2. Le type de l'expression conditionnelle est le résultat de l'application de la conversion de capture (§5.1.10) à lub(T1, T2) (§15.12.2.7). * S1 == `````` (voir §4.1) S2 == ``booléen`` * T1 == box(S1) * T1 == box(S1) == `````` (voir le dernier élément de la liste des conversions de box au §5.1.7) * T2 == box(S2) == `Booléen * lub(T1, T2) == ``Booléen```` * lub(T1, T2) == ``Booléen```` Donc le type de l'expression conditionnelle est ``Booléen`` et le 3ème opérande doit être contraint à ``Booléen``. Le compilateur insère du code d'auto-boxing pour le 3ème opérande (``false``). L'opérande 2 n'a pas besoin de l'auto-boxing comme dans ``E1``, donc pas de NPE d'auto-boxing quand ``null`` est retourné. Cette question nécessite une analyse de type similaire : Opérateur conditionnel Java ? : type de résultat
Perché questo lancio ```NullPointerException`` ```public static void main(String[] args) throws Exception { Boolean b = true ? returnsNull() : false; // NPE su questa riga. System.out.println(b); } public static Boolean returnsNull() { return null; } ``` mentre questo non lo fa ```public static void main(String[] args) throws Exception { Boolean b = true ? null : false; System.out.println(b); // null } ``` ? La soluzione è quella di sostituire ```false`` con ```Boolean.FALSE`` per evitare che ```null``` venga unboxato in ```boolean``, cosa che non è possibile. Ma non è questa la domanda. La domanda è: perché? Ci sono riferimenti in JLS che confermano questo comportamento, specialmente nel secondo caso?
La differenza è che il tipo esplicito del metodo ``returnsNull()`` influisce sulla tipizzazione statica delle espressioni in fase di compilazione: ```E1: ``true ? returnsNull() : false`` - booleano (auto-unboxing del secondo operando a booleano) E2: `true ? null : false` - booleano (autoboxing del terzo operando in booleano) ``` Vedere le specifiche del linguaggio Java, sezione 15.25 Operatore condizionale ? : * Per E1, i tipi del secondo e del terzo operando sono rispettivamente ```Boolean`` e ```boolean``, quindi si applica questa clausola: Se uno dei due operandi è di tipo booleano e il tipo dell'altro è di tipo booleano, il tipo dell'espressione condizionale è booleano. Poiché il tipo dell'espressione è ```boolean``, il secondo operando deve essere forzato a ```boolean``. Il compilatore inserisce del codice di auto-unboxing nel secondo operando (valore di ritorno di ``returnsNull()```) per renderlo di tipo ```boolean``. Questo ovviamente causa l'NPE del ```null``` restituito in fase di esecuzione. * Per E2, i tipi del secondo e del terzo operando sono rispettivamente `````` (non ```Boolean`` come in E1!) e ```boolean``, quindi non si applica alcuna clausola di tipizzazione specifica (andate a leggerli!), quindi si applica la clausola finale "altrimenti": Altrimenti, il secondo e il terzo operando sono rispettivamente di tipo S1 e S2. Sia T1 il tipo che risulta dall'applicazione della conversione boxe a S1 e sia T2 il tipo che risulta dall'applicazione della conversione boxe a S2. Il tipo dell'espressione condizionale è il risultato dell'applicazione della conversione di cattura (§5.1.10) a lub(T1, T2) (§15.12.2.7). * S1 == `````` (vedere §4.1) * S2 = = ```boolean`` * T1 == box(S1) == `````` (vedi ultimo punto dell'elenco delle conversioni di boxe al §5.1.7) * T2 = box(S2) = = ``booleano''. * lub(T1, T2) = = ```Boolean`` Quindi il tipo dell'espressione condizionale è ```Boolean`` e il terzo operando deve essere coercizzato a ```Boolean``. Il compilatore inserisce il codice di auto-boxing per il terzo operando (```false``). Il secondo operando non ha bisogno dell'auto-unboxing come in ```E1``, quindi non ci sono NPE di auto-unboxing quando viene restituito ```null```. Questa domanda richiede un'analisi di tipo simile: Operatore condizionale Java ?: tipo di risultato
10
How do DOS games like DOOM benefit from a PCI graphics card?
DOOM itself doesn’t do anything special to benefit from PCI graphics cards. It runs faster with PCI graphics cards (and VLB, AGP, and PCI Express cards) than with ISA graphics cards because the supporting bus is faster, so reads from and writes to video memory take less time. PCI goes to great lengths to preserve backwards compatibility with ISA-based VGA, providing support for “VGA compatible” adapters so that they can appear in memory at the same locations and use the same I/O ports as ISA VGA cards. So accesses to the VGA registers and to the VGA buffer (at 0xA0000) go directly to the main PCI VGA compatible adapter in the system, with no change required in the operating system or programs running on it. (This is the reason why there’s a specific “VGA compatible controller” device type in PCI. Such shenanigans are impossible for other device types in PCI, which is why PCI sound cards have so much trouble providing compatibility with programs written for ISA sound cards.) A faster bus and/or faster video memory immediately leads to higher performance in video-intensive programs because software doesn’t need to be careful about how it accesses video memory (except on CGA, and on all platforms with vertical blank synchronisation if it cares about tearing). So ```REP MOVSW``` or ```REP MOVSD``` with no waiting in software, once the program decides to write a frame, is perfectly fine, and will go faster and faster as the underlying hardware improves. On platforms where this can’t work in hardware (e.g. on an 8088 with a VGA card), the hardware takes care of specifics — for example on an 8088 the bus unit will split up 16-bit accesses. Your question is specific to DOOM but other DOS games are in a similar situation. Later games tended to rely on VBE (often using UniVBE) to access video modes beyond those provided by VGA, but they mostly didn’t use anything beyond video-mode setup and framebuffer configuration (see also Were any DOS games (or software) known to use VBE/AF?), so improved video speed came mostly from bus speed increases, faster video memory, and speed increases in the cards themselves (which was already a factor in the ISA era, compare most Trident cards to Tseng cards for example). For an excellent explanation of the intricacies of VGA programming and its memory layout, see Fabien Sanglard’s Game Engine Black Book series. The DOOM update loop is shown on page 185 of the DOOM book; it doesn’t use any assembly language (unlike the renderer, see pp. 290 and following), but it does have one perhaps surprising feature given the 32-bit nature of the code: VGA updates are done 16 bits at a time. Section 2.3 of the same book, pp. 59 and following, describes some of the improvements to VGA adapters around the time DOOM was released, in particular the switch to the VESA Local Bus on 486s. The benchmark table on page 287 shows the importance of the bus.
Wie profitieren DOS-Spiele wie DOOM von einer PCI-Grafikkarte?
DOOM selbst tut nichts Besonderes, um von PCI-Grafikkarten zu profitieren. Es läuft schneller mit PCI-Grafikkarten (und VLB-, AGP- und PCI-Express-Karten) als mit ISA-Grafikkarten, weil der unterstützende Bus schneller ist, so dass Lese- und Schreibvorgänge im Videospeicher weniger Zeit in Anspruch nehmen. PCI unternimmt große Anstrengungen, um die Abwärtskompatibilität mit ISA-basierten VGA-Karten zu wahren, und bietet Unterstützung für "VGA-kompatible" Adapter, so dass diese im Speicher an denselben Stellen erscheinen und dieselben E/A-Anschlüsse verwenden können wie ISA-VGA-Karten. Zugriffe auf die VGA-Register und den VGA-Puffer (bei 0xA0000) gehen also direkt an den Haupt-PCI-VGA-kompatiblen Adapter im System, ohne dass eine Änderung des Betriebssystems oder der darauf laufenden Programme erforderlich ist. (Das ist der Grund, warum es in PCI einen speziellen Gerätetyp "VGA-kompatibler Controller" gibt. Solche Spielereien sind für andere Gerätetypen in PCI nicht möglich, weshalb PCI-Soundkarten so große Schwierigkeiten haben, mit Programmen kompatibel zu sein, die für ISA-Soundkarten geschrieben wurden). Ein schnellerer Bus und/oder schnellerer Videospeicher führt sofort zu einer höheren Leistung in videointensiven Programmen, da die Software nicht darauf achten muß, wie sie auf den Videospeicher zugreift (außer auf CGA und auf allen Plattformen mit vertikaler Leersynchronisation, wenn sie sich um Tearing kümmert). Also ``REP MOVSW`` oder ``REP MOVSD`` ohne Wartezeit in der Software, sobald das Programm sich entscheidet, ein Bild zu schreiben, ist vollkommen in Ordnung und wird immer schneller, je besser die zugrunde liegende Hardware ist. Auf Plattformen, auf denen dies in Hardware nicht funktionieren kann (z.B. auf einem 8088 mit einer VGA-Karte), kümmert sich die Hardware um die Besonderheiten - auf einem 8088 zum Beispiel teilt die Buseinheit 16-Bit-Zugriffe auf. Ihre Frage bezieht sich speziell auf DOOM, aber andere DOS-Spiele befinden sich in einer ähnlichen Situation. Spätere Spiele neigten dazu, sich auf VBE (oft unter Verwendung von UniVBE) zu verlassen, um auf Videomodi zuzugreifen, die über die von VGA zur Verfügung gestellten hinausgingen, aber sie benutzten meist nichts, was über die Einstellung des Videomodus und die Konfiguration des Framebuffers hinausging (siehe auch Waren irgendwelche DOS-Spiele (oder Software) bekannt dafür, VBE/AF zu benutzen?), so dass die verbesserte Videogeschwindigkeit vor allem aus der Erhöhung der Busgeschwindigkeit, dem schnelleren Videospeicher und der Erhöhung der Geschwindigkeit der Karten selbst kam (was bereits in der ISA-Ära ein Faktor war, vergleiche z.B. die meisten Trident-Karten mit Tseng-Karten). Eine ausgezeichnete Erklärung der Feinheiten der VGA-Programmierung und des Speicherlayouts finden Sie in Fabien Sanglards Game Engine Black Book Serie. Die DOOM-Update-Schleife wird auf Seite 185 des DOOM-Buches gezeigt; sie verwendet keine Assembler-Sprache (im Gegensatz zum Renderer, siehe S. 290 ff.), aber sie hat ein vielleicht überraschendes Merkmal angesichts der 32-Bit-Natur des Codes: VGA-Aktualisierungen werden 16 Bit auf einmal durchgeführt. Abschnitt 2.3 desselben Buches, S. 59 ff., beschreibt einige der Verbesserungen an VGA-Adaptern zur Zeit der Veröffentlichung von DOOM, insbesondere die Umstellung auf den VESA Local Bus bei 486ern. Die Benchmark-Tabelle auf Seite 287 zeigt, wie wichtig dieser Bus ist.
¿Cómo se benefician los juegos DOS como DOOM de una tarjeta gráfica PCI?
DOOM en sí no hace nada especial para beneficiarse de las tarjetas gráficas PCI. Funciona más rápido con tarjetas gráficas PCI (y tarjetas VLB, AGP y PCI Express) que con tarjetas gráficas ISA porque el bus de soporte es más rápido, por lo que las lecturas y escrituras en la memoria de vídeo tardan menos tiempo. PCI hace todo lo posible por mantener la compatibilidad con las tarjetas VGA basadas en ISA, ofreciendo soporte para adaptadores "compatibles con VGA", de modo que puedan aparecer en memoria en las mismas ubicaciones y utilizar los mismos puertos de E/S que las tarjetas VGA ISA. De este modo, los accesos a los registros VGA y al búfer VGA (en 0xA0000) van directamente al adaptador PCI VGA compatible principal del sistema, sin necesidad de realizar ningún cambio en el sistema operativo o en los programas que se ejecutan en él. (Esta es la razón por la que existe un tipo de dispositivo específico "controlador compatible VGA" en PCI. Tales travesuras son imposibles para otros tipos de dispositivos en PCI, razón por la cual las tarjetas de sonido PCI tienen tantos problemas para ofrecer compatibilidad con programas escritos para tarjetas de sonido ISA). Un bus más rápido y/o una memoria de vídeo más rápida conducen inmediatamente a un mayor rendimiento en programas intensivos en vídeo porque el software no necesita tener cuidado sobre cómo accede a la memoria de vídeo (excepto en CGA, y en todas las plataformas con sincronización vertical en blanco si se preocupa por el tearing). Así que ```REP MOVSW`` o ```REP MOVSD`` sin esperas en el software, una vez que el programa decide escribir un fotograma, está perfectamente bien, e irá cada vez más rápido a medida que mejore el hardware subyacente. En plataformas donde esto no puede funcionar por hardware (por ejemplo, en un 8088 con una tarjeta VGA), el hardware se encarga de los detalles - por ejemplo, en un 8088 la unidad de bus dividirá los accesos de 16 bits. Tu pregunta es específica para DOOM, pero otros juegos de DOS se encuentran en una situación similar. Los juegos posteriores tendían a depender de VBE (a menudo usando UniVBE) para acceder a los modos de vídeo más allá de los proporcionados por VGA, pero en su mayoría no usaban nada más allá de la configuración del modo de vídeo y la configuración del framebuffer (véase también ¿Se sabía de algún juego (o software) de DOS que usara VBE/AF?), por lo que la mejora de la velocidad de vídeo provenía principalmente de aumentos de velocidad del bus, memoria de vídeo más rápida y aumentos de velocidad en las propias tarjetas (que ya era un factor en la era ISA, compare la mayoría de las tarjetas Trident con las tarjetas Tseng, por ejemplo). Para una excelente explicación de los entresijos de la programación VGA y su disposición de memoria, véase la serie Game Engine Black Book de Fabien Sanglard. El bucle de actualización de DOOM se muestra en la página 185 del libro de DOOM; no utiliza ningún lenguaje ensamblador (a diferencia del renderizador, ver pp. 290 y siguientes), pero tiene una característica quizás sorprendente dada la naturaleza de 32 bits del código: Las actualizaciones VGA se hacen de 16 bits en 16 bits. La sección 2.3 del mismo libro, pp. 59 y siguientes, describe algunas de las mejoras de los adaptadores VGA en la época en que DOOM fue lanzado, en particular el cambio al Bus Local VESA en los 486s. La tabla de referencia de la página 287 muestra la importancia del bus.
En quoi les jeux DOS comme DOOM bénéficient-ils d'une carte graphique PCI ?
DOOM lui-même ne fait rien de spécial pour bénéficier des cartes graphiques PCI. Il fonctionne plus rapidement avec les cartes graphiques PCI (et les cartes VLB, AGP et PCI Express) qu'avec les cartes graphiques ISA, car le bus de support est plus rapide, de sorte que les lectures et les écritures dans la mémoire vidéo prennent moins de temps. PCI se donne beaucoup de mal pour préserver la compatibilité ascendante avec les cartes VGA basées sur ISA, en prenant en charge les adaptateurs "compatibles VGA" afin qu'ils puissent apparaître dans la mémoire aux mêmes emplacements et utiliser les mêmes ports d'E/S que les cartes VGA basées sur ISA. Ainsi, les accès aux registres VGA et à la mémoire tampon VGA (à 0xA0000) vont directement à l'adaptateur principal PCI compatible VGA dans le système, sans qu'aucun changement ne soit nécessaire dans le système d'exploitation ou les programmes qui tournent dessus. (C'est la raison pour laquelle il existe un type de périphérique spécifique "contrôleur compatible VGA" dans PCI. De telles manigances sont impossibles pour les autres types de périphériques PCI, ce qui explique pourquoi les cartes son PCI ont tant de mal à assurer la compatibilité avec les programmes écrits pour les cartes son ISA). Un bus plus rapide et/ou une mémoire vidéo plus rapide conduisent immédiatement à de meilleures performances dans les programmes intensifs en vidéo parce que le logiciel n'a pas besoin de faire attention à la façon dont il accède à la mémoire vidéo (sauf sur CGA, et sur toutes les plates-formes avec une synchronisation verticale des blancs s'il se soucie du déchirement). Ainsi, ``REP MOVSW`` ou ``REP MOVSD``` sans attente dans le logiciel, une fois que le programme décide d'écrire une image, est parfaitement correct, et ira de plus en plus vite au fur et à mesure que le matériel sous-jacent s'améliorera. Sur les plates-formes où cela ne peut pas fonctionner au niveau matériel (par exemple sur un 8088 avec une carte VGA), le matériel s'occupe des spécificités - par exemple sur un 8088, l'unité de bus divise les accès 16 bits. Votre question est spécifique à DOOM, mais d'autres jeux DOS sont dans une situation similaire. Les jeux ultérieurs avaient tendance à s'appuyer sur le VBE (souvent en utilisant UniVBE) pour accéder aux modes vidéo au-delà de ceux fournis par VGA, mais ils n'utilisaient généralement rien d'autre que la configuration du mode vidéo et du framebuffer (voir aussi Y a-t-il des jeux DOS (ou des logiciels) connus pour utiliser le VBE/AF ?), de sorte que l'amélioration de la vitesse vidéo provenait principalement de l'augmentation de la vitesse du bus, d'une mémoire vidéo plus rapide et de l'augmentation de la vitesse des cartes elles-mêmes (ce qui était déjà un facteur à l'époque de l'ISA, comparez la plupart des cartes Trident aux cartes Tseng par exemple). Pour une excellente explication des subtilités de la programmation VGA et de la disposition de la mémoire, voir la série Game Engine Black Book de Fabien Sanglard. La boucle de mise à jour de DOOM est présentée à la page 185 du livre DOOM ; elle n'utilise pas de langage assembleur (contrairement au moteur de rendu, voir les pages 290 et suivantes), mais elle présente une caractéristique peut-être surprenante compte tenu de la nature 32 bits du code : Les mises à jour VGA sont effectuées 16 bits à la fois. La section 2.3 du même livre, pages 59 et suivantes, décrit certaines des améliorations apportées aux adaptateurs VGA à l'époque de la sortie de DOOM, en particulier le passage au bus local VESA sur les 486. Le tableau des performances de la page 287 montre l'importance de ce bus.
In che modo i giochi DOS come DOOM traggono vantaggio da una scheda grafica PCI?
DOOM stesso non fa nulla di speciale per trarre vantaggio dalle schede grafiche PCI. Funziona più velocemente con le schede grafiche PCI (e con le schede VLB, AGP e PCI Express) che con le schede grafiche ISA perché il bus di supporto è più veloce, quindi le letture e le scritture nella memoria video richiedono meno tempo. Il PCI si impegna a fondo per preservare la compatibilità con le schede VGA basate su ISA, fornendo il supporto per gli adattatori "VGA compatibili" in modo che possano apparire in memoria nelle stesse posizioni e utilizzare le stesse porte di I/O delle schede VGA ISA. In questo modo, gli accessi ai registri VGA e al buffer VGA (a 0xA0000) vanno direttamente all'adattatore PCI VGA compatibile principale del sistema, senza che sia necessario modificare il sistema operativo o i programmi in esecuzione su di esso. (Questo è il motivo per cui nel PCI esiste un tipo di dispositivo specifico "controller compatibile VGA". Questo è il motivo per cui esiste un tipo di dispositivo specifico "controller compatibile con VGA" nel PCI, mentre non è possibile per altri tipi di dispositivi nel PCI.) Un bus più veloce e/o una memoria video più veloce portano immediatamente a prestazioni più elevate nei programmi ad alta intensità video, perché il software non deve fare attenzione a come accede alla memoria video (tranne che su CGA, e su tutte le piattaforme con sincronizzazione verticale del bianco se si preoccupa del tearing). Quindi ```REP MOVSW`` o ```REP MOVSD`` senza attesa nel software, una volta che il programma decide di scrivere un fotogramma, va benissimo e sarà sempre più veloce man mano che l'hardware sottostante migliora. Sulle piattaforme in cui questo non può funzionare in hardware (ad esempio su un 8088 con una scheda VGA), l'hardware si occupa delle specifiche - ad esempio su un 8088 l'unità bus divide gli accessi a 16 bit. La domanda è specifica per DOOM, ma altri giochi DOS si trovano in una situazione simile. I giochi successivi tendevano ad affidarsi al VBE (spesso utilizzando UniVBE) per accedere alle modalità video oltre a quelle fornite dalla VGA, ma per lo più non utilizzavano nulla al di là dell'impostazione della modalità video e della configurazione del framebuffer (vedi anche C'è qualche gioco (o software) DOS che utilizzava il VBE/AF?), quindi la velocità video migliorata derivava principalmente dall'aumento della velocità del bus, da una memoria video più veloce e dall'aumento della velocità delle schede stesse (che era già un fattore nell'era ISA, si confronti ad esempio la maggior parte delle schede Trident con le schede Tseng). Per un'eccellente spiegazione delle complessità della programmazione della VGA e del suo layout di memoria, si veda la serie Game Engine Black Book di Fabien Sanglard. Il ciclo di aggiornamento di DOOM è mostrato a pagina 185 del libro di DOOM; non utilizza alcun linguaggio assembly (a differenza del renderer, vedi pagg. 290 e seguenti), ma ha una caratteristica forse sorprendente data la natura a 32 bit del codice: Gli aggiornamenti della VGA vengono eseguiti 16 bit alla volta. La sezione 2.3 dello stesso libro, alle pagine 59 e seguenti, descrive alcuni dei miglioramenti apportati agli adattatori VGA nel periodo in cui DOOM è stato rilasciato, in particolare il passaggio al VESA Local Bus sui 486. La tabella dei benchmark a pagina 287 mostra l'importanza del bus.
11
I need to be able to open a document using its default application in Windows and Mac OS. Basically, I want to do the same thing that happens when you double-click on the document icon in Explorer or Finder. What is the best way to do this in Python?
```open``` and ```start``` are command-interpreter things for Mac OS/X and Windows respectively, to do this. To call them from Python, you can either use ```subprocess``` module or ```os.system()```. Here are considerations on which package to use: * You can call them via ```os.system```, which works, but... Escaping: ```os.system``` only works with filenames that don't have any spaces or other shell metacharacters in the pathname (e.g. ```A:\abc\def\a.txt```), or else these need to be escaped. There is ```shlex.quote``` for Unix-like systems, but nothing really standard for Windows. Maybe see also python, windows : parsing command lines with shlex * MacOS/X: ```os.system("open " + shlex.quote(filename))``` * Windows: ```os.system("start " + filename)``` where properly speaking ```filename``` should be escaped, too. * You can also call them via ```subprocess``` module, but... For Python 2.7 and newer, simply use ```subprocess.check_call(['open', filename]) ``` In Python 3.5+ you can equivalently use the slightly more complex but also somewhat more versatile ```subprocess.run(['open', filename], check=True) ``` If you need to be compatible all the way back to Python 2.4, you can use ```subprocess.call()``` and implement your own error checking: ```try: retcode = subprocess.call("open " + filename, shell=True) if retcode < 0: print >>sys.stderr, "Child was terminated by signal", -retcode else: print >>sys.stderr, "Child returned", retcode except OSError, e: print >>sys.stderr, "Execution failed:", e ``` Now, what are the advantages of using ```subprocess```? * Security: In theory, this is more secure, but in fact we're needing to execute a command line one way or the other; in either environment, we need the environment and services to interpret, get paths, and so forth. In neither case are we executing arbitrary text, so it doesn't have an inherent "but you can type ```'filename ; rm -rf /'```" problem, and if the file name can be corrupted, using ```subprocess.call``` gives us little additional protection. * Error handling: It doesn't actually give us any more error detection, we're still depending on the ```retcode``` in either case; but the behavior to explicitly raise an exception in the case of an error will certainly help you notice if there is a failure (though in some scenarios, a traceback might not at all be more helpful than simply ignoring the error). * Spawns a (non-blocking) subprocess: We don't need to wait for the child process, since we're by problem statement starting a separate process. To the objection "But ```subprocess``` is preferred." However, ```os.system()``` is not deprecated, and it's in some sense the simplest tool for this particular job. Conclusion: using ```os.system()``` is therefore also a correct answer. A marked disadvantage is that the Windows ```start``` command requires you to pass in ```shell=True``` which negates most of the benefits of using ```subprocess```.
Ich muss in der Lage sein, ein Dokument mit seiner Standardanwendung in Windows und Mac OS zu öffnen. Im Grunde möchte ich dasselbe tun, was passiert, wenn man im Explorer oder Finder auf das Dokumentensymbol doppelklickt. Wie kann ich das am besten in Python erreichen?
```open``` und ```start`` sind Befehlsinterpreter für Mac OS/X bzw. Windows, um dies zu tun. Um sie von Python aus aufzurufen, kann man entweder das ```subprocess`` Modul oder ```os.system()``` verwenden. Hier sind Überlegungen dazu, welches Paket man verwenden sollte: * Sie können sie über ```os.system`` aufrufen, was funktioniert, aber... Ausweichen: ```os.system``` funktioniert nur mit Dateinamen, die keine Leerzeichen oder andere Shell-Metacharaktere im Pfadnamen enthalten (z.B. ``A:\abc\def\a.txt``), oder diese müssen escaped werden. Es gibt ```shlex.quote`` für Unix-ähnliche Systeme, aber nichts wirklich standardisiertes für Windows. Siehe vielleicht auch python, windows : parsing command lines with shlex * MacOS/X: ```os.system("open " + shlex.quote(filename))``` * Windows: ```os.system("start " + dateiname)```, wobei ```dateiname`` eigentlich auch escaped werden sollte. * Man kann sie auch über das ```subprocess`` Modul aufrufen, aber... Für Python 2.7 und neuer, verwenden Sie einfach ```subprocess.check_call(['open', filename]) ``` In Python 3.5+ können Sie das etwas komplexere, aber auch etwas vielseitigere ```subprocess.run(['open', Dateiname], check=True) ``` Wenn Sie bis zurück zu Python 2.4 kompatibel sein wollen, können Sie ```subprocess.call()```` verwenden und Ihre eigene Fehlerprüfung implementieren: ```Versuch: retcode = subprocess.call("open " + filename, shell=True) wenn retcode < 0: print >>sys.stderr, "Kind wurde durch Signal beendet", -retcode sonst: print >>sys.stderr, "Kind kehrte zurück", retcode except OSError, e: print >>sys.stderr, "Execution failed:", e ``` Was sind nun die Vorteile der Verwendung von ```subprocess```? * Sicherheit: Theoretisch ist dies sicherer, aber in Wirklichkeit muessen wir so oder so eine Befehlszeile ausfuehren; in beiden Faellen benoetigen wir die Umgebung und die Dienste, um zu interpretieren, Pfade zu erhalten und so weiter. In keinem der beiden Fälle führen wir einen beliebigen Text aus, so dass es kein inhärentes "aber Sie können ```'Dateiname ; rm -rf /'```"-Problem gibt, und wenn der Dateiname beschädigt werden kann, gibt uns die Verwendung von ```subprocess.call``` wenig zusätzlichen Schutz. * Fehlerbehandlung: Es gibt uns nicht wirklich mehr Fehlererkennung, wir sind in jedem Fall immer noch vom ```Retcode`` abhängig; aber das Verhalten, im Falle eines Fehlers explizit eine Exception auszulösen, wird Ihnen sicherlich helfen, zu bemerken, wenn es einen Fehler gibt (obwohl in einigen Szenarien ein Traceback nicht unbedingt hilfreicher ist, als den Fehler einfach zu ignorieren). * Erzeugt einen (nicht-blockierenden) Unterprozess: Wir brauchen nicht auf den Kindprozess zu warten, da wir aufgrund der Problemstellung einen separaten Prozess starten. Auf den Einwand "Aber ```subprocess``` ist vorzuziehen." Jedoch ist ````os.system()``` nicht veraltet, und es ist in gewisser Weise das einfachste Werkzeug für diese spezielle Aufgabe. Fazit: Die Verwendung von ```os.system()``` ist daher auch eine richtige Antwort. Ein deutlicher Nachteil ist, dass der Windows ```Start``-Befehl die Übergabe von ```Shell=True`` erfordert, was die meisten Vorteile der Verwendung von ```Subprocess`` zunichte macht.
Necesito poder abrir un documento utilizando su aplicación por defecto en Windows y Mac OS. Básicamente, quiero hacer lo mismo que ocurre al hacer doble clic en el icono del documento en el Explorador o el Finder. ¿Cuál es la mejor manera de hacer esto en Python?
```open`` y ```start`` son intérpretes de comandos para Mac OS/X y Windows respectivamente, para hacer esto. Para llamarlos desde Python, puedes usar el módulo ```subprocess`` o ```os.system()```. Aquí tienes consideraciones sobre qué paquete usar: * Puedes llamarlos a través de ```os.system``, que funciona, pero... Escapando: ```os.system`` sólo funciona con nombres de fichero que no tengan espacios u otros metacaracteres del shell en la ruta (por ejemplo ```A:\abc\def\a.txt``), o si no, éstos necesitan ser escapados. Existe ```shlex.quote`` para sistemas tipo Unix, pero no hay nada realmente estándar para Windows. Quizás vea también python, windows : parseando líneas de comando con shlex * MacOS/X: ```os.system("open " + shlex.quote(filename))``` * Windows: ```os.system("start " + filename)``` donde correctamente hablando ```filename`` debería ser escapado también. * También puedes llamarlos a través del módulo ```subprocess``, pero... Para Python 2.7 y posteriores, simplemente usa ```subprocess.check_call(['open', filename]) ``` En Python 3.5+ puedes utilizar de forma equivalente el método ligeramente más complejo pero también algo más versátil ```subprocess.run(['open', filename], check=True) ``` Si necesitas ser compatible con Python 2.4, puedes usar ```subprocess.call()`` e implementar tu propia comprobación de errores: ```intentar: retcode = subprocess.call("open " + filename, shell=True) si retcode < 0: print >>sys.stderr, "Child was terminated by signal", -retcode si no: print >>sys.stderr, "Child returned", retcode except OSError, e: print >>sys.stderr, "Error de ejecución:", e ``` Ahora, ¿cuáles son las ventajas de usar ``subproceso``? * Seguridad: En teoría, esto es más seguro, pero de hecho estamos necesitando ejecutar una línea de comandos de una forma u otra; en cualquiera de los dos entornos, necesitamos el entorno y los servicios para interpretar, obtener rutas, etc. En ninguno de los dos casos estamos ejecutando texto arbitrario, por lo que no tiene un problema inherente "pero puedes escribir ```'nombrearchivo ; rm -rf /'```", y si el nombre del archivo puede estar corrupto, usar ```subprocess.call`` nos da poca protección adicional. * Manejo de errores: En realidad no nos da más detección de errores, seguimos dependiendo del ``retcode`` en cualquier caso; pero el comportamiento de lanzar explícitamente una excepción en caso de error ciertamente te ayudará a notar si hay un fallo (aunque en algunos escenarios, un traceback puede no ser en absoluto más útil que simplemente ignorar el error). * Crea un subproceso (no bloqueante): No necesitamos esperar al proceso hijo, ya que estamos iniciando un proceso separado. A la objeción "Pero ``subproceso`` es preferible". Sin embargo, ```os.system()`` no está obsoleto, y es en cierto sentido la herramienta más simple para este trabajo en particular. Conclusión: usar ```os.system()`` es por tanto también una respuesta correcta. Una desventaja marcada es que el comando ```start`` de Windows requiere que le pases ```shell=True`` lo que anula la mayoría de los beneficios de usar ```subprocess``.
J'ai besoin de pouvoir ouvrir un document en utilisant son application par défaut dans Windows et Mac OS. En fait, je veux faire la même chose que lorsque vous double-cliquez sur l'icône du document dans l'Explorateur ou le Finder. Quelle est la meilleure façon de faire cela en Python ?
``open`` et ``start`` sont des interpréteurs de commandes pour Mac OS/X et Windows respectivement. Pour les appeler depuis Python, vous pouvez utiliser le module ``subprocess`` ou ``os.system()``. Voici quelques considérations sur le paquetage à utiliser : * Vous pouvez les appeler via ``os.system``, ce qui fonctionne, mais... L'échappement : ``os.system`` ne fonctionne qu'avec des noms de fichiers qui n'ont pas d'espaces ou d'autres métacaractères du shell dans le chemin (par exemple ``A:abc\def\a.txt``), ou alors ils doivent être échappés. Il existe ``shlex.quote`` pour les systèmes de type Unix, mais rien de vraiment standard pour Windows. Voir aussi python, windows : analyser les lignes de commande avec shlex * MacOS/X : ``os.system("open " + shlex.quote(filename))``` * Windows : ``os.system("start " + filename)`` où, à proprement parler, ``filename`` devrait aussi être échappé. * Vous pouvez aussi les appeler via le module ``subprocess``, mais... Pour Python 2.7 et les versions plus récentes, utilisez simplement ```subprocess.check_call(['open', filename]) ``` En Python 3.5+, vous pouvez utiliser de manière équivalente la méthode un peu plus complexe mais aussi un peu plus polyvalente ```subprocess.run(['open', filename], check=True) ``` Si vous avez besoin d'être compatible avec Python 2.4, vous pouvez utiliser ``subprocess.call()`` et implémenter votre propre vérification d'erreur : ``try : retcode = subprocess.call("open " + filename, shell=True) if retcode < 0 : print >>sys.stderr, "Child was terminated by signal", -retcode else : print >>sys.stderr, "L'enfant est revenu", retcode except OSError, e : print >>sys.stderr, "L'exécution a échoué :", e ``` Maintenant, quels sont les avantages de l'utilisation de ``subprocess`` ? * Sécurité : En théorie, c'est plus sûr, mais en fait nous avons besoin d'exécuter une ligne de commande d'une manière ou d'une autre ; dans les deux cas, nous avons besoin de l'environnement et des services pour interpréter, obtenir des chemins, et ainsi de suite. Dans les deux cas, nous exécutons du texte arbitraire, donc il n'y a pas de problème inhérent "mais vous pouvez taper ``'nom de fichier ; rm -rf /'``", et si le nom de fichier peut être corrompu, utiliser ``subprocess.call`` nous donne peu de protection supplémentaire. * La gestion des erreurs : Cela ne nous donne pas plus de détection d'erreur, nous dépendons toujours du ``retcode`` dans les deux cas ; mais le comportement de lever explicitement une exception dans le cas d'une erreur vous aidera certainement à remarquer s'il y a un échec (bien que dans certains scénarios, un traceback pourrait ne pas être plus utile que d'ignorer simplement l'erreur). * Lance un sous-processus (non bloquant) : Nous n'avons pas besoin d'attendre le processus enfant, puisque nous lançons un processus distinct. A l'objection "Mais ``subprocess`` est préférable." Cependant, ``os.system()`` n'est pas déprécié, et c'est en quelque sorte l'outil le plus simple pour ce travail particulier. Conclusion : utiliser ``os.system()`` est donc aussi une réponse correcte. Un désavantage marqué est que la commande Windows ``start`` requiert que vous passiez ``shell=True`` ce qui annule la plupart des bénéfices de l'utilisation de ``subprocess``.
Devo poter aprire un documento utilizzando la sua applicazione predefinita in Windows e Mac OS. In pratica, voglio fare la stessa cosa che accade quando si fa doppio clic sull'icona del documento in Explorer o nel Finder. Qual è il modo migliore per farlo in Python?
```open`` e ```start`` sono degli interpreti di comandi per Mac OS/X e Windows, rispettivamente, per fare questo. Per chiamarli da Python, si può usare il modulo ``subprocess`` o ```os.system()``. Ecco alcune considerazioni su quale pacchetto utilizzare: * È possibile chiamarli tramite ``os.system``, il che funziona, ma... Evadere: ```os.system`` funziona solo con nomi di file che non hanno spazi o altri metacaratteri di shell nel nome del percorso (ad esempio ```A:\abc\def.txt``), altrimenti questi devono essere evitati. Esiste ```shlex.quote`` per i sistemi Unix-like, ma non c'è nulla di veramente standard per Windows. Forse vedere anche python, windows: analizzare le righe di comando con shlex * MacOS/X: ```os.system("open " + shlex.quote(filename))``` * Windows: ```os.system("start " + filename)``` dove, correttamente parlando, anche ```filename`` dovrebbe essere evitato. * Si possono anche chiamare tramite il modulo ``subprocess``, ma... Per Python 2.7 e successivi, è sufficiente usare ``subprocess.check_call(['open', filename]) ``` In Python 3.5+ è possibile utilizzare in modo equivalente il metodo leggermente più complesso ma anche più versatile ``subprocess.run(['open', filename], check=True) ``` Se volete essere compatibili fino a Python 2.4, potete usare ``subprocess.call()`` e implementare il vostro controllo degli errori: ``prova: retcode = subprocess.call("open " + filename, shell=True) se retcode < 0: print >>sys.stderr, "Il bambino è stato terminato da un segnale", -retcode altrimenti: print >>sys.stderr, "Il bambino è tornato", retcode except OSError, e: print >>sys.stderr, "Esecuzione fallita:", e ``` Ora, quali sono i vantaggi dell'uso di ``subprocess``? * Sicurezza: In teoria, questo è più sicuro, ma in realtà abbiamo bisogno di eseguire una riga di comando in un modo o nell'altro; in entrambi gli ambienti, abbiamo bisogno dell'ambiente e dei servizi per interpretare, ottenere percorsi e così via. In nessuno dei due casi stiamo eseguendo del testo arbitrario, quindi non c'è il problema "ma si può digitare ```nome file ; rm -rf /'````", e se il nome del file può essere corrotto, l'uso di ``subprocess.call`` ci dà poca protezione aggiuntiva. * Gestione degli errori: In realtà non ci fornisce alcun rilevamento di errore in più, dipendiamo ancora dal ``retcode`` in entrambi i casi; ma il comportamento di sollevare esplicitamente un'eccezione in caso di errore aiuterà certamente a notare se c'è un fallimento (anche se in alcuni scenari, un traceback potrebbe non essere affatto più utile che ignorare semplicemente l'errore). * Avvia un sottoprocesso (non bloccante): Non è necessario attendere il processo figlio, poiché il problema è avviare un processo separato. All'obiezione "Ma ``subprocesso'' è preferibile". Tuttavia, ```os.system()`` non è deprecato e in un certo senso è lo strumento più semplice per questo particolare lavoro. Conclusione: l'uso di ```os.system()`` è quindi una risposta corretta. Uno svantaggio evidente è che il comando ```start`` di Windows richiede di passare ```shell=True``, il che annulla la maggior parte dei vantaggi dell'uso di ``subprocess``.
12
Why does PRC devalue its currency on purpose, but Turkey is worried about the devaluation of its currency?
Trade surplus/deficit Devaluing one's currency means mostly one thing: It becomes more expensive to import products from abroad, while one's own products become comparably cheaper to buy on the world market. That means a country which exports lots of goods wants to devalue their currency while a country which imports lots of goods does not. In 2016, Turkey imported goods worth US $186 billion and exported goods worth US $156 billion. That means they had a trade deficit of 19%. However, China only imported goods worth US $1.23 trillion and exported goods worth US $2.27 trillion in 2016. That means they had a trade surplus of 84%. Which is why China wants to devalue their currency while Turkey does not. Debt management Another reason to devalue one's currency is that it reduces any debts denoted in that currency. If a country has a problem of too much public and private debt, then an easy way to get rid of it is to cause a hyperinflation. China happens to have a debt-to-gdp ratio of 47.6% while Turkey only has one of 28.3%. When you look at the private debt (debt of private citizens and companies in the country), you see the same picture. Private debit in Turkey was 170% of GDP, while China's is rumored to be over 300%. Which is why reducing debt through causing inflation seems more attractive to China than to Turkey. Foreign investor relations So why don't all countries get rid of their debt by adding a few zeroes to their bank notes? Because inflating your currency is a surefire way to drive away any foreign investors. Nobody will invest money into your country when that money might be worth nothing in a few years. Investors want stable currencies. Again, we observe the same difference in motivation between Turkey and China here. Turkey is actively inviting foreign investors, but China is quite reluctant to allow foreign economic influence in their country.
Warum wertet die VR China ihre Währung absichtlich ab, aber die Türkei ist besorgt über die Abwertung ihrer Währung?
Handelsüberschuss/-defizit Eine Abwertung der eigenen Währung bedeutet vor allem eines: Es wird teurer, Produkte aus dem Ausland zu importieren, während die eigenen Produkte auf dem Weltmarkt vergleichsweise billiger zu haben sind. Das bedeutet, dass ein Land, das viele Waren exportiert, seine Währung abwerten möchte, während ein Land, das viele Waren importiert, dies nicht tut. Im Jahr 2016 importierte die Türkei Waren im Wert von 186 Milliarden US-Dollar und exportierte Waren im Wert von 156 Milliarden US-Dollar. Das bedeutet, dass sie ein Handelsdefizit von 19 % hatte. China hingegen importierte 2016 nur Waren im Wert von 1,23 Billionen US-Dollar und exportierte Waren im Wert von 2,27 Billionen US-Dollar. Das bedeutet, dass das Land einen Handelsüberschuss von 84 % hatte. Aus diesem Grund will China seine Währung abwerten, die Türkei hingegen nicht. Schuldenmanagement Ein weiterer Grund für die Abwertung einer Währung ist der Abbau von Schulden, die in dieser Währung ausgewiesen sind. Wenn ein Land ein Problem mit zu hoher öffentlicher und privater Verschuldung hat, dann ist eine Hyperinflation ein einfacher Weg, diese loszuwerden. In China beträgt das Verhältnis zwischen Schulden und BIP 47,6 %, in der Türkei dagegen nur 28,3 %. Betrachtet man die private Verschuldung (Schulden von Privatpersonen und Unternehmen im Land), so ergibt sich das gleiche Bild. Die private Verschuldung in der Türkei lag bei 170 % des BIP, während die chinesische Verschuldung Gerüchten zufolge bei über 300 % liegt. Deshalb scheint der Schuldenabbau durch Inflation für China attraktiver zu sein als für die Türkei. Beziehungen zu ausländischen Investoren Warum also werden nicht alle Länder ihre Schulden los, indem sie ein paar Nullen auf ihre Banknoten setzen? Weil die Aufblähung der eigenen Währung ein todsicherer Weg ist, um ausländische Investoren zu vertreiben. Niemand wird Geld in seinem Land investieren, wenn dieses Geld in ein paar Jahren nichts mehr wert sein könnte. Investoren wollen stabile Währungen. Auch hier ist der gleiche Motivationsunterschied zwischen der Türkei und China zu beobachten. Die Türkei lädt aktiv ausländische Investoren ein, aber China ist ziemlich zurückhaltend, wenn es darum geht, ausländischen wirtschaftlichen Einfluss in seinem Land zuzulassen.
¿Por qué la RPC devalúa su moneda a propósito, pero Turquía está preocupada por la devaluación de su moneda?
Superávit/déficit comercial Devaluar la moneda significa sobre todo una cosa: resulta más caro importar productos del extranjero, mientras que los productos propios son comparativamente más baratos en el mercado mundial. Eso significa que un país que exporta muchos bienes quiere devaluar su moneda, mientras que un país que importa muchos bienes no. En 2016, Turquía importó bienes por valor de 186.000 millones de dólares y exportó bienes por valor de 156.000 millones de dólares. Esto significa que tuvo un déficit comercial del 19%. Sin embargo, China solo importó bienes por valor de 1,23 billones de dólares y exportó bienes por valor de 2,27 billones de dólares en 2016. Esto significa que tuvo un superávit comercial del 84%. Por eso China quiere devaluar su moneda, mientras que Turquía no. Gestión de la deuda Otra razón para devaluar la moneda de uno es que reduce cualquier deuda denotada en esa moneda. Si un país tiene un problema de demasiada deuda pública y privada, una forma fácil de deshacerse de ella es provocar una hiperinflación. Resulta que China tiene una relación deuda/PIB del 47,6%, mientras que Turquía sólo tiene una del 28,3%. Si nos fijamos en la deuda privada (deuda de los ciudadanos particulares y las empresas del país), vemos el mismo panorama. La deuda privada en Turquía era del 170% del PIB, mientras que se rumorea que la de China supera el 300%. Por eso, reducir la deuda provocando inflación parece más atractivo para China que para Turquía. Relaciones con los inversores extranjeros Entonces, ¿por qué no todos los países se deshacen de su deuda añadiendo unos cuantos ceros a sus billetes? Porque inflar tu moneda es una forma segura de ahuyentar a cualquier inversor extranjero. Nadie invertirá dinero en tu país cuando ese dinero puede no valer nada dentro de unos años. Los inversores quieren monedas estables. De nuevo, observamos aquí la misma diferencia de motivación entre Turquía y China. Turquía invita activamente a los inversores extranjeros, pero China es bastante reacia a permitir la influencia económica extranjera en su país.
Pourquoi la RPC dévalue-t-elle volontairement sa monnaie, alors que la Turquie s'inquiète de la dévaluation de sa monnaie ?
Excédent/déficit commercial Dévaluer sa monnaie signifie principalement une chose : il devient plus coûteux d'importer des produits de l'étranger, tandis que ses propres produits deviennent comparativement moins chers à acheter sur le marché mondial. Cela signifie qu'un pays qui exporte beaucoup de marchandises souhaite dévaluer sa monnaie, alors qu'un pays qui importe beaucoup de marchandises ne le souhaite pas. En 2016, la Turquie a importé des biens d'une valeur de 186 milliards de dollars américains et exporté des biens d'une valeur de 156 milliards de dollars américains. Cela signifie qu'elle a enregistré un déficit commercial de 19 %. En revanche, la Chine n'a importé que des biens d'une valeur de 1,23 billion de dollars américains et exporté des biens d'une valeur de 2,27 billions de dollars américains en 2016. Cela signifie qu'elle a enregistré un excédent commercial de 84 %. C'est pourquoi la Chine souhaite dévaluer sa monnaie, alors que la Turquie ne le souhaite pas. Gestion de la dette Une autre raison de dévaluer sa monnaie est qu'elle permet de réduire les dettes exprimées dans cette monnaie. Si un pays a un problème d'endettement public et privé trop important, un moyen facile de s'en débarrasser est de provoquer une hyperinflation. Il se trouve que la Chine a un ratio dette/pib de 47,6 %, tandis que la Turquie n'en a qu'un de 28,3 %. Si l'on considère la dette privée (celle des particuliers et des entreprises du pays), le tableau est le même. La dette privée en Turquie représentait 170 % du PIB, alors que celle de la Chine serait supérieure à 300 %. C'est pourquoi réduire la dette en provoquant de l'inflation semble plus intéressant pour la Chine que pour la Turquie. Relations avec les investisseurs étrangers Pourquoi tous les pays ne se débarrassent-ils pas de leur dette en ajoutant quelques zéros à leurs billets de banque ? Parce que gonfler sa monnaie est un moyen infaillible de faire fuir les investisseurs étrangers. Personne n'investira de l'argent dans votre pays si cet argent risque de ne plus rien valoir dans quelques années. Les investisseurs veulent des monnaies stables. Ici aussi, nous observons la même différence de motivation entre la Turquie et la Chine. La Turquie invite activement les investisseurs étrangers, alors que la Chine est très réticente à l'idée d'autoriser une influence économique étrangère dans son pays.
Perché la RPC svaluta di proposito la sua moneta, ma la Turchia è preoccupata per la svalutazione della sua moneta?
Surplus/deficit commerciale Svalutare la propria moneta significa soprattutto una cosa: diventa più costoso importare prodotti dall'estero, mentre i propri prodotti diventano comparabilmente più economici da acquistare sul mercato mondiale. Ciò significa che un Paese che esporta molti beni vuole svalutare la propria moneta, mentre un Paese che importa molti beni non vuole farlo. Nel 2016, la Turchia ha importato beni per un valore di 186 miliardi di dollari e ne ha esportati per 156 miliardi. Ciò significa che il deficit commerciale è stato del 19%. La Cina, invece, nel 2016 ha importato merci per un valore di 1,23 trilioni di dollari ed esportato merci per un valore di 2,27 trilioni di dollari. Ciò significa che ha registrato un surplus commerciale dell'84%. Ecco perché la Cina vuole svalutare la propria moneta, mentre la Turchia no. Gestione del debito Un'altra ragione per svalutare la propria moneta è la riduzione dei debiti espressi in tale valuta. Se un Paese ha un problema di eccessivo debito pubblico e privato, un modo semplice per liberarsene è quello di provocare un'iperinflazione. Si dà il caso che la Cina abbia un rapporto debito/PIL del 47,6%, mentre la Turchia ne ha solo uno del 28,3%. Se si guarda al debito privato (debito dei privati cittadini e delle aziende del Paese), si vede lo stesso quadro. Il debito privato in Turchia era pari al 170% del PIL, mentre si dice che quello della Cina sia superiore al 300%. Ecco perché la riduzione del debito attraverso l'inflazione sembra più interessante per la Cina che per la Turchia. Relazioni con gli investitori stranieri Allora perché tutti i Paesi non si liberano del loro debito aggiungendo qualche zero alle loro banconote? Perché inflazionare la valuta è un modo sicuro per allontanare gli investitori stranieri. Nessuno investirà denaro nel vostro Paese se quel denaro potrebbe non valere nulla tra qualche anno. Gli investitori vogliono valute stabili. Anche in questo caso, osserviamo la stessa differenza di motivazioni tra Turchia e Cina. La Turchia invita attivamente gli investitori stranieri, mentre la Cina è piuttosto riluttante a consentire l'influenza economica straniera nel proprio Paese.
13
Is it worth patenting an algorithm if I don't have the money to defend against infringements?
This is a great question, with no one right answer. The strength of a patent comes from the ability to enforce it. If the patent owner cannot enforce it for whatever reason (such as a lack of funding), the patent is effectively toothless. But your competitors will likely not know that. They may therefore be dissuaded from infringing simply by the existence of a patent and the assumption that you would sue. Such a chilling effect on competition may be valuable to you. In addition, if there is infringement, you may be able to get a licensing agreement without the need for litigation. This can be a very lucrative business model, and so may justify the cost of patenting. And if litigation seems likely, there is a nascent field of litigation funding. While your funders will take quite a great deal of the damages, you may at least get something out of the end of it. Finally, even if you can't sue, someone else could. You might therefore get quite some value from selling it off at some point. There are a number of tech businesses where most of their value comes from their IP portfolio. On the whole therefore it depends how you see yourself proceeding. If you're unsure, it may pay to err on the side of patenting: once you disclose or use your invention publicly, you're generally barred from patenting it later (but for a short grace period in some countries), whereas it's easy to abandon a patent (or application) later down the track if you wish.
Lohnt es sich, einen Algorithmus zu patentieren, wenn ich nicht das Geld habe, um mich gegen Rechtsverletzungen zu wehren?
Das ist eine gute Frage, auf die es keine einzig richtige Antwort gibt. Die Stärke eines Patents ergibt sich aus der Fähigkeit, es durchzusetzen. Wenn der Patentinhaber es aus irgendeinem Grund nicht durchsetzen kann (z. B. wegen fehlender finanzieller Mittel), ist das Patent praktisch zahnlos. Aber Ihre Konkurrenten werden das wahrscheinlich nicht wissen. Sie könnten daher allein durch das Vorhandensein eines Patents und die Annahme, dass Sie klagen würden, davon abgehalten werden, das Patent zu verletzen. Eine solche abschreckende Wirkung auf den Wettbewerb kann für Sie wertvoll sein. Darüber hinaus können Sie im Falle einer Patentverletzung möglicherweise eine Lizenzvereinbarung abschließen, ohne dass ein Rechtsstreit erforderlich ist. Dies kann ein sehr lukratives Geschäftsmodell sein, das die Kosten für eine Patentanmeldung rechtfertigen kann. Und wenn ein Rechtsstreit wahrscheinlich ist, gibt es ein neu entstehendes Feld für die Finanzierung von Rechtsstreitigkeiten. Auch wenn Ihre Geldgeber einen großen Teil des Schadensersatzes übernehmen werden, können Sie am Ende zumindest etwas davon haben. Und selbst wenn Sie nicht klagen können, könnte es jemand anderes tun. Sie könnten also einen gewissen Wert aus dem Verkauf des Unternehmens ziehen. Es gibt eine Reihe von Technologieunternehmen, bei denen der größte Teil ihres Wertes aus ihrem IP-Portfolio stammt. Im Großen und Ganzen hängt es also davon ab, wie Sie selbst vorgehen wollen. Wenn Sie sich nicht sicher sind, kann es sich lohnen, sich auf die Seite der Patentierung zu schlagen: Sobald Sie Ihre Erfindung öffentlich offenlegen oder benutzen, können Sie sie in der Regel später nicht mehr patentieren (in einigen Ländern gibt es jedoch eine kurze Schonfrist), wohingegen Sie ein Patent (oder eine Anmeldung) später leicht wieder aufgeben können, wenn Sie dies wünschen.
¿Merece la pena patentar un algoritmo si no tengo dinero para defenderme de las infracciones?
Esta es una gran pregunta, sin una respuesta correcta. La fuerza de una patente radica en la capacidad de hacerla valer. Si el titular de la patente no puede hacerla valer por el motivo que sea (como la falta de financiación), la patente carece efectivamente de valor. Pero es probable que sus competidores no lo sepan. Por lo tanto, pueden verse disuadidos de infringir simplemente por la existencia de una patente y la suposición de que usted la demandaría. Este efecto disuasorio sobre la competencia puede ser valioso para usted. Además, si se produce una infracción, es posible que pueda obtener un acuerdo de licencia sin necesidad de litigar. Este puede ser un modelo de negocio muy lucrativo, por lo que puede justificar el coste de la patente. Y si el litigio parece probable, existe un campo incipiente de financiación de litigios. Aunque sus financiadores se harán cargo de gran parte de los daños y perjuicios, puede que al menos obtenga algo al final. Por último, aunque usted no pueda demandar, otra persona podría hacerlo. Por lo tanto, podrías obtener bastante valor vendiéndola en algún momento. Hay una serie de empresas tecnológicas en las que la mayor parte de su valor procede de su cartera de propiedad intelectual. En general, por tanto, depende de cómo se vea a sí mismo. Si no está seguro, puede que le compense errar por el lado de las patentes: una vez que divulga o utiliza públicamente su invención, por lo general se le prohíbe patentarla posteriormente (aunque en algunos países existe un breve período de gracia), mientras que es fácil abandonar una patente (o solicitud) más adelante si así lo desea.
Cela vaut-il la peine de breveter un algorithme si je n'ai pas les moyens de me défendre contre les infractions ?
C'est une excellente question, à laquelle il n'y a pas de bonne réponse. La force d'un brevet vient de la capacité à le faire respecter. Si le titulaire du brevet ne peut pas le faire respecter pour une raison quelconque (par exemple, un manque de financement), le brevet est en fait édenté. Mais vos concurrents ne le sauront probablement pas. Ils peuvent donc être dissuadés d'enfreindre la loi simplement par l'existence d'un brevet et l'hypothèse que vous intenteriez une action en justice. Cet effet dissuasif sur la concurrence peut être précieux pour vous. En outre, en cas de contrefaçon, vous pouvez être en mesure d'obtenir un accord de licence sans qu'il soit nécessaire d'engager une procédure judiciaire. Il peut s'agir d'un modèle commercial très lucratif, qui peut justifier le coût du brevet. Et si un litige semble probable, il existe un domaine naissant, celui du financement des litiges. Même si vos bailleurs de fonds prendront en charge une grande partie des dommages et intérêts, vous pourrez au moins obtenir quelque chose à la fin de l'affaire. Enfin, même si vous ne pouvez pas intenter de procès, quelqu'un d'autre pourrait le faire. Vous pourriez donc obtenir une certaine valeur en vendant votre entreprise à un moment ou à un autre. Dans un certain nombre d'entreprises technologiques, l'essentiel de la valeur provient de leur portefeuille de propriété intellectuelle. Dans l'ensemble, tout dépend donc de la manière dont vous envisagez de procéder. Si vous n'êtes pas sûr de vous, il peut être intéressant de privilégier le brevet : une fois que vous avez divulgué ou utilisé votre invention publiquement, il vous est généralement interdit de la breveter par la suite (sauf pendant une courte période de grâce dans certains pays), alors qu'il est facile d'abandonner un brevet (ou une demande) plus tard si vous le souhaitez.
Vale la pena brevettare un algoritmo se non ho i soldi per difendermi dalle violazioni?
Questa è una grande domanda, che non ha una risposta giusta. La forza di un brevetto deriva dalla capacità di farlo rispettare. Se il titolare del brevetto non è in grado di farlo rispettare per qualsiasi motivo (ad esempio per mancanza di fondi), il brevetto è di fatto privo di valore. Ma i vostri concorrenti probabilmente non lo sanno. Potrebbero quindi essere dissuasi dall'infrazione semplicemente dall'esistenza di un brevetto e dall'ipotesi che voi facciate causa. Un simile effetto di dissuasione della concorrenza può essere prezioso per voi. Inoltre, in caso di violazione, potreste essere in grado di ottenere un accordo di licenza senza dover ricorrere al contenzioso. Questo può essere un modello di business molto redditizio, che può giustificare il costo del brevetto. Se il contenzioso sembra probabile, esiste un campo nascente di finanziamento del contenzioso. Anche se i finanziatori si prenderanno gran parte dei danni, potreste almeno ricavarne qualcosa. Infine, anche se non potete fare causa, qualcun altro potrebbe farlo. Potreste quindi ricavare un discreto valore dalla vendita del prodotto. Ci sono molte aziende tecnologiche il cui valore deriva in gran parte dal loro portafoglio di proprietà intellettuale. Nel complesso, quindi, dipende da come vi vedete procedere. Se non siete sicuri, potrebbe convenire optare per il brevetto: una volta divulgata o utilizzata pubblicamente la vostra invenzione, in genere vi è preclusa la possibilità di brevettarla in seguito (ma in alcuni Paesi è previsto un breve periodo di tolleranza), mentre è facile abbandonare un brevetto (o una domanda) in un secondo momento, se lo desiderate.
14
"I have a ```String[]``` with values like so: ```public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""}; ``` Given ```String s```, is there a good way of testing whether ```VALUES``` contains ```s```?" How do I determine whether an array contains a particular value in Java?
Four Different Ways to Check If an Array Contains a Value: * Using ```List```: ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue); } ``` * Using ```Set```: ```public static boolean useSet(String[] arr, String targetValue) { Set set = new HashSet(Arrays.asList(arr)); return set.contains(targetValue); } ``` * Using a simple loop: ```public static boolean useLoop(String[] arr, String targetValue) { for (String s: arr) { if (s.equals(targetValue)) return true; } return false; } ``` * Using ```Arrays.binarySearch()```: The code below is wrong, it is listed here for completeness. ```binarySearch()``` can ONLY be used on sorted arrays. You will find the result is weird below. This is the best option when array is sorted. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0; } ``` Quick Example: ```String testValue="test"; String newValueNotInList="newValue"; String[] valueArray = { "this", "is", "java" , "test" }; Arrays.asList(valueArray).contains(testValue); // returns true Arrays.asList(valueArray).contains(newValueNotInList); // returns false ```
"Ich habe einen ```String[]`` mit Werten wie diesen: ```public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""}; ``` Gibt es bei einem ````String s``` eine gute Möglichkeit zu testen, ob ```VALUES``` ````` enthält?" Wie kann ich in Java feststellen, ob ein Array einen bestimmten Wert enthält?
Vier verschiedene Möglichkeiten zu prüfen, ob ein Array einen Wert enthält: * Verwendung von ```List```: ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue); } ``` * Verwendung von ```Set```: ```public static boolean useSet(String[] arr, String targetValue) { Menge set = new HashSet(Arrays.asList(arr)); return set.contains(targetValue); } ``` * Verwendung einer einfachen Schleife: ```public static boolean useLoop(String[] arr, String targetValue) { for (String s: arr) { if (s.equals(targetValue)) return true; } return false; } ``` * Verwendung von ```Arrays.binarySearch()```: Der folgende Code ist falsch, er wird hier nur der Vollständigkeit halber aufgeführt. ````binarySearch()``` kann NUR auf sortierte Arrays angewendet werden. Sie werden feststellen, dass das Ergebnis unten seltsam ist. Dies ist die beste Option, wenn das Array sortiert ist. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0; } ``` Schnelles Beispiel: ```String testValue="test"; String newValueNotInList="newValue"; String[] valueArray = { "this", "is", "java" , "test" }; Arrays.asList(valueArray).contains(testValue); // liefert true Arrays.asList(valueArray).contains(newValueNotInList); // gibt false zurück ```
"Tengo una ```String[]`` con valores como los siguientes: ```public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""}; ``` Dada una ``Cadena s``, ¿hay alguna forma de comprobar si ``VALORES`` contiene ```s``?" ¿Cómo puedo determinar si un array contiene un valor concreto en Java?
Cuatro formas diferentes de comprobar si una matriz contiene un valor: * Usando ```List``: ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue); } ``` * Usando ```Set``: ```public static boolean useSet(String[] arr, String targetValue) { Set set = new HashSet(Arrays.asList(arr)); return set.contains(targetValue); } ``` * Usando un bucle simple: ```public static boolean useLoop(String[] arr, String targetValue) { for (String s: arr) { if (s.equals(targetValue)) return true; } return false; } ``` * Usando ```Arrays.binarySearch()``: El código de abajo es incorrecto, se enumera aquí para completar. ```binarySearch()`` SOLO puede usarse en arrays ordenados. Verás que el resultado es raro. Esta es la mejor opción cuando el array está ordenado. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0; } ``` Ejemplo rápido: ```String pruebaValor="prueba"; String nuevoValorNoEnLista="nuevoValor"; String[] valueArray = { "this", "is", "java" , "test" }; Arrays.asList(valueArray).contains(testValue); // devuelve verdadero Arrays.asList(valorMatriz).contains(nuevoValorNoEnLista); // devuelve false ```
"J'ai une ``chaîne[]`` avec des valeurs comme suit : ```public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""} ; ``` Étant donné ``String s``, existe-t-il un bon moyen de tester si ``VALUES`` contient ``s`` ?" Comment déterminer si un tableau contient une valeur particulière en Java ?
Quatre façons différentes de vérifier si un tableau contient une valeur : * En utilisant ``List`` : ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue) ; } ``` * Utilisation de ``Set`` : ```public static boolean useSet(String[] arr, String targetValue) { Set set = new HashSet(Arrays.asList(arr)) ; return set.contains(targetValue) ; } ``` * Utilisation d'une simple boucle : ```public static boolean useLoop(String[] arr, String targetValue) { for (String s : arr) { if (s.equals(targetValue)) return true ; } return false ; } ``` * Utilisation de ``Arrays.binarySearch()`` : Le code ci-dessous est erroné, il est listé ici pour être complet. ``binarySearch()`` ne peut être utilisé que sur des tableaux triés. Vous verrez que le résultat est bizarre ci-dessous. C'est la meilleure option lorsque le tableau est trié. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0 ; } ``` Exemple rapide : ```String testValue="test" ; String newValueNotInList="newValue" ; String[] valueArray = { "this", "is", "java" , "test" } ; Arrays.asList(valueArray).contains(testValue) ; // renvoie vrai Arrays.asList(valueArray).contains(newValueNotInList) ; // retourne false ```
"Ho una ```Stringa[]`` con valori come questi: ``public static final String[] VALUES = new String[] {""AB"",""BC"",""CD"",""AE""}; ``` Data una ``stringa s```, esiste un buon modo per verificare se ```VALORI`` contiene ```s```?" Come si determina se un array contiene un particolare valore in Java?
Quattro modi diversi per verificare se una matrice contiene un valore: * Utilizzando ```List``: ```public static boolean useList(String[] arr, String targetValue) { return Arrays.asList(arr).contains(targetValue); } ``` * Utilizzo di ```Set``: ```public static boolean useSet(String[] arr, String targetValue) { Set = new HashSet(Arrays.asList(arr)); return set.contains(targetValue); } ``` * Utilizzando un semplice ciclo: ```public static boolean useLoop(String[] arr, String targetValue) { for (String s: arr) { if (s.equals(targetValue)) restituisce true; } return false; } ``` * Utilizzo di ``Arrays.binarySearch()```: Il codice sottostante è errato, ma è riportato qui per completezza. ```binarySearch()`` può essere usato SOLO su array ordinati. Il risultato è strano. Questa è l'opzione migliore quando l'array è ordinato. ```public static boolean binarySearch(String[] arr, String targetValue) { return Arrays.binarySearch(arr, targetValue) >= 0; } ``` Esempio rapido: ```Stringa testValue="test"; String newValueNotInList="newValue"; String[] valueArray = { "this", "is", "java" , "test" }; Arrays.asList(valueArray).contains(testValue); // restituisce true Arrays.asList(valueArray).contains(newValueNotInList); // restituisce false ```
End of preview. Expand in Data Studio
README.md exists but content is empty.
Downloads last month
134