id_numeric
int64 0
1.03k
| en_input
stringlengths 12
7.84k
| en_output
stringlengths 15
17.7k
| de_input
stringlengths 13
8.96k
| de_output
stringlengths 15
21.1k
| es_input
stringlengths 16
8.77k
| es_output
stringlengths 15
18.6k
| fr_input
stringlengths 15
9.16k
| fr_output
stringlengths 15
20.6k
| it_input
stringlengths 8
8.7k
| it_output
stringlengths 15
19.6k
|
---|---|---|---|---|---|---|---|---|---|---|
200 | Suppose I wrote that I will be killed by a UFO falling from space in the year 2315 while I am lifting.
Will the Note increase my lifespan? In other words, will I still be alive by then? | No. There are some rules that prevent this. From the Rules of the Death Note wiki:
1. The 23-days rule
How to use: XXVII
* [...]
* If you write, “die of disease” for the cause of death, but only write a specific time of death without the actual name of disease, the human will die from an adequate disease. But the Death Note can only operate within 23 days (in the human calendar). This is called the 23-day rule.
2. Situation/cause of death is impossible
How to Use: LIV
* [...]
* In the occasion where the cause of death is possible but the situation is not, only the cause of death will take effect for that victim. If both the cause and the situation are impossible, that victim will die of heart attack.
While an UFO falling on your head is technically unlikely, but not impossible, the fact that you'll be naturally alive by 2315 is impossible. You'll just shorten your life, not make it longer.
3. Setting death after original lifespan
How to Use: LVII
* In the Death Note, you cannot set the death date longer than the victim’s original life span. Even if the victim’s death is set in the Death Note beyond his/her original life span, the victim will die before the set time.
| Angenommen, ich schreibe, dass ich im Jahr 2315 von einem UFO getötet werde, das aus dem Weltraum fällt, während ich aufstehe.
Wird die Notiz meine Lebensspanne verlängern? Mit anderen Worten, werde ich dann noch am Leben sein? | Nein. Es gibt einige Regeln, die dies verhindern. Aus den Regeln des Death-Note-Wikis:
1. Die 23-Tage-Regel
Wie man sie benutzt: XXVII
* [...]
* Wenn Sie als Todesursache "an einer Krankheit sterben" angeben, aber nur einen bestimmten Todeszeitpunkt ohne den eigentlichen Namen der Krankheit schreiben, wird der Mensch an einer entsprechenden Krankheit sterben. Die Todesnachricht kann jedoch nur innerhalb von 23 Tagen (im menschlichen Kalender) wirken. Dies wird die 23-Tage-Regel genannt.
2. Situation/Ursache des Todes ist unmöglich
Wie zu verwenden: LIV
* [...]
* Wenn die Todesursache möglich ist, die Situation aber nicht, wird nur die Todesursache für das Opfer wirksam. Wenn sowohl die Ursache als auch die Situation unmöglich sind, wird das Opfer an einem Herzinfarkt sterben.
Während ein UFO, das Ihnen auf den Kopf fällt, technisch unwahrscheinlich, aber nicht unmöglich ist, ist die Tatsache, dass Sie im Jahr 2315 auf natürliche Weise noch am Leben sein werden, unmöglich. Sie werden Ihr Leben nur verkürzen, nicht verlängern.
3. Den Tod nach der ursprünglichen Lebensspanne einstellen
Wie man es benutzt: LVII
* In der Todesanzeige können Sie das Todesdatum nicht länger als die ursprüngliche Lebensspanne des Opfers festlegen. Selbst wenn der Tod des Opfers in der Todesanzeige über seine ursprüngliche Lebensspanne hinaus festgelegt wird, stirbt das Opfer vor dem festgelegten Zeitpunkt.
| Supongamos que escribo que me matará un ovni que caerá del espacio en el año 2315 mientras estoy levantando peso.
¿Aumentará la Nota mi esperanza de vida? En otras palabras, ¿seguiré vivo para entonces? | No. Hay algunas reglas que lo impiden. De las Reglas de la wiki de Death Note:
1. La regla de los 23 días
Cómo usarla: XXVII
* [...]
* Si escribes, "morir de enfermedad" para la causa de la muerte, pero sólo escribes una hora específica de la muerte sin el nombre real de la enfermedad, el humano morirá de una enfermedad adecuada. Pero la Nota de Muerte sólo puede operar dentro de 23 días (en el calendario humano). Esto se llama la regla de los 23 días.
2. La situación/causa de la muerte es imposible
Cómo se utiliza: LIV
* [...]
* En la ocasión en que la causa de la muerte sea posible pero la situación no lo sea, sólo la causa de la muerte tendrá efecto para esa víctima. Si tanto la causa como la situación son imposibles, esa víctima morirá de infarto.
Mientras que un OVNI cayendo sobre tu cabeza es técnicamente improbable, pero no imposible, el hecho de que sigas vivo de forma natural en 2315 es imposible. Sólo acortarás tu vida, no la alargarás.
3. Fijar la muerte después de la esperanza de vida original
Cómo utilizarlo: LVII
* En la Death Note, no se puede establecer la fecha de muerte más allá del tiempo de vida original de la víctima. Incluso si la muerte de la víctima se establece en la Death Note más allá de su tiempo de vida original, la víctima morirá antes del tiempo establecido.
| Supposons que j'écrive que je serai tué par un OVNI tombant de l'espace en l'an 2315 alors que je suis en train de me lever.
La note augmentera-t-elle ma durée de vie ? En d'autres termes, serai-je encore en vie à ce moment-là ? | Non. Il y a des règles qui empêchent cela. Extrait du wiki Rules of the Death Note :
1. La règle des 23 jours
Comment l'utiliser : XXVII
* [...]
* Si vous écrivez "mourir de maladie" pour la cause du décès, mais que vous n'écrivez que l'heure précise du décès sans le nom réel de la maladie, l'humain mourra d'une maladie adéquate. Mais le Death Note ne peut fonctionner que dans un délai de 23 jours (dans le calendrier humain). C'est ce qu'on appelle la règle des 23 jours.
2. La situation/cause de la mort est impossible
Comment l'utiliser ? LIV
* [...]
* Dans le cas où la cause de la mort est possible mais que la situation ne l'est pas, seule la cause de la mort prendra effet pour cette victime. Si la cause et la situation sont toutes deux impossibles, la victime mourra d'une crise cardiaque.
Si la chute d'un ovni sur votre tête est techniquement improbable, mais pas impossible, le fait que vous soyez naturellement en vie en 2315 est impossible. Vous ne ferez que raccourcir votre vie, pas l'allonger.
3. Fixer la mort après la durée de vie initiale
Comment l'utiliser : LVII
* Dans le Death Note, vous ne pouvez pas fixer la date de la mort au-delà de la durée de vie originale de la victime. Même si la mort de la victime est fixée dans le Bulletin de décès au-delà de sa durée de vie originale, la victime mourra avant la date fixée.
| Supponiamo che io scriva che sarò ucciso da un UFO che cade dallo spazio nell'anno 2315 mentre sto sollevando.
La Nota aumenterà la mia durata di vita? In altre parole, sarò ancora vivo per allora? | No. Ci sono alcune regole che lo impediscono. Dalle Regole del wiki di Death Note:
1. La regola dei 23 giorni
Come si usa: XXVII
* [...]
* Se si scrive "morire di malattia" per la causa del decesso, ma si scrive solo un'ora specifica del decesso senza il nome effettivo della malattia, l'umano morirà per una malattia adeguata. Ma il Death Note può funzionare solo entro 23 giorni (nel calendario umano). Questa è la cosiddetta regola dei 23 giorni.
2. La situazione/causa della morte è impossibile
Come si usa: LIV
* [...]
* Se la causa di morte è possibile, ma la situazione non lo è, solo la causa di morte avrà effetto su quella vittima. Se sia la causa che la situazione sono impossibili, la vittima morirà di infarto.
Mentre un UFO che cade sulla vostra testa è tecnicamente improbabile, ma non impossibile, il fatto che sarete naturalmente vivi entro il 2315 è impossibile. Accorcerete solo la vostra vita, non la allungherete.
3. Impostazione della morte dopo la durata di vita originale
Come si usa: LVII
* Nel Death Note non è possibile impostare una data di morte superiore alla durata di vita originale della vittima. Anche se la data di morte della vittima viene impostata nel Death Note oltre la sua durata di vita originale, la vittima morirà prima del tempo stabilito.
|
201 | I have an Affa Protector enchanted with Unhallowed Pact ... My opponent kills my Affa with Dread Slaver ...
Who will take control of the creature at the end? This is taking into consideration that my aura spell was cast 5 turns ago. Meaning my aura spell is NOT on the stack. | It depends on whose turn it is.
Both abilities trigger at the same time, and so will be put on the stack together. Abilities are put on the stack in APNAP (Active Player, Non-Active Player) order.* This means that the player whose turn it is puts their ability on the stack, then the other player does. That second player's ability will resolve first, returning the creature to the battlefield. When the other ability tries to resolve, it fails to find the creature in the graveyard and thus can't return it.
Thus whoever's the active player won't end up with the creature. For multiplayer games where there are multiple NAPs they are put on the stack in turn order starting from the AP, so the last player in turn order with such an effect would take precedence.
* From the rules on Triggered Abilities:
> 603.3b If multiple abilities have triggered since the last time a player received priority, each player, in APNAP order, puts triggered abilities he or she controls on the stack in any order he or she chooses. [...]
This works with any number of players, starting with the active player and passing around in turn order. In this case, the player furthest away from taking their turn (the last player to put their ability on the stack) would get the creature. | Ich habe einen Affa Protector, der mit Unhallowed Pact verzaubert ist ... Mein Gegner tötet meinen Affa mit Dread Slaver ...
Wer wird am Ende die Kontrolle über die Kreatur übernehmen? Dabei wird berücksichtigt, dass mein Aura-Zauber vor 5 Runden gewirkt wurde. Das heißt, mein Aura-Zauber ist NICHT auf dem Stapel. | Das hängt davon ab, wer am Zug ist.
Beide Fähigkeiten werden zur gleichen Zeit ausgelöst und daher zusammen auf den Stapel gelegt. Fähigkeiten werden in der APNAP-Reihenfolge (Active Player, Non-Active Player) auf den Stapel gelegt.* Das bedeutet, dass der Spieler, der am Zug ist, seine Fähigkeit auf den Stapel legt, dann der andere Spieler. Die Fähigkeit des zweiten Spielers wird zuerst aufgelöst und bringt die Kreatur auf das Schlachtfeld zurück. Wenn die andere Fähigkeit versucht, sich aufzulösen, findet sie die Kreatur nicht auf dem Friedhof und kann sie daher nicht zurückbringen.
Der aktive Spieler erhält also die Kreatur nicht. Bei Multiplayer-Spielen mit mehreren NAPs werden diese in der Zugreihenfolge auf den Stapel gelegt, beginnend mit dem AP, so dass der letzte Spieler in der Zugreihenfolge mit einem solchen Effekt Vorrang hätte.
* Aus den Regeln für ausgelöste Fähigkeiten:
> 603.3b Wenn mehrere Fähigkeiten ausgelöst wurden, seit ein Spieler das letzte Mal Priorität erhalten hat, legt jeder Spieler in APNAP-Reihenfolge ausgelöste Fähigkeiten, die er kontrolliert, in beliebiger Reihenfolge auf den Stapel. [...]
Dies funktioniert mit einer beliebigen Anzahl von Spielern, beginnend mit dem aktiven Spieler und in Zugreihenfolge. In diesem Fall würde der Spieler, der am weitesten davon entfernt ist, seinen Zug zu machen (der letzte Spieler, der seine Fähigkeit auf den Stapel gelegt hat), die Kreatur bekommen. | Tengo un Protector de afectos encantado con Pacto de ignominia... Mi oponente mata a mi Affa con Dread Slaver ...
¿Quién tomará el control de la criatura al final? Esto teniendo en cuenta que mi hechizo de aura fue lanzado hace 5 turnos. Lo que significa que mi hechizo de aura NO está en la pila. | Depende de quién sea el turno.
Ambas habilidades se activan al mismo tiempo, por lo que se colocan juntas en la pila. Las habilidades se colocan en la pila en orden APNAP (Jugador Activo, Jugador No Activo)*, lo que significa que el jugador al que le toca el turno coloca su habilidad en la pila y luego lo hace el otro jugador. La habilidad del segundo jugador se resolverá primero, devolviendo la criatura al campo de batalla. Cuando la otra habilidad intenta resolverse, no encuentra la criatura en el cementerio y, por tanto, no puede devolverla.
Por lo tanto, quien sea el jugador activo no se quedará con la criatura. En las partidas multijugador en las que hay varios PAN, se colocan en la pila por orden de turno empezando por el PA, por lo que el último jugador en orden de turno con un efecto de este tipo tendría preferencia.
* De las reglas sobre Habilidades Disparadas:
> 603.3b Si se han disparado múltiples habilidades desde la última vez que un jugador recibió prioridad, cada jugador, en orden de APNAP, pone las habilidades disparadas que controla en la pila en el orden que elija. [...]
Esto funciona con cualquier número de jugadores, empezando por el jugador activo y pasando de uno a otro en orden de turno. En este caso, el jugador que esté más lejos de tomar su turno (el último jugador en poner su habilidad en la pila) obtendría la criatura. | J'ai un Affa Protector enchanté avec Unhallowed Pact ... Mon adversaire tue mon Affa avec Dread Slaver ...
Qui prendra le contrôle de la créature à la fin ? Ceci en tenant compte du fait que mon sort d'aura a été lancé il y a 5 tours. Cela signifie que mon sort d'aura n'est PAS sur la pile. | Cela dépend du tour de chacun.
Les deux capacités se déclenchent en même temps et sont donc mises sur la pile ensemble. Les capacités sont mises sur la pile dans l'ordre APNAP (Joueur Actif, Joueur Non Actif)*, ce qui signifie que le joueur dont c'est le tour met sa capacité sur la pile, puis l'autre joueur le fait. La capacité de ce second joueur se résout en premier, ramenant la créature sur le champ de bataille. Lorsque l'autre capacité tente de se résoudre, elle ne parvient pas à trouver la créature dans le cimetière et ne peut donc pas la renvoyer.
Ainsi, le joueur actif ne se retrouvera pas avec la créature. Pour les parties multijoueurs où il y a plusieurs PAN, ils sont placés sur la pile dans l'ordre du tour en commençant par le PA, de sorte que le dernier joueur dans l'ordre du tour avec un tel effet aurait la priorité.
* D'après les règles sur les capacités déclenchées :
> 603.3b Si plusieurs capacités se sont déclenchées depuis la dernière fois qu'un joueur a reçu la priorité, chaque joueur, dans l'ordre des APNAP, place les capacités déclenchées qu'il contrôle sur la pile dans l'ordre de son choix. [...]
Cela fonctionne avec n'importe quel nombre de joueurs, en commençant par le joueur actif et en passant dans l'ordre du tour. Dans ce cas, c'est le joueur le plus éloigné de son tour (le dernier à avoir mis sa capacité sur la pile) qui obtient la créature. | Ho un Affa Protector incantato con Unhallowed Pact ... Il mio avversario uccide il mio Affa con Dread Slaver ...
Chi prenderà il controllo della creatura alla fine? Questo tenendo conto del fatto che la mia magia aura è stata lanciata 5 turni fa. Ciò significa che la mia magia di aura NON è in pila. | Dipende dal turno di chi è.
Entrambe le abilità si innescano nello stesso momento e quindi vengono messe in pila insieme. Le abilità vengono messe in pila in ordine APNAP (Giocatore Attivo, Giocatore Non Attivo)*. Ciò significa che il giocatore di turno mette in pila la propria abilità, poi lo fa l'altro giocatore. L'abilità del secondo giocatore si risolverà per prima, riportando la creatura sul campo di battaglia. Quando l'altra abilità tenta di risolversi, non riesce a trovare la creatura nel cimitero e quindi non può restituirla.
Pertanto, chiunque sia il giocatore attivo non si ritroverà con la creatura. Per le partite multigiocatore in cui ci sono più PAN, essi vengono messi in pila in ordine di turno a partire dall'AP, quindi l'ultimo giocatore in ordine di turno con tale effetto avrebbe la precedenza.
* Dalle regole sulle abilità innescate:
> 603.3b Se più abilità si sono innescate dall'ultima volta che un giocatore ha ricevuto la priorità, ogni giocatore, in ordine di APNAP, mette in pila le abilità innescate che controlla nell'ordine che preferisce. [...]
Questo funziona con qualsiasi numero di giocatori, a partire dal giocatore attivo e passando in ordine di turno. In questo caso, il giocatore più lontano dal proprio turno (l'ultimo a mettere in pila la propria abilità) otterrebbe la creatura. |
202 | I've found that some people call JavaScript a "dynamically, weakly typed" language, but some even say "untyped"? Which is it really? | strong/weak can be thought of in relation to how the compiler, if applicable, handles typing.
* Weakly typed means the compiler, if applicable, doesn't enforce correct typing. Without implicit compiler interjection, the instruction will error during run-time.
```"12345" * 1 === 12345 // string * number => number
```
Strongly typed means there is a compiler, and it wants you an explicit cast from string to integer.
```(int) "12345" * 1 === 12345
```
In either case, some compiler's features can implicitly alter the instruction during compile-time to do conversions for you, if it can determine that is the right thing to do.
Thus far, JavaScript can be categorized as Not-Strongly-Typed. That either means it's weakly-typed or un-typed.
dynamic/static can be thought of in relation to how the language instructions manipulate types.
* Dynamically typed means the value's type is enforced, but the variable simply represents any value of any type.
```x = 12345; // number
x = "string"; // string
x = { key: "value" }; // object
y = 123 + x; // error or implicit conversion must take place.
```
Statically typed means the variable type is strongly enforced, and the value type is less-so enforced.
```int x = 12345; // binds x to the type int
x = "string"; // too late, x is an integer - error
string y = 123; // error or implicit conversion must take place.
```
Thus far, JavaScript can be categorized as Not-Statically-Typed. Also, it appears to be Dynamically Typed, if typed at all. So we need to see what Typing means.
Typed means that the language distinguishes between different types such as string, number, boolean, object, array, null, undefined and so on. Also each operation is bound to specific types. So you cannot divide an integer by a string.
``` 2 / "blah" // produces NaN
```
Untyped means the operation of dividing integer by string would result in treating the first four bytes of string as integer. This is because Untyped operations take place directly on bits, there are no types to observe. The outcome will be something quite unexpected:
``` 2 / "blah" // will be treated as 2 / 1500275048
```
Since JavaScript behaves according to the definition of being Typed, it must be. And therefore it must be Dynamically Typed, and Weakly Typed.
If anybody claims JavaScript is Untyped, it is merely for academic theory, not for practical application. | Ich habe festgestellt, dass einige Leute JavaScript eine "dynamisch, schwach typisierte" Sprache nennen, aber einige sagen sogar "untypisiert"? Was ist es wirklich? | stark/schwach kann in Bezug darauf gesehen werden, wie der Compiler, falls zutreffend, die Typisierung handhabt.
* Schwach typisiert bedeutet, dass der Compiler, falls zutreffend, die korrekte Typisierung nicht erzwingt. Ohne implizite Compilerinterjektion wird die Anweisung während der Laufzeit fehlerhaft sein.
```"12345" * 1 === 12345 // string * number => number
```
Stark typisiert bedeutet, dass es einen Compiler gibt, der eine explizite Umwandlung von String in Integer verlangt.
```(int) "12345" * 1 === 12345
```
In beiden Fällen können einige Compilerfunktionen die Anweisung während der Kompilierungszeit implizit ändern, um Konvertierungen für Sie durchzuführen, wenn sie feststellen können, dass dies das Richtige ist.
Bis jetzt kann JavaScript als "Not-Strongly-Typed" kategorisiert werden. Das bedeutet, dass es entweder schwach typisiert oder untypisiert ist.
dynamisch/statisch kann in Bezug auf die Art und Weise, wie die Anweisungen der Sprache Typen manipulieren, betrachtet werden.
* Dynamisch typisiert bedeutet, dass der Typ des Wertes erzwungen wird, aber die Variable einfach einen beliebigen Wert eines beliebigen Typs darstellt.
```x = 12345; // Zahl
x = "Zeichenkette"; // Zeichenkette
x = { Schlüssel: "Wert" }; // Objekt
y = 123 + x; // Fehler oder es muss eine implizite Konvertierung stattfinden.
```
Statisch typisiert bedeutet, dass der Variablentyp stark erzwungen wird und der Wertetyp weniger stark erzwungen wird.
```int x = 12345; // bindet x an den Typ int
x = "string"; // zu spät, x ist eine Ganzzahl - Fehler
string y = 123; // Fehler oder es muss eine implizite Konvertierung stattfinden.
```
Bis jetzt kann JavaScript als nicht-statisch typisiert eingestuft werden. Außerdem scheint es dynamisch typisiert zu sein, wenn es überhaupt typisiert ist. Wir müssen also sehen, was Typing bedeutet.
Typisiert bedeutet, dass die Sprache zwischen verschiedenen Typen wie String, Zahl, Boolean, Objekt, Array, null, undefiniert und so weiter unterscheidet. Außerdem ist jede Operation an bestimmte Typen gebunden. Sie können also nicht eine ganze Zahl durch eine Zeichenkette dividieren.
2 / "blah" // ergibt NaN
```
Untyped bedeutet, dass die Operation der Division einer Ganzzahl durch einen String dazu führen würde, dass die ersten vier Bytes des Strings als Ganzzahl behandelt werden. Das liegt daran, dass Untyped-Operationen direkt auf Bits stattfinden, es gibt keine Typen zu beachten. Das Ergebnis wird etwas ganz Unerwartetes sein:
``` 2 / "blah" // wird als 2 / 1500275048 behandelt.
```
Da JavaScript sich gemäß der Definition von "typisiert" verhält, muss es das auch sein. Und deshalb muss es dynamisch typisiert und schwach typisiert sein.
Wenn jemand behauptet, JavaScript sei untypisiert, dann ist das nur akademische Theorie, nicht für die praktische Anwendung. | He descubierto que algunas personas llaman a JavaScript un lenguaje "dinámicamente, débilmente tipado", pero algunos incluso dicen "no tipado"? ¿Cuál es realmente? | fuerte/débil puede considerarse en relación con la forma en que el compilador, si procede, gestiona la tipificación.
* Débilmente tipado significa que el compilador, si es aplicable, no impone la tipación correcta. Sin la interjección implícita del compilador, la instrucción dará error durante el tiempo de ejecución.
```"12345" * 1 === 12345 // cadena * número => número
```
Strongly typed significa que hay un compilador, y quiere que hagas una conversión explícita de cadena a entero.
```(int) "12345" * 1 === 12345
```
En cualquier caso, algunas características del compilador pueden alterar implícitamente la instrucción durante la compilación para hacer las conversiones por ti, si puede determinar que es lo correcto.
Hasta ahora, JavaScript puede ser categorizado como Not-Strongly-Typed. Eso significa que está débilmente tipado o no tipado.
dinámico/estático puede ser pensado en relación a cómo las instrucciones del lenguaje manipulan los tipos.
* Dinámicamente tipado significa que el tipo del valor es forzado, pero la variable simplemente representa cualquier valor de cualquier tipo.
```x = 12345; // número
x = "cadena"; // cadena
x = { clave: "valor" }; // objeto
y = 123 + x; // error o debe producirse una conversión implícita.
```
Estáticamente tipado significa que el tipo de la variable es fuertemente forzado, y el tipo del valor es menos forzado.
```int x = 12345; // vincula x al tipo int
x = "string"; // demasiado tarde, x es un entero - error
string y = 123; // error o debe realizarse una conversión implícita.
```
Hasta aquí, JavaScript puede clasificarse como No-Tipado-Estáticamente. Además, parece estar tipado dinámicamente, si es que está tipado. Así que tenemos que ver lo que significa Typing.
Tipado significa que el lenguaje distingue entre diferentes tipos como string, number, boolean, object, array, null, undefined y así sucesivamente. Además, cada operación está vinculada a tipos específicos. Así que no puedes dividir un entero por una cadena.
``` 2 / "blah" // produce NaN
```
Untyped significa que la operación de dividir un entero por una cadena resultaría en tratar los primeros cuatro bytes de la cadena como enteros. Esto se debe a que las operaciones Untyped tienen lugar directamente sobre los bits, no hay tipos que observar. El resultado será algo bastante inesperado:
``` 2 / "blah" // será tratado como 2 / 1500275048
```
Puesto que JavaScript se comporta según la definición de ser Tipado, debe serlo. Y por lo tanto debe ser Dinámicamente Tipado, y Débilmente Tipado.
Si alguien afirma que JavaScript es no tipado, es sólo para la teoría académica, no para la aplicación práctica. | J'ai découvert que certaines personnes appellent JavaScript un langage "dynamiquement, faiblement typé", mais que d'autres disent même "non typé" ? Qu'en est-il vraiment ? | fort/faible peut être considéré en relation avec la manière dont le compilateur, le cas échéant, gère le typage.
* Faiblement typé signifie que le compilateur, le cas échéant, n'impose pas un typage correct. Sans l'interjection implicite du compilateur, l'instruction sera erronée pendant l'exécution.
```"12345" * 1 === 12345 // chaîne * nombre => nombre
```
Un typage fort signifie qu'il y a un compilateur, et qu'il veut que vous fassiez une conversion explicite de chaîne en entier.
```(int) "12345" * 1 === 12345
```
Dans les deux cas, certaines fonctions du compilateur peuvent implicitement modifier l'instruction pendant la compilation pour effectuer les conversions à votre place, s'il peut déterminer que c'est la bonne chose à faire.
Jusqu'à présent, le langage JavaScript peut être classé dans la catégorie des langages non fortement typés. Cela signifie qu'il est faiblement typé ou non typé.
Les notions de dynamique et de statique peuvent être considérées en relation avec la manière dont les instructions du langage manipulent les types.
* Dynamiquement typé signifie que le type de la valeur est imposé, mais que la variable représente simplement n'importe quelle valeur de n'importe quel type.
```x = 12345 ; // nombre
x = "string" ; // chaîne de caractères
x = { key : "value" } ; // objet
y = 123 + x ; // erreur ou conversion implicite.
```
Le typage statique signifie que le type de la variable est fortement imposé et que le type de la valeur l'est moins.
```int x = 12345 ; // lie x au type int
x = "string" ; // trop tard, x est un entier - erreur
string y = 123 ; // erreur ou conversion implicite.
```
Jusqu'à présent, JavaScript peut être classé dans la catégorie des langages non statiquement typés. De plus, il semble être typé dynamiquement, s'il est typé tout court. Nous devons donc voir ce que signifie le terme "typage".
Le typage signifie que le langage fait la distinction entre différents types tels que chaîne de caractères, nombre, booléen, objet, tableau, null, indéfini, etc. De même, chaque opération est liée à des types spécifiques. Ainsi, vous ne pouvez pas diviser un entier par une chaîne de caractères.
``` 2 / "blah" // produit NaN
```
Untyped signifie que l'opération consistant à diviser un entier par une chaîne de caractères consisterait à traiter les quatre premiers octets de la chaîne comme des entiers. Ceci est dû au fait que les opérations non typées ont lieu directement sur les bits, il n'y a pas de types à observer. Le résultat sera quelque chose de tout à fait inattendu :
``` 2 / "blah" // sera traité comme 2 / 1500275048
```
Puisque JavaScript se comporte selon la définition d'être typé, il doit l'être. Et donc il doit être dynamiquement typé, et faiblement typé.
Si quelqu'un prétend que JavaScript n'est pas typé, c'est simplement pour la théorie académique, pas pour l'application pratique. | Ho scoperto che alcuni definiscono JavaScript un linguaggio "dinamicamente e debolmente tipizzato", ma alcuni dicono anche "non tipizzato"? Che cos'è in realtà? | strong/weak può essere pensato in relazione a come il compilatore, se applicabile, gestisce la tipizzazione.
* Debolemente tipizzato significa che il compilatore, se applicabile, non applica una tipizzazione corretta. Senza un'interiezione implicita da parte del compilatore, l'istruzione darà errore in fase di esecuzione.
```"12345" * 1 === 12345 // stringa * numero => numero
```
La tipizzazione forte significa che c'è un compilatore che vuole un cast esplicito da stringa a intero.
```(int) "12345" * 1 === 12345
```
In entrambi i casi, alcune funzioni del compilatore possono alterare implicitamente l'istruzione durante la compilazione per effettuare le conversioni al posto dell'utente, se è in grado di stabilire che è la cosa giusta da fare.
Finora, JavaScript può essere classificato come Not-Strongly-Typed. Ciò significa che è debolmente tipizzato o non tipizzato.
dinamico/statico può essere considerato in relazione al modo in cui le istruzioni del linguaggio manipolano i tipi.
* Dinamicamente tipizzata significa che il tipo del valore viene imposto, ma la variabile rappresenta semplicemente qualsiasi valore di qualsiasi tipo.
```x = 12345; // numero
x = "stringa"; // stringa
x = { chiave: "valore" }; // oggetto
y = 123 + x; // errore o deve avvenire una conversione implicita.
```
Tipizzato staticamente significa che il tipo di variabile è fortemente imposto e il tipo di valore è meno imposto.
```int x = 12345; // vincola x al tipo int
x = "string"; // troppo tardi, x è un intero - errore
string y = 123; // errore o deve avvenire una conversione implicita.
```
Finora, JavaScript può essere classificato come Not-Statically-Typed. Inoltre, sembra essere digitato dinamicamente, se digitato del tutto. Dobbiamo quindi vedere cosa significa "tipizzare".
Tipizzato significa che il linguaggio distingue tra diversi tipi come stringa, numero, booleano, oggetto, array, null, undefined e così via. Inoltre, ogni operazione è legata a tipi specifici. Quindi non si può dividere un intero per una stringa.
``` 2 / "bla" // produce NaN
```
Untyped significa che l'operazione di divisione di un intero per una stringa comporterebbe il trattamento dei primi quattro byte della stringa come un intero. Questo perché le operazioni Untyped avvengono direttamente sui bit, non ci sono tipi da osservare. Il risultato sarà qualcosa di inaspettato:
``` 2 / "blah" // sarà trattato come 2 / 1500275048
```
Poiché JavaScript si comporta secondo la definizione di Tipizzazione, deve esserlo. E quindi deve essere tipizzato dinamicamente e debolmente.
Se qualcuno sostiene che JavaScript non è tipizzato, è solo per teoria accademica, non per applicazione pratica. |
203 | I was fixing my laptop, and as you may know, laptops have a lot of small screws to take out when you are fixing it. One of the screws fell into the floor (the floor has carpet on it), and I was unable to follow the screw with my sight. If I don't follow the screw with my sight when it falls, there is a high chance that I will not see that screw again.
My question is: what kind of method, tool or hack can I use to find small screws that falls into the floor?
I have tried using the tool with a magnet on the tip, that mechanics use to grab wrenches that falls in inaccessible areas, but had no luck finding the screw. | This is why you should always have spare screws on hand. Fortunately, there is a way:
## Light Method
Most screws are silver. Shine a flashlight into the carpet and look for little silvery glints. This may take some time, but you'll probably find it. If your carpet is unnaturally thick...
## Magnet Method
Take a powerful magnet (like a bar magnet, hardware stores - fridge magnets might work) and run it over the surface where you think the screw is. You should find it. If that still fails...
## Vacuum Method
Take a good vacuum cleaner. Put a sock over the extending arm, and run it over where you think the screw is. The sock will prevent the screw from being vacuumed up, but it will be stuck to the sock. There will still be enough suction to pick up the screw, even with the sock. If not, get a new vacuum! If that fails...
## Organize your screws
There are many useful tools to organize screws. Go to your local RadioShack and get one, or make one out of a magnet for that awesome lifehack feel.
## Stop using carpet!
[Not a "find your screws" method - a tip about not frying your computer]
Carpet can cause static discharge, which is very very very bad for a computer (personal experience). Work on a hard floor with an antistatic strap to reduce the chance of frying your PC. | Ich war dabei, meinen Laptop zu reparieren, und wie Sie vielleicht wissen, haben Laptops eine Menge kleiner Schrauben, die man herausnehmen muss, wenn man sie repariert. Eine der Schrauben fiel auf den Boden (der Boden ist mit Teppich ausgelegt), und ich konnte die Schraube nicht mit meinem Blick verfolgen. Wenn ich die Schraube nicht mit meinem Visier verfolge, wenn sie herunterfällt, ist die Wahrscheinlichkeit groß, dass ich die Schraube nicht mehr sehe.
Meine Frage lautet: Welche Methode, welches Werkzeug oder welchen Hack kann ich verwenden, um kleine Schrauben zu finden, die in den Boden fallen?
Ich habe versucht, das Werkzeug mit dem Magneten an der Spitze zu benutzen, das Mechaniker verwenden, um Schraubenschlüssel zu greifen, die in unzugängliche Bereiche fallen, aber ich hatte kein Glück, die Schraube zu finden. | Deshalb sollten Sie immer Ersatzschrauben vorrätig haben. Zum Glück gibt es einen Weg:
## Licht-Methode
Die meisten Schrauben sind silbern. Leuchten Sie mit einer Taschenlampe in den Teppich und suchen Sie nach kleinen silbernen Schimmern. Das kann einige Zeit dauern, aber Sie werden sie wahrscheinlich finden. Wenn Ihr Teppich unnatürlich dick ist...
## Magnet-Methode
Nehmen Sie einen starken Magneten (z. B. einen Stabmagneten aus dem Baumarkt - Kühlschrankmagnete könnten auch funktionieren) und fahren Sie damit über die Fläche, auf der Sie die Schraube vermuten. Du solltest sie finden. Wenn das immer noch nicht klappt...
## Staubsaugermethode
Nehmen Sie einen guten Staubsauger. Ziehen Sie eine Socke über den ausfahrbaren Arm und fahren Sie damit über die Stelle, an der Sie die Schraube vermuten. Die Socke wird verhindern, dass die Schraube aufgesaugt wird, aber sie wird an der Socke haften bleiben. Auch mit der Socke wird noch genug Saugkraft vorhanden sein, um die Schraube aufzusaugen. Wenn nicht, besorgen Sie sich einen neuen Staubsauger! Wenn das nicht klappt...
## Organisieren Sie Ihre Schrauben
Es gibt viele nützliche Werkzeuge, um Schrauben zu organisieren. Gehen Sie zu Ihrem örtlichen RadioShack und besorgen Sie sich eines, oder basteln Sie sich eines aus einem Magneten, um ein tolles Lifehack-Gefühl zu bekommen.
## Hör auf, Teppich zu benutzen!
[Keine "Finde deine Schrauben" Methode - ein Tipp, um deinen Computer nicht zu verbrennen]
Teppichböden können statische Entladungen verursachen, was sehr, sehr, sehr schlecht für einen Computer ist (persönliche Erfahrung). Arbeiten Sie auf einem harten Boden mit einem antistatischen Gurt, um das Risiko zu verringern, dass Ihr PC kaputt geht. | Estaba arreglando mi portátil, y como sabrás, los portátiles tienen un montón de tornillos pequeños que hay que sacar cuando lo estás arreglando. Uno de los tornillos cayó al suelo (el suelo tiene moqueta) y no pude seguirlo con la vista. Si no sigo el tornillo con la vista cuando se cae, hay muchas posibilidades de que no vuelva a ver ese tornillo.
Mi pregunta es: ¿qué tipo de método, herramienta o hack puedo utilizar para encontrar tornillos pequeños que caen al suelo?
He intentado utilizar la herramienta con un imán en la punta, que los mecánicos utilizan para agarrar las llaves que caen en zonas inaccesibles, pero no he tenido suerte encontrando el tornillo. | Por eso siempre hay que tener tornillos de repuesto a mano. Afortunadamente, hay una manera:
## Método de la luz
La mayoría de los tornillos son plateados. Ilumina la alfombra con una linterna y busca pequeños destellos plateados. Esto puede llevar algún tiempo, pero probablemente lo encontrarás. Si tu alfombra es anormalmente gruesa...
## Método del imán
Coge un imán potente (como un imán de barra, ferreterías - los imanes de nevera podrían funcionar) y pásalo por la superficie donde crees que está el tornillo. Deberías encontrarlo. Si aun así falla...
## Método del vacío
Coge un buen aspirador. Pon un calcetín sobre el brazo extensible y pásalo por donde creas que está el tornillo. El calcetín impedirá que el tornillo sea aspirado, pero quedará pegado al calcetín. Aún habrá suficiente succión para recoger el tornillo, incluso con el calcetín. Si no es así, compra una aspiradora nueva. Si eso falla...
## Organiza tus tornillos
Existen muchas herramientas útiles para organizar los tornillos. Ve a tu RadioShack más cercano y hazte con una, o crea una con un imán para darle un toque más práctico.
## Deja de usar alfombras
[No es un método para encontrar tornillos, sino un consejo para no freír el ordenador].
La moqueta puede causar descargas estáticas, lo cual es muy muy muy malo para un ordenador (experiencia personal). Trabaja sobre un suelo duro con una correa antiestática para reducir la posibilidad de freír tu PC. | J'étais en train de réparer mon ordinateur portable et, comme vous le savez peut-être, les ordinateurs portables ont beaucoup de petites vis à retirer lorsque vous les réparez. L'une des vis est tombée par terre (le sol est recouvert de moquette) et je n'ai pas pu suivre la vis avec mon viseur. Si je ne suis pas la vis avec mon viseur lorsqu'elle tombe, il y a de fortes chances que je ne la voie plus.
Ma question est la suivante : quel type de méthode, d'outil ou d'astuce puis-je utiliser pour trouver les petites vis qui tombent dans le sol ?
J'ai essayé d'utiliser l'outil avec un aimant sur la pointe, que les mécaniciens utilisent pour attraper les clés qui tombent dans des endroits inaccessibles, mais je n'ai pas eu de chance de trouver la vis. | C'est pourquoi vous devez toujours avoir des vis de rechange à portée de main. Heureusement, il existe un moyen :
## Méthode légère
La plupart des vis sont argentées. Eclairez la moquette avec une lampe de poche et cherchez les petits reflets argentés. Cela peut prendre un certain temps, mais vous le trouverez probablement. Si votre tapis est anormalement épais...
## Méthode de l'aimant
Prenez un aimant puissant (comme un aimant en forme de barre, dans les quincailleries - les aimants de réfrigérateur peuvent faire l'affaire) et passez-le sur la surface où vous pensez que se trouve la vis. Vous devriez la trouver. Si cela ne fonctionne toujours pas...
## Méthode de l'aspirateur
Prenez un bon aspirateur. Placez une chaussette sur le bras extensible et passez-le sur l'endroit où vous pensez que se trouve la vis. La chaussette empêchera la vis d'être aspirée, mais elle restera collée à la chaussette. L'aspiration doit être suffisante pour ramasser la vis, même avec la chaussette. Si ce n'est pas le cas, achetez un nouvel aspirateur ! En cas d'échec...
## Organisez vos vis
Il existe de nombreux outils utiles pour organiser les vis. Allez chez RadioShack et achetez-en un, ou fabriquez-en un à partir d'un aimant pour avoir l'impression d'être un lifehack génial.
## Arrêtez d'utiliser de la moquette !
[Il ne s'agit pas d'une méthode pour "trouver ses vis", mais d'un conseil pour ne pas faire griller son ordinateur].
La moquette peut provoquer des décharges d'électricité statique, ce qui est très très mauvais pour un ordinateur (expérience personnelle). Travaillez sur un sol dur avec une sangle antistatique pour réduire le risque de faire griller votre PC. | Stavo riparando il mio computer portatile e, come forse saprete, i computer portatili hanno molte piccole viti da togliere quando li si ripara. Una delle viti è caduta sul pavimento (il pavimento è ricoperto di moquette) e non sono riuscito a seguire la vite con la vista. Se non seguo la vite con la vista quando cade, c'è un'alta probabilità di non vedere più quella vite.
La mia domanda è: che tipo di metodo, strumento o hack posso usare per trovare le viti piccole che cadono nel pavimento?
Ho provato a usare l'attrezzo con un magnete sulla punta, che i meccanici usano per afferrare le chiavi che cadono in aree inaccessibili, ma non ho avuto fortuna nel trovare la vite. | Per questo motivo è necessario avere sempre a portata di mano delle viti di ricambio. Fortunatamente c'è un modo:
## Metodo della luce
La maggior parte delle viti è di colore argento. Fate luce con una torcia elettrica sul tappeto e cercate i piccoli bagliori argentati. Potrebbe essere necessario un po' di tempo, ma probabilmente le troverete. Se la moquette è innaturalmente spessa...
## Metodo del magnete
Prendete una calamita potente (ad esempio una calamita a barra, in ferramenta, ma potrebbero andare bene anche le calamite da frigorifero) e passatela sulla superficie dove pensate si trovi la vite. Dovreste trovarla. Se ancora non si riesce...
## Metodo dell'aspirapolvere
Prendete un buon aspirapolvere. Mettete un calzino sul braccio estensibile e passatelo sul punto in cui pensate si trovi la vite. La calza impedirà alla vite di essere aspirata, ma rimarrà attaccata alla calza. L'aspirazione sarà comunque sufficiente a raccogliere la vite, anche con il calzino. In caso contrario, procuratevi un nuovo aspiratore! Se questo non funziona...
## Organizzare le viti
Esistono molti strumenti utili per organizzare le viti. Andate da RadioShack e prendetene uno, oppure costruitene uno con una calamita per avere la sensazione di un lifehack fantastico.
## Smettete di usare la moquette!
[Non è un metodo per trovare le viti, ma un consiglio per non friggere il computer.]
La moquette può causare scariche elettrostatiche, il che è molto molto negativo per un computer (esperienza personale). Lavorate su un pavimento rigido con una cinghia antistatica per ridurre la possibilità di friggere il PC. |
204 | What is the difference between mutex and critical section? Please explain from Linux, Windows perspectives?
I am programming in C#, would these two terms make a difference. Please post as much as you can, with examples and such....
Thanks | From a theoretical perspective, a critical section is a piece of code that must not be run by multiple threads at once because the code accesses shared resources.
* A mutex is an algorithm (and sometimes the name of a data structure) that is used to protect critical sections.
* Semaphores and Monitors are common implementations of a mutex.
In practice there are many mutex implementation availiable in windows. They mainly differ as consequence of their implementation by their level of locking, their scopes, their costs, and their performance under different levels of contention.
Availiable synchronization primitives.
* Monitor
* Mutex
* Semaphore
* ReaderWriterLock
* ReaderWriterLockSlim
* Interlocked
The ```lock(object)``` statement is implemented using a ```Monitor``` - see MSDN for reference.
In the last years much research is done on non-blocking synchronization. The goal is to implement algorithms in a lock-free or wait-free way. In such algorithms a process helps other processes to finish their work so that the process can finally finish its work. In consequence a process can finish its work even when other processes, that tried to perform some work, hang. Usinig locks, they would not release their locks and prevent other processes from continuing. | Was ist der Unterschied zwischen Mutex und kritischem Abschnitt? Bitte erklären Sie das aus der Sicht von Linux und Windows.
Ich programmiere in C#, würden diese beiden Begriffe einen Unterschied machen. Bitte posten Sie so viel wie möglich, mit Beispielen und so....
Vielen Dank | Aus theoretischer Sicht ist ein kritischer Abschnitt ein Codestück, das nicht von mehreren Threads gleichzeitig ausgeführt werden darf, weil der Code auf gemeinsame Ressourcen zugreift.
* Ein Mutex ist ein Algorithmus (und manchmal der Name einer Datenstruktur), der zum Schutz kritischer Abschnitte verwendet wird.
* Semaphoren und Monitore sind gängige Implementierungen eines Mutex.
In der Praxis gibt es viele Mutex-Implementierungen, die in Windows verfügbar sind. Sie unterscheiden sich hauptsächlich durch den Grad der Sperrung, den Anwendungsbereich, die Kosten und die Leistung bei unterschiedlichen Konflikten.
Verfügbare Synchronisationsprimitive.
* Monitor
* Mutex
* Semaphore
* ReaderWriterLock
* ReaderWriterLockSlim
* Verriegelt
Die Anweisung ``lock(object)```` wird durch einen ```Monitor`` implementiert - siehe MSDN für Referenzen.
In den letzten Jahren wurde viel an der nicht-blockierenden Synchronisation geforscht. Das Ziel ist es, Algorithmen ohne Sperren oder Wartezeiten zu implementieren. In solchen Algorithmen hilft ein Prozess anderen Prozessen, ihre Arbeit zu beenden, so dass der Prozess schließlich seine Arbeit beenden kann. Infolgedessen kann ein Prozess seine Arbeit auch dann beenden, wenn andere Prozesse, die versucht haben, eine Arbeit auszuführen, hängen bleiben. Bei der Verwendung von Sperren würden diese ihre Sperren nicht freigeben und andere Prozesse an der Fortsetzung ihrer Arbeit hindern. | ¿Cuál es la diferencia entre mutex y sección crítica? Por favor, explíquelo desde las perspectivas de Linux y Windows.
Estoy programando en C #, estos dos términos hacer una diferencia. Por favor, publique todo lo que pueda, con ejemplos y tales....
Gracias | Desde una perspectiva teórica, una sección crítica es un fragmento de código que no debe ser ejecutado por varios subprocesos a la vez porque el código accede a recursos compartidos.
* Un mutex es un algoritmo (y a veces el nombre de una estructura de datos) que se utiliza para proteger las secciones críticas.
* Los Semáforos y Monitores son implementaciones comunes de un mutex.
En la práctica hay muchas implementaciones de mutex disponibles en windows. Principalmente difieren como consecuencia de su implementación por su nivel de bloqueo, sus ámbitos, sus costes, y su rendimiento bajo diferentes niveles de contención.
Primitivas de sincronización disponibles.
* Monitor
* Mutex
* Semáforo
* ReaderWriterLock
* ReaderWriterLockSlim
* Interbloqueado
La sentencia ``lock(object)`` se implementa usando un ``Monitor`` - ver MSDN para referencia.
En los últimos años se ha investigado mucho sobre la sincronización sin bloqueo. El objetivo es implementar algoritmos sin bloqueos o sin esperas. En tales algoritmos un proceso ayuda a otros procesos a terminar su trabajo para que el proceso pueda finalmente terminar su trabajo. En consecuencia, un proceso puede terminar su trabajo incluso cuando otros procesos, que intentaron realizar algún trabajo, se cuelgan. Usando bloqueos, no liberarían sus bloqueos e impedirían a otros procesos continuar. | Quelle est la différence entre le mutex et la section critique ? Veuillez l'expliquer du point de vue de Linux et de Windows.
Je programme en C#, ces deux termes feraient-ils une différence ? Veuillez poster autant que possible, avec des exemples et des exemples tels que .....
Merci d'avance | D'un point de vue théorique, une section critique est un morceau de code qui ne doit pas être exécuté par plusieurs threads à la fois parce que le code accède à des ressources partagées.
* Un mutex est un algorithme (et parfois le nom d'une structure de données) utilisé pour protéger les sections critiques.
* Les sémaphores et les moniteurs sont des implémentations courantes d'un mutex.
En pratique, il existe de nombreuses implémentations de mutex disponibles sous Windows. Ces implémentations diffèrent principalement par leur niveau de verrouillage, leur portée, leurs coûts et leurs performances sous différents niveaux de contention.
Primitives de synchronisation disponibles.
* Moniteur
* Mutex
* Sémaphore
* Blocage du lecteur-écrivain
* ReaderWriterLockSlim
* Interlocked
L'instruction ``lock(object)`` est implémentée en utilisant un ``Monitor`` - voir MSDN pour référence.
Ces dernières années, la synchronisation non bloquante a fait l'objet de nombreuses recherches. L'objectif est de mettre en œuvre des algorithmes sans verrou ou sans attente. Dans ces algorithmes, un processus aide d'autres processus à terminer leur travail afin que le processus puisse finalement terminer le sien. Par conséquent, un processus peut terminer son travail même lorsque d'autres processus, qui ont essayé d'effectuer un travail, se bloquent. En utilisant des verrous, ils ne relâcheraient pas leurs verrous et empêcheraient les autres processus de continuer. | Qual è la differenza tra mutex e sezione critica? Per favore, spiegatemi dal punto di vista di Linux e Windows.
Sto programmando in C#, questi due termini farebbero la differenza. Per favore, scrivete il più possibile, con esempi e tali....
Grazie | Da un punto di vista teorico, una sezione critica è un pezzo di codice che non deve essere eseguito da più thread contemporaneamente perché il codice accede a risorse condivise.
* Un mutex è un algoritmo (e talvolta il nome di una struttura dati) utilizzato per proteggere le sezioni critiche.
* Semafori e monitor sono implementazioni comuni di un mutex.
In pratica ci sono molte implementazioni di mutex disponibili in Windows. Queste si differenziano principalmente per il livello di blocco, gli ambiti di applicazione, i costi e le prestazioni in caso di diversi livelli di contesa.
Primitive di sincronizzazione disponibili.
* Monitor
* Mutex
* Semaforo
* ReaderWriterLock
* ReaderWriterLockSlim
* Interbloccato
L'istruzione ``lock(object)`` è implementata utilizzando un ```Monitor`` - si veda MSDN per il riferimento.
Negli ultimi anni sono state fatte molte ricerche sulla sincronizzazione non bloccante. L'obiettivo è quello di implementare algoritmi senza blocchi o attese. In questi algoritmi un processo aiuta gli altri processi a terminare il loro lavoro, in modo che il processo possa finalmente terminare il suo lavoro. Di conseguenza, un processo può terminare il proprio lavoro anche quando altri processi, che hanno tentato di eseguire un lavoro, si bloccano. Usando i lock, non rilascerebbero i loro lock e impedirebbero agli altri processi di continuare. |
205 | What is the purpose of the single underscore "_" variable in Python? What is the meaning of ```_``` after ```for``` in this code?
```if tbh.bag:
n = 0
for _ in tbh.bag.atom_set():
n += 1
``` | ```_``` has 3 main conventional uses in Python:
1. To hold the result of the last executed expression in an interactive interpreter session (see docs). This precedent was set by the standard CPython interpreter, and other interpreters have followed suit.
2. For translation lookup in i18n (see the gettext documentation for example), as in code like
```raise forms.ValidationError(_("Please enter a correct username"))
```
3. As a general purpose "throwaway" variable name:
* To indicate that part of a function result is being deliberately ignored (Conceptually, it is being discarded.), as in code like:
```label, has_label, _ = text.partition(':')
```
* As part of a function definition (using either ```def``` or ```lambda```), where the signature is fixed (e.g. by a callback or parent class API), but this particular function implementation doesn't need all of the parameters, as in code like:
```def callback(_):
return True
```
This use case can conflict with the translation lookup use case, so it is necessary to avoid using ```_``` as a throwaway variable in any code block that also uses it for i18n translation (many folks prefer a double-underscore, ```__```, as their throwaway variable for exactly this reason).
Linters often recognize this use case. For example ```year, month, day = date()``` will raise a lint warning if ```day``` is not used later in the code. The fix, if ```day``` is truly not needed, is to write ```year, month, _ = date()```. Same with lambda functions, ```lambda arg: 1.0``` creates a function requiring one argument but not using it, which will be caught by lint. The fix is to write ```lambda _: 1.0```. An unused variable is often hiding a bug/typo (e.g. set ```day``` but use ```dya``` in the next line).
The pattern matching feature added in Python 3.10 elevated this usage from "convention" to "language syntax" where ```match``` statements are concerned: in match cases, ```_``` is a wildcard pattern, and the runtime doesn't even bind a value to the symbol in that case.
For other use cases, remember that ```_``` is still a valid variable name, and hence will still keep objects alive. In cases where this is undesirable (e.g. to release memory or external resources) an explicit ```del name``` call will both satisfy linters that the name is being used, and promptly clear the reference to the object. | Was ist der Zweck der einzelnen Unterstrich "_" Variable in Python? Was bedeutet ```_``` nach ```for``` in diesem Code?
```if tbh.bag:
n = 0
for _ in tbh.bag.atom_set():
n += 1
``` | ```_``` hat 3 konventionelle Hauptverwendungen in Python:
1. Um das Ergebnis des zuletzt ausgeführten Ausdrucks in einer interaktiven Interpretersitzung zu speichern (siehe Dokumentation). Dieser Präzedenzfall wurde durch den Standard-Interpreter CPython geschaffen, und andere Interpreter sind diesem Beispiel gefolgt.
2. Für die Übersetzungssuche in i18n (siehe z.B. die gettext Dokumentation), wie in Code wie
```raise forms.ValidationError(_("Bitte geben Sie einen korrekten Benutzernamen"))
```
3. Als allgemeiner "Wegwerf" Variablenname:
* Um anzuzeigen, dass ein Teil eines Funktionsergebnisses absichtlich ignoriert wird (konzeptionell wird es verworfen.), wie in Code wie:
```label, has_label, _ = text.partition(':')
```
* Als Teil einer Funktionsdefinition (entweder mit ```def`` oder ```lambda``), bei der die Signatur festgelegt ist (z.B. durch einen Callback oder eine übergeordnete Klassen-API), aber diese spezielle Funktionsimplementierung nicht alle Parameter benötigt, wie in Code wie:
```def callback(_):
return True
```
Dieser Anwendungsfall kann mit dem Anwendungsfall der Übersetzungssuche kollidieren, so dass es notwendig ist, die Verwendung von ```_`` als Wegwerfvariable in jedem Codeblock zu vermeiden, der sie auch für die i18n-Übersetzung verwendet (viele Leute bevorzugen aus genau diesem Grund eine doppelte Unterzahl, ```__``, als ihre Wegwerfvariable).
Linters erkennen oft diesen Anwendungsfall. Zum Beispiel wird ```Jahr, Monat, Tag = Datum()``` eine Lint-Warnung auslösen, wenn ```Tag`` später im Code nicht verwendet wird. Die Lösung, wenn ```Tag`` wirklich nicht benötigt wird, ist, ```Jahr, Monat, _ = Datum()``` zu schreiben. Dasselbe gilt für Lambda-Funktionen: ```lambda arg: 1.0`` erzeugt eine Funktion, die ein Argument benötigt, es aber nicht benutzt, was von lint abgefangen wird. Die Lösung ist, ```lambda _: 1.0`` zu schreiben. Eine unbenutzte Variable versteckt oft einen Fehler/Typ (z.B. setzen Sie ```Tag``, benutzen aber ```dya``` in der nächsten Zeile).
Das in Python 3.10 hinzugefügte Pattern-Matching-Feature hat diese Verwendung von "Konvention" zu "Sprachsyntax" erhoben, wenn es sich um ```match```-Anweisungen handelt: in Match-Fällen ist ```_``` ein Wildcard-Muster, und die Laufzeit bindet in diesem Fall nicht einmal einen Wert an das Symbol.
Für andere Anwendungsfälle ist ```_``` immer noch ein gültiger Variablenname, der Objekte am Leben erhält. In Fällen, in denen dies nicht erwünscht ist (z.B. um Speicher oder externe Ressourcen freizugeben), wird ein expliziter Aufruf von ```__`` sowohl die Linters davon überzeugen, dass der Name verwendet wird, als auch die Referenz auf das Objekt sofort löschen. | ¿Cuál es el propósito del guión bajo simple "_" en Python? ¿Qué significa ```_`` después de ```for`` en este código?
```if tbh.bag:
n = 0
for _ in tbh.bag.atom_set():
n += 1
``` | ```_``` tiene 3 usos convencionales principales en Python:
1. Para mantener el resultado de la última expresión ejecutada en una sesión interactiva del intérprete (ver docs). Este precedente fue establecido por el intérprete estándar CPython, y otros intérpretes han seguido su ejemplo.
2. Para la búsqueda de traducciones en i18n (ver la documentación de gettext por ejemplo), como en código como
```raise forms.ValidationError(_("Por favor, introduzca un nombre de usuario correcto"))
```
3. Como un propósito general "throwaway" nombre de variable:
* Para indicar que parte del resultado de una función está siendo deliberadamente ignorada (Conceptualmente, está siendo descartada.), como en código como:
```label, has_label, _ = text.partition(':')
```
* Como parte de la definición de una función (usando ```def`` o ```lambda``), donde la firma está fijada (por ejemplo, por una llamada de retorno o una API de clase padre), pero la implementación de esta función en particular no necesita todos los parámetros, como en código como:
```def callback(_):
return True
```
Este caso de uso puede entrar en conflicto con el caso de uso de la búsqueda de traducción, por lo que es necesario evitar el uso de ```_`` como variable desechable en cualquier bloque de código que también la utilice para la traducción i18n (mucha gente prefiere un doble subrayado, ```__```, como variable desechable precisamente por esta razón).
Los linters suelen reconocer este caso de uso. Por ejemplo, ``year, month, day = date()`` generará una advertencia si ``day`` no se usa más adelante en el código. La solución, si ``day`` realmente no es necesario, es escribir ``year, month, _ = date()```. Lo mismo con las funciones lambda, ```lambda arg: 1.0`` crea una función que requiere un argumento pero no lo usa, lo que será detectado por lint. La solución es escribir ``lambda _: 1.0``. Una variable sin usar a menudo esconde un bug/typo (por ejemplo, poner ```day`` pero usar ```dya`` en la siguiente línea).
La característica de concordancia de patrones añadida en Python 3.10 elevó este uso de "convención" a "sintaxis del lenguaje" en lo que respecta a las sentencias ```match``: en los casos de concordancia, ```_`` es un patrón comodín, y el tiempo de ejecución ni siquiera vincula un valor al símbolo en ese caso.
Para otros casos de uso, recuerda que ```_``` sigue siendo un nombre de variable válido y, por tanto, mantendrá los objetos vivos. En los casos en que esto no sea deseable (por ejemplo, para liberar memoria o recursos externos) una llamada explícita a ```del nombre`` satisfará a los linters de que el nombre está siendo utilizado, y borrará rápidamente la referencia al objeto. | Quel est le rôle de la variable "_" en Python ? Quelle est la signification de ``_`` après ``for``` dans ce code ?
```if tbh.bag :
n = 0
for _ in tbh.bag.atom_set() :
n += 1
``` | ```_``` a 3 utilisations conventionnelles principales en Python :
1. Garder le résultat de la dernière expression exécutée dans une session interactive de l'interpréteur (voir docs). Ce précédent a été établi par l'interpréteur standard CPython, et d'autres interpréteurs l'ont suivi.
2. Pour la recherche de traduction dans i18n (voir la documentation de gettext par exemple), comme dans un code tel que
```raise forms.ValidationError(_("Please enter a correct username" ;))
```
3. En tant que nom de variable "jetable" à usage général :
* Pour indiquer qu'une partie du résultat d'une fonction est délibérément ignorée (conceptuellement, elle est jetée.), comme dans un code tel que :
```label, has_label, _ = text.partition(':')
```
* Dans le cadre d'une définition de fonction (en utilisant ``def`` ou ``lambda``), où la signature est fixée (par exemple par un callback ou une API de classe parente), mais cette implémentation de fonction particulière n'a pas besoin de tous les paramètres, comme dans un code tel que :
``def callback(_) :
return True
```
Ce cas d'utilisation peut entrer en conflit avec le cas d'utilisation de la recherche de traduction, il est donc nécessaire d'éviter d'utiliser ``_``` comme variable jetable dans tout bloc de code qui l'utilise également pour la traduction i18n (beaucoup de gens préfèrent un double pointage, ```__``, comme leur variable jetable pour exactement cette raison).
Les auteurs de textes reconnaissent souvent ce cas d'utilisation. Par exemple, ``year, month, day = date()`` lèvera un avertissement lint si ``day`` n'est pas utilisé plus tard dans le code. La solution, si ``jour`` n'est vraiment pas nécessaire, est d'écrire ``year, month, _ = date()``. De même avec les fonctions lambda, ``lambda arg : 1.0`` crée une fonction nécessitant un argument mais ne l'utilisant pas, ce qui sera détecté par lint. La solution est d'écrire ``lambda _ : 1.0``. Une variable inutilisée cache souvent un bug/typo (par exemple, mettre ``day`` mais utiliser ``dya`` dans la ligne suivante).
La fonction de recherche de motifs ajoutée dans Python 3.10 a élevé cet usage de "convention" ; à "syntaxe du langage" ; lorsque les instructions ``match`` sont concernées : dans les cas de match, ``_``` est un motif joker, et le runtime ne lie même pas de valeur au symbole dans ce cas.
Pour les autres cas d'utilisation, rappelez-vous que ``_``` est toujours un nom de variable valide, et qu'il gardera donc les objets en vie. Dans les cas où cela n'est pas souhaitable (par exemple pour libérer de la mémoire ou des ressources externes), un appel explicite à ``del nom`` permettra à la fois de satisfaire les linters que le nom est utilisé, et d'effacer rapidement la référence à l'objet. | Qual è lo scopo del singolo trattino basso "_" in Python? Qual è il significato di ```_`` dopo ```for`` in questo codice?
```if tbh.bag:
n = 0
per _ in tbh.bag.atom_set():
n += 1
``` | ````_``` ha 3 usi principali e convenzionali in Python:
1. Per mantenere il risultato dell'ultima espressione eseguita in una sessione interattiva dell'interprete (vedere i documenti). Questo precedente è stato stabilito dall'interprete standard CPython e altri interpreti hanno seguito l'esempio.
2. Per la ricerca di traduzioni in i18n (si veda la documentazione di gettext, per esempio), come in codice come
```raise forms.ValidationError(_("Please enter a correct username"))
```
3. Come nome di variabile di uso generale "throwaway":
* Per indicare che una parte del risultato di una funzione viene deliberatamente ignorata (concettualmente, viene scartata), come in un codice come:
``label, has_label, _ = text.partition(':')
```
* Come parte di una definizione di funzione (usando ```def`` o ```lambda``), dove la firma è fissata (per esempio da un callback o da un'API della classe padre), ma questa particolare implementazione di funzione non ha bisogno di tutti i parametri, come in un codice come:
```def callback(_):
return True
```
Questo caso d'uso può entrare in conflitto con il caso d'uso della ricerca di traduzione, quindi è necessario evitare di usare ```_`` come variabile di scarto in qualsiasi blocco di codice che la utilizzi anche per la traduzione i18n (molte persone preferiscono un doppio punto d'intersezione, ```__``, come variabile di scarto proprio per questo motivo).
I liner spesso riconoscono questo caso d'uso. Per esempio, ```anno, mese, giorno = data()``` solleverà un avviso di lint se ```giorno`` non viene usato più avanti nel codice. La soluzione, se ```giorno'' non è davvero necessario, è scrivere ```anno, mese, _ = data()```. Lo stesso vale per le funzioni lambda, ``lambda arg: 1.0`` crea una funzione che richiede un argomento ma non lo usa, il che sarà rilevato da lint. La soluzione è scrivere ``lambda _: 1.0``. Una variabile inutilizzata spesso nasconde un bug o un errore (per esempio, si imposta ```giorno'' ma si usa ```dya'' nella riga successiva).
La funzione di pattern matching aggiunta in Python 3.10 ha elevato questo uso da "convenzione" a "sintassi del linguaggio" quando si tratta di dichiarazioni ```match``: nei casi di match, ```_`` è un pattern jolly, e il runtime non lega nemmeno un valore al simbolo in questo caso.
Per gli altri casi d'uso, ricordate che ```_`` è ancora un nome di variabile valido e quindi manterrà gli oggetti in vita. Nei casi in cui ciò non sia desiderabile (per esempio, per liberare memoria o risorse esterne), una chiamata esplicita a ```del nome`` soddisferà i linters che il nome è stato usato e cancellerà prontamente il riferimento all'oggetto. |
206 | What is the difference between doing:
```ptr = malloc (MAXELEMS * sizeof(char *));
```
or:
```ptr = calloc (MAXELEMS, sizeof(char*));
```
When is it a good idea to use calloc over malloc or vice versa? | ```calloc()``` gives you a zero-initialized buffer, while ```malloc()``` leaves the memory uninitialized.
For large allocations, most ```calloc``` implementations under mainstream OSes will get known-zeroed pages from the OS (e.g. via POSIX ```mmap(MAP_ANONYMOUS)``` or Windows ```VirtualAlloc```) so it doesn't need to write them in user-space. This is how normal ```malloc``` gets more pages from the OS as well; ```calloc``` just takes advantage of the OS's guarantee.
This means ```calloc``` memory can still be "clean" and lazily-allocated, and copy-on-write mapped to a system-wide shared physical page of zeros. (Assuming a system with virtual memory.) The effects are visible with performance experiments on Linux, for example.
Some compilers even can optimize malloc + memset(0) into calloc for you, but it's best to just use calloc in the source if you want zeroed memory. (Or if you were trying to pre-fault it to avoid page faults later, that optimization will defeat your attempt.)
If you aren't going to ever read memory before writing it, use ```malloc``` so it can (potentially) give you dirty memory from its internal free list instead of getting new pages from the OS. (Or instead of zeroing a block of memory on the free list for a small allocation).
Embedded implementations of ```calloc``` may leave it up to ```calloc``` itself to zero memory if there's no OS, or it's not a fancy multi-user OS that zeros pages to stop information leaks between processes.
On embedded Linux, malloc could ```mmap(MAP_UNINITIALIZED|MAP_ANONYMOUS)```, which is only enabled for some embedded kernels because it's insecure on a multi-user system. | Was ist der Unterschied zwischen
```ptr = malloc (MAXELEMS * sizeof(char *));
```
oder:
```ptr = calloc (MAXELEMS, sizeof(char*));
```
Wann ist es ratsam, calloc statt malloc zu verwenden oder umgekehrt? | ```calloc()``` gibt Ihnen einen null-initialisierten Puffer, während ```malloc()``` den Speicher uninitialisiert lässt.
Für große Allokationen erhalten die meisten ```calloc``-Implementierungen unter gängigen Betriebssystemen vom Betriebssystem (z.B. über POSIX ``mmap(MAP_ANONYMOUS)``` oder Windows ```VirtualAlloc``) Seiten mit bekannten Nullen, so dass sie nicht in den User-Space geschrieben werden müssen. Auf diese Weise bekommt das normale ```malloc`` auch mehr Seiten vom Betriebssystem; ```calloc`` nutzt nur die Garantie des Betriebssystems.
Das bedeutet, daß ````calloc``-Speicher immer noch "sauber" und faul zugewiesen werden kann, und copy-on-write auf eine systemweit gemeinsam genutzte physische Seite mit Nullen abgebildet wird. (Vorausgesetzt, es handelt sich um ein System mit virtuellem Speicher.) Die Auswirkungen sind zum Beispiel bei Leistungsexperimenten unter Linux sichtbar.
Einige Compiler können sogar malloc + memset(0) zu calloc optimieren, aber es ist am besten, einfach calloc im Quelltext zu verwenden, wenn Sie nullten Speicher haben wollen. (Oder wenn Sie versuchen, einen Vorfehler zu vermeiden, um spätere Seitenfehler zu vermeiden, wird diese Optimierung Ihren Versuch vereiteln).
Wenn Sie nicht vorhaben, jemals Speicher zu lesen, bevor Sie ihn schreiben, benutzen Sie ```malloc```, so dass es Ihnen (potentiell) schmutzigen Speicher aus seiner internen freien Liste geben kann, anstatt neue Seiten vom Betriebssystem zu bekommen. (Oder anstatt einen Speicherblock in der freien Liste für eine kleine Zuweisung auf Null zu setzen).
Eingebettete Implementierungen von ```calloc``` können es ```calloc``` selbst überlassen, den Speicher auf Null zu setzen, wenn es kein Betriebssystem gibt, oder es sich nicht um ein ausgefallenes Multi-User-Betriebssystem handelt, das Seiten auf Null setzt, um Informationslecks zwischen Prozessen zu verhindern.
Unter eingebettetem Linux kann malloc ``mmap(MAP_UNINITIALIZED|MAP_ANONYMOUS)```` verwenden, was nur für einige eingebettete Kernel aktiviert ist, weil es auf einem Mehrbenutzersystem unsicher ist. | ¿Cuál es la diferencia entre hacer
```ptr = malloc (MAXELEMS * sizeof(char *));
```
o:
```ptr = calloc (MAXELEMS, sizeof(char*));
```
¿Cuándo es una buena idea usar calloc en lugar de malloc o viceversa? | ```calloc()`` te da un buffer inicializado a cero, mientras que ```malloc()`` deja la memoria sin inicializar.
Para grandes asignaciones, la mayoría de las implementaciones de ```calloc`` en los sistemas operativos convencionales obtendrán páginas conocidas a cero del sistema operativo (por ejemplo, a través de POSIX ``mmap(MAP_ANONYMOUS)`` o Windows ``VirtualAlloc``) para no tener que escribirlas en el espacio de usuario. Así es como ``malloc`` normal también obtiene más páginas del SO; ``calloc`` simplemente se aprovecha de la garantía del SO.
Esto significa que la memoria de ```calloc`` todavía puede ser "limpia" y asignada perezosamente, y copiada-en-escritura mapeada a una página física compartida de ceros en todo el sistema. (Suponiendo un sistema con memoria virtual.) Los efectos son visibles con experimentos de rendimiento en Linux, por ejemplo.
Algunos compiladores incluso pueden optimizar malloc + memset(0) en calloc, pero es mejor usar calloc en el código fuente si quieres memoria a cero. (O si estabas intentando pre-faultarlo para evitar page faults más tarde, esa optimización frustrará tu intento).
Si nunca vas a leer memoria antes de escribirla, usa ```malloc`` para que pueda (potencialmente) darte memoria sucia de su lista libre interna en lugar de obtener nuevas páginas del SO. (O en lugar de poner a cero un bloque de memoria en la lista libre para una pequeña asignación).
Las implementaciones embebidas de ```calloc`` pueden dejar que sea el propio ```calloc`` el que ponga a cero la memoria si no hay sistema operativo, o si no es un sistema operativo multiusuario que ponga las páginas a cero para evitar fugas de información entre procesos.
En Linux embebido, malloc podría ``mmap(MAP_UNINITIALIZED|MAP_ANONYMOUS)``, que sólo está habilitado para algunos núcleos embebidos porque es inseguro en un sistema multiusuario. | Quelle est la différence entre faire : ``ptr = malloc (MAXELEMS * sizeof(char *)); ; et
```ptr = malloc (MAXELEMS * sizeof(char *)) ;
```
ou :
``ptr = calloc (MAXELEMS, sizeof(char*)) ;
```
Quand est-il préférable d'utiliser calloc plutôt que malloc ou vice versa ? | ``calloc()`` vous donne un tampon initialisé à zéro, alors que ``malloc()`` laisse la mémoire non initialisée.
Pour les allocations importantes, la plupart des implémentations de ``calloc`` sous les systèmes d'exploitation courants obtiendront des pages mises à zéro par le système d'exploitation (par exemple via POSIX ``mmap(MAP_ANONYMOUS)`` ou Windows ``VirtualAlloc``) afin qu'il n'ait pas besoin de les écrire dans l'espace utilisateur. C'est ainsi que ``malloc`` normal obtient plus de pages du système d'exploitation ; ``calloc`` profite juste de la garantie du système d'exploitation.
Cela signifie que la mémoire ``calloc'' peut toujours être "propre", allouée paresseusement, et copiée en écriture sur une page physique de zéros partagée par l'ensemble du système. (Les effets sont visibles lors d'expériences sur les performances sous Linux, par exemple.
Certains compilateurs peuvent même optimiser malloc + memset(0) en calloc pour vous, mais il est préférable d'utiliser calloc dans les sources si vous voulez de la mémoire à zéro. (Ou si vous essayez d'éviter les fautes de page plus tard, cette optimisation fera échouer votre tentative).
Si vous n'avez pas l'intention de lire la mémoire avant de l'écrire, utilisez ``malloc`` pour qu'il puisse (potentiellement) vous donner de la mémoire sale à partir de sa liste interne de mémoire libre au lieu d'obtenir de nouvelles pages de la part du système d'exploitation. (Ou au lieu de mettre à zéro un bloc de mémoire dans la liste libre pour une petite allocation).
Les implémentations embarquées de ``calloc`` peuvent laisser à ``calloc`` lui-même le soin de mettre à zéro la mémoire s'il n'y a pas de système d'exploitation, ou s'il ne s'agit pas d'un système d'exploitation multi-utilisateurs sophistiqué qui met à zéro les pages pour empêcher les fuites d'information entre les processus.
Sous Linux embarqué, malloc pourrait ``mmap(MAP_UNINITIALIZED|MAP_ANONYMOUS)``, ce qui n'est activé que pour certains noyaux embarqués parce que ce n'est pas sûr sur un système multi-utilisateur. | Qual è la differenza tra fare:
```ptr = malloc (MAXELEMS * sizeof(char *));
```
oppure:
```ptr = calloc (MAXELEMS, sizeof(char*));
```
Quando è una buona idea usare calloc invece di malloc o viceversa? | ``calloc()`` fornisce un buffer inizializzato a zero, mentre ```malloc()`` lascia la memoria non inizializzata.
Per le allocazioni di grandi dimensioni, la maggior parte delle implementazioni di ```calloc`` nei sistemi operativi più diffusi otterrà pagine note azzerate dal sistema operativo (ad esempio tramite POSIX ```mmap(MAP_ANONYMOUS)`` o Windows ```VirtualAlloc``), in modo da non doverle scrivere nello spazio utente. È così che anche la normale ```malloc`` ottiene più pagine dal sistema operativo; ```calloc`` sfrutta solo la garanzia del sistema operativo.
Questo significa che la memoria di ``calloc`` può essere ancora "pulita" e pigramente allocata e mappata in copia su scrittura su una pagina fisica condivisa di zeri a livello di sistema. (Gli effetti sono visibili con esperimenti di performance su Linux, per esempio.
Alcuni compilatori possono anche ottimizzare malloc + memset(0) in calloc, ma è meglio usare calloc nel sorgente se si vuole memoria azzerata. (Oppure, se si sta cercando di fare un pre-fault per evitare page fault in seguito, l'ottimizzazione vanificherà il tentativo).
Se non si ha intenzione di leggere la memoria prima di scriverla, si usi ```malloc``, in modo che possa (potenzialmente) fornire memoria sporca dalla sua lista libera interna, invece di ottenere nuove pagine dal sistema operativo. (O invece di azzerare un blocco di memoria nella lista libera per una piccola allocazione).
Le implementazioni embedded di ``calloc'' possono lasciare a ``calloc'' stesso il compito di azzerare la memoria se non c'è un sistema operativo, o se non si tratta di un sistema operativo multiutente che azzera le pagine per evitare fughe di informazioni tra i processi.
Su Linux embedded, malloc potrebbe ```mmap(MAP_UNINITIALIZED|MAP_ANONYMOUS)``, che è abilitato solo per alcuni kernel embedded perché è insicuro su un sistema multiutente. |
207 | Why would I want to use Kotlin's coroutines? It seems that the RxKotlin library is much more versatile. Kotlin's coroutines look significantly less powerful and more cumbersome to use in comparison. I base my opinion on coroutines on this design talk by Andrey Breslav (JetBrains) Slideshow from the talk is accessible here. | Kotlin coroutines are different from Rx. It is hard to compare them apples-to-apples, because Kotlin coroutines are a thin language feature (with just a couple of basic concepts and a few basic functions to manipulate them), while Rx is a pretty heavy library with quite large variety of ready-to-use operators. Both are designed to address a problem of asynchronous programming, however their approach to solution is very different:
* Rx comes with a particular functional style of programming that can be implemented in virtually any programming language without support from the language itself. It works well when the problem at hand easily decomposes into a sequence of standard operators and not so well otherwise.
* Kotlin coroutines provide a language feature that let library writers implement various asynchronous programming styles, including, but not limited to functional reactive style (Rx). With Kotlin coroutines you can also write your asynchronous code in imperative style, in promise/futures-based style, in actor-style, etc.
It is more appropriate to compare Rx with some specific libraries that are implemented based on Kotlin coroutines.
Take kotlinx.coroutines library as one example. This library provides a set of primitives like ```async/await``` and channels that are typically baked into other programming languages. It also has support for light-weight future-less actors. You can read more in the Guide to kotlinx.coroutines by example.
Channels provided by ```kotlinx.coroutines``` can replace or augment Rx in certain use-cases. There is a separate Guide to reactive streams with coroutines that goes deeper into similarities and differences with Rx. | Warum sollte ich die Koroutinen von Kotlin verwenden wollen? Es scheint, dass die RxKotlin-Bibliothek viel vielseitiger ist. Die Koroutinen von Kotlin scheinen im Vergleich dazu deutlich weniger leistungsfähig und umständlicher in der Anwendung zu sein. Ich stütze meine Meinung über Coroutinen auf diesen Design-Vortrag von Andrey Breslav (JetBrains). Die Slideshow des Vortrags ist hier zu sehen. | Kotlin-Coroutinen sind anders als Rx. Es ist schwer, sie Äpfel mit Äpfeln zu vergleichen, weil Kotlin Coroutines ein dünnes Sprachmerkmal sind (mit nur ein paar grundlegenden Konzepten und ein paar grundlegenden Funktionen, um sie zu manipulieren), während Rx eine ziemlich umfangreiche Bibliothek mit einer ziemlich großen Auswahl an gebrauchsfertigen Operatoren ist. Beide wurden entwickelt, um ein Problem der asynchronen Programmierung zu lösen, aber ihr Lösungsansatz ist sehr unterschiedlich:
* Rx kommt mit einem bestimmten funktionalen Programmierstil, der in praktisch jeder Programmiersprache ohne Unterstützung durch die Sprache selbst implementiert werden kann. Er funktioniert gut, wenn sich das zu lösende Problem leicht in eine Folge von Standardoperatoren zerlegen lässt, und nicht so gut, wenn dies nicht der Fall ist.
* Kotlin-Coroutinen sind ein Sprachmerkmal, mit dem Bibliotheksautoren verschiedene asynchrone Programmierstile implementieren können, einschließlich, aber nicht beschränkt auf den funktionalen reaktiven Stil (Rx). Mit Kotlin-Coroutinen können Sie Ihren asynchronen Code auch im imperativen Stil, im promise/futures-basierten Stil, im Actor-Stil, etc. schreiben.
Es ist sinnvoller, Rx mit einigen spezifischen Bibliotheken zu vergleichen, die auf der Basis von Kotlin-Coroutinen implementiert sind.
Ein Beispiel dafür ist die kotlinx.coroutines-Bibliothek. Diese Bibliothek bietet eine Reihe von Primitiven wie ``async/await`` und Channels, die typischerweise in anderen Programmiersprachen eingebaut sind. Sie bietet auch Unterstützung für leichtgewichtige, zukunftslose Akteure. Sie können mehr in der Anleitung zu kotlinx.coroutines by example lesen.
Kanäle, die von ```kotlinx.coroutines`` bereitgestellt werden, können Rx in bestimmten Anwendungsfällen ersetzen oder ergänzen. Es gibt einen separaten Leitfaden zu reaktiven Streams mit Coroutines, der die Gemeinsamkeiten und Unterschiede zu Rx näher beleuchtet. | ¿Por qué querría usar las coroutines de Kotlin? Parece que la librería RxKotlin es mucho más versátil. Las coroutines de Kotlin parecen significativamente menos potentes y más engorrosas de usar en comparación. Baso mi opinión sobre coroutines en esta charla de diseño de Andrey Breslav (JetBrains) Slideshow de la charla es accesible aquí. | Las coroutines de Kotlin son diferentes de las de Rx. Es difícil compararlas, porque las coroutines de Kotlin son una característica del lenguaje muy reducida (con sólo un par de conceptos básicos y unas pocas funciones básicas para manipularlas), mientras que Rx es una librería bastante pesada con una gran variedad de operadores listos para usar. Ambos están diseñados para hacer frente a un problema de programación asíncrona, sin embargo, su enfoque de la solución es muy diferente:
* Rx viene con un particular estilo funcional de programación que puede ser implementado en virtualmente cualquier lenguaje de programación sin soporte del lenguaje mismo. Funciona bien cuando el problema en cuestión se descompone fácilmente en una secuencia de operadores estándar y no tan bien en caso contrario.
* Las coroutines de Kotlin proporcionan una característica del lenguaje que permite a los escritores de librerías implementar varios estilos de programación asíncrona, incluyendo, pero no limitándose al estilo reactivo funcional (Rx). Con las coroutines de Kotlin también puedes escribir tu código asíncrono en estilo imperativo, en estilo basado en promesas/futuros, en estilo actor, etc.
Es más apropiado comparar Rx con algunas librerías específicas que se implementan basadas en coroutines Kotlin.
Tomemos como ejemplo la biblioteca kotlinx.coroutines. Esta librería proporciona un conjunto de primitivas como ```async/await`` y canales que son típicamente incorporados en otros lenguajes de programación. También soporta actores ligeros sin futuro. Puedes leer más en la Guía de kotlinx.coroutines por ejemplo.
Los canales proporcionados por ```kotlinx.coroutines`` pueden reemplazar o aumentar Rx en ciertos casos de uso. Existe una Guía separada sobre flujos reactivos con coroutines que profundiza en las similitudes y diferencias con Rx. | Pourquoi voudrais-je utiliser les coroutines de Kotlin ? Il semble que la bibliothèque RxKotlin soit beaucoup plus polyvalente. Les coroutines de Kotlin semblent nettement moins puissantes et plus lourdes à utiliser en comparaison. Je base mon opinion sur les coroutines sur cette conférence d'Andrey Breslav (JetBrains). Le diaporama de la conférence est accessible ici. | Les coroutines Kotlin sont différentes de celles de Rx. Il est difficile de les comparer, car les coroutines de Kotlin sont une caractéristique mineure du langage (avec seulement quelques concepts de base et quelques fonctions de base pour les manipuler), alors que Rx est une bibliothèque assez lourde avec une grande variété d'opérateurs prêts à l'emploi. Les deux sont conçus pour résoudre un problème de programmation asynchrone, mais leur approche de la solution est très différente :
* Rx propose un style fonctionnel particulier de programmation qui peut être implémenté dans pratiquement n'importe quel langage de programmation sans l'aide du langage lui-même. Il fonctionne bien lorsque le problème à résoudre se décompose facilement en une séquence d'opérateurs standard, mais moins bien dans le cas contraire.
* Les coroutines Kotlin sont une fonctionnalité du langage qui permet aux auteurs de bibliothèques d'implémenter différents styles de programmation asynchrones, y compris, mais sans s'y limiter, le style fonctionnel réactif (Rx). Avec les coroutines Kotlin, vous pouvez également écrire votre code asynchrone en style impératif, en style basé sur les promesses/futures, en style acteur, etc.
Il est plus approprié de comparer Rx avec certaines bibliothèques spécifiques qui sont implémentées sur la base des coroutines Kotlin.
Prenons l'exemple de la bibliothèque kotlinx.coroutines. Cette bibliothèque fournit un ensemble de primitives comme ``async/await`` et des canaux qui sont typiquement intégrés dans d'autres langages de programmation. Elle supporte également les acteurs légers sans futur. Vous pouvez en savoir plus dans le Guide to kotlinx.coroutines by example.
Les canaux fournis par ``kotlinx.coroutines`` peuvent remplacer ou augmenter Rx dans certains cas d'utilisation. Il existe un Guide séparé sur les flux réactifs avec les coroutines qui va plus loin dans les similitudes et les différences avec Rx. | Perché dovrei usare le coroutine di Kotlin? Sembra che la libreria RxKotlin sia molto più versatile. In confronto, le coroutine di Kotlin sembrano molto meno potenti e più complicate da usare. La mia opinione sulle coroutine si basa su questo intervento di Andrey Breslav (JetBrains). | Le coroutine di Kotlin sono diverse da quelle di Rx. È difficile fare un confronto alla pari, perché le coroutine di Kotlin sono una caratteristica sottile del linguaggio (con solo un paio di concetti di base e alcune funzioni di base per manipolarle), mentre Rx è una libreria piuttosto pesante con una grande varietà di operatori pronti all'uso. Entrambi sono stati progettati per risolvere un problema di programmazione asincrona, ma il loro approccio alla soluzione è molto diverso:
* Rx viene fornito con un particolare stile di programmazione funzionale che può essere implementato praticamente in qualsiasi linguaggio di programmazione senza il supporto del linguaggio stesso. Funziona bene quando il problema in questione si decompone facilmente in una sequenza di operatori standard e non altrettanto bene in caso contrario.
* Le coroutine di Kotlin sono una caratteristica del linguaggio che consente agli autori di librerie di implementare vari stili di programmazione asincrona, tra cui, ma non solo, lo stile reattivo funzionale (Rx). Con le coroutine di Kotlin è possibile scrivere il codice asincrono anche in stile imperativo, in stile promise/futures, in stile attore, ecc.
È più appropriato confrontare Rx con alcune librerie specifiche che sono implementate sulla base delle coroutine di Kotlin.
Prendiamo come esempio la libreria kotlinx.coroutines. Questa libreria fornisce un insieme di primitive come ``async/await`` e canali che sono tipicamente presenti in altri linguaggi di programmazione. Ha anche il supporto per attori leggeri senza futuro. Per saperne di più, consultare la Guida a kotlinx.coroutines con un esempio.
I canali forniti da ``kotlinx.coroutines`` possono sostituire o aumentare Rx in alcuni casi d'uso. Esiste una guida separata ai flussi reattivi con le coroutine, che approfondisce le somiglianze e le differenze con Rx. |
208 | How do I get a ```PriorityQueue``` to sort on what I want it to sort on?
Also, is there a difference between the ```offer``` and ```add``` methods? | ## Java 8 solution
We can use ```lambda expression``` or ```method reference``` introduced in Java 8. In case we have some String values stored in the Priority Queue (having capacity 5) we can provide inline comparator (based on length of String) :
Using lambda expression
```PriorityQueue pq=
new PriorityQueue(5,(a,b) -> a.length() - b.length());
```
Using Method reference
```PriorityQueue pq=
new PriorityQueue(5, Comparator.comparing(String::length));
```
Then we can use any of them as:
```public static void main(String[] args) {
PriorityQueue pq=
new PriorityQueue(5, (a,b) -> a.length() - b.length());
// or pq = new PriorityQueue(5, Comparator.comparing(String::length));
pq.add("Apple");
pq.add("PineApple");
pq.add("Custard Apple");
while (pq.size() != 0)
{
System.out.println(pq.remove());
}
}
```
This will print:
```Apple
PineApple
Custard Apple
```
To reverse the order (to change it to max-priority queue) simply change the order in inline comparator or use ```reversed``` as:
```PriorityQueue pq = new PriorityQueue(5,
Comparator.comparing(String::length).reversed());
```
We can also use ```Collections.reverseOrder```:
```PriorityQueue pqInt = new PriorityQueue(10, Collections.reverseOrder());
PriorityQueue pq = new PriorityQueue(5,
Collections.reverseOrder(Comparator.comparing(String::length))
```
So we can see that ```Collections.reverseOrder``` is overloaded to take comparator which can be useful for custom objects. The ```reversed``` actually uses ```Collections.reverseOrder```:
```default Comparator reversed() {
return Collections.reverseOrder(this);
}
```
offer() vs add()
As per the doc
> The offer method inserts an element if possible, otherwise returning false. This differs from the Collection.add method, which can fail to add an element only by throwing an unchecked exception. The offer method is designed for use when failure is a normal, rather than exceptional occurrence, for example, in fixed-capacity (or "bounded") queues.
When using a capacity-restricted queue, offer() is generally preferable to add(), which can fail to insert an element only by throwing an exception. And PriorityQueue is an unbounded priority queue based on a priority heap. | Wie bringe ich eine ```PriorityQueue`` dazu, nach dem zu sortieren, wonach ich sie sortieren möchte?
Gibt es außerdem einen Unterschied zwischen den Methoden ``Anbieten`` und ``Hinzufügen``? | ## Java 8 Lösung
Wir können ```Lambda-Ausdruck`` oder ``Methodenreferenz`` verwenden, die in Java 8 eingeführt wurden. Für den Fall, dass wir einige String-Werte in der Prioritäts-Warteschlange (mit einer Kapazität von 5) gespeichert haben, können wir einen Inline-Komparator (basierend auf der Länge des Strings) bereitstellen:
Mit Lambda-Ausdruck
```PriorityQueue pq=
new PriorityQueue(5,(a,b) -> a.length() - b.length());
```
Methodenreferenz verwenden
```PriorityQueue pq=
new PriorityQueue(5, Comparator.comparing(String::length));
```
Dann können wir jede von ihnen als verwenden:
```public static void main(String[] args) {
PriorityQueue pq=
new PriorityQueue(5, (a,b) -> a.length() - b.length());
// oder pq = new PriorityQueue(5, Comparator.comparing(String::length));
pq.add("Apfel");
pq.add("Pinienapfel");
pq.add("Vanilleapfel");
while (pq.size() != 0)
{
System.out.println(pq.remove());
}
}
```
Dies wird gedruckt:
```Apple
KieferApfel
Vanille-Apfel
```
Um die Reihenfolge umzukehren (um sie in eine Warteschlange mit maximaler Priorität umzuwandeln), ändern Sie einfach die Reihenfolge im Inline-Vergleicher oder verwenden Sie ```Umgekehrt`` als:
```PriorityQueue pq = new PriorityQueue(5,
Comparator.comparing(String::length).reversed());
```
Wir können auch ```Collections.reverseOrder`` verwenden:
````PriorityQueue pqInt = new PriorityQueue(10, Collections.reverseOrder());
PriorityQueue pq = new PriorityQueue(5,
Collections.reverseOrder(Comparator.comparing(String::length))
```
Wir können also sehen, dass ```Collections.reverseOrder`` überladen ist, um einen Komparator zu nehmen, der für eigene Objekte nützlich sein kann. Der ```Umgekehrte`` verwendet eigentlich ```Collections.reverseOrder``:
```default Comparator reversed() {
return Collections.reverseOrder(this);
}
```
offer() vs add()
Wie im Dokument beschrieben
> Die Methode offer fügt ein Element ein, wenn es möglich ist, andernfalls gibt sie false zurück. Dies unterscheidet sich von der Methode Collection.add, die ein Element nur dann nicht hinzufügen kann, wenn sie eine ungeprüfte Ausnahme auslöst. Die offer-Methode ist für den Einsatz konzipiert, wenn das Scheitern ein normales und kein außergewöhnliches Ereignis ist, zum Beispiel in Warteschlangen mit fester Kapazität (oder "bounded").
Wenn eine Warteschlange mit begrenzter Kapazität verwendet wird, ist offer() im Allgemeinen add() vorzuziehen, bei dem das Einfügen eines Elements nur durch das Auslösen einer Ausnahme fehlschlagen kann. Und PriorityQueue ist eine unbeschränkte Prioritätswarteschlange, die auf einem Prioritätshaufen basiert. | ¿Cómo consigo que una ``PriorityQueue`` ordene lo que yo quiero que ordene?
Además, ¿hay alguna diferencia entre los métodos ``offer`` y ``add``? | ## Solución Java 8
Podemos utilizar ``expresión lambda`` o ``método de referencia`` introducido en Java 8. En caso de que tengamos algunos valores de cadena almacenados en la cola de prioridad (que tiene capacidad 5) podemos proporcionar comparador en línea (basado en la longitud de la cadena) :
Usando la expresión lambda
```PriorityQueue pq=
new PriorityQueue(5,(a,b) -> a.length() - b.length());
```
Usando la referencia al método
```PriorityQueue pq=
new PriorityQueue(5, Comparator.comparing(String::length));
```
Entonces podemos usar cualquiera de ellos como
```public static void main(String[] args) {
PriorityQueue pq=
new PriorityQueue(5, (a,b) -> a.length() - b.length());
// o pq = new PriorityQueue(5, Comparator.comparing(String::length));
pq.add("Manzana");
pq.add("Piña");
pq.add("Chirimoya");
while (pq.size() != 0)
{
System.out.println(pq.remove());
}
}
```
Esto imprimirá:
```Manzana
Piña
Chirimoya
```
Para invertir el orden (para cambiarlo a una cola de máxima prioridad) simplemente cambia el orden en el comparador en línea o usa ```reversed`` como:
```PriorityQueue pq = new PriorityQueue(5,
Comparator.comparing(String::length).reversed());
```
También podemos utilizar ``Collections.reverseOrder``:
```PriorityQueue pqInt = new PriorityQueue(10, Collections.reverseOrder());
PriorityQueue pq = new PriorityQueue(5,
Collections.reverseOrder(Comparator.comparing(String::length))
```
Así que podemos ver que ```Collections.reverseOrder`` está sobrecargado para tomar comparador que puede ser útil para objetos personalizados. El ``reversed`` en realidad utiliza ``Collections.reverseOrder``:
``default Comparador invertido() {
return Collections.reverseOrder(this);
}
```
ofrecer() vs añadir()
Según la documentación
> El método offer inserta un elemento si es posible, en caso contrario devuelve false. Esto difiere del método Collection.add, que sólo puede fallar al añadir un elemento lanzando una excepción no comprobada. El método offer está diseñado para su uso cuando el fallo es un suceso normal, más que excepcional, por ejemplo, en colas de capacidad fija (o "limitadas").
Cuando se utiliza una cola de capacidad restringida, offer() es generalmente preferible a add(), que puede fallar al insertar un elemento sólo lanzando una excepción. Y PriorityQueue es una cola de prioridad no limitada basada en un montón de prioridad. | Comment faire pour qu'une ``PriorityQueueue`` soit triée sur ce que je veux qu'elle trie ?
De plus, y a-t-il une différence entre les méthodes ``offer`` et ``add`` ? | ## Solution Java 8
Nous pouvons utiliser ``lambda expression`` ou ``method reference`` introduit dans Java 8. Dans le cas où nous avons des valeurs de chaîne stockées dans la file d'attente prioritaire (ayant une capacité de 5), nous pouvons fournir un comparateur en ligne (basé sur la longueur de la chaîne) :
En utilisant l'expression lambda
```PriorityQueueue pq=
new PriorityQueue(5,(a,b) -> a.length() - b.length()) ;
```
Utilisation de la méthode de référence
```PriorityQueueue pq=
new PriorityQueue(5, Comparator.comparing(String::length)) ;
```
Ensuite, nous pouvons utiliser n'importe lequel d'entre eux comme suit :
```public static void main(String[] args) {
PriorityQueue pq=
new PriorityQueue(5, (a,b) -> a.length() - b.length()) ;
// ou pq = new PriorityQueue(5, Comparator.comparing(String::length)) ;
pq.add("Pomme") ;
pq.add("PineApple") ;
pq.add("Pomme à la crème") ;
while (pq.size() != 0)
{
System.out.println(pq.remove()) ;
}
}
```
Ceci s'imprimera :
```Pomme
Pomme de pin
Pomme à la crème
```
Pour inverser l'ordre (pour passer à une file d'attente à priorité maximale), il suffit de changer l'ordre dans le comparateur en ligne ou d'utiliser ``reversed`` comme suit :
``PriorityQueueue pq = new PriorityQueue(5,
Comparator.comparing(String::length).reversed()) ;
```
Nous pouvons également utiliser ``Collections.reverseOrder`` :
```PriorityQueueue pqInt = new PriorityQueue(10, Collections.reverseOrder()) ;
PriorityQueue pq = nouvelle PriorityQueue(5,
Collections.reverseOrder(Comparator.comparing(String::length))
```
Nous pouvons donc voir que ``Collections.reverseOrder`` est surchargé pour prendre un comparateur, ce qui peut être utile pour les objets personnalisés. Le ``reversed`` utilise en fait ``Collections.reverseOrder`` :
```par défaut Comparator reversed() {
return Collections.reverseOrder(this) ;
}
```
offer() vs add()
D'après la documentation
> La méthode offer insère un élément si possible, sinon elle renvoie false. Elle diffère de la méthode Collection.add, qui ne peut échouer à ajouter un élément qu'en lançant une exception non vérifiée. La méthode offer est conçue pour être utilisée lorsque l'échec est un phénomène normal plutôt qu'exceptionnel, par exemple dans les files d'attente à capacité fixe (ou "limitée").
Lors de l'utilisation d'une file d'attente à capacité limitée, offer() est généralement préférable à add(), qui ne peut échouer à insérer un élément qu'en levant une exception. Enfin, PriorityQueue est une file d'attente prioritaire non bornée basée sur un tas de priorités. | Come si fa a far sì che una ```PriorityQueue'' venga ordinata in base a ciò che voglio?
Inoltre, c'è una differenza tra i metodi ```offerta`` e ``aggiunta``? | ## Soluzione Java 8
Possiamo utilizzare ``lambda expression`` o ```method reference`` introdotti in Java 8. Nel caso in cui abbiamo alcuni valori di stringa memorizzati nella coda di priorità (con capacità 5), possiamo fornire un comparatore in linea (basato sulla lunghezza della stringa):
Utilizzando l'espressione lambda
```PriorityQueue pq=
new PriorityQueue(5,(a,b) -> a.length() - b.length());
```
Utilizzo del riferimento al metodo
```PriorityQueue pq=
new PriorityQueue(5, Comparator.comparing(String::length));
```
Quindi possiamo usare uno qualsiasi di questi metodi come:
```public static void main(String[] args) {
PriorityQueue pq=
new PriorityQueue(5, (a,b) -> a.length() - b.length());
// oppure pq = new PriorityQueue(5, Comparator.comparing(String::length));
pq.add("Mela");
pq.add("PineApple");
pq.add("Mela da tavola");
while (pq.size() != 0)
{
System.out.println(pq.remove());
}
}
```
In questo modo verrà stampato:
```Mela
Mela di pino
Mela crema
```
Per invertire l'ordine (per passare alla coda a priorità massima) è sufficiente cambiare l'ordine nel comparatore in linea o usare ```reversed`` come:
```PriorityQueue pq = new PriorityQueue(5,
Comparator.comparing(String::length).reversed());
```
Possiamo anche usare ```Collections.reverseOrder``:
```PriorityQueue pqInt = new PriorityQueue(10, Collections.reverseOrder());
PriorityQueue pq = new PriorityQueue(5,
Collections.reverseOrder(Comparator.comparing(String::length))
```
Possiamo quindi vedere che ```Collections.reverseOrder`` è sovraccaricato per prendere un comparatore che può essere utile per gli oggetti personalizzati. Il metodo ``reversed`` utilizza effettivamente ```Collections.reverseOrder``:
```default Comparatore invertito() {
restituisce Collections.reverseOrder(this);
}
```
offer() vs add()
Come da documento
> Il metodo offer inserisce un elemento se possibile, altrimenti restituisce false. Ciò differisce dal metodo Collection.add, che può fallire nell'aggiungere un elemento solo lanciando un'eccezione non verificata. Il metodo offer è pensato per essere utilizzato quando il fallimento è un evento normale, piuttosto che eccezionale, ad esempio nelle code a capacità fissa (o "bounded").
Quando si usa una coda a capacità limitata, offer() è generalmente preferibile ad add(), che può fallire nell'inserire un elemento solo lanciando un'eccezione. PriorityQueue è una coda a priorità non limitata, basata su un heap di priorità. |
209 | I've looked in the Apex developer's guide and a saw the Naming Conventions section which has basically only has this:
We recommend following Java standards for naming, that is, classes start with a capital letter, methods start with a lowercase verb, and variable names should be meaningful.
I'm looking for something more in depth, such as end all Controllers with Controller and their tests with ControllerTest, etc.
What is a good set of naming conventions to use when developing on the Force.com platofrm? It would be preferable if the answer has something that handles custom objects, classes, visualforce pages, and components and not just Apex classes. | Follow the CamelCase Java conventions, except for VF pages and components start with a lower case letter.
Triggers:
* <ObjectName>Trigger - The trigger itself. One per object.
* <ObjectName>TriggerHandler - Class that handles all functionality of the trigger
* <ObjectName>TriggerTest
Controllers:
* <ClassName>Controller
* <ClassName>ControllerExt
* <ClassName>ControllerTest
* <ClassName>ControllerExtTest
Classes:
* <ClassName>
* <ClassName>Test (These might be Util classes or Service classes or something else).
Visualforce pages and components:
* <ControllerClassName>[optionalDescription] (without the suffix Controller). There might be multiple views so could also have an extra description suffix.
Object Names and custom Fields
* Upper_Case_With_Underscores
Variables/properties/methods in Apex
* camelCaseLikeJava - more easily differentiated from fields
Test methods in test classes
* test<methodOrFunctionalityUnderTest><ShortTestCaseDesc> - For example, testSaveOpportunityRequiredFieldsMissing, testSaveOpportunityRequiredFieldsPresent, etc.
Working on something that would be used as an app or in some cases just a project? If yes, then do the following:
Prefix all custom objects, apex classes, Visualforce pages and components with an abbreviation so that they are easier to identify (e.g., easier for changesets). For example the WidgetFactory app would have the prefix wf on those. Additionally, when adding custom fields to a standard object they would also be prefixed to identify them as part of the app/package.
The main reason for the Object and Fields Names using Upper_Case_With_Underscores is that when you type in the name field or object with spaces it automatically adds the underscores. Although Apex is case insensitive, always refer to the Objects and Custom Fields in the code as Upper_Case_With_Underscores as well for consistency all around and consistency with what is generated by the SOQL schema browser and other tools. Object and Field Labels (which are generally ignored by code but visible to users) should keep spaces, not underscores. | Ich habe im Apex-Entwicklerhandbuch nachgeschaut und den Abschnitt "Namenskonventionen" gesehen, der im Grunde nur dies enthält:
Wir empfehlen, die Java-Standards für die Namensgebung zu befolgen, d.h. Klassen beginnen mit einem Großbuchstaben, Methoden beginnen mit einem Kleinbuchstaben und Variablennamen sollten sinnvoll sein.
Ich bin auf der Suche nach etwas mehr in die Tiefe, wie z. B. alle Controller mit Controller und ihre Tests mit ControllerTest zu beenden, usw.
Welche Benennungskonventionen sollten bei der Entwicklung auf der Force.com-Plattform verwendet werden? Es wäre wünschenswert, wenn die Antwort etwas enthält, das benutzerdefinierte Objekte, Klassen, Visualforce-Seiten und Komponenten behandelt und nicht nur Apex-Klassen. | Befolgen Sie die CamelCase-Java-Konventionen, außer dass VF-Seiten und -Komponenten mit einem Kleinbuchstaben beginnen.
Auslöser:
* <Objektname>Trigger - Der Trigger selbst. Einer pro Objekt.
<ObjectName>TriggerHandler - Klasse, die alle Funktionen des Triggers handhabt.
* <ObjectName>TriggerTest
Controllers:
* <ClassName>Controller
* <ClassName>ControllerExt
* <Klassenname>ControllerTest
* <Klassenname>ControllerExtTest
Klassen:
* <ClassName>
* <Klassenname>Test (Dies können Util-Klassen oder Service-Klassen oder etwas anderes sein).
Visualforce-Seiten und -Komponenten:
<ControllerClassName>[optionalDescription] (ohne das Suffix Controller). Es kann mehrere Ansichten geben, die auch ein zusätzliches Beschreibungssuffix haben können.
Objektnamen und benutzerdefinierte Felder
* Upper_Case_With_Underscores
Variablen/Properties/Methoden in Apex
* camelCaseLikeJava - leichtere Unterscheidung von Feldern
Testmethoden in Testklassen
* test<methodOrFunctionalityUnderTest><ShortTestCaseDesc> - Zum Beispiel testSaveOpportunityRequiredFieldsMissing, testSaveOpportunityRequiredFieldsPresent, usw.
Arbeiten Sie an etwas, das als App oder in manchen Fällen nur als Projekt verwendet werden soll? Wenn ja, dann tun Sie Folgendes:
Stellen Sie allen benutzerdefinierten Objekten, Apex-Klassen, Visualforce-Seiten und -Komponenten eine Abkürzung voran, damit sie leichter zu identifizieren sind (z. B. einfacher für Changesets). Zum Beispiel würde die WidgetFactory-App das Präfix wf tragen. Beim Hinzufügen von benutzerdefinierten Feldern zu einem Standardobjekt wird ihnen ebenfalls ein Präfix vorangestellt, um sie als Teil der Anwendung/des Pakets zu identifizieren.
Der Hauptgrund für die Objekt- und Feldnamen mit Upper_Case_With_Underscores ist, dass bei der Eingabe des Feld- oder Objektnamens mit Leerzeichen automatisch die Unterstriche hinzugefügt werden. Obwohl Apex die Groß- und Kleinschreibung nicht beachtet, sollten Sie die Objekte und benutzerdefinierten Felder im Code immer als Upper_Case_With_Underscores bezeichnen, um die Konsistenz mit dem zu gewährleisten, was der SOQL-Schema-Browser und andere Tools generieren. Objekt- und Feldbezeichnungen (die im Allgemeinen vom Code ignoriert werden, aber für die Benutzer sichtbar sind) sollten Leerzeichen und keine Unterstriche enthalten. | He mirado en la guía del desarrollador Apex y vi la sección de convenciones de nomenclatura que básicamente sólo tiene esto:
Recomendamos seguir los estándares de Java para nombrar, es decir, las clases empiezan con mayúscula, los métodos empiezan con minúscula y los nombres de las variables deben tener sentido.
Estoy buscando algo más en profundidad, como terminar todos los Controladores con Controller y sus pruebas con ControllerTest, etc.
¿Cuál es un buen conjunto de convenciones de nomenclatura para desarrollar en la plataforma Force.com? Sería preferible si la respuesta tiene algo que maneja objetos personalizados, clases, páginas visualforce y componentes y no sólo clases Apex. | Siga las convenciones de CamelCase Java, excepto para las páginas VF y los componentes comienzan con una letra minúscula.
Disparadores:
* <NombreObjeto>Desencadenador - El desencadenador propiamente dicho. Uno por objeto.
* <ObjectName>TriggerHandler - Clase que maneja toda la funcionalidad del disparador.
<NombreObjeto>TriggerTest
Controladores:
* <ClassName>Controller
<ClassName>ControllerExt
<ClassName>ControllerTest
<ClassName>ControllerExtTest
Clases:
* <ClassName>
* <ClassName>Test (Pueden ser clases Util o clases Service o cualquier otra cosa).
Páginas y componentes de Visualforce:
* <ControllerClassName>[optionalDescription] (sin el sufijo Controller). Puede haber múltiples vistas por lo que también podría tener un sufijo de descripción extra.
Nombres de objetos y campos personalizados
* Upper_Case_With_Underscores
Variables/propiedades/métodos en Apex
* camelCaseLikeJava - más fácil de diferenciar de los campos
Métodos de prueba en clases de prueba
* test<methodOrFunctionalityUnderTest><ShortTestCaseDesc> - Por ejemplo, testSaveOpportunityRequiredFieldsMissing, testSaveOpportunityRequiredFieldsPresent, etc.
¿Está trabajando en algo que se utilizaría como aplicación o, en algunos casos, sólo como proyecto? En caso afirmativo, haga lo siguiente:
Ponga un prefijo a todos los objetos personalizados, clases apex, páginas Visualforce y componentes para que sean más fáciles de identificar (por ejemplo, más fácil para los cambios). Por ejemplo, la aplicación WidgetFactory llevaría el prefijo wf. Además, al añadir campos personalizados a un objeto estándar también se les pondría un prefijo para identificarlos como parte de la app/paquete.
La razón principal para que los nombres de objetos y campos utilicen Upper_Case_With_Underscores es que cuando escribes el nombre del campo u objeto con espacios automáticamente añade los guiones bajos. Aunque Apex no distingue entre mayúsculas y minúsculas, siempre refiérase a los Objetos y Campos Personalizados en el código como Upper_Case_With_Underscores también para mantener la coherencia en todo y la coherencia con lo que se genera por el navegador de esquema SOQL y otras herramientas. Las Etiquetas de Objetos y Campos (que generalmente son ignoradas por el código pero visibles para los usuarios) deben mantener espacios, no guiones bajos. | J'ai regardé dans le guide du développeur Apex et j'ai vu la section "Naming Conventions" qui ne contient en fait que ceci :
Nous recommandons de suivre les normes Java pour le nommage, c'est-à-dire que les classes commencent par une lettre majuscule, les méthodes par un verbe minuscule et les noms de variables doivent être significatifs.
Je cherche quelque chose de plus approfondi, comme terminer tous les contrôleurs par Controller et leurs tests par ControllerTest, etc.
Quel est le bon ensemble de conventions de dénomination à utiliser lors du développement sur la plate-forme Force.com ? Il serait préférable que la réponse traite des objets personnalisés, des classes, des pages Visualforce et des composants, et pas seulement des classes Apex. | Suivez les conventions Java CamelCase, sauf pour les pages VF et les composants qui commencent par une lettre minuscule.
Déclencheurs :
* <NomObjet>Déclencheur - Le déclencheur lui-même. Un par objet.
<ObjectName>TriggerHandler - Classe qui gère toutes les fonctionnalités du déclencheur.
* <ObjectName>TriggerTest
Contrôleurs :
* <ClassName>Contrôleur
* <ClassName>ControllerExt
* <ClassName>ControllerTest
* <ClassName>ControllerExtTest
Classes :
* <ClassName>
* <ClassName>Test (Il peut s'agir de classes d'utilitaires ou de classes de services ou d'autres choses).
Pages et composants Visualforce :
* <ControllerClassName>[optionalDescription] (sans le suffixe Controller). Il peut y avoir plusieurs vues et donc un suffixe de description supplémentaire.
Noms d'objets et champs personnalisés
* Majuscule_casse_avec_points_extrêmes
Variables/propriétés/méthodes dans Apex
* CamelCaseLikeJava - plus facile à différencier des champs
Méthodes de test dans les classes de test
* Test<methodOrFunctionalityUnderTest><ShortTestCaseDesc> - Par exemple, testSaveOpportunityRequiredFieldsMissing, testSaveOpportunityRequiredFieldsPresent, etc.
Vous travaillez sur quelque chose qui sera utilisé comme une application ou, dans certains cas, comme un simple projet ? Si oui, procédez comme suit :
Préfixez tous les objets personnalisés, les classes apex, les pages Visualforce et les composants avec une abréviation afin qu'ils soient plus faciles à identifier (par exemple, plus facile pour les changesets). Par exemple, l'application WidgetFactory porterait le préfixe wf. De plus, lors de l'ajout de champs personnalisés à un objet standard, ils seraient également préfixés afin de les identifier comme faisant partie de l'application/du paquet.
La raison principale pour laquelle les noms d'objets et de champs utilisent le préfixe Upper_Case_With_Underscores est que lorsque vous saisissez le nom d'un champ ou d'un objet avec des espaces, il ajoute automatiquement les traits de soulignement. Bien qu'Apex ne tienne pas compte des majuscules et des minuscules, il faut toujours faire référence aux objets et aux champs personnalisés dans le code en utilisant des majuscules et des minuscules pour des raisons de cohérence avec ce qui est généré par le navigateur de schémas SOQL et d'autres outils. Les étiquettes des objets et des champs (qui sont généralement ignorées par le code mais visibles par les utilisateurs) doivent conserver les espaces et non les traits de soulignement. | Ho consultato la guida per gli sviluppatori di Apex e ho visto la sezione Convenzioni di denominazione che contiene praticamente solo questo:
Si consiglia di seguire gli standard di Java per la denominazione, ovvero che le classi inizino con una lettera maiuscola, che i metodi inizino con un verbo minuscolo e che i nomi delle variabili siano significativi.
Sto cercando qualcosa di più approfondito, come ad esempio terminare tutti i controllori con Controller e i loro test con ControllerTest, ecc.
Qual è un buon insieme di convenzioni di denominazione da utilizzare quando si sviluppa su piattaforma Force.com? Sarebbe preferibile se la risposta avesse qualcosa che gestisce oggetti, classi, pagine visualforce e componenti personalizzati e non solo classi Apex. | Seguire le convenzioni CamelCase di Java, ad eccezione delle pagine e dei componenti VF che iniziano con una lettera minuscola.
Trigger:
* <Nomeoggetto>Trigger - Il trigger stesso. Uno per oggetto.
<Nomeoggetto>TriggerHandler - Classe che gestisce tutte le funzionalità del trigger.
* <Nome dell'oggetto>TriggerTest
Controllori:
* <NomeClasse>Controller
* <NomeClasse>ControllerExt
* <NomeClasse>ControllerTest
* <NomeClasse>ControllerExtTest
Classi:
* <NomeClasse>
* <NomeClasse>Test (Queste potrebbero essere classi Util, classi Service o altro).
Pagine e componenti Visualforce:
* <ControllerClassName>[optionalDescription] (senza il suffisso Controller). Potrebbero esserci più viste, quindi potrebbero avere un suffisso di descrizione aggiuntivo.
Nomi di oggetti e campi personalizzati
* Upper_Case_With_Underscores
Variabili/proprietà/metodi in Apex
* camelCaseLikeJava - più facilmente distinguibili dai campi
Metodi di test nelle classi di test
* test<methodOrFunctionalityUnderTest><ShortTestCaseDesc> - Ad esempio, testSaveOpportunityRequiredFieldsMissing, testSaveOpportunityRequiredFieldsPresent, ecc.
State lavorando a qualcosa che verrà utilizzato come applicazione o, in alcuni casi, come progetto? Se sì, procedete come segue:
Prefissate tutti gli oggetti personalizzati, le classi apex, le pagine Visualforce e i componenti con un'abbreviazione, in modo da facilitarne l'identificazione (ad esempio, per le modifiche). Ad esempio, l'applicazione WidgetFactory avrà il prefisso wf. Inoltre, quando si aggiungono campi personalizzati a un oggetto standard, anche questi hanno un prefisso per identificarli come parte dell'applicazione/pacchetto.
Il motivo principale per cui i nomi degli oggetti e dei campi utilizzano Upper_Case_With_Underscores è che quando si digita il nome di un campo o di un oggetto con degli spazi, vengono aggiunti automaticamente i trattini bassi. Sebbene Apex sia insensibile alle maiuscole e alle minuscole, nel codice fate sempre riferimento agli oggetti e ai campi personalizzati come Upper_Case_With_Underscores, per coerenza con quanto viene generato dal browser dello schema SOQL e da altri strumenti. Le etichette degli oggetti e dei campi (che sono generalmente ignorate dal codice, ma visibili agli utenti) devono mantenere gli spazi, non i trattini bassi. |
210 | When learning some basic French, I was somewhat surprised to learn that phrases of the form "I have found the cat" generally translate almost word-for-word from English (J'ai trouvé le chat). To me, it's not immediately obvious that possession ("I have"/"J'ai") has a correspondence with past tense, although if I think about it a little more I suppose I can kind of see how it makes sense.
This makes me wonder: Is this a common pattern in other languages? Especially ones not closely related to English. | This is what's called a "Sprachbund" feature: it's a trait shared by a bunch of languages in an area, even ones that aren't genetically related. In particular, this one is a feature of the "Standard Average European" Sprachbund, a group of languages centered in Western Europe, and it's one of the features that was originally used to define that Sprachbund in the first place!
The construction seems to have arisen back in Latin. In Classical Latin, past aoristic verbs ("I loved") and present perfective verbs ("I have loved") look exactly the same: both of those would be written amāvī. But it's a pretty useful distinction to be able to make! So in Vulgar Latin, a new construction arose, using the verb habēre ("to have"). It's thought that a phrase like habeō litterās scriptās "I have (written letters)" got reanalyzed into "I (have written) letters", with habēre no longer indicating that you're actually holding anything in your hands, just that an action's been completed in the past.
Vulgar Latin eventually evolved into French, Italian, Spanish, and all the other Romance languages, and brought this construction with it; habēre is the direct ancestor of French avoir, via a series of sound changes. And once various Romance languages and Germanic languages and others were all being spoken in the same area, this feature spread through the Sprachbund: people speaking Germanic languages started to use the same construction. English "have"/German haben/etc isn't actually at all related to Latin habēre, but they looked similar, so it was the obvious choice when adopting the construction into Germanic.
Nowadays, this feature is called the "have-perfective", and it shows up in all sorts of languages within the Standard Average European (SAE) Sprachbund. It's not at all universal, but can be a good way to determine if a language has been influenced by SAE or not! | Als ich einige Grundkenntnisse der französischen Sprache lernte, war ich etwas überrascht zu erfahren, dass Sätze der Form "Ich habe die Katze gefunden" im Allgemeinen fast wortwörtlich aus dem Englischen übersetzt werden (J'ai trouvé le chat). Für mich ist es nicht sofort ersichtlich, dass der Besitz ("I have"/"J'ai") mit der Vergangenheitsform korrespondiert, aber wenn ich etwas mehr darüber nachdenke, kann ich mir vorstellen, dass es einen Sinn ergibt.
Das bringt mich zum Nachdenken: Ist dieses Muster in anderen Sprachen üblich? Vor allem in Sprachen, die nicht eng mit dem Englischen verwandt sind. | Dies ist ein sogenanntes "Sprachbund"-Merkmal: ein Merkmal, das eine Reihe von Sprachen in einem Gebiet gemeinsam haben, auch solche, die genetisch nicht verwandt sind. Insbesondere ist dies ein Merkmal des "Standard Average European" Sprachbundes, einer Gruppe von Sprachen in Westeuropa, und es ist eines der Merkmale, die ursprünglich verwendet wurden, um diesen Sprachbund überhaupt zu definieren!
Die Konstruktion scheint im Lateinischen entstanden zu sein. Im klassischen Latein sehen die aoristischen Verben der Vergangenheit ("ich habe geliebt") und die Verben des Perfekts der Gegenwart ("ich habe geliebt") genau gleich aus: beide werden amāvī geschrieben. Aber es ist eine ziemlich nützliche Unterscheidung, die man machen kann! So entstand im Vulgärlatein eine neue Konstruktion, die das Verb habēre ("haben") verwendet. Man nimmt an, dass ein Satz wie habeō litterās scriptās "Ich habe (Briefe) geschrieben" in "Ich (habe) Briefe geschrieben" umanalysiert wurde, wobei habēre nicht mehr anzeigt, dass man tatsächlich etwas in den Händen hält, sondern nur, dass eine Handlung in der Vergangenheit abgeschlossen wurde.
Aus dem Vulgärlatein entwickelten sich schließlich das Französische, das Italienische, das Spanische und alle anderen romanischen Sprachen, die diese Konstruktion mit sich brachten; habēre ist über eine Reihe von Lautveränderungen der direkte Vorfahre des französischen avoir. Und als die verschiedenen romanischen, germanischen und anderen Sprachen im selben Gebiet gesprochen wurden, verbreitete sich dieses Merkmal im Sprachbund: Die Menschen, die germanische Sprachen sprachen, begannen, die gleiche Konstruktion zu verwenden. Das englische "have"/deutsche haben/etc ist eigentlich überhaupt nicht mit dem lateinischen habēre verwandt, aber sie sahen sich ähnlich, so dass es die naheliegende Wahl war, die Konstruktion ins Germanische zu übernehmen.
Heutzutage nennt man dieses Merkmal das "Haben-Perfektiv", und es taucht in allen möglichen Sprachen des Standard Average European (SAE) Sprachbundes auf. Es ist keineswegs universell, kann aber eine gute Möglichkeit sein, um festzustellen, ob eine Sprache vom SAE beeinflusst wurde oder nicht! | Cuando aprendía algo de francés básico, me sorprendió un poco saber que las frases de la forma "I have found the cat" se traducen generalmente casi palabra por palabra del inglés (J'ai trouvé le chat). Para mí, no es obvio que la posesión ("I have"/"J'ai") tenga una correspondencia con el tiempo pasado, aunque si lo pienso un poco más supongo que puedo ver cómo tiene sentido.
Esto me hace preguntarme: ¿Es este un patrón común en otros idiomas? Especialmente en las que no están estrechamente relacionadas con el inglés. | Esto es lo que se denomina un rasgo de "Sprachbund": es un rasgo compartido por un grupo de lenguas de una zona, aunque no estén relacionadas genéticamente. En concreto, se trata de un rasgo del Sprachbund "Standard Average European", un grupo de lenguas centrado en Europa Occidental, y es uno de los rasgos que se utilizaron originalmente para definir ese Sprachbund.
La construcción parece haber surgido en latín. En latín clásico, los verbos aortivos del pasado ("yo amaba") y los verbos perfectivos del presente ("yo he amado") tienen exactamente el mismo aspecto: ambos se escribirían amāvī. Pero es una distinción muy útil. Así que en latín vulgar surgió una nueva construcción, utilizando el verbo habēre ("tener"). Se cree que una frase como habeō litterās scriptās "He (escrito letras)" se reanalizó en "He (escrito) letras", con habēre ya no indicando que realmente se tiene algo en las manos, sólo que se ha completado una acción en el pasado.
Con el tiempo, el latín vulgar evolucionó hacia el francés, el italiano, el español y todas las demás lenguas romances, y trajo consigo esta construcción; habēre es el antepasado directo del francés avoir, a través de una serie de cambios de sonido. Y una vez que varias lenguas románicas, germánicas y otras se hablaron en la misma zona, este rasgo se extendió por el tronco común: los hablantes de lenguas germánicas empezaron a utilizar la misma construcción. El inglés "have"/alemán "haben"/etc. en realidad no tiene nada que ver con el latín "habēre", pero se parecían, así que fue la elección obvia al adoptar la construcción en germánico.
Hoy en día, este rasgo se denomina "tener-perfectivo" y aparece en todo tipo de lenguas del Espectro Medio Europeo Estándar (EME). No es en absoluto universal, pero puede ser una buena forma de determinar si una lengua ha recibido la influencia del SAE o no. | Lorsque j'ai appris quelques rudiments de français, j'ai été quelque peu surprise d'apprendre que les phrases de la forme "J'ai trouvé le chat" se traduisent généralement presque mot pour mot de l'anglais (I have found the cat). Pour moi, il n'est pas immédiatement évident que la possession ("I have"/"J'ai") ait une correspondance avec le passé, bien qu'en y réfléchissant un peu plus, je suppose que je peux voir comment cela a du sens.
Cela m'amène à m'interroger : S'agit-il d'un schéma courant dans d'autres langues ? En particulier celles qui ne sont pas étroitement liées à l'anglais. | C'est ce qu'on appelle une caractéristique "Sprachbund" : il s'agit d'une caractéristique partagée par un certain nombre de langues d'une région, même si elles ne sont pas génétiquement apparentées. En particulier, il s'agit d'une caractéristique du Sprachbund "Standard Average European", un groupe de langues centrées sur l'Europe occidentale, et c'est l'une des caractéristiques qui a été utilisée à l'origine pour définir ce Sprachbund !
La construction semble être apparue en latin. En latin classique, les verbes aoristiques passés ("j'ai aimé") et les verbes perfectifs présents ("j'ai aimé") se ressemblent exactement : ils s'écrivent tous deux amāvī. Mais c'est une distinction très utile à faire ! En latin vulgaire, une nouvelle construction est apparue, utilisant le verbe habēre ("avoir"). On pense qu'une phrase comme habeō litterās scriptās "j'ai (écrit des lettres)" a été réanalysée en "j'ai (écrit) des lettres", habēre n'indiquant plus que l'on tient quelque chose dans les mains, mais simplement qu'une action a été accomplie dans le passé.
Le latin vulgaire a ensuite évolué vers le français, l'italien, l'espagnol et toutes les autres langues romanes, et a apporté cette construction avec lui ; habēre est l'ancêtre direct du français avoir, par le biais d'une série de changements sonores. Une fois que les différentes langues romanes, germaniques et autres ont été parlées dans la même région, cette caractéristique s'est répandue dans le Sprachbund : les personnes parlant des langues germaniques ont commencé à utiliser la même construction. L'anglais "have"/allemand haben/etc n'est en fait pas du tout lié au latin habēre, mais ils se ressemblaient, et c'était donc le choix évident lors de l'adoption de la construction en germanique.
De nos jours, cette caractéristique est appelée "avoir-perfectif", et on la retrouve dans toutes sortes de langues au sein du Standard Average European (SAE) Sprachbund. Elle n'est pas du tout universelle, mais peut être un bon moyen de déterminer si une langue a été influencée par le SAE ou non ! | Imparando il francese di base, sono rimasto un po' sorpreso nell'apprendere che frasi del tipo "ho trovato il gatto" si traducono generalmente quasi parola per parola dall'inglese (J'ai trouvé le chat). Per me non è immediatamente ovvio che il possesso ("I have"/"J'ai") abbia una corrispondenza con il tempo passato, anche se se ci penso un po' di più credo di poter capire come abbia senso.
Questo mi fa pensare: È uno schema comune ad altre lingue? Soprattutto quelle non strettamente legate all'inglese. | Questa è la cosiddetta caratteristica dello "Sprachbund": si tratta di un tratto condiviso da un gruppo di lingue in un'area, anche non geneticamente correlate. In particolare, questa è una caratteristica dello Sprachbund "Europeo medio standard", un gruppo di lingue che si trova nell'Europa occidentale, ed è una delle caratteristiche originariamente utilizzate per definire tale Sprachbund!
La costruzione sembra essere nata in latino. Nel latino classico, i verbi aoristici passati ("ho amato") e i verbi perfettivi presenti ("ho amato") hanno lo stesso aspetto: entrambi si scrivono amāvī. Ma è una distinzione piuttosto utile da fare! Così, nel latino volgare, è nata una nuova costruzione che utilizza il verbo habēre ("avere"). Si pensa che una frase come habeō litterās scriptās "ho (scritto) delle lettere" sia stata rianalizzata in "ho (scritto) delle lettere", con habēre che non indica più che si ha effettivamente qualcosa in mano, ma solo che un'azione è stata compiuta nel passato.
Il latino volgare si è poi evoluto in francese, italiano, spagnolo e in tutte le altre lingue romanze, portando con sé questa costruzione; habēre è l'antenato diretto del francese avoir, attraverso una serie di cambiamenti di suono. Una volta che le varie lingue romanze, le lingue germaniche e altre ancora sono state parlate nella stessa area, questa caratteristica si è diffusa attraverso lo Sprachbund: le persone che parlavano lingue germaniche hanno iniziato a usare la stessa costruzione. L'inglese "have"/tedesco haben/etc non è in realtà affatto imparentato con il latino habēre, ma si assomigliavano, quindi è stata la scelta più ovvia quando si è adottata la costruzione in germanico.
Al giorno d'oggi, questa caratteristica è chiamata "have-perfective" ed è presente in tutti i tipi di lingue all'interno dello Sprachbund dell'Europa Media Standard (SAE). Non è affatto universale, ma può essere un buon modo per determinare se una lingua è stata influenzata dal SAE o meno! |
211 | I'm building a simple helper script for work that will copy a couple of template files in our code base to the current directory. I don't, however, have the absolute path to the directory where the templates are stored. I do have a relative path from the script but when I call the script it treats that as a path relative to the current working directory. Is there a way to specify that this relative url is from the location of the script instead? | Python have already evolve to the ```__future__``` long time ago. So how about using the amazing ```pathlib``` coming with Python 3.4 to accomplish the task instead of struggling with ```os```, ```os.path```, ```glob ```, ```shutil```, etc.
So we have 3 paths here (possibly duplicated):
* ```mod_path```: which is the path of the simple helper script
* ```src_path```: which contains a couple of template files waiting to be copied.
* ```cwd```: current directory, the destination of those template files.
and the problem is: we don't have the full path of ```src_path```, only know it's relative path to the ```mod_path```.
Now let's solve this with the the amazing ```pathlib```:
```# Hope you don't be imprisoned by legacy Python code :)
from pathlib import Path
# `cwd`: current directory is straightforward
cwd = Path.cwd()
# `mod_path`: According to the accepted answer and combine with future power
# if we are in the `helper_script.py`
mod_path = Path(__file__).parent
# OR if we are `import helper_script`
mod_path = Path(helper_script.__file__).parent
# `src_path`: with the future power, it's just so straightforward
relative_path_1 = 'same/parent/with/helper/script/'
relative_path_2 = '../../or/any/level/up/'
src_path_1 = (mod_path / relative_path_1).resolve()
src_path_2 = (mod_path / relative_path_2).resolve()
```
In the future, it's just that simple.
Moreover, we can select and check and copy/move those template files with ```pathlib```:
```if src_path != cwd:
# When we have different types of files in the `src_path`
for template_path in src_path.glob('*.ini'):
fname = template_path.name
target = cwd / fname
if not target.exists():
# This is the COPY action
with target.open(mode='wb') as fd:
fd.write(template_path.read_bytes())
# If we want MOVE action, we could use:
# template_path.replace(target)
``` | Ich entwickle gerade ein einfaches Hilfsskript für die Arbeit, das einige Vorlagendateien in unserer Codebasis in das aktuelle Verzeichnis kopiert. Ich habe jedoch nicht den absoluten Pfad zu dem Verzeichnis, in dem die Vorlagen gespeichert sind. Ich habe zwar einen relativen Pfad aus dem Skript, aber wenn ich das Skript aufrufe, behandelt es diesen als einen Pfad relativ zum aktuellen Arbeitsverzeichnis. Gibt es eine Möglichkeit anzugeben, dass diese relative Url stattdessen vom Speicherort des Skripts ausgeht? | Python hat sich schon vor langer Zeit zu ```__future__`` entwickelt. Wie wäre es also, die erstaunliche ```pathlib`` zu benutzen, die mit Python 3.4 kommt, um die Aufgabe zu erledigen, anstatt sich mit ```os``, ```os.path``, ```glob``, ```shutil``, etc. herumzuschlagen.
Wir haben hier also 3 Pfade (die möglicherweise doppelt vorhanden sind):
* ```mod_path```: das ist der Pfad des einfachen Hilfsskripts
* ```Src_path``: Dieser Pfad enthält eine Reihe von Vorlagendateien, die darauf warten, kopiert zu werden.
* ```cwd``: das aktuelle Verzeichnis, das Ziel dieser Vorlagendateien.
Das Problem ist, dass wir nicht den vollen Pfad von ```rc_path`` kennen, sondern nur den relativen Pfad zum ```mod_path``.
Nun laesst sich das Problem mit der erstaunlichen ```pathlib`` loesen:
```# Ich hoffe, Sie sind nicht in altem Python-Code gefangen :)
from pathlib import Path
# `cwd`: das aktuelle Verzeichnis ist einfach
cwd = Path.cwd()
# `mod_path`: Entsprechend der akzeptierten Antwort und kombiniert mit zukünftiger Macht
# wenn wir in der `helper_script.py` sind
mod_path = Path(__file__).parent
# ODER wenn wir `import helper_script` sind
mod_path = Path(helper_script.__file__).parent
# `src_path`: mit der zukünftigen Macht ist es einfach so einfach
relativer_pfad_1 = 'same/parent/with/helper/script/'
relativer_pfad_2 = '../../oder/beliebige/ebenen/aufwärts/'
src_pfad_1 = (mod_pfad / relativer_pfad_1).resolve()
src_pfad_2 = (mod_pfad / relativer_pfad_2).resolve()
```
In Zukunft ist es so einfach.
Ausserdem koennen wir mit ```pathlib`` die Vorlagendateien auswaehlen und ueberpruefen und kopieren/verschieben:
```if src_path != cwd:
# Wenn wir verschiedene Arten von Dateien im `src_path` haben
for template_path in src_path.glob('*.ini'):
fname = vorlage_pfad.name
Ziel = cwd / fname
if not target.exists():
# Dies ist die COPY-Aktion
with target.open(mode='wb') as fd:
fd.write(template_path.read_bytes())
# Wenn wir eine MOVE-Aktion wollen, könnten wir verwenden:
# template_path.replace(target)
``` | Estoy construyendo un sencillo script de ayuda para el trabajo que copiará un par de archivos de plantillas de nuestra base de código al directorio actual. Sin embargo, no tengo la ruta absoluta al directorio donde se almacenan las plantillas. Tengo una ruta relativa del script pero cuando llamo al script lo trata como una ruta relativa al directorio de trabajo actual. ¿Hay alguna forma de especificar que esta url relativa sea desde la ubicación del script? | Python ya ha evolucionado al ```__future__`` hace mucho tiempo. Así que qué tal si usamos la increíble ``pathlib`` que viene con Python 3.4 para realizar la tarea en lugar de luchar con ```os``, ```os.path``, ```glob``, ```shutil``, etc.
Así que tenemos 3 caminos aquí (posiblemente duplicados):
* ```mod_path``: que es la ruta del script de ayuda simple
* ```src_path``: que contiene un par de archivos de plantilla esperando a ser copiados.
* ```cwd``: directorio actual, el destino de esos archivos de plantilla.
y el problema es: no tenemos la ruta completa de ``src_path``, sólo sabemos que es la ruta relativa a ``mod_path``.
Ahora vamos a resolver esto con el increíble ``pathlib``:
```# Espero que no estés aprisionado por código heredado de Python :)
from pathlib import Path
# `cwd`: el directorio actual es directo
cwd = Path.cwd()
# `mod_path`: De acuerdo con la respuesta aceptada y combinar con el poder futuro
# si estamos en el `helper_script.py`
mod_path = Path(__archivo__).padre
# O si estamos en `import helper_script`.
mod_path = Ruta(helper_script.__archivo__).padre
# `src_path`: con el futuro poder, es tan sencillo
relative_path_1 = 'same/parent/with/helper/script/'
relative_path_2 = '../../o/cualquier/nivel/arriba/'
src_path_1 = (mod_path / relative_path_1).resolve()
src_path_2 = (mod_path / relative_path_2).resolve()
```
En el futuro, es así de simple.
Además, podemos seleccionar y comprobar y copiar / mover los archivos de plantilla con ```pathlib``:
```if src_path != cwd:
# Cuando tenemos diferentes tipos de ficheros en ``src_path
for template_path in src_path.glob('*.ini'):
fname = template_path.name
target = cwd / fname
if not target.exists():
# Esta es la acción COPY
con target.open(mode='wb') como fd:
fd.write(template_path.read_bytes())
# Si queremos la acción MOVE, podríamos usar:
# template_path.replace(target)
``` | Je suis en train de construire un script d'aide simple pour le travail qui copiera quelques fichiers de modèles dans notre base de code dans le répertoire actuel. Cependant, je n'ai pas le chemin absolu vers le répertoire où les modèles sont stockés. Je dispose d'un chemin relatif à partir du script, mais lorsque j'appelle le script, il le traite comme un chemin relatif au répertoire de travail actuel. Existe-t-il un moyen de spécifier que cette url relative est à partir de l'emplacement du script à la place ? | Python a déjà évolué vers le ``future__`` il y a longtemps. Alors pourquoi ne pas utiliser l'incroyable ``pathlib`` qui arrive avec Python 3.4 pour accomplir la tâche au lieu de se battre avec ``os``, ``os.path``, ``glob ``, ``shutil``, etc.
Nous avons donc 3 chemins ici (peut-être dupliqués) :
* ``mod_path`` : qui est le chemin du script d'aide simple
* ``src_path`` : qui contient quelques fichiers modèles en attente d'être copiés.
* ``cwd`` : le répertoire courant, la destination de ces fichiers modèles.
Et le problème est que nous n'avons pas le chemin complet de ``src_path``, mais seulement son chemin relatif vers le ``mod_path``.
Maintenant, résolvons ce problème avec l'incroyable ``pathlib`` :
```# J'espère que vous n'êtes pas prisonnier d'un code Python hérité :)
from pathlib import Path
# `cwd` : le répertoire courant est simple
cwd = Path.cwd()
# `mod_path` : Selon la réponse acceptée et combiner avec la puissance future
# si nous sommes dans le fichier `helper_script.py`
mod_path = Path(__file__).parent
# OU si nous sommes dans `import helper_script`
mod_path = Path(helper_script.__file__).parent
# `src_path` : avec la puissance du futur, c'est tellement simple
relative_path_1 = 'same/parent/with/helper/script/'
relative_path_2 = '../../ou/tout/niveau/supérieur/'
src_path_1 = (mod_path / relative_path_1).resolve()
src_path_2 = (mod_path / relative_path_2).resolve()
```
A l'avenir, c'est aussi simple que cela.
De plus, nous pouvons sélectionner, vérifier et copier/déplacer ces fichiers modèles avec ``pathlib`` :
```si src_path != cwd :
# Lorsque nous avons différents types de fichiers dans le `src_path`
for template_path in src_path.glob('*.ini') :
fname = template_path.name
target = cwd / fname
if not target.exists() :
# C'est l'action COPY
avec target.open(mode='wb') as fd :
fd.write(template_path.read_bytes())
# Si nous voulons une action MOVE, nous pouvons utiliser :
# template_path.replace(target)
``` | Sto costruendo un semplice script di aiuto per il lavoro che copierà un paio di file di modelli nella nostra base di codice nella directory corrente. Tuttavia, non ho il percorso assoluto della directory in cui sono memorizzati i modelli. Ho un percorso relativo dallo script, ma quando lo chiamo lo script lo tratta come un percorso relativo alla directory di lavoro corrente. C'è un modo per specificare che questo percorso relativo è invece quello della posizione dello script? | Python si è già evoluto verso il ``__futuro__`` molto tempo fa. Quindi che ne dite di usare la fantastica ```pathlib``` in arrivo con Python 3.4 per svolgere il compito, invece di lottare con ```os``, ```os.path``, ```glob``, ```shutil``, ecc.
Quindi abbiamo 3 percorsi (forse duplicati):
* ```mod_path``: che è il percorso del semplice script di aiuto
* ``src_path``: che contiene un paio di file di template in attesa di essere copiati.
* ```cwd``: directory corrente, la destinazione di questi file modello.
Il problema è che non abbiamo il percorso completo di ``src_path``, ma conosciamo solo il percorso relativo al ```mod_path``.
Ora risolviamo questo problema con la fantastica ```pathlib``:
````# Spero che non siate imprigionati da codice Python legacy :)
da pathlib import Path
# `cwd`: la directory corrente è diretta
cwd = Path.cwd()
# `mod_path`: Secondo la risposta accettata e combinata con il potere futuro
# se siamo nel file `helper_script.py
mod_path = Path(__file__).parent
# OPPURE se siamo in `import helper_script`
mod_path = Path(helper_script.__file__).parent
# `src_path`: con il potere del futuro, è così immediato
relative_path_1 = 'same/parent/with/helper/script/'
relative_path_2 = '../../o/qualsiasi/livello/su/'
src_path_1 = (mod_path / relative_path_1).resolve()
src_path_2 = (mod_path / relative_path_2).resolve()
```
In futuro, è così semplice.
Inoltre, possiamo selezionare e controllare e copiare/spostare i file dei template con ``pathlib``:
````if src_path != cwd:
# Quando abbiamo diversi tipi di file in `src_path`
per template_path in src_path.glob('*.ini'):
fname = template_path.name
target = cwd / fname
if not target.exists():
# Questa è l'azione COPY
con target.open(mode='wb') as fd:
fd.write(template_path.read_bytes())
# Se vogliamo un'azione MOVE, possiamo usare:
# template_path.replace(target)
``` |
212 | How to send HTML-formatted email in C#? | Setting isBodyHtml to true allows you to use HTML tags in the message body:
```
msg = new MailMessage("[email protected]",
"[email protected]", "Message from PSSP System",
"This email sent by the PSSP system<br />" +
"<b>this is bold text!</b>");
msg.IsBodyHtml = true;
``` | Wie sendet man HTML-formatierte E-Mails in C#? | Wenn Sie isBodyHtml auf true setzen, können Sie HTML-Tags im Nachrichtentext verwenden:
```
msg = new MailMessage("[email protected]",
"[email protected]", "Nachricht vom PSSP-System",
"Diese E-Mail wurde vom PSSP-System gesendet<br />" +
"<b>Dies ist fetter Text!</b>");
msg.IsBodyHtml = true;
``` | ¿Cómo enviar correo electrónico con formato HTML en C#? | Establecer isBodyHtml a true te permite utilizar etiquetas HTML en el cuerpo del mensaje:
```
msg = new MailMessage("[email protected]",
"[email protected]", "Mensaje del sistema PSSP",
"Este correo electrónico enviado por el sistema PSSP<br />" +
"<b>esto es texto en negrita!</b>");
msg.IsBodyHtml = true;
``` | Comment envoyer un courrier électronique au format HTML en C# ? | En fixant la valeur de isBodyHtml à true, vous pouvez utiliser des balises HTML dans le corps du message :
```
msg = new MailMessage("[email protected]",
"[email protected]", "Message du système PSSP",
"Cet e-mail envoyé par le système PSSP<br />" +
"<b>ce texte est en gras!</b>") ;
msg.IsBodyHtml = true ;
``` | Come inviare e-mail in formato HTML in C#? | Impostando isBodyHtml a true si possono usare i tag HTML nel corpo del messaggio:
```
msg = new MailMessage("[email protected]",
"[email protected]", "Messaggio dal sistema PSSP",
"Questa email è stata inviata dal sistema PSSP<br />" +
"<b>questo è un testo in grassetto!</b>");
msg.IsBodyHtml = true;
``` |
213 | I want to sum a list of Integers. It works as follows, but the syntax does not feel right. Could the code be optimized?
```Map integers;
integers.values().stream().mapToInt(i -> i).sum();
``` | This will work, but the `i -> i` is doing some automatic unboxing which is why it "feels" strange. `mapToInt` converts the stream to an `IntStream` "of primitive int-valued elements". Either of the following will work and better explain what the compiler is doing under the hood with your original syntax:
```
integers.values().stream().mapToInt(i -> i.intValue()).sum();
integers.values().stream().mapToInt(Integer::intValue).sum();
```
The other simple option is `BigDecimal sum = numbers.stream().reduce(BigDecimal.ZERO, BigDecimal::add);`. | Ich möchte eine Liste von Ganzzahlen summieren. Es funktioniert wie folgt, aber die Syntax fühlt sich nicht richtig an. Könnte der Code optimiert werden?
```Map Integers;
integers.values().stream().mapToInt(i -> i).sum();
``` | Das wird funktionieren, aber das `i -> i` macht ein automatisches Unboxing, weshalb es sich seltsam anfühlt. `mapToInt` konvertiert den Stream in einen `IntStream` "of primitive int-valued elements". Jede der folgenden Möglichkeiten wird funktionieren und besser erklären, was der Compiler unter der Haube mit Ihrer ursprünglichen Syntax macht:
```
integers.values().stream().mapToInt(i -> i.intValue()).sum();
integers.values().stream().mapToInt(Integer::intValue).sum();
```
Die andere einfache Möglichkeit ist `BigDecimal sum = numbers.stream().reduce(BigDecimal.ZERO, BigDecimal::add);`. | Quiero sumar una lista de enteros. Funciona de la siguiente manera, pero la sintaxis no me parece correcta. ¿Podría optimizarse el código?
``Map integers;
integers.values().stream().mapToInt(i -> i).sum();
``` | Esto funcionará, pero el `i -> i` está haciendo algún unboxing automático que es por lo que se "siente" extraño. `mapToInt` convierte el flujo en un `IntStream` "de elementos primitivos int-valued". Cualquiera de los siguientes funcionará y explicará mejor lo que el compilador está haciendo con tu sintaxis original:
```
integers.values().stream().mapToInt(i -> i.intValue()).sum();
integers.values().stream().mapToInt(Integer::intValue).sum();
```
La otra opción sencilla es `BigDecimal sum = numbers.stream().reduce(BigDecimal.ZERO, BigDecimal::add);`. | Je veux additionner une liste d'entiers. Cela fonctionne comme suit, mais la syntaxe ne me semble pas correcte. Le code pourrait-il être optimisé ?
```Map integers ;
integers.values().stream().mapToInt(i -> i).sum() ;
``` | Cela fonctionnera, mais le `i -> i` fait un unboxing automatique, c'est pourquoi cela semble étrange. `mapToInt` convertit le flux en un `IntStream` "d'éléments primitifs à valeurs intermédiaires". L'un ou l'autre des éléments suivants fonctionnera et expliquera mieux ce que le compilateur fait sous le capot avec votre syntaxe originale :
```
integers.values().stream().mapToInt(i -> i.intValue()).sum() ;
integers.values().stream().mapToInt(Integer::intValue).sum() ;
```
L'autre option simple est `BigDecimal sum = numbers.stream().reduce(BigDecimal.ZERO, BigDecimal::add);`. | Voglio sommare una lista di interi. Funziona come segue, ma la sintassi non è corretta. Il codice potrebbe essere ottimizzato?
```Mappa interi;
integers.values().stream().mapToInt(i -> i).sum();
``` | Funzionerà, ma `i -> i` sta facendo un unboxing automatico, motivo per cui "sembra" strano. `mapToInt` converte lo stream in un `IntStream` "di elementi primitivi con valore int". Una delle due soluzioni seguenti funzionerà e spiegherà meglio ciò che il compilatore sta facendo sotto il cofano con la sintassi originale:
```
integers.values().stream().mapToInt(i -> i.intValue()).sum();
integers.values().stream().mapToInt(Integer::intValue).sum();
```
L'altra opzione semplice è `BigDecimal sum = numbers.stream().reduce(BigDecimal.ZERO, BigDecimal::add);`. |
214 | I am beginner of LaTeX. From many examples I found, I notice that it's very common to use command ```\leavevmode```. I can't find any information about this command. Could anyone tell me what's the function of it and how to use it? | The ```\leavevmode``` is defined by LaTeX and plainTeX and ensures that the vertical mode is ended and horizontal mode is entered. In vertical mode, TeX stacks horizontal boxes vertically, whereas in horizontal mode, they are taken as part of the text line.
For example ```\mbox{..}``` is defined as ```\leavevmode\hbox{..}``` to ensure that horizontal mode is entered if it is used at the beginning of a paragraph. If you only use ```\hbox{ }``` it is stacked above the following paragraph instead.
Compare:
```Text\par\hbox{Hello} World
```
Result:
``` Text
Hello
World
```
with:
```Text\par\mbox{Hello} World
```
Result:
``` Text
Hello World
```
You see that in the first case the ```\hbox``` is stacked with the two paragraphs vertically (but without paragraph indention) because it is processed in vertical mode. In the second case horizontal mode is entered first and so ```Hello``` is processed as part of the second paragraph.
Use ```\leavevmode``` for all macros which could be used at the begin of the paragraph and add horizontal boxes by themselves (e.g. in form of text).
For further reading about ```\leavevmode``` please see "The TeXBook" by Donald E. Knuth, Appendix A, section 13.1, page 313 as well Appendix B, page 356. | Ich bin Anfänger in LaTeX. In vielen Beispielen, die ich gefunden habe, habe ich bemerkt, dass es sehr üblich ist, den Befehl ````leavevmode`` zu verwenden. Ich kann keine Informationen über diesen Befehl finden. Kann mir jemand sagen, welche Funktion er hat und wie man ihn benutzt? | Der ```\leavevmode`` wird von LaTeX und plainTeX definiert und sorgt dafür, dass der vertikale Modus beendet und der horizontale Modus betreten wird. Im vertikalen Modus stapelt TeX horizontale Boxen vertikal, während sie im horizontalen Modus als Teil der Textzeile betrachtet werden.
Zum Beispiel wird ```\mbox{..}`` als ```\leavevmode\hbox{..}`` definiert, um sicherzustellen, dass der horizontale Modus betreten wird, wenn er am Anfang eines Absatzes verwendet wird. Wenn Sie nur ```\hbox{..}`` verwenden, wird es stattdessen über den folgenden Absatz gestapelt.
Vergleiche:
```Textbox{Hallo} Welt
```
Ergebnis:
```Text
Hallo
Welt
```
mit:
```Text\par\mbox{Hallo} Welt
```
Ergebnis:
```Text
Hallo Welt
```
Sie sehen, dass im ersten Fall die ```Hallo`` mit den beiden Absätzen vertikal gestapelt wird (aber ohne Absatzeinzug), da sie im vertikalen Modus verarbeitet wird. Im zweiten Fall wird zuerst der horizontale Modus aktiviert, so dass ```Hallo``` als Teil des zweiten Absatzes verarbeitet wird.
Verwenden Sie ````leavevmode`` für alle Makros, die am Anfang des Absatzes verwendet werden könnten und fügen Sie selbst horizontale Kästen hinzu (z.B. in Form von Text).
Weitere Informationen über ````leavevmode`` finden Sie in "The TeXBook" von Donald E. Knuth, Appendix A, Abschnitt 13.1, Seite 313 sowie Appendix B, Seite 356. | Soy principiante de LaTeX. De muchos ejemplos que he encontrado, me doy cuenta de que es muy común el uso de comando ```leavevmode``. No puedo encontrar ninguna información sobre este comando. ¿Podría alguien decirme cuál es la función de la misma y cómo usarlo? | El ```leavevmode`` está definido por LaTeX y plainTeX y garantiza que se termina el modo vertical y se entra en el modo horizontal. En modo vertical, TeX apila los cuadros horizontales verticalmente, mientras que en modo horizontal, se toman como parte de la línea de texto.
Por ejemplo, ```mbox{..}`` se define como ```leavevmode\hbox{..}`` para garantizar que se entra en modo horizontal si se utiliza al principio de un párrafo. Si sólo se utiliza ```\hbox{ }``, en su lugar se apila sobre el párrafo siguiente.
Comparar:
``Text\parhbox{{Hola} Mundo
```
Resultado:
``Texto
Hola
Mundo
```
con:
``Text\parmbox{Hola} Mundo
```
Resultado:
``Texto
Hola Mundo
```
Puedes ver que en el primer caso la ```hola`` se apila con los dos párrafos verticalmente (pero sin sangría de párrafo) porque se procesa en modo vertical. En el segundo caso se entra primero en modo horizontal, por lo que ```Hola`` se procesa como parte del segundo párrafo.
Utilice ```leavevmode`` para todas las macros que podrían utilizarse al principio del párrafo y añadir cajas horizontales por sí mismas (por ejemplo, en forma de texto).
Para más información sobre ```leavevmode`` consulte "The TeXBook" de Donald E. Knuth, Apéndice A, sección 13.1, página 313 y Apéndice B, página 356. | Je suis débutant en LaTeX. Dans les nombreux exemples que j'ai trouvés, j'ai remarqué qu'il est très courant d'utiliser la commande ``leavevmode``. Je ne trouve aucune information sur cette commande. Quelqu'un pourrait-il me dire quelle est sa fonction et comment l'utiliser ? | La fonction ``leavevmode`` est définie par LaTeX et plainTeX et assure la fin du mode vertical et l'entrée dans le mode horizontal. En mode vertical, TeX empile les boîtes horizontales verticalement, alors qu'en mode horizontal, elles sont considérées comme faisant partie de la ligne de texte.
Par exemple, ``\mbox{..}`` est défini comme ``\leavevmode\hbox{..}`` pour s'assurer que le mode horizontal est entré s'il est utilisé au début d'un paragraphe. Si vous n'utilisez que ``\hbox{ }``, il est empilé au-dessus du paragraphe suivant.
Comparez :
``Texte{parcours{Bonjour} Monde
```
Résultat :
```Texte
Bonjour
Monde
```
avec :
``Text\\\N-oxe{Bonjour} Monde
```
Résultat :
```Texte
Bonjour à tous
```
Vous voyez que dans le premier cas, le ``hbox`` est empilé avec les deux paragraphes verticalement (mais sans indention de paragraphe) parce qu'il est traité en mode vertical. Dans le second cas, le mode horizontal est utilisé en premier et donc ``Hello`` est traité comme faisant partie du second paragraphe.
Utilisez ``\leavevmode`` pour toutes les macros qui pourraient être utilisées au début du paragraphe et ajouter des boîtes horizontales par elles-mêmes (par exemple, sous forme de texte).
Pour plus d'informations sur le ``Mode d'abandon``, veuillez consulter "The TeXBook" de Donald E. Knuth, Annexe A, section 13.1, page 313 ainsi que l'Annexe B, page 356. | Sono un principiante di LaTeX. Da molti esempi che ho trovato, ho notato che è molto comune usare il comando ``leavevmode``. Non riesco a trovare informazioni su questo comando. Qualcuno potrebbe dirmi qual è la sua funzione e come si usa? | L'opzione ```leavevmode'' è definita da LaTeX e plainTeX e garantisce la fine della modalità verticale e l'ingresso nella modalità orizzontale. In modalità verticale, TeX impila le caselle orizzontali verticalmente, mentre in modalità orizzontale vengono considerate come parte della riga di testo.
Ad esempio, ```mbox{..}`` è definito come ```leavevmode\hbox{..}`` per assicurare che la modalità orizzontale venga inserita se viene usato all'inizio di un paragrafo. Se si usa solo ````hbox{ }``` viene invece impilato sopra il paragrafo successivo.
Confronto:
``Textparhbox{Hello} Mondo
```
Risultato:
``Testo
Ciao
Mondo
```
con:
``Textparmbox{Hello} Mondo
```
Risultato:
``Testo
Ciao Mondo
```
Si può notare che nel primo caso la ```box`` è impilata con i due paragrafi in verticale (ma senza rientri di paragrafo) perché viene elaborata in modalità verticale. Nel secondo caso, la modalità orizzontale viene inserita per prima e quindi ```Hello`` viene elaborato come parte del secondo paragrafo.
Usare ````leavevmode`` per tutte le macro che potrebbero essere usate all'inizio del paragrafo e aggiungere caselle orizzontali da sole (ad esempio sotto forma di testo).
Per ulteriori informazioni su ```leavevmode`` si veda "The TeXBook" di Donald E. Knuth, Appendice A, sezione 13.1, pagina 313 e Appendice B, pagina 356. |
215 | In Python specifically, how do variables get shared between threads?
Although I have used ```threading.Thread``` before I never really understood or saw examples of how variables got shared. Are they shared between the main thread and the children or only among the children? When would I need to use thread local storage to avoid this sharing?
I have seen many warnings about synchronizing access to shared data among threads by using locks but I have yet to see a really good example of the problem.
Thanks in advance! | In Python, everything is shared, except for function-local variables (because each function call gets its own set of locals, and threads are always separate function calls.) And even then, only the variables themselves (the names that refer to objects) are local to the function; objects themselves are always global, and anything can refer to them. The `Thread` object for a particular thread is not a special object in this regard. If you store the `Thread` object somewhere all threads can access (like a global variable) then all threads can access that one Thread object. If you want to atomically modify anything that another thread has access to, you have to protect it with a lock. And all threads must of course share this very same lock, or it wouldn't be very effective.
If you want actual thread-local storage, that's where `threading.local` comes in. Attributes of `threading.local` are not shared between threads; each thread sees only the attributes it itself placed in there. If you're curious about its implementation, the source is in _threading_local.py in the standard library. | Wie werden in Python speziell Variablen zwischen Threads geteilt?
Obwohl ich schon ```threading.Thread`` verwendet habe, habe ich nie wirklich verstanden oder Beispiele dafür gesehen, wie Variablen gemeinsam genutzt werden. Werden sie zwischen dem Hauptthread und den untergeordneten Threads geteilt oder nur zwischen den untergeordneten Threads? Wann müsste ich einen thread-lokalen Speicher verwenden, um diese gemeinsame Nutzung zu vermeiden?
Ich habe viele Warnungen über die Synchronisierung des Zugriffs auf gemeinsam genutzte Daten zwischen Threads durch die Verwendung von Sperren gesehen, aber ich habe noch kein wirklich gutes Beispiel für dieses Problem gesehen.
Vielen Dank im Voraus! | In Python wird alles gemeinsam genutzt, mit Ausnahme der funktionslokalen Variablen (weil jeder Funktionsaufruf seinen eigenen Satz lokaler Variablen erhält und Threads immer separate Funktionsaufrufe sind). Und selbst dann sind nur die Variablen selbst (die Namen, die sich auf Objekte beziehen) funktionslokal; die Objekte selbst sind immer global, und alles kann sich auf sie beziehen. Das `Thread`-Objekt für einen bestimmten Thread ist in dieser Hinsicht kein besonderes Objekt. Wenn Sie das `Thread`-Objekt an einem Ort speichern, auf den alle Threads zugreifen können (wie eine globale Variable), dann können alle Threads auf dieses eine Thread-Objekt zugreifen. Wenn Sie etwas, auf das ein anderer Thread Zugriff hat, atomar verändern wollen, müssen Sie es mit einer Sperre schützen. Und alle Threads müssen sich natürlich genau diese Sperre teilen, sonst wäre es nicht sehr effektiv.
Wenn Sie tatsächlich thread-lokale Speicherung wollen, kommt `threading.local` ins Spiel. Die Attribute von `threading.local` werden nicht zwischen Threads geteilt; jeder Thread sieht nur die Attribute, die er selbst dort abgelegt hat. Wenn Sie sich für die Implementierung interessieren, finden Sie den Quelltext in _threading_local.py in der Standardbibliothek. | En Python específicamente, ¿cómo se comparten las variables entre hilos?
Aunque he usado ```threading.Thread`` antes, nunca entendí realmente o vi ejemplos de cómo se comparten las variables. ¿Se comparten entre el hilo principal y los hijos o sólo entre los hijos? ¿Cuándo necesitaría usar el almacenamiento local del hilo para evitar este uso compartido?
He visto muchas advertencias sobre sincronizar el acceso a datos compartidos entre hilos usando bloqueos pero todavía no he visto un ejemplo realmente bueno del problema.
Gracias de antemano. | En Python, todo es compartido, excepto las variables locales a la función (porque cada llamada a función obtiene su propio conjunto de locales, y los hilos son siempre llamadas a función separadas). E incluso entonces, sólo las variables en sí mismas (los nombres que se refieren a los objetos) son locales a la función; los objetos en sí mismos son siempre globales, y cualquier cosa puede referirse a ellos. El objeto `Thread` para un hilo en particular no es un objeto especial en este sentido. Si almacenas el objeto `Hilo` en algún lugar al que todos los hilos puedan acceder (como una variable global) entonces todos los hilos pueden acceder a ese objeto Hilo. Si quieres modificar atómicamente algo a lo que otro hilo tiene acceso, tienes que protegerlo con un bloqueo. Y todos los hilos deben, por supuesto, compartir este mismo bloqueo, o no sería muy eficaz.
Si quieres almacenamiento local de hilos, ahí es donde entra `threading.local`. Los atributos de `threading.local` no se comparten entre hilos; cada hilo sólo ve los atributos que él mismo ha colocado ahí. Si tienes curiosidad sobre su implementación, el código fuente está en _threading_local.py en la biblioteca estándar. | Dans Python en particulier, comment les variables sont-elles partagées entre les threads ?
Bien que j'aie déjà utilisé ``threading.Thread``, je n'ai jamais vraiment compris ni vu d'exemples de partage de variables. Sont-elles partagées entre le thread principal et les fils ou seulement entre les fils ? Quand aurais-je besoin d'utiliser le stockage local du thread pour éviter ce partage ?
J'ai vu de nombreux avertissements sur la synchronisation de l'accès aux données partagées entre les threads en utilisant des verrous, mais je n'ai pas encore vu un bon exemple du problème.
Merci d'avance ! | En Python, tout est partagé, à l'exception des variables locales à la fonction (parce que chaque appel de fonction obtient son propre ensemble de variables locales, et que les threads sont toujours des appels de fonction distincts). Et même dans ce cas, seules les variables elles-mêmes (les noms qui font référence aux objets) sont locales à la fonction ; les objets eux-mêmes sont toujours globaux, et n'importe quoi peut y faire référence. L'objet `Thread` pour un thread particulier n'est pas un objet spécial à cet égard. Si vous stockez l'objet `Thread` quelque part où tous les threads peuvent accéder (comme une variable globale), alors tous les threads peuvent accéder à cet objet Thread. Si vous voulez modifier atomiquement quelque chose auquel un autre thread a accès, vous devez le protéger avec un verrou. Et tous les threads doivent bien sûr partager ce même verrou, sinon cela ne serait pas très efficace.
Si vous voulez un stockage local, c'est là que `threading.local` entre en jeu. Les attributs de `threading.local` ne sont pas partagés entre les threads ; chaque thread ne voit que les attributs qu'il a lui-même placés. Si vous êtes curieux de connaître son implémentation, la source se trouve dans _threading_local.py dans la bibliothèque standard. | In Python, nello specifico, come vengono condivise le variabili tra i thread?
Anche se ho usato ```threading.Thread`` prima d'ora, non ho mai capito o visto esempi di come vengono condivise le variabili. Sono condivise tra il thread principale e i figli o solo tra i figli? Quando avrei bisogno di usare l'archiviazione locale del thread per evitare questa condivisione?
Ho visto molti avvertimenti sulla sincronizzazione dell'accesso ai dati condivisi tra i thread utilizzando i lock, ma non ho ancora visto un buon esempio del problema.
Grazie in anticipo! | In Python, tutto è condiviso, tranne le variabili locali alle funzioni (perché ogni chiamata di funzione ha il suo insieme di locali e i thread sono sempre chiamate di funzione separate). E anche in questo caso, solo le variabili stesse (i nomi che si riferiscono agli oggetti) sono locali alla funzione; gli oggetti stessi sono sempre globali e qualsiasi cosa può farvi riferimento. L'oggetto `Thread` per un particolare thread non è un oggetto speciale da questo punto di vista. Se si memorizza l'oggetto `Thread` in un posto a cui tutti i thread possono accedere (come una variabile globale), tutti i thread possono accedere a quell'oggetto Thread. Se si vuole modificare atomicamente qualcosa a cui un altro thread ha accesso, bisogna proteggerlo con un blocco. E tutti i thread devono ovviamente condividere questo stesso blocco, altrimenti non sarebbe molto efficace.
Se si vuole una vera e propria memorizzazione thread-local, è qui che entra in gioco `threading.local`. Gli attributi di `threading.local` non sono condivisi tra i thread; ogni thread vede solo gli attributi che ha inserito. Se si è curiosi di conoscere la sua implementazione, il sorgente si trova in _threading_local.py, nella libreria standard. |
216 | I grew up in a country where we were not allowed to leave/travel to an other country even when we were able to do so – we had the resources and dual nationality.
After two decades I still can't figure out why dictators, like Kim Jong-un for example, ban people from leaving their home countries?
Could it be that a dictator is usually interested in looting the country he rules, and having a smaller population means more natural resources for him and fewer protesters? | People are resources, dictators (and oppressive regimes in general) don't want them to defect to other countries because they want them working for their regime. Some of them are going to be people that the regime has put their resources into, like scientists and doctors, but even laborers are valuable for actually gathering and assembling the resources the regime needs. Additionally, the regime especially does not want people with access to sensitive information to defect to their enemies. That isn't just spies and soldiers, there are plenty of "regular" government positions that require access to something the regime would not want falling into enemy hands, like economic data that could be used for propaganda. Obviously this is true of any country, and even in democracies with strong human rights records, people with access to classified information are usually required to submit to strict scrutiny of their international travel. Given that they aren't concerned with human rights, dictatorships can take the easier option of restricting travel to any citizens.
However, defection is really a piece of a bigger issue - oppressive regimes maintain their rule in part by controlling information. Here's an interesting article that talks about how dictatorships keep power. Jerrold Post, director of the political psychology program at George Washington University, is referenced:
Post said that in both Iraq and North Korea, dictators tightly controlled the flow of information. That control was upended in the past two years during the "Arab spring" revolts that swept away despots in Tunisia, Egypt, Libya and some of the Gulf states, revolts that were encouraged in large part by information spread by cell phones and social media.
North Korea is probably the most extreme example of information control (according to Reporters without Borders, they are dead last in Press Freedom in the world), but this can be seen in other oppressive regimes - for example, China attempts to limit access to "wrong" information via its Great Firewall. This is thrown out the window if citizens go somewhere with free media and realize they are being lied to. Traveling can be the cause of their dissension, rather than a symptom.
Known dissidents may also be restricted from traveling so that they can not coordinate with foreign countries or anti-dictatorship organizations, and to prevent them from smuggling contraband or evidence of the regime's misinformation back into the country. Regimes can control the information originating in their country, but once someone is outside their borders the regime cannot control who they speak with. | Ich bin in einem Land aufgewachsen, in dem wir nicht in ein anderes Land reisen durften, selbst wenn wir dazu in der Lage waren - wir hatten die Mittel und die doppelte Staatsbürgerschaft.
Nach zwei Jahrzehnten verstehe ich immer noch nicht, warum Diktatoren, wie zum Beispiel Kim Jong-un, den Menschen verbieten, ihr Heimatland zu verlassen?
Könnte es sein, dass ein Diktator in der Regel daran interessiert ist, das Land, das er regiert, auszuplündern, und eine kleinere Bevölkerung bedeutet für ihn mehr natürliche Ressourcen und weniger Protestierende? | Menschen sind Ressourcen, und Diktatoren (und unterdrückerische Regime im Allgemeinen) wollen nicht, dass sie in andere Länder überlaufen, weil sie sie für ihr Regime arbeiten lassen wollen. Einige von ihnen werden Menschen sein, in die das Regime seine Ressourcen gesteckt hat, wie Wissenschaftler und Ärzte, aber auch Arbeiter sind wertvoll, um die vom Regime benötigten Ressourcen zu sammeln und zusammenzustellen. Außerdem will das Regime vor allem nicht, dass Menschen mit Zugang zu sensiblen Informationen zu seinen Feinden überlaufen. Das gilt nicht nur für Spione und Soldaten, sondern auch für viele "normale" Regierungspositionen, die Zugang zu Informationen erfordern, von denen das Regime nicht möchte, dass sie in die Hände des Feindes fallen, wie z. B. Wirtschaftsdaten, die für Propaganda verwendet werden könnten. Dies gilt natürlich für jedes Land, und selbst in Demokratien mit einer soliden Menschenrechtsbilanz müssen sich Personen mit Zugang zu Verschlusssachen in der Regel einer strengen Kontrolle ihrer Auslandsreisen unterziehen. Da sie sich nicht um die Menschenrechte kümmern, können Diktaturen die einfachere Option wählen, indem sie die Reisefreiheit für alle Bürger einschränken.
Die Überläufer sind jedoch nur ein Teil eines größeren Problems: Unterdrückerische Regime erhalten ihre Herrschaft zum Teil durch die Kontrolle von Informationen aufrecht. Hier ist ein interessanter Artikel darüber, wie sich Diktaturen an der Macht halten. Jerrold Post, Direktor des Programms für politische Psychologie an der George Washington University, wird darin zitiert:
Post sagte, dass sowohl im Irak als auch in Nordkorea die Diktatoren den Informationsfluss streng kontrollierten. Diese Kontrolle wurde in den vergangenen zwei Jahren während der Aufstände des "arabischen Frühlings" umgestoßen, die die Despoten in Tunesien, Ägypten, Libyen und einigen Golfstaaten hinwegfegten, Aufstände, die zum großen Teil durch Informationen, die über Mobiltelefone und soziale Medien verbreitet wurden, gefördert wurden.
Nordkorea ist wahrscheinlich das extremste Beispiel für Informationskontrolle (laut Reporter ohne Grenzen steht das Land bei der Pressefreiheit weltweit an letzter Stelle), aber dies ist auch bei anderen repressiven Regimen zu beobachten - so versucht China beispielsweise, den Zugang zu "falschen" Informationen durch seine Große Firewall zu beschränken. Dies wird jedoch zunichte gemacht, wenn die Bürger in ein Land mit freien Medien reisen und feststellen, dass sie belogen werden. Das Reisen kann die Ursache für ihre Unzufriedenheit sein und nicht nur ein Symptom.
Bekannte Dissidenten können auch am Reisen gehindert werden, damit sie sich nicht mit dem Ausland oder mit Anti-Diktatur-Organisationen abstimmen können und damit sie keine Schmuggelware oder Beweise für die Fehlinformationen des Regimes ins Land schmuggeln können. Die Regime können die Informationen kontrollieren, die aus ihrem Land stammen, aber sobald sich jemand außerhalb ihrer Grenzen befindet, kann das Regime nicht mehr kontrollieren, mit wem er spricht. | Crecí en un país en el que no se nos permitía salir/viajar a otro aunque pudiéramos hacerlo: teníamos recursos y doble nacionalidad.
Después de dos décadas, sigo sin entender por qué los dictadores, como Kim Jong-un por ejemplo, prohíben a la gente salir de sus países de origen.
¿Será porque a un dictador le suele interesar saquear el país que gobierna, y tener menos población significa más recursos naturales para él y menos manifestantes? | Las personas son recursos, los dictadores (y los regímenes opresivos en general) no quieren que deserten a otros países porque las quieren trabajando para su régimen. Algunos de ellos serán personas en las que el régimen ha invertido sus recursos, como científicos y médicos, pero incluso los trabajadores son valiosos para reunir y montar los recursos que el régimen necesita. Además, el régimen no quiere especialmente que las personas con acceso a información sensible deserten y se pasen a sus enemigos. No se trata sólo de espías y soldados, hay muchos puestos gubernamentales "normales" que requieren acceso a algo que el régimen no querría que cayera en manos enemigas, como datos económicos que podrían utilizarse para propaganda. Obviamente, esto es así en cualquier país, e incluso en las democracias con un sólido historial de derechos humanos, las personas con acceso a información clasificada suelen estar obligadas a someterse a un estricto escrutinio de sus viajes internacionales. Dado que no les preocupan los derechos humanos, las dictaduras pueden tomar la opción más fácil de restringir los viajes a cualquier ciudadano.
Sin embargo, la deserción es en realidad una pieza de un problema mayor: los regímenes opresivos mantienen su dominio en parte controlando la información. He aquí un interesante artículo que habla de cómo las dictaduras mantienen el poder. Se hace referencia a Jerrold Post, director del programa de psicología política de la Universidad George Washington:
Post dice que tanto en Irak como en Corea del Norte, los dictadores controlaban férreamente el flujo de información. Ese control se puso patas arriba en los últimos dos años durante las revueltas de la "primavera árabe" que barrieron a los déspotas en Túnez, Egipto, Libia y algunos de los estados del Golfo, revueltas que fueron alentadas en gran parte por la información difundida por los teléfonos móviles y las redes sociales.
Corea del Norte es probablemente el ejemplo más extremo de control de la información (según Reporteros sin Fronteras, son los últimos del mundo en libertad de prensa), pero esto puede verse en otros regímenes opresivos; por ejemplo, China intenta limitar el acceso a la información "incorrecta" a través de su Gran Cortafuegos. Esto se echa por tierra si los ciudadanos van a algún lugar con medios de comunicación libres y se dan cuenta de que les están mintiendo. Viajar puede ser la causa de su disensión, más que un síntoma.
A los disidentes conocidos también se les puede restringir el viaje para que no puedan coordinarse con países extranjeros u organizaciones contrarias a la dictadura, y para evitar que introduzcan en el país contrabando o pruebas de la desinformación del régimen. Los regímenes pueden controlar la información que se origina en su país, pero una vez que alguien sale de sus fronteras, el régimen no puede controlar con quién habla. | J'ai grandi dans un pays où nous n'étions pas autorisés à quitter notre pays ou à voyager dans un autre pays, même si nous en avions la possibilité - nous avions les ressources nécessaires et la double nationalité.
Après deux décennies, je n'arrive toujours pas à comprendre pourquoi les dictateurs, comme Kim Jong-un par exemple, interdisent aux gens de quitter leur pays d'origine.
Se pourrait-il qu'un dictateur soit généralement intéressé par le pillage du pays qu'il dirige, et qu'une population moins nombreuse signifie plus de ressources naturelles pour lui et moins de manifestants ? | Les gens sont des ressources, les dictateurs (et les régimes oppressifs en général) ne veulent pas qu'ils fassent défection vers d'autres pays parce qu'ils veulent qu'ils travaillent pour leur régime. Certains d'entre eux seront des personnes dans lesquelles le régime a investi ses ressources, comme les scientifiques et les médecins, mais même les ouvriers sont précieux pour collecter et assembler les ressources dont le régime a besoin. En outre, le régime ne veut surtout pas que les personnes ayant accès à des informations sensibles passent à l'ennemi. Il ne s'agit pas seulement d'espions et de soldats, mais aussi de nombreux postes gouvernementaux "ordinaires" qui nécessitent l'accès à des informations que le régime ne souhaite pas voir tomber entre les mains de l'ennemi, comme des données économiques susceptibles d'être utilisées à des fins de propagande. Cela vaut évidemment pour tous les pays, et même dans les démocraties où les droits de l'homme sont respectés, les personnes ayant accès à des informations classifiées sont généralement tenues de se soumettre à un contrôle strict de leurs déplacements à l'étranger. Étant donné qu'elles ne se préoccupent pas des droits de l'homme, les dictatures peuvent opter pour la solution la plus facile, à savoir restreindre les déplacements de tous leurs citoyens.
Toutefois, la défection n'est qu'un élément d'un problème plus vaste : les régimes oppressifs se maintiennent en partie en contrôlant l'information. Voici un article intéressant qui explique comment les dictatures se maintiennent au pouvoir. Jerrold Post, directeur du programme de psychologie politique à l'université George Washington, y est cité :
Selon lui, en Irak comme en Corée du Nord, les dictateurs contrôlaient étroitement la circulation de l'information. Ce contrôle a été bouleversé au cours des deux dernières années lors des révoltes du "printemps arabe" qui ont balayé les despotes en Tunisie, en Égypte, en Libye et dans certains États du Golfe, révoltes encouragées en grande partie par les informations diffusées par les téléphones portables et les médias sociaux.
La Corée du Nord est probablement l'exemple le plus extrême de contrôle de l'information (selon Reporters sans frontières, elle est l'avant-dernière au monde en matière de liberté de la presse), mais ce phénomène peut être observé dans d'autres régimes oppressifs - par exemple, la Chine tente de limiter l'accès aux "mauvaises" informations par l'intermédiaire de son Grand pare-feu. Cette attitude est remise en cause si les citoyens se rendent dans un pays où les médias sont libres et s'aperçoivent qu'on leur ment. Le fait de voyager peut être la cause de leur dissension, plutôt qu'un symptôme.
Les dissidents connus peuvent également être empêchés de voyager afin de ne pas coordonner leurs activités avec des pays étrangers ou des organisations anti-dictature, et pour les empêcher d'introduire dans le pays des produits de contrebande ou des preuves de la désinformation du régime. Les régimes peuvent contrôler les informations provenant de leur pays, mais une fois qu'une personne se trouve à l'extérieur de leurs frontières, ils ne peuvent pas contrôler ses interlocuteurs. | Sono cresciuta in un paese in cui non ci era permesso di lasciare/viaggiare in un altro paese anche quando eravamo in grado di farlo - avevamo le risorse e la doppia nazionalità.
Dopo due decenni non riesco ancora a capire perché i dittatori, come ad esempio Kim Jong-un, vietino alle persone di lasciare il proprio Paese?
Forse perché un dittatore è solitamente interessato a saccheggiare il Paese che governa, e avere una popolazione più piccola significa avere più risorse naturali per lui e meno manifestanti? | Le persone sono risorse, i dittatori (e i regimi oppressivi in generale) non vogliono che disertino in altri Paesi perché vogliono che lavorino per il loro regime. Alcuni di loro saranno persone su cui il regime ha investito le proprie risorse, come scienziati e medici, ma anche i braccianti sono preziosi per raccogliere e assemblare le risorse di cui il regime ha bisogno. Inoltre, il regime non vuole che le persone che hanno accesso a informazioni sensibili disertino verso i suoi nemici. Non si tratta solo di spie e soldati, ma di molte posizioni governative "normali" che richiedono l'accesso a qualcosa che il regime non vuole che cada nelle mani del nemico, come dati economici che potrebbero essere usati per la propaganda. Ovviamente questo vale per qualsiasi Paese, e anche nelle democrazie con una solida reputazione in materia di diritti umani, le persone che hanno accesso a informazioni riservate sono solitamente tenute a sottoporsi a un rigoroso controllo dei loro viaggi internazionali. Dato che non si preoccupano dei diritti umani, le dittature possono scegliere l'opzione più semplice di limitare i viaggi a tutti i cittadini.
Tuttavia, la diserzione è in realtà una parte di un problema più grande: i regimi oppressivi mantengono il loro dominio in parte controllando le informazioni. Ecco un interessante articolo che parla di come le dittature mantengono il potere. Viene citato Jerrold Post, direttore del programma di psicologia politica della George Washington University:
Post ha affermato che sia in Iraq che in Corea del Nord i dittatori controllavano strettamente il flusso di informazioni. Questo controllo è stato stravolto negli ultimi due anni durante le rivolte della "primavera araba" che hanno spazzato via i despoti in Tunisia, Egitto, Libia e in alcuni Stati del Golfo, rivolte incoraggiate in gran parte dalle informazioni diffuse dai telefoni cellulari e dai social media.
La Corea del Nord è probabilmente l'esempio più estremo di controllo dell'informazione (secondo Reporter senza frontiere, è all'ultimo posto per libertà di stampa nel mondo), ma questo può essere visto in altri regimi oppressivi - ad esempio, la Cina tenta di limitare l'accesso alle informazioni "sbagliate" attraverso il suo Great Firewall. Tutto questo viene buttato alle ortiche se i cittadini si recano in un luogo dove i media sono liberi e si rendono conto di essere stati ingannati. Viaggiare può essere la causa del loro dissenso, piuttosto che un sintomo.
Ai dissidenti noti può essere impedito di viaggiare per evitare che si coordinino con Paesi stranieri o organizzazioni anti-dittatura e per impedire che contrabbandino nel Paese contrabbando o prove della disinformazione del regime. I regimi possono controllare le informazioni che provengono dal loro Paese, ma una volta che una persona si trova fuori dai confini nazionali, il regime non può controllare con chi parla. |
217 | Why can't we kill ourselves by holding our breath? | ## Short answer
Healthy people cannot hold their breaths until unconsciousness sets in, let alone commit suicide.
## Background
According to Parkes (2005), a normal person cannot even hold their breath to unconsciousness, let alone death. Parkes says:
Breath‐holding is a voluntary act, but normal subjects appear unable
to breath‐hold to unconsciousness. A powerful involuntary mechanism
normally overrides voluntary breath‐holding and causes the breath that
defines the breakpoint.
Parkes explains that voluntary breath‐holding does not stop the central respiratory rhythm. Instead, breath holding merely suppresses its expression by voluntarily holding the chest at a certain volume. At the time of writing, no simple explanation for the break point existed. It is known to be caused by partial pressures of blood gases activating the carotid arterial chemoreceptors. They are peripheral sensory neurons that detect changes in chemical concentrations, including low oxygen (hypoxia) and high carbon dioxide (hypercapnia). Both hypoxia and hypercapnia are signs of breath holding and both are detected by the chemoreceptors. These receptors send nerve signals to the vasomotor center of the medulla which eventually overrides the conscious breath holding.
The breaking point can be postponed by large lung inflations, hyperoxia and hypocapnia, and it is shortened by increased metabolic rates.
Reference
- Parkes, Exp Physiol (2006); 91(1): 1-15 | Warum können wir uns nicht umbringen, indem wir die Luft anhalten? | ## Kurze Antwort
Gesunde Menschen können nicht die Luft anhalten, bis die Bewusstlosigkeit einsetzt, geschweige denn Selbstmord begehen.
## Hintergrund
Laut Parkes (2005) kann ein normaler Mensch nicht einmal den Atem bis zur Bewusstlosigkeit anhalten, geschweige denn bis zum Tod. Parkes sagt:
Das Anhalten des Atems ist ein freiwilliger Akt, aber normale Menschen scheinen nicht
nicht in der Lage zu sein, den Atem bis zur Bewusstlosigkeit anzuhalten. Ein starker unwillkürlicher Mechanismus
setzt normalerweise das freiwillige Atemanhalten außer Kraft und verursacht den Atemzug, der
den Haltepunkt definiert.
Parkes erklärt, dass das freiwillige Anhalten des Atems den zentralen Atemrhythmus nicht anhält. Stattdessen unterdrückt das Anhalten des Atems lediglich dessen Ausprägung, indem der Brustkorb freiwillig auf einem bestimmten Volumen gehalten wird. Zum Zeitpunkt der Erstellung dieses Berichts gab es keine einfache Erklärung für den Breakpoint. Es ist bekannt, dass er durch Partialdrücke von Blutgasen verursacht wird, die die Chemorezeptoren in der Halsschlagader aktivieren. Dabei handelt es sich um periphere sensorische Neuronen, die Veränderungen der chemischen Konzentrationen, einschließlich niedrigem Sauerstoff (Hypoxie) und hohem Kohlendioxid (Hyperkapnie), erkennen. Sowohl Hypoxie als auch Hyperkapnie sind Anzeichen für Atemstillstand, und beide werden von den Chemorezeptoren erkannt. Diese Rezeptoren senden Nervensignale an das vasomotorische Zentrum des Rückenmarks, das schließlich die bewusste Atemanhaltung aufhebt.
Der Bruchpunkt kann durch große Lungeninflationen, Hyperoxie und Hypokapnie hinausgezögert und durch erhöhte Stoffwechselraten verkürzt werden.
Referenz
- Parkes, Exp Physiol (2006); 91(1): 1-15 | ¿Por qué no podemos matarnos aguantando la respiración? | ## Respuesta corta
Las personas sanas no pueden aguantar la respiración hasta perder el conocimiento, y mucho menos suicidarse.
## Antecedentes
Según Parkes (2005), una persona normal no puede aguantar la respiración hasta la inconsciencia, y mucho menos hasta la muerte. Parkes dice:
Contener la respiración es un acto voluntario, pero los sujetos normales parecen incapaces
contener la respiración hasta la inconsciencia. Un poderoso mecanismo involuntario
normalmente anula la contención de la respiración voluntaria y causa la respiración que
define el punto de ruptura.
Parkes explica que la contención voluntaria de la respiración no detiene el ritmo respiratorio central. En su lugar, la contención de la respiración se limita a suprimir su expresión manteniendo voluntariamente el pecho a un volumen determinado. En el momento de escribir estas líneas, no existía una explicación sencilla para el punto de ruptura. Se sabe que está causado por las presiones parciales de los gases sanguíneos que activan los quimiorreceptores arteriales carotídeos. Se trata de neuronas sensoriales periféricas que detectan cambios en las concentraciones químicas, incluido el bajo nivel de oxígeno (hipoxia) y el alto nivel de dióxido de carbono (hipercapnia). Tanto la hipoxia como la hipercapnia son signos de retención de la respiración y ambos son detectados por los quimiorreceptores. Estos receptores envían señales nerviosas al centro vasomotor de la médula, que acaba anulando la contención consciente de la respiración.
El punto de ruptura puede posponerse por grandes inflaciones pulmonares, hiperoxia e hipocapnia, y se acorta por el aumento de las tasas metabólicas.
Referencia
- Parkes, Exp Physiol (2006); 91(1): 1-15 | Pourquoi ne pouvons-nous pas nous tuer en retenant notre souffle ? | ## Réponse courte
Les personnes en bonne santé ne peuvent pas retenir leur respiration jusqu'à ce qu'elles perdent connaissance, et encore moins se suicider.
## Contexte
Selon Parkes (2005), une personne normale ne peut même pas retenir sa respiration jusqu'à l'inconscience, et encore moins jusqu'à la mort. Parkes affirme :
La rétention de la respiration est un acte volontaire, mais les sujets normaux semblent incapables de retenir leur respiration jusqu'à l'inconscience.
de retenir leur souffle jusqu'à l'inconscience. Un puissant mécanisme involontaire
l'emporte normalement sur la rétention volontaire de la respiration et provoque la respiration qui
qui définit le point de rupture.
Parkes explique que la rétention volontaire de la respiration n'arrête pas le rythme respiratoire central. Au contraire, la rétention de la respiration supprime simplement son expression en maintenant volontairement la poitrine à un certain volume. Au moment de la rédaction du présent document, il n'existait pas d'explication simple du point de rupture. On sait qu'il est causé par les pressions partielles des gaz sanguins qui activent les chimiorécepteurs de l'artère carotide. Il s'agit de neurones sensoriels périphériques qui détectent les changements de concentrations chimiques, notamment une faible teneur en oxygène (hypoxie) et une forte teneur en dioxyde de carbone (hypercapnie). L'hypoxie et l'hypercapnie sont toutes deux des signes d'essoufflement et sont détectées par les chémorécepteurs. Ces récepteurs envoient des signaux nerveux au centre vasomoteur de la moelle épinière qui finit par prendre le dessus sur la rétention consciente de la respiration.
Le point de rupture peut être retardé par de fortes inflations pulmonaires, l'hyperoxie et l'hypocapnie, et il est raccourci par l'augmentation du taux métabolique.
Référence
- Parkes, Exp Physiol (2006) ; 91(1) : 1-15 | Perché non possiamo ucciderci trattenendo il respiro? | ## Risposta breve
Le persone sane non sono in grado di trattenere il respiro fino a perdere i sensi, tanto meno di suicidarsi.
## Contesto
Secondo Parkes (2005), una persona normale non è in grado di trattenere il respiro fino all'incoscienza, per non parlare della morte. Parkes afferma che:
Trattenere il respiro è un atto volontario, ma i soggetti normali sembrano incapaci di
di trattenere il respiro fino all'incoscienza. Un potente meccanismo involontario
normalmente prevale sul trattenimento volontario del respiro e provoca il respiro che
che definisce il punto di rottura.
Parkes spiega che il trattenimento volontario del respiro non interrompe il ritmo respiratorio centrale. Al contrario, il trattenimento del respiro si limita a sopprimere la sua espressione mantenendo volontariamente il torace a un certo volume. Al momento della stesura di questo articolo, non esisteva una spiegazione semplice del punto di rottura. Si sa che è causato dalle pressioni parziali dei gas sanguigni che attivano i chemorecettori arteriosi carotidei. Si tratta di neuroni sensoriali periferici che rilevano le variazioni delle concentrazioni chimiche, tra cui la scarsità di ossigeno (ipossia) e l'elevata anidride carbonica (ipercapnia). Sia l'ipossia che l'ipercapnia sono segni di mancanza di respiro ed entrambi sono rilevati dai chemorecettori. Questi recettori inviano segnali nervosi al centro vasomotore del midollo allungato, che finisce per annullare il respiro cosciente.
Il punto di rottura può essere posticipato da grandi gonfiaggi polmonari, dall'iperossia e dall'ipocapnia, ed è abbreviato dall'aumento del tasso metabolico.
Riferimento
- Parkes, Exp Physiol (2006); 91(1): 1-15 |
218 | Sometimes while driving in the traffic, I come across a car or two which would be dripping water-like drops from its exhaust steadily in 4-5 second intervals. I tried to ask a couple of people at the local workshops; they say, and I quote, "The car is giving an amazing mileage".
And I am like, what does that water dripping mean even then? Why does the water drip? What is the source of it? And what does it signify? | It signifies that the car is running absolutely correct. Here is the reason why:
A gasoline (petrol) molecule is made up as such:
C8H18 (or 8 Carbon atoms and 18 Hydrogen atoms)
Energy is obtained from the combustion of it by the conversion of a hydrocarbon to carbon dioxide and water. The combustion of octane follows this reaction:
2 C8H18 + 25 O2 → 16 CO2 + 18 H2O
Or better said, you have two of the hydrocarbon molecules along with 25 oxygen molecules, they swirl together into a mix, the spark plug ignites them, boom, and out the tail pipe comes 16 carbon dioxide molecules and 18 water molecules ... at least in a perfect world. Some cars don't put out exactly that ratio. There may be a little bit of carbon monoxide (CO), unburnt hydrocarbons (C8H18), and/or nitrogen oxide (NO2) coming out of the engine exhaust port along with the CO2 and H2O. In this case, the catalytic convertor's job is to help clean these up so you can get closer to the perfect ratio described above.
As described, the water coming out of the tail pipe is a natural occurrence of the combustion process. You will usually see it coming out of the tail pipe when the engine and exhaust system of the vehicle is not completely warmed up. When it does become completely warmed up, you won't see it any more, because it comes out as steam (well, you'll see it in the winter time if it's cold enough, but you get the idea). | Manchmal, wenn ich im Verkehr fahre, treffe ich auf ein oder zwei Autos, aus deren Auspuff in 4-5-Sekunden-Intervallen immer wieder wasserähnliche Tropfen tropfen. Ich habe versucht, ein paar Leute in den örtlichen Werkstätten zu fragen; sie sagten, und ich zitiere, "Das Auto hat einen erstaunlichen Kilometerstand".
Und ich frage mich, was das tropfende Wasser überhaupt zu bedeuten hat? Warum tropft das Wasser? Was ist die Quelle? Und was hat es zu bedeuten? | Es bedeutet, dass das Auto absolut korrekt läuft. Hier ist der Grund dafür:
Ein Benzinmolekül ist wie ein solches aufgebaut:
C8H18 (oder 8 Kohlenstoffatome und 18 Wasserstoffatome)
Bei der Verbrennung dieses Moleküls wird Energie durch die Umwandlung eines Kohlenwasserstoffs in Kohlendioxid und Wasser gewonnen. Die Verbrennung von Oktan erfolgt nach dieser Reaktion:
2 C8H18 + 25 O2 → 16 CO2 + 18 H2O
Oder besser gesagt, man hat zwei Kohlenwasserstoffmoleküle und 25 Sauerstoffmoleküle, die zu einem Gemisch verwirbelt werden, die Zündkerze entzündet sie, bumm, und aus dem Auspuffrohr kommen 16 Kohlendioxidmoleküle und 18 Wassermoleküle ... zumindest in einer perfekten Welt. Manche Autos stoßen nicht genau dieses Verhältnis aus. Es kann sein, dass neben CO2 und H2O auch ein wenig Kohlenmonoxid (CO), unverbrannte Kohlenwasserstoffe (C8H18) und/oder Stickoxid (NO2) aus dem Motorauspuff kommen. In diesem Fall ist es die Aufgabe des Katalysators, diese zu reinigen, damit Sie sich dem oben beschriebenen perfekten Verhältnis annähern können.
Wie beschrieben, ist das Wasser, das aus dem Auspuffrohr austritt, eine natürliche Erscheinung des Verbrennungsprozesses. In der Regel tritt es aus dem Auspuffrohr aus, wenn der Motor und die Auspuffanlage des Fahrzeugs noch nicht vollständig aufgewärmt sind. Wenn der Motor und die Auspuffanlage des Fahrzeugs vollständig aufgewärmt sind, sieht man es nicht mehr, weil es als Dampf austritt (im Winter sieht man es, wenn es kalt genug ist, aber Sie verstehen, was ich meine). | A veces, mientras conduzco en el tráfico, me encuentro con un coche o dos que estarían goteando gotas como de agua de su escape constantemente en intervalos de 4-5 segundos. Traté de preguntar a un par de personas en los talleres locales; dicen, y cito, "El coche está dando un kilometraje increíble".
Y yo digo, ¿qué significa ese goteo de agua incluso entonces? ¿Por qué gotea el agua? ¿Cuál es su origen? ¿Y qué significa? | Significa que el coche funciona correctamente. Esta es la razón:
Una molécula de gasolina está compuesta de esta manera:
C8H18 (es decir, 8 átomos de carbono y 18 átomos de hidrógeno).
De su combustión se obtiene energía mediante la conversión de un hidrocarburo en dióxido de carbono y agua. La combustión del octano sigue esta reacción:
2 C8H18 + 25 O2 → 16 CO2 + 18 H2O
O mejor dicho, tienes dos de las moléculas de hidrocarburo junto con 25 moléculas de oxígeno, se arremolinan formando una mezcla, la bujía las enciende, pum, y por el tubo de escape salen 16 moléculas de dióxido de carbono y 18 moléculas de agua... al menos en un mundo perfecto. Algunos coches no emiten exactamente esa proporción. Puede haber un poco de monóxido de carbono (CO), hidrocarburos no quemados (C8H18) y/u óxido de nitrógeno (NO2) saliendo por el tubo de escape del motor junto con el CO2 y el H2O. En este caso, el trabajo del convertidor catalítico es ayudar a limpiar estos para que pueda acercarse a la relación perfecta se ha descrito anteriormente.
Como se ha descrito, el agua que sale del tubo de escape es un fenómeno natural del proceso de combustión. Por lo general, la verá salir por el tubo de escape cuando el motor y el sistema de escape del vehículo no estén completamente calientes. Cuando se calienta por completo, ya no se ve, porque sale en forma de vapor (bueno, se ve en invierno si hace bastante frío, pero se entiende). | Parfois, dans les embouteillages, je croise une ou deux voitures dont le pot d'échappement laisse échapper des gouttes d'eau à intervalles réguliers de 4 à 5 secondes. J'ai essayé de poser la question à quelques personnes dans les ateliers locaux ; elles m'ont dit, et je cite, "la voiture a un kilométrage incroyable".
Et moi, je me demande ce que signifie ce goutte-à-goutte d'eau, même à ce moment-là. Pourquoi l'eau goutte-t-elle ? Quelle en est la source ? Et qu'est-ce que cela signifie ? | Cela signifie que la voiture fonctionne parfaitement. En voici la raison :
Une molécule d'essence est composée comme suit :
C8H18 (ou 8 atomes de carbone et 18 atomes d'hydrogène).
L'énergie est obtenue à partir de sa combustion par la transformation d'un hydrocarbure en dioxyde de carbone et en eau. La combustion de l'octane suit cette réaction :
2 C8H18 + 25 O2 → 16 CO2 + 18 H2O
En d'autres termes, deux molécules d'hydrocarbures et 25 molécules d'oxygène se mélangent, la bougie d'allumage les enflamme, et 16 molécules de dioxyde de carbone et 18 molécules d'eau sortent du tuyau d'échappement... du moins dans un monde parfait. Certaines voitures ne produisent pas exactement ce rapport. Il se peut qu'un peu de monoxyde de carbone (CO), d'hydrocarbures imbrûlés (C8H18) et/ou d'oxyde d'azote (NO2) sorte de l'orifice d'échappement du moteur en même temps que le CO2 et le H2O. Dans ce cas, le rôle du convertisseur catalytique est de les nettoyer afin de se rapprocher du rapport parfait décrit ci-dessus.
Comme indiqué, l'eau qui sort du tuyau d'échappement est un phénomène naturel du processus de combustion. Vous la verrez généralement sortir du tuyau d'échappement lorsque le moteur et le système d'échappement du véhicule ne sont pas complètement réchauffés. Lorsqu'il est complètement réchauffé, vous ne le verrez plus, car il sort sous forme de vapeur (enfin, vous le verrez en hiver s'il fait assez froid, mais vous voyez ce que je veux dire). | A volte, mentre guidavo nel traffico, mi sono imbattuto in una o due auto che gocciolavano costantemente gocce d'acqua dallo scarico a intervalli di 4-5 secondi. Ho provato a chiedere a un paio di persone nelle officine locali; mi hanno detto, e cito, "L'auto sta facendo un chilometraggio incredibile".
E io mi chiedo: cosa significa questo gocciolio d'acqua? Perché l'acqua gocciola? Qual è la fonte? E cosa significa? | Significa che l'auto funziona in modo assolutamente corretto. Ecco il motivo:
Una molecola di benzina è composta in questo modo:
C8H18 (ovvero 8 atomi di carbonio e 18 atomi di idrogeno).
L'energia si ottiene dalla sua combustione attraverso la conversione di un idrocarburo in anidride carbonica e acqua. La combustione dell'ottano segue questa reazione:
2 C8H18 + 25 O2 → 16 CO2 + 18 H2O
O, per meglio dire, due molecole di idrocarburi e 25 molecole di ossigeno si uniscono in una miscela, la candela le incendia, boom, e dal tubo di scappamento escono 16 molecole di anidride carbonica e 18 molecole di acqua... almeno in un mondo perfetto. Alcune auto non producono esattamente questo rapporto. Insieme alla CO2 e all'H2O, dal tubo di scarico del motore può uscire anche un po' di monossido di carbonio (CO), idrocarburi incombusti (C8H18) e/o ossido di azoto (NO2). In questo caso, il compito del convertitore catalitico è quello di contribuire a ripulire questi elementi per avvicinarsi al rapporto perfetto descritto sopra.
Come descritto, l'acqua che esce dal tubo di scappamento è un evento naturale del processo di combustione. Di solito la si vede uscire dal tubo di scarico quando il motore e l'impianto di scarico del veicolo non sono completamente riscaldati. Quando il motore e l'impianto di scarico del veicolo non sono completamente riscaldati, non la si vedrà più, perché esce sotto forma di vapore (ma la si vedrà anche in inverno, se fa abbastanza freddo, ma rende l'idea). |
219 | Why can't MX records point to an IP address? | The whole idea behind the mail exchange (MX) record is to specify a host or hosts which can accept mail for a domain. As specified in RFC 1035, the MX record contains a domain name. It must therefore point to a host which itself can be resolved in the DNS. An IP address could not be used as it would be interpreted as an unqualified domain name, which cannot be resolved.
The reasons for this in the 1980s, when the specs were originally written, are almost the same as the reasons for it today: A host may be connected to multiple networks and use multiple protocols.
Back in the 80s, it was not uncommon to have mail gateways which connected both to the (relatively new) Internet which used TCP/IP and to other legacy networks, which often used other protocols. Specifying MX in this way allowed for DNS records which could identify how to reach such a host on a network other than the Internet, such as Chaosnet. In practice, though, this almost never happened; virtually everyone re-engineered their networks to become part of the Internet instead.
Today, the situation is that a host may be reached by multiple protocols (IPv4 and IPv6) and by multiple IP addresses in each protocol. A single MX record can't possibly list more than one address, so the only option is to point to a host, where all of that host's addresses can then be looked up. (As a performance optimization, the DNS server will send along the address records for the host in the response additional section if it has authoritative records for them, saving a round trip.)
There is also the situation that arises when your mail exchangers are provided by a third party (e.g. Google Apps or Office 365). You point your MX records to their hostnames, but it may occur that the service provider needs to change the mail servers' IP addresses. Since you have pointed to a host, the service provider can do this transparently and you don't have to make any changes to your records. | Warum können MX-Einträge nicht auf eine IP-Adresse verweisen? | Der Grundgedanke des MX-Eintrags (Mail Exchange) besteht darin, einen oder mehrere Hosts anzugeben, die E-Mails für eine Domäne annehmen können. Wie in RFC 1035 beschrieben, enthält der MX-Eintrag einen Domänennamen. Er muss daher auf einen Host verweisen, der selbst im DNS aufgelöst werden kann. Eine IP-Adresse kann nicht verwendet werden, da sie als unqualifizierter Domänenname interpretiert werden würde, der nicht aufgelöst werden kann.
Die Gründe dafür waren in den 1980er Jahren, als die Spezifikationen ursprünglich geschrieben wurden, fast dieselben wie heute: Ein Host kann mit mehreren Netzen verbunden sein und mehrere Protokolle verwenden.
In den 80er Jahren war es nicht unüblich, Mail-Gateways zu haben, die sowohl mit dem (relativ neuen) Internet verbunden waren, das TCP/IP verwendete, als auch mit anderen, älteren Netzwerken, die oft andere Protokolle verwendeten. Die Angabe von MX auf diese Weise ermöglichte DNS-Einträge, die erkennen ließen, wie ein solcher Host in einem anderen Netz als dem Internet, z. B. dem Chaosnet, zu erreichen war. In der Praxis kam dies jedoch fast nie vor, da praktisch jeder seine Netze so umgestaltete, dass sie stattdessen Teil des Internets wurden.
Heute ist es so, dass ein Host über mehrere Protokolle (IPv4 und IPv6) und über mehrere IP-Adressen in jedem Protokoll erreicht werden kann. Ein einzelner MX-Eintrag kann unmöglich mehr als eine Adresse auflisten, so dass die einzige Möglichkeit darin besteht, auf einen Host zu verweisen, wo dann alle Adressen dieses Hosts nachgeschlagen werden können. (Um die Leistung zu optimieren, sendet der DNS-Server die Adresseinträge für den Host im zusätzlichen Abschnitt der Antwort mit, wenn er autorisierende Einträge für sie hat, was einen Hin- und Rückweg erspart).
Es gibt auch die Situation, die entsteht, wenn Ihre Mail-Exchanger von einem Drittanbieter bereitgestellt werden (z. B. Google Apps oder Office 365). Sie verweisen mit Ihren MX-Einträgen auf deren Hostnamen, aber es kann vorkommen, dass der Dienstanbieter die IP-Adressen der Mailserver ändern muss. Da Sie auf einen Host verweisen, kann der Dienstanbieter dies auf transparente Weise tun, und Sie müssen keine Änderungen an Ihren Einträgen vornehmen. | ¿Por qué los registros MX no pueden apuntar a una dirección IP? | La idea detrás del registro de intercambio de correo (MX) es especificar un host o hosts que puedan aceptar correo para un dominio. Como se especifica en el RFC 1035, el registro MX contiene un nombre de dominio. Por lo tanto, debe apuntar a un host que pueda resolverse en el DNS. No puede utilizarse una dirección IP, ya que se interpretaría como un nombre de dominio no cualificado, que no puede resolverse.
Las razones para ello en los años 80, cuando se redactaron originalmente las especificaciones, son casi las mismas que hoy en día: Un host puede estar conectado a varias redes y utilizar varios protocolos.
En los años 80, no era raro tener pasarelas de correo que se conectaban tanto a la (relativamente nueva) Internet, que utilizaba TCP/IP, como a otras redes heredadas, que a menudo utilizaban otros protocolos. Especificar MX de este modo permitía que los registros DNS identificaran cómo llegar a un host de este tipo en una red distinta de Internet, como Chaosnet. En la práctica, sin embargo, esto casi nunca ocurrió; prácticamente todo el mundo rediseñó sus redes para convertirlas en parte de Internet.
Hoy en día, la situación es que un host puede ser alcanzado por múltiples protocolos (IPv4 e IPv6) y por múltiples direcciones IP en cada protocolo. Un único registro MX no puede listar más de una dirección, por lo que la única opción es apuntar a un host, donde se pueden buscar todas las direcciones de ese host. (Como optimización del rendimiento, el servidor DNS enviará los registros de direcciones para el host en la sección adicional de la respuesta si tiene registros autoritativos para ellos, ahorrando un viaje de ida y vuelta).
También existe la situación que se produce cuando sus intercambiadores de correo son proporcionados por un tercero (por ejemplo, Google Apps u Office 365). Apuntas tus registros MX a sus nombres de host, pero puede ocurrir que el proveedor de servicios necesite cambiar las direcciones IP de los servidores de correo. Dado que has apuntado a un host, el proveedor de servicios puede hacerlo de forma transparente y no tienes que hacer ningún cambio en tus registros. | Pourquoi les enregistrements MX ne peuvent-ils pas pointer vers une adresse IP ? | L'idée derrière l'enregistrement d'échange de courrier (MX) est de spécifier un ou plusieurs hôtes qui peuvent accepter du courrier pour un domaine. Comme le précise le RFC 1035, l'enregistrement MX contient un nom de domaine. Il doit donc pointer vers un hôte qui peut lui-même être résolu dans le DNS. Une adresse IP ne peut pas être utilisée car elle serait interprétée comme un nom de domaine non qualifié, qui ne peut pas être résolu.
Les raisons de cette situation dans les années 1980, lorsque les spécifications ont été écrites à l'origine, sont presque les mêmes que celles d'aujourd'hui : Un hôte peut être connecté à plusieurs réseaux et utiliser plusieurs protocoles.
Dans les années 80, il n'était pas rare d'avoir des passerelles de messagerie connectées à la fois à l'internet (relativement nouveau), qui utilisait TCP/IP, et à d'autres réseaux anciens, qui utilisaient souvent d'autres protocoles. Spécifier MX de cette manière permettait d'obtenir des enregistrements DNS indiquant comment atteindre un tel hôte sur un réseau autre que l'internet, tel que Chaosnet. Dans la pratique, cependant, cela ne s'est presque jamais produit ; pratiquement tout le monde a réorganisé ses réseaux pour qu'ils fassent partie de l'internet.
Aujourd'hui, un hôte peut être atteint par plusieurs protocoles (IPv4 et IPv6) et par plusieurs adresses IP dans chaque protocole. Un seul enregistrement MX ne peut pas répertorier plus d'une adresse, de sorte que la seule option est de pointer vers un hôte, où toutes les adresses de cet hôte peuvent alors être recherchées. (Pour optimiser les performances, le serveur DNS enverra les enregistrements d'adresse de l'hôte dans la section supplémentaire de la réponse s'il dispose d'enregistrements faisant autorité pour eux, ce qui permet d'éviter un aller-retour).
Il y a aussi la situation qui se présente lorsque vos échangeurs de courrier sont fournis par un tiers (par exemple Google Apps ou Office 365). Vous pointez vos enregistrements MX vers leurs noms d'hôte, mais il peut arriver que le fournisseur de services doive changer les adresses IP des serveurs de messagerie. Comme vous avez pointé vers un hôte, le fournisseur de services peut le faire de manière transparente et vous ne devez apporter aucune modification à vos enregistrements. | Perché i record MX non possono puntare a un indirizzo IP? | L'idea alla base del record MX (Mail Exchange) è quella di specificare uno o più host che possono accettare la posta per un dominio. Come specificato nella RFC 1035, il record MX contiene un nome di dominio. Deve quindi puntare a un host che possa essere risolto nel DNS. Non è possibile utilizzare un indirizzo IP, poiché verrebbe interpretato come un nome di dominio non qualificato, che non può essere risolto.
Le ragioni per cui ciò avveniva negli anni '80, quando le specifiche furono originariamente scritte, sono quasi le stesse di oggi: Un host può essere collegato a più reti e utilizzare più protocolli.
Negli anni '80, non era raro avere gateway di posta che si collegavano sia a Internet (relativamente nuovo), che utilizzava il TCP/IP, sia ad altre reti legacy, che spesso utilizzavano altri protocolli. Specificare MX in questo modo permetteva di creare record DNS che potevano identificare come raggiungere un host su una rete diversa da Internet, come Chaosnet. In pratica, però, questo non è mai accaduto: praticamente tutti hanno reingegnerizzato le proprie reti per farle diventare parte di Internet.
Oggi, la situazione è che un host può essere raggiunto da più protocolli (IPv4 e IPv6) e da più indirizzi IP in ciascun protocollo. Un singolo record MX non può elencare più di un indirizzo, quindi l'unica opzione è puntare a un host, dove possono essere cercati tutti gli indirizzi di quell'host. (Per ottimizzare le prestazioni, il server DNS invierà i record degli indirizzi degli host nella sezione aggiuntiva della risposta, se dispone di record autorevoli, risparmiando così un viaggio di andata e ritorno).
C'è anche la situazione che si presenta quando gli scambiatori di posta sono forniti da terzi (ad esempio, Google Apps o Office 365). Si puntano i record MX ai loro nomi host, ma può accadere che il fornitore di servizi debba cambiare gli indirizzi IP dei server di posta. Poiché avete puntato a un host, il fornitore di servizi può farlo in modo trasparente e voi non dovete apportare alcuna modifica ai vostri record. |
220 | Why is ```SELECT *``` bad practice? Wouldn't it mean less code to change if you added a new column you wanted?
I understand that ```SELECT COUNT(*)``` is a performance problem on some DBs, but what if you really wanted every column? | The asterisk character, "*", in the SELECT statement is shorthand for all the columns in the table(s) involved in the query.
Performance
The ```*``` shorthand can be slower because:
* Not all the fields are indexed, forcing a full table scan - less efficient
* What you save to send ```SELECT *``` over the wire risks a full table scan
* Returning more data than is needed
* Returning trailing columns using variable length data type can result in search overhead
Maintenance
When using ```SELECT *```:
* Someone unfamiliar with the codebase would be forced to consult documentation to know what columns are being returned before being able to make competent changes. Making code more readable, minimizing the ambiguity and work necessary for people unfamiliar with the code saves more time and effort in the long run.
* If code depends on column order, ```SELECT *``` will hide an error waiting to happen if a table had its column order changed.
* Even if you need every column at the time the query is written, that might not be the case in the future
* the usage complicates profiling
Design
```SELECT *``` is an anti-pattern:
* The purpose of the query is less obvious; the columns used by the application is opaque
* It breaks the modularity rule about using strict typing whenever possible. Explicit is almost universally better.
When Should "SELECT *" Be Used?
It's acceptable to use ```SELECT *``` when there's the explicit need for every column in the table(s) involved, as opposed to every column that existed when the query was written. The database will internally expand the * into the complete list of columns - there's no performance difference.
Otherwise, explicitly list every column that is to be used in the query - preferably while using a table alias. | Warum ist ```SELECT *`` eine schlechte Praxis? Müsste man nicht weniger Code ändern, wenn man eine neue Spalte hinzufügt, die man haben möchte?
Ich verstehe, dass ```SELECT COUNT(*)``` bei einigen DBs ein Leistungsproblem darstellt, aber was ist, wenn Sie wirklich jede Spalte haben wollen? | Das Sternchen "*" in der SELECT-Anweisung ist ein Kürzel für alle Spalten der Tabelle(n), die an der Abfrage beteiligt sind.
Leistung
Die Abkürzung ```*``` kann langsamer sein, weil:
* Nicht alle Felder sind indiziert, was einen vollständigen Tabellenscan erzwingt - weniger effizient
* Was man spart, um ```SELECT`` über die Leitung zu schicken, riskiert einen vollständigen Tabellenscan.
* Rückgabe von mehr Daten als benötigt
* Die Rückgabe von Endspalten mit einem Datentyp variabler Länge kann zu einem Such-Overhead führen.
Wartung
Bei Verwendung von ```SELECT *``:
* Jemand, der mit der Codebasis nicht vertraut ist, wäre gezwungen, die Dokumentation zu konsultieren, um zu erfahren, welche Spalten zurückgegeben werden, bevor er kompetente Änderungen vornehmen kann. Die Verbesserung der Lesbarkeit des Codes und die Minimierung der Mehrdeutigkeit und des Arbeitsaufwands für Personen, die mit dem Code nicht vertraut sind, spart auf lange Sicht mehr Zeit und Mühe.
* Wenn der Code von der Spaltenreihenfolge abhängt, verbirgt ```SELECT *`` einen Fehler, der auftritt, wenn die Spaltenreihenfolge einer Tabelle geändert wird.
* Selbst wenn Sie jede Spalte zum Zeitpunkt des Schreibens der Abfrage benötigen, könnte dies in der Zukunft nicht der Fall sein.
* die Verwendung erschwert die Profilerstellung
Entwurf
```SELECT *`` ist ein Anti-Muster:
* Der Zweck der Abfrage ist weniger offensichtlich; die von der Anwendung verwendeten Spalten sind undurchsichtig.
* Es verstößt gegen die Modularitätsregel der strikten Typisierung, wann immer dies möglich ist. Explizite Typisierung ist fast durchgängig besser.
Wann sollte "SELECT *" verwendet werden?
Es ist akzeptabel, ```SELECT *`` zu verwenden, wenn explizit jede Spalte der betroffenen Tabelle(n) benötigt wird, im Gegensatz zu jeder Spalte, die existierte, als die Abfrage geschrieben wurde. Die Datenbank wird intern das * in die komplette Liste der Spalten erweitern - es gibt keinen Leistungsunterschied.
Andernfalls müssen Sie jede Spalte, die in der Abfrage verwendet werden soll, explizit auflisten - vorzugsweise unter Verwendung eines Tabellenalias. | ¿Por qué es ``SELECT *`` una mala práctica? ¿No significaría menos código que cambiar si añadieras una nueva columna que quisieras?
Entiendo que ```SELECT COUNT(*)`` es un problema de rendimiento en algunas BDs, pero ¿y si realmente quisieras todas las columnas? | El asterisco "*" en la sentencia SELECT es la abreviatura de todas las columnas de la tabla o tablas implicadas en la consulta.
Rendimiento
La abreviatura ```*`` puede ser más lenta porque:
* No todos los campos están indexados, lo que obliga a escanear toda la tabla (menos eficaz).
* Lo que se ahorra al enviar ```SELECT *``` por cable arriesga un escaneo completo de la tabla.
* Devuelve más datos de los necesarios
* Devolver columnas finales utilizando un tipo de datos de longitud variable puede provocar una sobrecarga en la búsqueda.
Mantenimiento
Cuando se utiliza ``SELECT *``:
* Una persona no familiarizada con el código se vería obligada a consultar la documentación para saber qué columnas se devuelven antes de poder realizar los cambios pertinentes. Hacer el código más legible, minimizando la ambigüedad y el trabajo necesario para las personas no familiarizadas con el código ahorra más tiempo y esfuerzo a largo plazo.
* Si el código depende del orden de las columnas, ```SELECT *``` ocultará un error a punto de producirse si se cambia el orden de las columnas de una tabla.
* Aunque necesites todas las columnas en el momento de escribir la consulta, es posible que no las necesites en el futuro.
* el uso complica la creación de perfiles
Diseño
``SELECT *`` es un anti-patrón:
* El propósito de la consulta es menos obvio; las columnas usadas por la aplicación son opacas
* Rompe la regla de modularidad sobre el uso de tipado estricto siempre que sea posible. Explícito es casi universalmente mejor.
¿Cuándo se debe utilizar "SELECT *"? SELECT *"?
Es aceptable utilizar ``SELECT *`` cuando se necesitan explícitamente todas las columnas de las tablas implicadas, en lugar de todas las columnas que existían cuando se escribió la consulta. La base de datos expandirá internamente el * a la lista completa de columnas - no hay diferencia de rendimiento.
En caso contrario, enumere explícitamente todas las columnas que se vayan a utilizar en la consulta, preferiblemente utilizando un alias de tabla. | Pourquoi le ``SELECT *`` est-il une mauvaise pratique ? N'y aurait-il pas moins de code à modifier si l'on ajoutait une nouvelle colonne ?
Je comprends que ``SELECT COUNT(*)`` soit un problème de performance sur certaines bases de données, mais que se passerait-il si vous vouliez vraiment toutes les colonnes ? | Le caractère astérisque, "*", dans l'instruction SELECT est une abréviation pour toutes les colonnes des tables concernées par la requête.
Performances
L'abréviation ``*```` peut être plus lente pour les raisons suivantes :
* Tous les champs ne sont pas indexés, ce qui oblige à effectuer un balayage complet de la table - moins efficace.
* Ce que vous économisez en envoyant ``SELECT *`` sur le fil risque d'entraîner un balayage complet de la table.
* Retourner plus de données que nécessaire
* Renvoyer les colonnes suivantes en utilisant un type de données de longueur variable peut entraîner une surcharge de recherche.
Maintenance
Lorsque vous utilisez ``SELECT *`` :
* Une personne ne connaissant pas la base de code serait obligée de consulter la documentation pour savoir quelles colonnes sont retournées avant de pouvoir faire des changements compétents. Rendre le code plus lisible, minimiser l'ambiguïté et le travail nécessaire pour les personnes ne connaissant pas le code permet d'économiser du temps et des efforts sur le long terme.
* Si le code dépend de l'ordre des colonnes, ``SELECT *`` cachera une erreur qui pourrait se produire si l'ordre des colonnes d'une table était modifié.
* Même si vous avez besoin de toutes les colonnes au moment où la requête est écrite, cela pourrait ne plus être le cas à l'avenir.
* l'utilisation complique le profilage
Conception
``SELECT *`` est un anti-modèle :
* Le but de la requête est moins évident ; les colonnes utilisées par l'application sont opaques.
* Elle enfreint la règle de modularité qui consiste à utiliser un typage strict dans la mesure du possible. L'explicite est presque universellement meilleur.
Quand faut-il utiliser "SELECT *" ? doit-elle être utilisée ?
Il est acceptable d'utiliser ``SELECT *`` lorsqu'il y a un besoin explicite de toutes les colonnes des tables concernées, par opposition à toutes les colonnes qui existaient lorsque la requête a été écrite. La base de données développera en interne le * en une liste complète de colonnes - il n'y a pas de différence de performance.
Dans le cas contraire, il convient d'énumérer explicitement toutes les colonnes à utiliser dans la requête - de préférence en utilisant un alias de table. | Perché ```SELECT *`` è una cattiva pratica? Non significherebbe meno codice da modificare se si aggiungesse una nuova colonna desiderata?
Capisco che ```SELECT COUNT(*)``` sia un problema di prestazioni su alcuni DB, ma se si volesse davvero ogni colonna? | Il carattere asterisco, "*", nell'istruzione SELECT indica tutte le colonne delle tabelle coinvolte nella query.
Prestazioni
La stenografia ```*``` può essere più lenta perché:
* Non tutti i campi sono indicizzati, il che costringe a una scansione completa della tabella, meno efficiente.
* Ciò che si risparmia per inviare ```SELECT *``` attraverso il filo rischia una scansione completa della tabella
* Restituzione di più dati di quelli necessari
* Restituire le colonne di coda usando un tipo di dati a lunghezza variabile può comportare un sovraccarico di ricerca.
Manutenzione
Quando si usa ``SELECT *``:
* Chi non conosce il codice sarebbe costretto a consultare la documentazione per sapere quali colonne vengono restituite prima di poter apportare modifiche competenti. Rendere il codice più leggibile, ridurre al minimo l'ambiguità e il lavoro necessario per chi non ha familiarità con il codice fa risparmiare tempo e fatica nel lungo periodo.
* Se il codice dipende dall'ordine delle colonne, ```SELECT *`` nasconderà un errore in attesa di accadere se una tabella ha cambiato l'ordine delle colonne.
* Anche se si ha bisogno di ogni colonna nel momento in cui viene scritta la query, questo potrebbe non essere il caso in futuro.
* L'uso complica la profilazione
Progettazione
```SELECT *`` è un anti-pattern:
* Lo scopo della query è meno ovvio; le colonne utilizzate dall'applicazione sono opache.
* Rompe la regola della modularità, che prevede l'uso di una tipizzazione rigorosa ogni volta che è possibile. L'esplicito è quasi universalmente migliore.
Quando si dovrebbe usare "SELECT *" Si può usare "SELECT *"?
È accettabile usare ```SELECT *``` quando c'è la necessità esplicita di ogni colonna della tabella o delle tabelle coinvolte, invece di ogni colonna che esisteva quando la query è stata scritta. Il database espanderà internamente l'* nell'elenco completo delle colonne, senza alcuna differenza di prestazioni.
Altrimenti, elencare esplicitamente ogni colonna da utilizzare nella query, preferibilmente utilizzando un alias di tabella. |
221 | I did my training around the Seattle area, and was told that landing at SeaTac Airport (the region's major International/Commercial airport), while not strictly forbidden, was definitely frowned upon because it can slow down and interfere with the big planes on schedules. To discourage GA aircraft from using the big airport, they have a variety of landing fees, ramp fees, and prior-approval requirements.
But later, I moved near MCI, and was told that landing at the big airport was no big deal. That they're actually happy to have little planes there.
If you fly small GA planes, do you land at the major airports in your area?
What advanced preparations can you make to minimize your impact on the "big boys", and remain a good airspace citizen? | Can you? Absolutely, and air traffic control will treat you (almost) like any other airplane. You are supposedly handled on a first-come-first-serve basis (reality is slightly different with different aircraft speeds, etc.). Do the airlines like it if you slow them down? No, but it's part of the system and the way that it works.
Very often, there are multiple runways at bigger airports, and sometimes there are even shorter runways that are dedicated for airplanes that don't need to land on the same one as the "big boys". Even if not, they will work you in.
Now, that being said, very often there is a better option. As you said, there are usually high fees at the big airports, so landing at a smaller satellite airport can often save you money and save you time because you won't have to taxi as far or sit and wait in line to get out. An extra 15 minutes by car can be better than an extra 30 minutes while taxiing.
As far as being prepared, it isn't really much different than smaller airports other than the fact that ATC is much busier. They don't have the time/tolerance to keep repeating instructions to you, and expect you to be "on your game". When they rattle off taxi instructions like "Cessna N1234, taxi to the ramp via Alpha, Tango, Echo, and Xray. Hold short of runway 23." they expect a quick readback and for you to follow instructions exactly because they need to move on to the next guy.
It will also help everyone out if you don't fly your final approach the way that most people are taught for an entire 10 mile final: very close to your actual landing speed. In fact, you are usually landing on a runway that is 4X+ the distance that you need and you can slow down fairly quickly (especially compared to a jet), so if you can fly an extra 20 (or 80) knots as long as possible, it will be greatly appreciated and keep traffic moving. Make sure that you leave yourself enough time to slow down at the end and above all else, ***be safe***. | Ich habe meine Ausbildung in der Gegend von Seattle absolviert und mir wurde gesagt, dass das Landen auf dem SeaTac Airport (dem wichtigsten internationalen/gewerblichen Flughafen der Region) zwar nicht streng verboten, aber definitiv verpönt ist, weil es die großen Flugzeuge im Flugplan verlangsamen und stören kann. Um GA-Flugzeuge davon abzuhalten, den großen Flughafen zu benutzen, gibt es eine Reihe von Landegebühren, Vorfeldgebühren und Anforderungen für eine vorherige Genehmigung.
Als ich später in die Nähe des MCI zog, wurde mir gesagt, dass die Landung auf dem großen Flughafen keine große Sache sei. Man ist sogar froh, wenn kleine Flugzeuge dort landen.
Wenn Sie kleine GA-Flugzeuge fliegen, landen Sie dann auf den großen Flughäfen in Ihrer Umgebung?
Welche Vorbereitungen können Sie treffen, um die Auswirkungen auf die "großen Jungs" zu minimieren und ein guter Bürger des Luftraums zu bleiben? | Können Sie das? Auf jeden Fall, und die Flugverkehrskontrolle wird Sie (fast) wie jedes andere Flugzeug behandeln. Angeblich werden Sie nach dem Prinzip "Wer zuerst kommt, mahlt zuerst" abgefertigt (die Realität sieht bei unterschiedlichen Flugzeuggeschwindigkeiten usw. etwas anders aus). Gefällt es den Fluggesellschaften, wenn Sie sie aufhalten? Nein, aber das ist Teil des Systems und seiner Funktionsweise.
Sehr oft gibt es auf größeren Flughäfen mehrere Start- und Landebahnen, und manchmal gibt es sogar kürzere Start- und Landebahnen, die für Flugzeuge bestimmt sind, die nicht auf derselben Start- und Landebahn landen müssen wie die "großen Jungs". Selbst wenn das nicht der Fall ist, wird man Ihnen entgegenkommen.
Allerdings gibt es sehr oft eine bessere Option. Wie Sie schon sagten, werden auf den großen Flughäfen in der Regel hohe Gebühren erhoben. Wenn Sie auf einem kleineren Satellitenflughafen landen, können Sie oft Geld und Zeit sparen, weil Sie nicht so weit rollen oder in der Schlange stehen müssen, um auszusteigen. Eine zusätzliche Viertelstunde mit dem Auto kann besser sein als zusätzliche 30 Minuten beim Rollen.
Was die Vorbereitung angeht, so gibt es keinen großen Unterschied zu kleineren Flughäfen, außer der Tatsache, dass die Flugsicherung viel mehr zu tun hat. Sie haben nicht die Zeit/Toleranz, ständig Anweisungen zu wiederholen, und erwarten, dass Sie "auf Zack" sind. Wenn sie Taxi-Anweisungen wie "Cessna N1234, taxi to the ramp via Alpha, Tango, Echo, and Xray. Halten Sie kurz vor der Landebahn 23", erwarten sie eine schnelle Rückmeldung und dass Sie die Anweisungen genau befolgen, weil sie zum nächsten Mann weitergehen müssen.
Außerdem ist es für alle hilfreich, wenn Sie Ihren Endanflug nicht so fliegen, wie es den meisten Leuten beigebracht wird, nämlich mit einer Endgeschwindigkeit von 10 Meilen, die sehr nahe an Ihrer tatsächlichen Landegeschwindigkeit liegt. In der Tat landen Sie normalerweise auf einer Landebahn, die mehr als viermal so lang ist wie die benötigte Strecke, und Sie können ziemlich schnell langsamer werden (vor allem im Vergleich zu einem Jet). Wenn Sie also so lange wie möglich 20 (oder 80) Knoten mehr fliegen können, wird das sehr geschätzt und hält den Verkehr in Bewegung. Achten Sie darauf, dass Sie genügend Zeit haben, um am Ende abzubremsen, und vor allem: ***sind Sie sicher***. | Hice mi formación en la zona de Seattle y me dijeron que aterrizar en el aeropuerto de SeaTac (el principal aeropuerto internacional/comercial de la región), aunque no está estrictamente prohibido, está muy mal visto porque puede ralentizar e interferir con los grandes aviones que tienen horarios. Para disuadir a los aviones GA de utilizar el aeropuerto grande, tienen una serie de tasas de aterrizaje, tasas de rampa y requisitos de aprobación previa.
Pero más tarde me mudé cerca de MCI y me dijeron que aterrizar en el aeropuerto grande no era un gran problema. De hecho, están encantados de tener aviones pequeños allí.
Si pilotas aviones GA pequeños, ¿aterrizas en los principales aeropuertos de tu zona?
¿Qué preparativos anticipados puede hacer para minimizar su impacto en los "grandes" y seguir siendo un buen ciudadano del espacio aéreo? | ¿Puede hacerlo? Por supuesto, y el control del tráfico aéreo le tratará (casi) como a cualquier otro avión. Se supone que se atiende a los pasajeros por orden de llegada (la realidad es ligeramente diferente, con aviones de distintas velocidades, etc.). ¿Les gusta a las aerolíneas que les retrases? No, pero forma parte del sistema y de su funcionamiento.
Muy a menudo, hay varias pistas en los aeropuertos más grandes, y a veces incluso pistas más cortas dedicadas a aviones que no necesitan aterrizar en la misma pista que los "grandes". Incluso si no es así, te tendrán en cuenta.
Dicho esto, muy a menudo hay una opción mejor. Como has dicho, los aeropuertos grandes suelen tener tasas elevadas, por lo que aterrizar en un aeropuerto satélite más pequeño puede ahorrarte dinero y tiempo, ya que no tendrás que ir tan lejos en taxi ni hacer cola para salir. 15 minutos más en coche pueden ser mejor que 30 minutos más en taxi.
En cuanto a estar preparado, en realidad no hay mucha diferencia con aeropuertos más pequeños, aparte del hecho de que el ATC está mucho más ocupado. No tienen tiempo ni tolerancia para repetirte las instrucciones y esperan que estés "atento". Cuando repiten instrucciones de rodaje como "Cessna N1234, rodaje a la rampa por Alpha, Tango, Echo y Xray. Manténgase a la altura de la pista 23", esperan una rápida respuesta y que sigas las instrucciones al pie de la letra porque tienen que pasar al siguiente.
También ayudará a todo el mundo si no vuelas tu aproximación final de la manera que a la mayoría de la gente se le enseña para una final completa de 10 millas: muy cerca de tu velocidad real de aterrizaje. De hecho, normalmente estás aterrizando en una pista que es 4X+ la distancia que necesitas y puedes reducir la velocidad bastante rápido (especialmente comparado con un jet), así que si puedes volar 20 (u 80) nudos extra el mayor tiempo posible, será muy apreciado y mantendrá el tráfico en movimiento. Asegúrate de dejar tiempo suficiente para reducir la velocidad al final y, por encima de todo, ***ve seguro***. | J'ai suivi ma formation dans la région de Seattle et on m'a dit que l'atterrissage à l'aéroport de SeaTac (le principal aéroport international/commercial de la région), même s'il n'est pas strictement interdit, n'est pas du tout apprécié parce qu'il peut ralentir et interférer avec les gros avions qui respectent les horaires. Pour décourager les avions de l'aviation générale d'utiliser le grand aéroport, il existe toute une série de taxes d'atterrissage, de redevances de piste et d'exigences d'autorisation préalable.
Plus tard, j'ai déménagé près de MCI et on m'a dit que l'atterrissage sur le grand aéroport n'était pas un problème. En fait, ils sont heureux d'accueillir de petits avions.
Si vous pilotez de petits avions de tourisme, atterrissez-vous sur les principaux aéroports de votre région ?
Quels préparatifs préalables pouvez-vous faire pour minimiser votre impact sur les "grands" et rester un bon citoyen de l'espace aérien ? | Le pouvez-vous ? Absolument, et le contrôle aérien vous traitera (presque) comme n'importe quel autre avion. Vous êtes censé être traité selon le principe du premier arrivé, premier servi (la réalité est légèrement différente en fonction de la vitesse des avions, etc.) Les compagnies aériennes apprécient-elles que vous les ralentissiez ? Non, mais cela fait partie du système et de son fonctionnement.
Très souvent, les grands aéroports disposent de plusieurs pistes, et parfois même de pistes plus courtes réservées aux avions qui n'ont pas besoin d'atterrir sur la même piste que les "grands". Même si ce n'est pas le cas, ils s'arrangeront pour que vous puissiez atterrir.
Cela dit, il existe très souvent une meilleure option. Comme vous l'avez dit, les redevances sont généralement élevées dans les grands aéroports, alors atterrir dans un petit aéroport satellite peut souvent vous faire économiser de l'argent et vous faire gagner du temps parce que vous n'aurez pas à rouler aussi loin ou à faire la queue pour sortir de l'aéroport. Un quart d'heure supplémentaire en voiture peut être préférable à 30 minutes supplémentaires en taxi.
En ce qui concerne la préparation, il n'y a pas de grande différence avec les aéroports plus petits, si ce n'est que l'ATC est beaucoup plus occupé. Il n'a pas le temps ni la tolérance nécessaires pour vous répéter sans cesse des instructions et s'attend à ce que vous soyez "dans le coup". Lorsqu'il vous donne des instructions de roulage telles que "Cessna N1234, roulez vers l'aire de trafic en passant par Alpha, Tango, Echo et Xray. Restez à l'écart de la piste 23", ils s'attendent à une lecture rapide et à ce que vous suiviez les instructions à la lettre parce qu'ils doivent passer au suivant.
Cela aidera également tout le monde si vous n'effectuez pas votre approche finale comme on l'enseigne à la plupart des gens pour une finale de 10 miles : très proche de votre vitesse d'atterrissage réelle. En fait, vous atterrissez généralement sur une piste qui est 4X+ la distance dont vous avez besoin et vous pouvez ralentir assez rapidement (surtout comparé à un jet), donc si vous pouvez voler 20 (ou 80) nœuds de plus aussi longtemps que possible, ce sera grandement apprécié et cela permettra de maintenir le trafic en mouvement. Veillez à vous laisser suffisamment de temps pour ralentir à la fin et surtout, ***soyez prudent***. | Ho fatto il mio addestramento nell'area di Seattle e mi è stato detto che l'atterraggio all'aeroporto SeaTac (il principale aeroporto internazionale/commerciale della regione), pur non essendo strettamente vietato, è decisamente disapprovato perché può rallentare e interferire con i grandi aerei in programma. Per scoraggiare i velivoli GA dall'utilizzare il grande aeroporto, sono previste diverse tasse di atterraggio, tasse di rampa e requisiti di approvazione preventiva.
In seguito, però, mi sono trasferito vicino a MCI e mi è stato detto che atterrare nel grande aeroporto non era un problema. Che in realtà sono felici di avere piccoli aerei lì.
Se volate con piccoli aerei GA, atterrate nei principali aeroporti della vostra zona?
Quali preparativi avanzati potete fare per minimizzare il vostro impatto sui "grandi" e rimanere un buon cittadino dello spazio aereo? | Si può? Assolutamente sì, e il controllo del traffico aereo vi tratterà (quasi) come qualsiasi altro aereo. Si suppone che siate gestiti in base al principio del "primo arrivato, primo servito" (la realtà è leggermente diversa con le diverse velocità degli aeromobili, ecc.) Alle compagnie aeree piace se li rallentate? No, ma fa parte del sistema e del suo funzionamento.
Molto spesso negli aeroporti più grandi ci sono più piste, e a volte ci sono anche piste più corte che sono dedicate agli aerei che non hanno bisogno di atterrare sulla stessa pista dei "grandi". Anche se non è così, vi faranno lavorare.
Detto questo, molto spesso c'è un'opzione migliore. Come avete detto, di solito i grandi aeroporti prevedono tariffe elevate, quindi atterrare in un aeroporto satellite più piccolo può spesso farvi risparmiare denaro e tempo, perché non dovrete fare tanta strada in taxi o fare la fila per uscire. 15 minuti in più in auto possono essere meglio di 30 minuti in più in taxi.
Per quanto riguarda la preparazione, non c'è molta differenza rispetto agli aeroporti più piccoli, a parte il fatto che l'ATC è molto più impegnato. Non hanno il tempo e la tolleranza per continuare a ripetere le istruzioni e si aspettano che tu sia "pronto". Quando ti ripetono istruzioni di rullaggio come "Cessna N1234, rullare verso la rampa via Alpha, Tango, Echo e Xray. Fermati a breve distanza dalla pista 23", si aspettano una rapida risposta e che tu segua esattamente le istruzioni perché devono passare al prossimo.
Inoltre, sarà utile a tutti se non volerete l'avvicinamento finale nel modo in cui viene insegnato alla maggior parte delle persone per un intero finale di 10 miglia: molto vicino alla vostra reale velocità di atterraggio. Infatti, di solito si atterra su una pista che è 4 volte superiore alla distanza necessaria e si può rallentare abbastanza rapidamente (soprattutto rispetto a un jet), quindi se si riesce a volare a 20 (o 80) nodi in più il più a lungo possibile, sarà molto apprezzato e manterrà il traffico in movimento. Assicuratevi di lasciarvi abbastanza tempo per rallentare alla fine e, soprattutto, ***sicuri***. |
222 | I need a way to compare multiple strings to a test string and return the string that closely resembles it:
```TEST STRING: THE BROWN FOX JUMPED OVER THE RED COW
CHOICE A : THE RED COW JUMPED OVER THE GREEN CHICKEN
CHOICE B : THE RED COW JUMPED OVER THE RED COW
CHOICE C : THE RED FOX JUMPED OVER THE BROWN COW
```
(If I did this correctly) The closest string to the "TEST STRING" should be "CHOICE C". What is the easiest way to do this?
I plan on implementing this into multiple languages including VB.net, Lua, and JavaScript. At this point, pseudo code is acceptable. If you can provide an example for a specific language, this is appreciated too! | Fuzzy String Matching is the process of performing a human-like estimation of the similarity of two words or phrases. In many cases, it involves implementing the Levenshtein distance algorithm, which determines how many changes must be made to a string or phrase to turn it into another string or phrase. The following implementation in VBA involves a weighted comparison of the length of the two phrases, the number of changes between each phrase, and whether each word could be found in the target entry.
```
'Calculate the Levenshtein Distance between two strings (the number of insertions,
'deletions, and substitutions needed to transform the first string into the second)
Public Function LevenshteinDistance(ByRef S1 As String, ByVal S2 As String) As Long
Dim L1 As Long, L2 As Long, D() As Long 'Length of input strings and distance matrix
Dim i As Long, j As Long, cost As Long 'loop counters and cost of substitution for current letter
Dim cI As Long, cD As Long, cS As Long 'cost of next Insertion, Deletion and Substitution
L1 = Len(S1): L2 = Len(S2)
ReDim D(0 To L1, 0 To L2)
For i = 0 To L1: D(i, 0) = i: Next i
For j = 0 To L2: D(0, j) = j: Next j
For j = 1 To L2
For i = 1 To L1
cost = Abs(StrComp(Mid$(S1, i, 1), Mid$(S2, j, 1), vbTextCompare))
cI = D(i - 1, j) + 1
cD = D(i, j - 1) + 1
cS = D(i - 1, j - 1) + cost
If cI <= cD Then 'Insertion or Substitution
If cI <= cS Then D(i, j) = cI Else D(i, j) = cS
Else 'Deletion or Substitution
If cD <= cS Then D(i, j) = cD Else D(i, j) = cS
End If
Next i
Next j
LevenshteinDistance = D(L1, L2)
End Function
```
We can creat two separate metrics for evaluating the similarity of two strings. One is "valuePhrase" and the other is "valueWords". valuePhrase is just the Levenshtein distance between the two phrases, and valueWords splits the string into individual words, based on delimiters such as spaces, dashes, and anything else you'd like, and compares each word to each other word, summing up the shortest Levenshtein distance connecting any two words. Essentially, it measures whether the information in one 'phrase' is really contained in another, just as a word-wise permutation.
valueWords, valuePhrase, and Split function:
```
Public Function valuePhrase#(ByRef S1$, ByRef S2$)
valuePhrase = LevenshteinDistance(S1, S2)
End Function
Public Function valueWords#(ByRef S1$, ByRef S2$)
Dim wordsS1$(), wordsS2$()
wordsS1 = SplitMultiDelims(S1, " _-")
wordsS2 = SplitMultiDelims(S2, " _-")
Dim word1%, word2%, thisD#, wordbest#
Dim wordsTotal#
For word1 = LBound(wordsS1) To UBound(wordsS1)
wordbest = Len(S2)
For word2 = LBound(wordsS2) To UBound(wordsS2)
thisD = LevenshteinDistance(wordsS1(word1), wordsS2(word2))
If thisD < wordbest Then wordbest = thisD
If thisD = 0 Then GoTo foundbest
Next word2
foundbest:
wordsTotal = wordsTotal + wordbest
Next word1
valueWords = wordsTotal
End Function
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
' SplitMultiDelims
' This function splits Text into an array of substrings, each substring
' delimited by any character in DelimChars. Only a single character
' may be a delimiter between two substrings, but DelimChars may
' contain any number of delimiter characters. It returns a single element
' array containing all of text if DelimChars is empty, or a 1 or greater
' element array if the Text is successfully split into substrings.
' If IgnoreConsecutiveDelimiters is true, empty array elements will not occur.
' If Limit greater than 0, the function will only split Text into 'Limit'
' array elements or less. The last element will contain the rest of Text.
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
Function SplitMultiDelims(ByRef Text As String, ByRef DelimChars As String, _
Optional ByVal IgnoreConsecutiveDelimiters As Boolean = False, _
Optional ByVal Limit As Long = -1) As String()
Dim ElemStart As Long, N As Long, M As Long, Elements As Long
Dim lDelims As Long, lText As Long
Dim Arr() As String
lText = Len(Text)
lDelims = Len(DelimChars)
If lDelims = 0 Or lText = 0 Or Limit = 1 Then
ReDim Arr(0 To 0)
Arr(0) = Text
SplitMultiDelims = Arr
Exit Function
End If
ReDim Arr(0 To IIf(Limit = -1, lText - 1, Limit))
Elements = 0: ElemStart = 1
For N = 1 To lText
If InStr(DelimChars, Mid(Text, N, 1)) Then
Arr(Elements) = Mid(Text, ElemStart, N - ElemStart)
If IgnoreConsecutiveDelimiters Then
If Len(Arr(Elements)) > 0 Then Elements = Elements + 1
Else
Elements = Elements + 1
End If
ElemStart = N + 1
If Elements + 1 = Limit Then Exit For
End If
Next N
'Get the last token terminated by the end of the string into the array
If ElemStart <= lText Then Arr(Elements) = Mid(Text, ElemStart)
'Since the end of string counts as the terminating delimiter, if the last character
'was also a delimiter, we treat the two as consecutive, and so ignore the last elemnent
If IgnoreConsecutiveDelimiters Then If Len(Arr(Elements)) = 0 Then Elements = Elements - 1
ReDim Preserve Arr(0 To Elements) 'Chop off unused array elements
SplitMultiDelims = Arr
End Function
```
Using these two metrics, and a third which simply computes the distance between two strings, we have a series of variables which we can run an optimization algorithm to achieve the greatest number of matches. Fuzzy string matching is, itself, a fuzzy science, and so by creating linearly independent metrics for measuring string similarity, and having a known set of strings we wish to match to each other, we can find the parameters that, for our specific styles of strings, give the best fuzzy match results.
To allow the optimization of fuzzy matching, we can weight each metric. The formula that defines the final score is a simply combination of the metrics and their weights:
```
value = Min(phraseWeight*phraseValue, wordsWeight*wordsValue)*minWeight
+ Max(phraseWeight*phraseValue, wordsWeight*wordsValue)*maxWeight
+ lengthWeight*lengthValue
```
For your specific context, you have to come up with a set of weights for any metrics you come up with to determine similarity. With the appropriate set of heuristics and weights, you'll have your comparison program quickly making the decisions that you would have made. | Ich benötige eine Möglichkeit, mehrere Zeichenfolgen mit einer Testzeichenfolge zu vergleichen und die Zeichenfolge zurückzugeben, die ihr am ähnlichsten ist:
```TESTZEICHENFOLGE: DER BRAUNE FUCHS SPRANG ÜBER DIE ROTE KUH
WAHL A : DIE ROTE KUH SPRANG ÜBER DAS GRÜNE HUHN
WAHL B : DIE ROTE KUH IST ÜBER DIE ROTE KUH GESPRUNGEN
WAHL C : DER ROTE FUCHS IST ÜBER DIE BRAUNE KUH GESPRUNGEN
```
(Wenn ich das richtig gemacht habe) Die dem "TEST STRING" am nächsten liegende Zeichenfolge sollte "CHOICE C" sein. Wie lässt sich dies am einfachsten bewerkstelligen?
Ich habe vor, dies in mehrere Sprachen zu implementieren, darunter VB.net, Lua und JavaScript. Zu diesem Zeitpunkt ist Pseudocode akzeptabel. Wenn Sie ein Beispiel für eine bestimmte Sprache liefern können, ist dies ebenfalls sehr willkommen! | Beim Fuzzy String Matching wird eine menschenähnliche Schätzung der Ähnlichkeit zweier Wörter oder Sätze vorgenommen. In vielen Fällen geht es dabei um die Implementierung des Levenshtein-Distanzalgorithmus, der bestimmt, wie viele Änderungen an einer Zeichenfolge oder einem Satz vorgenommen werden müssen, um sie in eine andere Zeichenfolge oder einen anderen Satz zu verwandeln. Die folgende Implementierung in VBA beinhaltet einen gewichteten Vergleich der Länge der beiden Phrasen, der Anzahl der Änderungen zwischen den einzelnen Phrasen und der Frage, ob jedes Wort im Zieleintrag gefunden werden kann.
```
Berechne die Levenshtein-Distanz zwischen zwei Zeichenketten (die Anzahl der Einfügungen,
Einfügungen, Löschungen und Ersetzungen, die erforderlich sind, um die erste Zeichenkette in die zweite umzuwandeln)
Public Function LevenshteinDistance(ByRef S1 As String, ByVal S2 As String) As Long
Dim L1 As Long, L2 As Long, D() As Long 'Länge der Eingabestrings und Distanzmatrix
Dim i As Long, j As Long, cost As Long 'Schleifenzähler und Kosten der Substitution für den aktuellen Buchstaben
Dim cI As Long, cD As Long, cS As Long 'Kosten der nächsten Einfügung, Löschung und Ersetzung
L1 = Len(S1): L2 = Len(S2)
ReDim D(0 To L1, 0 To L2)
For i = 0 To L1: D(i, 0) = i: Nächstes i
For j = 0 To L2: D(0, j) = j: Next j
Für j = 1 bis L2
For i = 1 To L1
Kosten = Abs(StrComp(Mid$(S1, i, 1), Mid$(S2, j, 1), vbTextCompare))
cI = D(i - 1, j) + 1
cD = D(i, j - 1) + 1
cS = D(i - 1, j - 1) + Kosten
Wenn cI <= cD Dann 'Einfügung oder Substitution
Wenn cI <= cS Dann D(i, j) = cI Sonst D(i, j) = cS
Else 'Streichung oder Ersetzung
Wenn cD <= cS Dann D(i, j) = cD Sonst D(i, j) = cS
Ende wenn
Nächstes i
Nächstes j
LevenshteinDistanz = D(L1, L2)
Ende Funktion
```
Wir können zwei separate Metriken für die Bewertung der Ähnlichkeit zweier Zeichenketten erstellen. Die eine ist "valuePhrase" und die andere ist "valueWords". valuePhrase ist einfach der Levenshtein-Abstand zwischen den beiden Phrasen, und valueWords teilt die Zeichenkette in einzelne Wörter auf, basierend auf Trennzeichen wie Leerzeichen, Bindestriche und alles andere, was Sie möchten, und vergleicht jedes Wort mit jedem anderen Wort, wobei der kürzeste Levenshtein-Abstand zwischen zwei beliebigen Wörtern summiert wird. Im Wesentlichen wird gemessen, ob die Informationen in einer "Phrase" wirklich in einer anderen enthalten sind, genau wie bei einer wortweisen Permutation.
valueWords, valuePhrase und Split-Funktion:
```
Public Function wertPhrase#(ByRef S1$, ByRef S2$)
wertPhrase = LevenshteinDistanz(S1, S2)
Ende Funktion
Public Function wertWorte#(ByRef S1$, ByRef S2$)
Dim wörterS1$(), wörterS2$()
wörterS1 = SplitMultiDelims(S1, " _-")
wörterS2 = SplitMultiDelims(S2, " _-")
Dim wort1%, wort2%, diesD#, wortbest#
Dim wörterGesamt#
For word1 = LBound(wordsS1) To UBound(wordsS1)
wortbest = Len(S2)
For wort2 = LBound(wörterS2) To UBound(wörterS2)
thisD = LevenshteinDistance(wortS1(wort1), wortS2(wort2))
Wenn thisD < wortbest Dann wortbest = thisD
If thisD = 0 Then GoTo foundbest
Nächstes Wort2
wortbest:
wordTotal = wordsTotal + wordbest
Nächstes Wort1
wertWörter = wörterGesamt
Ende Funktion
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
' SplitMultiDelims
' Diese Funktion teilt Text in ein Array von Teilzeichenfolgen auf, wobei jede Teilzeichenfolge
' durch ein beliebiges Zeichen in DelimChars abgegrenzt ist. Nur ein einzelnes Zeichen
' kann ein Begrenzungszeichen zwischen zwei Teilzeichenketten sein, aber DelimChars kann
' eine beliebige Anzahl von Begrenzungszeichen enthalten. Es gibt ein einzelnes Element
' Array zurück, das den gesamten Text enthält, wenn DelimChars leer ist, oder ein 1 oder größeres
Array mit 1 oder mehr ' Elementen zurück, wenn der Text erfolgreich in Teilstrings aufgeteilt wurde.
' Wenn IgnoreConsecutiveDelimiters wahr ist, werden leere Array-Elemente nicht auftreten.
' Wenn Limit größer als 0 ist, teilt die Funktion Text nur in 'Limit'
' Array-Elemente oder weniger. Das letzte Element enthält den Rest von Text.
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
Function SplitMultiDelims(ByRef Text As String, ByRef DelimChars As String, _
Optional ByVal IgnoreConsecutiveDelimiters As Boolean = False, _
Optional ByVal Limit As Long = -1) As String()
Dim ElemStart As Long, N As Long, M As Long, Elements As Long
Dim lDelims As Long, lText As Long
Dim Arr() As String
lText = Len(Text)
lDelims = Len(DelimChars)
If lDelims = 0 Or lText = 0 Or Limit = 1 Then
ReDim Arr(0 To 0)
Arr(0) = Text
SplitMultiDelims = Arr
Funktion beenden
Ende Wenn
ReDim Arr(0 To IIf(Grenze = -1, lText - 1, Grenze))
Elemente = 0: ElemStart = 1
For N = 1 To lText
If InStr(DelimChars, Mid(Text, N, 1)) Then
Arr(Elemente) = Mid(Text, ElemStart, N - ElemStart)
If IgnoreConsecutiveDelimiters Then
If Len(Arr(Elemente)) > 0 Then Elemente = Elemente + 1
Sonst
Elemente = Elemente + 1
Ende wenn
ElemStart = N + 1
Wenn Elemente + 1 = Limit Dann Exit For
Ende Wenn
Nächstes N
'Das letzte Token, das durch das Ende der Zeichenkette beendet wird, in das Array holen
If ElemStart <= lText Then Arr(Elements) = Mid(Text, ElemStart)
'Da das Ende der Zeichenkette als abschließendes Begrenzungszeichen zählt, wird, wenn das letzte Zeichen
'auch ein Begrenzungszeichen war, behandeln wir die beiden als aufeinanderfolgend und ignorieren daher das letzte Element
If IgnoreConsecutiveDelimiters Then If Len(Arr(Elements)) = 0 Then Elements = Elements - 1
ReDim Preserve Arr(0 To Elements) 'Nicht verwendete Array-Elemente abschneiden
SplitMultiDelims = Arr
Funktion beenden
```
Mit diesen beiden Metriken und einer dritten, die einfach den Abstand zwischen zwei Zeichenketten berechnet, haben wir eine Reihe von Variablen, mit denen wir einen Optimierungsalgorithmus ausführen können, um die größte Anzahl von Übereinstimmungen zu erzielen. Fuzzy-String-Matching ist selbst eine Fuzzy-Wissenschaft. Indem wir linear unabhängige Metriken für die Messung der String-Ähnlichkeit erstellen und einen bekannten Satz von Strings haben, die wir miteinander vergleichen wollen, können wir die Parameter finden, die für unsere spezifischen Stile von Strings die besten Fuzzy-Matching-Ergebnisse liefern.
Um den Fuzzy-Abgleich zu optimieren, können wir jede Metrik gewichten. Die Formel, die die endgültige Punktzahl bestimmt, ist eine einfache Kombination aus den Metriken und ihren Gewichtungen:
```
Wert = Min(phraseWeight*phraseValue, wordsWeight*wordsValue)*minWeight
+ Max(phraseWeight*phraseValue, wordsWeight*wordsValue)*maxWeight
+ lengthWeight*lengthValue
```
Für Ihren spezifischen Kontext müssen Sie eine Reihe von Gewichtungen für alle Metriken festlegen, die Sie sich zur Bestimmung der Ähnlichkeit ausdenken. Mit der geeigneten Heuristik und den entsprechenden Gewichtungen wird Ihr Vergleichsprogramm schnell die Entscheidungen treffen, die Sie auch getroffen hätten. | Necesito una forma de comparar múltiples cadenas con una cadena de prueba y devolver la cadena que más se le parezca:
``CADENA DE PRUEBA: EL ZORRO MARRÓN SALTÓ SOBRE LA VACA ROJA
OPCIÓN A : LA VACA ROJA SALTÓ SOBRE LA GALLINA VERDE
OPCIÓN B : LA VACA ROJA SALTÓ SOBRE LA VACA ROJA
OPCIÓN C : EL ZORRO ROJO SALTÓ SOBRE LA VACA MARRÓN
```
(Si lo he hecho correctamente) La cadena más cercana a la "CADENA DE PRUEBA" debería ser "ELECCIÓN C". ¿Cuál es la forma más sencilla de hacerlo?
Planeo implementar esto en múltiples lenguajes incluyendo VB.net, Lua, y JavaScript. En este punto, el pseudocódigo es aceptable. ¡Si usted puede proporcionar un ejemplo para un lenguaje específico, esto es apreciado también! | La concordancia difusa de cadenas es el proceso de realizar una estimación similar a la humana de la similitud de dos palabras o frases. En muchos casos, implica la implementación del algoritmo de distancia de Levenshtein, que determina cuántos cambios deben realizarse en una cadena o frase para convertirla en otra cadena o frase. La siguiente implementación en VBA implica una comparación ponderada de la longitud de las dos frases, el número de cambios entre cada frase y si cada palabra podría encontrarse en la entrada de destino.
```
'Calcular la distancia Levenshtein entre dos cadenas (el número de inserciones,
'eliminaciones y sustituciones necesarias para transformar la primera cadena en la segunda)
Public Function Distancia Levenshtein(ByRef S1 As String, ByVal S2 As String) As Long
Dim L1 As Long, L2 As Long, D() As Long 'Longitud de las cadenas de entrada y matriz de distancias
Dim i As Long, j As Long, cost As Long 'Contadores de bucle y coste de sustitución para la letra actual
Dim cI As Long, cD As Long, cS As Long 'coste de la siguiente inserción, borrado y sustitución
L1 = Len(S1): L2 = Len(S2)
ReDim D(0 a L1, 0 a L2)
For i = 0 To L1: D(i, 0) = i: Siguiente i
Para j = 0 a L2: D(0, j) = j: Siguiente j
De j = 1 a L2
Para i = 1 a L1
coste = Abs(StrComp(Mid$(S1, i, 1), Mid$(S2, j, 1), vbTextCompare))
cI = D(i - 1, j) + 1
cD = D(i, j - 1) + 1
cS = D(i - 1, j - 1) + coste
Si cI <= cD Entonces 'Inserción o sustitución
Si cI <= cS Entonces D(i, j) = cI Si no D(i, j) = cS
Else 'Supresión o sustitución
Si cD <= cS Entonces D(i, j) = cD Si no D(i, j) = cS
Fin If
Siguiente i
Siguiente j
Distancia Levenshtein = D(L1, L2)
Fin de la función
```
Podemos crear dos métricas distintas para evaluar la similitud de dos cadenas. Una es "valuePhrase" y la otra es "valueWords". valuePhrase es simplemente la distancia Levenshtein entre las dos frases, y valueWords divide la cadena en palabras individuales, basándose en delimitadores como espacios, guiones y cualquier otra cosa que desee, y compara cada palabra con cada otra palabra, sumando la distancia Levenshtein más corta que conecta dos palabras cualesquiera. Básicamente, mide si la información de una "frase" está realmente contenida en otra, como una permutación de palabras.
valueWords, valuePhrase y función Split:
```
Public Function valorFrase#(ByRef S1$, ByRef S2$)
valorFrase = Distancia Levenshtein(S1, S2)
Fin de la función
Public Function valorPalabras#(ByRef S1$, ByRef S2$)
Dim palabrasS1$(), palabrasS2$()
palabrasS1 = SplitMultiDelims(S1, " _-")
palabrasS2 = SplitMultiDelims(S2, " _-")
Dim palabra1%, palabra2%, estaD#, mejorpalabra#
Dim palabrasTotal#
Para palabra1 = LBound(palabrasS1) To UBound(palabrasS1)
wordbest = Len(S2)
Para palabra2 = LBound(palabrasS2) To UBound(palabrasS2)
thisD = Distancia Levenshtein(palabrasS1(palabra1), palabrasS2(palabra2))
Si thisD < wordbest Entonces wordbest = thisD
Si thisD = 0 Entonces GoTo foundbest
Siguiente palabra2
mejorhallado:
palabrasTotal = palabrasTotal + palabrasmejor
Siguiente palabra1
valorPalabras = totalPalabras
Fin de la función
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
' DividirMúltiplesSubcadenas
' Esta función divide Text en una matriz de subcadenas, cada subcadena
' delimitada por cualquier caracter en DelimChars. Sólo un carácter
' puede ser un delimitador entre dos subcadenas, pero DelimChars puede
' contener cualquier número de caracteres delimitadores. Devuelve una matriz de un solo elemento
' que contiene todo el texto si DelimChars está vacío, o una matriz de 1 o más elementos
' matriz de elementos si el Texto se divide con éxito en subcadenas.
' Si IgnoreConsecutiveDelimiters es verdadero, no aparecerán elementos vacíos en el array.
' Si Límite es mayor que 0, la función sólo dividirá el Texto en 'Límite'
' o menos. El último elemento contendrá el resto del texto.
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
Function SplitMultiDelims(ByRef Text As String, ByRef DelimChars As String, _
Optional ByVal IgnoreConsecutiveDelimiters As Boolean = False, _
Optional ByVal Limit As Long = -1) As String()
Dim ElemStart As Long, N As Long, M As Long, Elements As Long
Dim lDelims As Long, lText As Long
Dim Arr() As String
lText = Len(Texto)
lDelims = Len(DelimChars)
If lDelims = 0 Or lText = 0 Or Limit = 1 Then
ReDim Arr(0 A 0)
Arr(0) = Texto
SplitMultiDelims = Arr
Salir de la función
End If
ReDim Arr(0 To IIf(Limit = -1, lText - 1, Limit))
Elementos = 0: ElemStart = 1
For N = 1 To lText
If InStr(DelimChars, Mid(Text, N, 1)) Then
Arr(Elements) = Mid(Text, ElemStart, N - ElemStart)
If IgnoreConsecutiveDelimiters Then
Si Len(Arr(Elementos)) > 0 Entonces Elementos = Elementos + 1
Si no
Elementos = Elementos + 1
Fin If
ElemStart = N + 1
Si Elements + 1 = Limit Entonces Exit For
End If
Next N
'Obtener el último token terminado por el final de la cadena en el array
If ElemStart <= lText Then Arr(Elements) = Mid(Text, ElemStart)
Dado que el final de la cadena cuenta como delimitador final, si el último carácter
'también era un delimitador, tratamos los dos como consecutivos, e ignoramos el último elemento
If IgnoreConsecutiveDelimiters Then If Len(Arr(Elements)) = 0 Then Elements = Elements - 1
ReDim Preserve Arr(0 To Elements) 'Corta los elementos no utilizados de la matriz
SplitMultiDelims = Arr
Fin de la función
```
Usando estas dos métricas, y una tercera que simplemente calcula la distancia entre dos cadenas, tenemos una serie de variables con las que podemos ejecutar un algoritmo de optimización para conseguir el mayor número de coincidencias. El emparejamiento difuso de cadenas es, en sí mismo, una ciencia difusa, y así, creando métricas linealmente independientes para medir la similitud de las cadenas, y teniendo un conjunto conocido de cadenas que deseamos emparejar entre sí, podemos encontrar los parámetros que, para nuestros estilos específicos de cadenas, dan los mejores resultados de emparejamiento difuso.
Para permitir la optimización del emparejamiento difuso, podemos ponderar cada métrica. La fórmula que define la puntuación final es una simple combinación de las métricas y sus ponderaciones:
```
value = Min(phraseWeight*phraseValue, wordsWeight*wordsValue)*minWeight
+ Max(pesofrase*valorfrase, pesopalabras*valorpalabras)*pesomáximo
+ longitudPeso*longitudValor
```
Para su contexto específico, tiene que idear un conjunto de pesos para cualquier métrica que se le ocurra para determinar la similitud. Con el conjunto apropiado de heurísticas y pesos, tendrás tu programa de comparación tomando rápidamente las decisiones que tú habrías tomado. | J'ai besoin d'un moyen de comparer plusieurs chaînes à une chaîne de test et de renvoyer la chaîne qui lui ressemble le plus :
``CHAÎNE DE TEST : LE RENARD BRUN A SAUTÉ PAR-DESSUS LA VACHE ROUGE
CHOIX A : LA VACHE ROUGE A SAUTÉ PAR-DESSUS LE POULET VERT
CHOIX B : LA VACHE ROUGE A SAUTÉ PAR-DESSUS LA VACHE ROUGE
CHOIX C : LE RENARD ROUX A SAUTÉ SUR LA VACHE BRUNE
```
(Si j'ai fait cela correctement) La chaîne la plus proche de la "CHAÎNE DE TEST" devrait être "CHOIX C". Quelle est la façon la plus simple de procéder ?
Je prévois d'implémenter ceci dans plusieurs langages, y compris VB.net, Lua et JavaScript. À ce stade, le pseudo-code est acceptable. Si vous pouvez fournir un exemple pour un langage spécifique, cela sera également apprécié ! | L'appariement flou de chaînes de caractères est le processus qui consiste à estimer, à la manière d'un être humain, la similarité de deux mots ou phrases. Dans de nombreux cas, il s'agit de mettre en œuvre l'algorithme de distance de Levenshtein, qui détermine le nombre de modifications à apporter à une chaîne de caractères ou à une phrase pour la transformer en une autre chaîne de caractères ou en une autre phrase. La mise en œuvre suivante en VBA implique une comparaison pondérée de la longueur des deux phrases, du nombre de changements entre chaque phrase et de la possibilité de trouver chaque mot dans l'entrée cible.
```
'Calculer la distance de Levenshtein entre deux chaînes de caractères (le nombre d'insertions,
'suppressions et de substitutions nécessaires pour transformer la première chaîne en la seconde)
Public Function LevenshteinDistance(ByRef S1 As String, ByVal S2 As String) As Long
Dim L1 As Long, L2 As Long, D() As Long 'Longueur des chaînes d'entrée et matrice de distance
Dim i As Long, j As Long, cost As Long 'Compteurs de boucles et coût de la substitution pour la lettre actuelle
Dim cI As Long, cD As Long, cS As Long 'coût de l'insertion, de la suppression et de la substitution suivantes
L1 = Len(S1) : L2 = Len(S2)
ReDim D(0 To L1, 0 To L2)
Pour i = 0 à L1 : D(i, 0) = i : i suivant
Pour j = 0 à L2 : D(0, j) = j : Next j
Pour j = 1 à L2
Pour i = 1 à L1
cost = Abs(StrComp(Mid$(S1, i, 1), Mid$(S2, j, 1), vbTextCompare))
cI = D(i - 1, j) + 1
cD = D(i, j - 1) + 1
cS = D(i - 1, j - 1) + coût
Si cI <= cD Alors 'Insertion ou Substitution
Si cI <= cS Alors D(i, j) = cI Sinon D(i, j) = cS
Else 'Suppression ou substitution
Si cD <= cS Alors D(i, j) = cD Sinon D(i, j) = cS
Fin Si
Suivant i
Suivant j
Distance de Levenshtein = D(L1, L2)
Fin de la fonction
```
Nous pouvons créer deux métriques distinctes pour évaluer la similarité de deux chaînes de caractères. valuePhrase est simplement la distance de Levenshtein entre les deux phrases, et valueWords divise la chaîne en mots individuels, en se basant sur des délimiteurs tels que les espaces, les tirets et tout ce que vous voulez, et compare chaque mot à chaque autre mot, en résumant la distance de Levenshtein la plus courte entre deux mots. Essentiellement, il mesure si les informations d'une "phrase" sont réellement contenues dans une autre, comme une permutation de mots.
valueWords, valuePhrase et la fonction Split :
```
Public Function valuePhrase#(ByRef S1$, ByRef S2$)
valuePhrase = LevenshteinDistance(S1, S2)
Fin de la fonction
Public Function valueWords#(ByRef S1$, ByRef S2$)
Dim wordsS1$(), wordsS2$()
wordsS1 = SplitMultiDelims(S1, " _- ")
wordsS2 = SplitMultiDelims(S2, " _- ")
Dim word1%, word2%, thisD#, wordbest#
Dim wordsTotal#
Pour word1 = LBound(wordsS1) To UBound(wordsS1)
wordbest = Len(S2)
For word2 = LBound(wordsS2) To UBound(wordsS2)
thisD = LevenshteinDistance(wordsS1(word1), wordsS2(word2))
Si thisD < wordbest Alors wordbest = thisD
Si thisD = 0 Alors GoTo foundbest
Mot2 suivant
foundbest :
wordsTotal = wordsTotal + wordbest
Mot1 suivant
valueWords = wordsTotal
Fin de la fonction
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
' SplitMultiDelims
' Cette fonction divise le texte en un tableau de sous-chaînes, chaque sous-chaîne étant
' délimitée par n'importe quel caractère dans DelimChars. Un seul caractère
' peut être un délimiteur entre deux sous-chaînes, mais DelimChars peut
' contenir n'importe quel nombre de caractères délimiteurs. Il renvoie un tableau à un seul élément
' contenant tout le texte si DelimChars est vide, ou un tableau à 1 élément ou plus si le texte est correctement délimité.
' un tableau à 1 élément ou plus si le texte est divisé avec succès en sous-chaînes.
Si IgnoreConsecutiveDelimiters est vrai, il n'y aura pas d'éléments vides dans le tableau.
' Si Limite est supérieur à 0, la fonction ne divisera le texte qu'en éléments de tableau 'Limite'
' ou moins. Le dernier élément contiendra le reste du texte.
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
Function SplitMultiDelims(ByRef Text As String, ByRef DelimChars As String, _
Optional ByVal IgnoreConsecutiveDelimiters As Boolean = False, _
Optionnel ByVal Limit As Long = -1) As String()
Dim ElemStart As Long, N As Long, M As Long, Elements As Long
Dim lDelims As Long, lText As Long
Dim Arr() As String
lText = Len(Text)
lDelims = Len(DelimChars)
Si lDelims = 0 ou lText = 0 ou Limit = 1 Alors
ReDim Arr(0 To 0)
Arr(0) = Texte
SplitMultiDelims = Arr
Sortie de la fonction
Fin Si
ReDim Arr(0 To IIf(Limit = -1, lText - 1, Limit))
Elements = 0 : ElemStart = 1
Pour N = 1 à lText
Si InStr(DelimChars, Mid(Text, N, 1)) Alors
Arr(Elements) = Mid(Text, ElemStart, N - ElemStart)
Si IgnoreConsecutiveDelimiters Alors
Si Len(Arr(Eléments)) > 0 Alors Éléments = Éléments + 1
Sinon
Éléments = Éléments + 1
Fin Si
ElemStart = N + 1
Si Éléments + 1 = Limite Alors Exit For
Fin Si
Suivant N
Récupérer le dernier élément terminé par la fin de la chaîne de caractères dans le tableau
If ElemStart <= lText Then Arr(Elements) = Mid(Text, ElemStart)
'Puisque la fin de la chaîne compte comme délimiteur de fin, si le dernier caractère
'était également un délimiteur, nous considérons les deux comme consécutifs et ignorons donc le dernier élément
If IgnoreConsecutiveDelimiters Then If Len(Arr(Elements)) = 0 Then Elements = Elements - 1
ReDim Preserve Arr(0 To Elements) 'Coupe les éléments inutilisés du tableau
SplitMultiDelims = Arr
Fin de la fonction
```
En utilisant ces deux métriques, et une troisième qui calcule simplement la distance entre deux chaînes de caractères, nous disposons d'une série de variables pour lesquelles nous pouvons exécuter un algorithme d'optimisation afin d'obtenir le plus grand nombre de correspondances. L'appariement flou des chaînes de caractères est, en soi, une science floue, et donc en créant des métriques linéairement indépendantes pour mesurer la similarité des chaînes de caractères, et en ayant un ensemble connu de chaînes de caractères que nous souhaitons faire correspondre entre elles, nous pouvons trouver les paramètres qui, pour nos styles spécifiques de chaînes de caractères, donnent les meilleurs résultats d'appariement flou.
Pour permettre l'optimisation de la correspondance floue, nous pouvons pondérer chaque paramètre. La formule qui définit le score final est une simple combinaison des métriques et de leurs poids :
```
value = Min(phraseWeight*phraseValue, wordsWeight*wordsValue)*minWeight
+ Max(poids de la phrase*valeur de la phrase, poids des mots*valeur des mots)*poids maximal
+ lengthWeight*lengthValue
```
Pour votre contexte spécifique, vous devez trouver un ensemble de poids pour toutes les mesures que vous trouvez pour déterminer la similarité. Avec l'ensemble approprié d'heuristiques et de poids, votre programme de comparaison prendra rapidement les décisions que vous auriez prises. | Ho bisogno di un modo per confrontare più stringhe con una stringa di prova e restituire la stringa che più le assomiglia:
``STRINGA DI PROVA: LA VOLPE MARRONE SALTÒ SOPRA LA MUCCA ROSSA
SCELTA A : LA MUCCA ROSSA SALTÒ SOPRA LA GALLINA VERDE
SCELTA B : LA MUCCA ROSSA SALTÒ SOPRA LA MUCCA ROSSA
SCELTA C : LA VOLPE ROSSA SALTÒ SOPRA LA MUCCA MARRONE
```
(Se ho fatto bene) La stringa più vicina alla "STRINGA TEST" dovrebbe essere "SCELTA C". Qual è il modo più semplice per farlo?
Ho intenzione di implementarlo in più linguaggi, tra cui VB.net, Lua e JavaScript. A questo punto, lo pseudocodice è accettabile. Se potete fornire un esempio per un linguaggio specifico, anche questo è apprezzato! | Il Fuzzy String Matching è un processo che consiste nell'eseguire una stima simile a quella umana della somiglianza di due parole o frasi. In molti casi, si tratta di implementare l'algoritmo della distanza di Levenshtein, che determina quante modifiche devono essere apportate a una stringa o frase per trasformarla in un'altra stringa o frase. La seguente implementazione in VBA prevede un confronto ponderato tra la lunghezza delle due frasi, il numero di modifiche tra ciascuna frase e la possibilità di trovare ciascuna parola nella voce di destinazione.
```
Calcolare la distanza Levenshtein tra due stringhe (il numero di inserimenti,
'cancellazioni e sostituzioni necessarie per trasformare la prima stringa nella seconda)
Public Function LevenshteinDistance(ByRef S1 As String, ByVal S2 As String) As Long
Dim L1 As Long, L2 As Long, D() As Long 'Lunghezza delle stringhe in ingresso e matrice di distanza
Dim i As Long, j As Long, cost As Long 'contatori del ciclo e costo della sostituzione per la lettera corrente
Dim cI As Long, cD As Long, cS As Long 'costo delle successive operazioni di inserimento, cancellazione e sostituzione
L1 = Len(S1): L2 = Len(S2)
ReDim D(0 a L1, 0 a L2)
Per i = 0 a L1: D(i, 0) = i: Prossimo i
Per j = 0 A L2: D(0, j) = j: Prossimo j
Per j = 1 A L2
Per i = 1 a L1
costo = Abs(StrComp(Mid$(S1, i, 1), Mid$(S2, j, 1), vbTextCompare))
cI = D(i - 1, j) + 1
cD = D(i, j - 1) + 1
cS = D(i - 1, j - 1) + costo
Se cI <= cD Allora 'Inserimento o Sostituzione
Se cI <= cS Allora D(i, j) = cI Altrimenti D(i, j) = cS
Altrimenti 'Cancellazione o sostituzione
Se cD <= cS Allora D(i, j) = cD Altrimenti D(i, j) = cS
Fine Se
Prossimo i
Prossimo j
Distanza Levenshtein = D(L1, L2)
Fine della funzione
```
Possiamo creare due metriche separate per valutare la somiglianza di due stringhe. Una è "valuePhrase" e l'altra è "valueWords". valuePhrase è solo la distanza Levenshtein tra le due frasi, mentre valueWords divide la stringa in singole parole, in base a delimitatori come spazi, trattini e qualsiasi altra cosa si desideri, e confronta ogni parola con ogni altra parola, sommando la distanza Levenshtein più breve tra due parole. In sostanza, misura se l'informazione contenuta in una "frase" è realmente contenuta in un'altra, proprio come una permutazione di parole.
valueWords, valuePhrase e la funzione Split:
```
Funzione pubblica valuePhrase#(ByRef S1$, ByRef S2$)
valoreFrasi = LevenshteinDistance(S1, S2)
Fine della funzione
Funzione pubblica valueWords#(ByRef S1$, ByRef S2$)
Dim paroleS1$(), paroleS2$()
paroleS1 = SplitMultiDelims(S1, " _-")
paroleS2 = SplitMultiDelims(S2, " _-")
Dim word1%, word2%, thisD#, wordbest#
Dim paroleTotale#
Per parola1 = LBound(paroleS1) A UBound(paroleS1)
wordbest = Len(S2)
Per parola2 = da LBound(paroleS2) a UBound(paroleS2)
thisD = LevenshteinDistance(paroleS1(parola1), paroleS2(parola2))
Se thisD < wordbest Allora wordbest = thisD
Se thisD = 0 Allora Vai a foundbest
Parola successiva2
foundbest:
wordsTotal = wordsTotal + wordbest
Parola successiva1
valoreParole = totale parole
Fine della funzione
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
' DividiMultiDelimitazioni
' Questa funzione divide il testo in una matrice di sottostringhe, ciascuna delle quali è
' delimitata da qualsiasi carattere in DelimChars. Solo un singolo carattere
' può essere un delimitatore tra due sottostringhe, ma DelimChars può
' contenere un numero qualsiasi di caratteri delimitatori. Restituisce un array a singolo elemento
' contenente tutto il testo, se DelimChars è vuoto, oppure un array di 1 o più elementi
' elemento se il testo è stato suddiviso con successo in sottostringhe.
' Se IgnoreConsecutiveDelimiters è vero, gli elementi vuoti dell'array non saranno presenti.
' Se Limite è maggiore di 0, la funzione dividerà il testo solo in elementi dell'array 'Limite' o meno.
' elementi della matrice o meno. L'ultimo elemento conterrà il resto del testo.
''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
Funzione SplitMultiDelims(ByRef Text As String, ByRef DelimChars As String, _
Optional ByVal IgnoreConsecutiveDelimiters As Boolean = False, _
ByVal opzionale Limit As Long = -1) As String()
Dim ElemStart As Long, N As Long, M As Long, Elements As Long
Dim lDelims Come Lungo, lText Come Lungo
Dim Arr() Come Stringa
lText = Len(Testo)
lDelims = Len(DelimChars)
Se lDelims = 0 O lText = 0 O Limite = 1 Allora
ReDim Arr(0 a 0)
Arr(0) = Testo
SplitMultiDelims = Arr
Esci dalla funzione
Fine Se
ReDim Arr(0 A IIf(Limite = -1, lText - 1, Limite))
Elementi = 0: ElemStart = 1
Per N = 1 a lText
Se InStr(DelimChars, Mid(Text, N, 1)) Allora
Arr(Elementi) = Mid(Testo, ElemStart, N - ElemStart)
Se IgnoraDelimitatoriConsecutivi Allora
Se Len(Arr(Elementi)) > 0 Allora Elementi = Elementi + 1
Altrimenti
Elementi = Elementi + 1
Fine Se
ElemStart = N + 1
Se Elementi + 1 = Limite Allora Esci per
Fine Se
Prossimo N
'Ottenere l'ultimo token terminato dalla fine della stringa nell'array
Se ElemStart <= lText Allora Arr(Elements) = Mid(Text, ElemStart)
'Poiché la fine della stringa conta come delimitatore di terminazione, se l'ultimo carattere
'era anch'esso un delimitatore, consideriamo i due come consecutivi e quindi ignoriamo l'ultimo elemento
If IgnoreConsecutiveDelimiters Then If Len(Arr(Elements)) = 0 Then Elements = Elements - 1
ReDim Preserve Arr(0 To Elements) 'Taglia gli elementi inutilizzati dell'array
SplitMultiDelims = Arr
Fine della funzione
```
Utilizzando queste due metriche e una terza che calcola semplicemente la distanza tra due stringhe, abbiamo una serie di variabili su cui possiamo eseguire un algoritmo di ottimizzazione per ottenere il maggior numero di corrispondenze. L'abbinamento fuzzy delle stringhe è di per sé una scienza fuzzy e quindi, creando metriche linearmente indipendenti per misurare la somiglianza delle stringhe e disponendo di un insieme noto di stringhe che desideriamo abbinare tra loro, possiamo trovare i parametri che, per i nostri stili specifici di stringhe, danno i migliori risultati di abbinamento fuzzy.
Per consentire l'ottimizzazione della corrispondenza fuzzy, possiamo ponderare ciascuna metrica. La formula che definisce il punteggio finale è una semplice combinazione delle metriche e dei loro pesi:
```
valore = Min(phraseWeight*phraseValue, wordsWeight*wordsValue)*minWeight
+ Max(phraseWeight*phraseValue, wordsWeight*wordsValue)*maxWeight
+ lunghezzaPeso*lunghezzaValore
```
Per il vostro contesto specifico, dovete trovare una serie di pesi per qualsiasi metrica che avete ideato per determinare la somiglianza. Con un insieme appropriato di euristiche e pesi, il programma di confronto prenderà rapidamente le decisioni che avreste preso voi. |
223 | Given the following code:
```var arr = [1,2,3,4,5];
var results: number[] = await arr.map(async (item): Promise => {
await callAsynchronousOperation(item);
return item + 1;
});
```
which produces the following error:
TS2322: Type 'Promise[]' is not assignable to type 'number[]'.
Type 'Promise is not assignable to type 'number'.
How can I fix it? How can I make ```async await``` and ```Array.map``` work together? | The problem here is that you are trying to ```await``` an array of promises rather than a Promise. This doesn't do what you expect.
When the object passed to ```await``` is not a Promise, ```await``` simply returns the value as-is immediately instead of trying to resolve it. So since you passed ```await``` an array (of Promise objects) here instead of a Promise, the value returned by await is simply that array, which is of type ```Promise[]```.
What you probably want to do is call ```Promise.all``` on the array returned by ```map``` in order to convert it to a single Promise before ```await```ing it.
According to the MDN docs for ```Promise.all```:
The ```Promise.all(iterable)``` method returns a promise that resolves
when all of the promises in the iterable argument have resolved, or
rejects with the reason of the first passed promise that rejects.
So in your case:
```var arr = [1, 2, 3, 4, 5];
var results: number[] = await Promise.all(arr.map(async (item): Promise => {
await callAsynchronousOperation(item);
return item + 1;
}));
```
This will resolve the specific error you are encountering here.
Depending on exactly what it is you're trying to do you may also consider using ```Promise.allSettled```, ```Promise.any```, or ```Promise.race``` instead of ```Promise.all```, though in most situations (almost certainly including this one) ```Promise.all``` will be the one you want. | Gegeben sei der folgende Code:
```var arr = [1,2,3,4,5];
var results: number[] = await arr.map(async (item): Promise => {
await callAsynchronousOperation(item);
return item + 1;
});
```
was den folgenden Fehler erzeugt:
TS2322: Typ 'Promise[]' ist dem Typ 'number[]' nicht zuweisbar.
Der Typ 'Promise' kann dem Typ 'Zahl' nicht zugewiesen werden.
Wie kann ich das beheben? Wie kann ich ```async await`` und ```Array.map`` zusammenarbeiten lassen? | Das Problem hier ist, dass Sie versuchen, ein Array von Promises zu ``erwarten`` und nicht ein Promise. Das macht nicht das, was Sie erwarten.
Wenn das Objekt, das an ```await`` übergeben wird, kein Promise ist, gibt ```await`` den Wert einfach so zurück, wie er ist, anstatt zu versuchen, ihn aufzulösen. Da Sie also ```await`` hier ein Array (von Promise-Objekten) anstelle eines Promise übergeben haben, ist der von await zurückgegebene Wert einfach dieses Array, das vom Typ ```Promise[]``` ist.
Was Sie wahrscheinlich tun wollen, ist ```Promise.all`` auf das von ```map`` zurückgegebene Array anzuwenden, um es in ein einzelnes Promise umzuwandeln, bevor Sie es ``await`` verwenden.
Laut der MDN-Dokumentation für ```Promise.all``:
Die Methode ```Promise.all(iterable)``` gibt ein Versprechen zurück, das aufgelöst wird
wenn alle Versprechen im Argument iterable aufgelöst wurden, oder
lehnt mit dem Grund des ersten übergebenen Versprechens, das ablehnt, ab.
Also in Ihrem Fall:
```var arr = [1, 2, 3, 4, 5];
var results: number[] = await Promise.all(arr.map(async (item): Promise => {
await callAsynchronousOperation(item);
return item + 1;
}));
```
Damit wird der spezifische Fehler, auf den Sie hier stoßen, behoben.
Je nachdem, was Sie genau tun wollen, können Sie auch ```Promise.allSettled``, ```Promise.any`` oder ```Promise.race`` anstelle von ```Promise.all`` verwenden, obwohl in den meisten Situationen (einschließlich dieser hier) ```Promise.all`` die richtige ist. | Dado el siguiente código:
```var arr = [1,2,3,4,5];
var results: number[] = await arr.map(async (item): Promise => {
await callAsynchronousOperation(item);
return item + 1;
});
```
que produce el siguiente error
TS2322: El tipo 'Promise[]' no es asignable al tipo 'number[]'.
El tipo ``Promise[]'' no es asignable al tipo ``number[]''.
¿Cómo puedo solucionarlo? ¿Cómo puedo hacer que ``async await`` y ``Array.map`` trabajen juntos? | El problema aquí es que estás intentando ```esperar`` un array de promesas en lugar de una Promise. Esto no hace lo que esperas.
Cuando el objeto pasado a ```await`` no es una Promise, ```await`` simplemente devuelve el valor tal cual inmediatamente en lugar de intentar resolverlo. Así que como aquí has pasado a ``await`` un array (de objetos Promise) en lugar de una Promise, el valor devuelto por await es simplemente ese array, que es de tipo ```Promise[]``.
Lo que probablemente quieras hacer es llamar a ```Promise.all`` sobre el array devuelto por ```map`` para convertirlo en una única Promise antes de ```await``.
Según la documentación MDN de ``Promise.all``:
El método ```Promise.all(iterable)`` devuelve una promesa que se resuelve
cuando todas las promesas del argumento iterable se han resuelto, o
rechaza con la razón de la primera promesa pasada que rechaza.
Así que en tu caso
```var arr = [1, 2, 3, 4, 5];
var results: number[] = await Promise.all(arr.map(async (item): Promise => {
await callAsynchronousOperation(item);
return item + 1;
}));
```
Esto resolverá el error específico que estás encontrando aquí.
Dependiendo de lo que estés intentando hacer, también puedes considerar utilizar ``Promise.allSettled``, ``Promise.any``, o ``Promise.race`` en lugar de ``Promise.all``, aunque en la mayoría de las situaciones (incluida ésta, casi con toda seguridad) ``Promise.all`` será la que desees. | Étant donné le code suivant :
```var arr = [1,2,3,4,5] ;
var results : number[] = await arr.map(async (item) : Promise => {
await callAsynchronousOperation(item) ;
return item + 1 ;
}) ;
```
ce qui produit l'erreur suivante :
TS2322 : Le type 'Promise[]' n'est pas assignable au type 'number[]'.
Le type 'Promise n'est pas assignable au type 'number'.
Comment puis-je résoudre ce problème ? Comment faire fonctionner ensemble ``async await`` et ``Array.map`` ? | Le problème ici est que vous essayez d'"attendre" un tableau de promesses plutôt qu'une Promise. Cela ne fait pas ce que vous attendez.
Quand l'objet passé à ``await`` n'est pas une Promise, ``await`` renvoie simplement la valeur telle quelle immédiatement au lieu d'essayer de la résoudre. Donc, puisque vous avez passé à ``await`` un tableau (d'objets Promise) au lieu d'une Promise, la valeur retournée par await est simplement ce tableau, qui est de type ``Promise[]``.
Ce que vous voulez probablement faire, c'est appeler ``Promise.all`` sur le tableau retourné par ``map`` afin de le convertir en une seule Promise avant de le ``await``.
D'après la documentation MDN pour ``Promise.all`` :
La méthode ``Promise.all(iterable)`` retourne une promesse qui se résout
lorsque toutes les promesses de l'argument iterable ont été résolues, ou
rejette avec la raison de la première promesse passée qui rejette.
Donc dans votre cas :
```var arr = [1, 2, 3, 4, 5] ;
var results : number[] = await Promise.all(arr.map(async (item) : Promise => {
await callAsynchronousOperation(item) ;
return item + 1 ;
})) ;
```
Ceci résoudra l'erreur spécifique que vous rencontrez ici.
En fonction de ce que vous essayez de faire, vous pouvez aussi envisager d'utiliser ``Promesse.allSettled``, ``Promesse.any``, ou ``Promesse.race`` au lieu de ``Promesse.all``, bien que dans la plupart des situations (y compris certainement celle-ci) ``Promesse.all`` sera celle que vous voulez. | Dato il seguente codice:
```var arr = [1,2,3,4,5];
var results: number[] = await arr.map(async (item): Promessa => {
await callAsynchronousOperation(item);
restituisce item + 1;
});
```
che produce il seguente errore:
TS2322: Il tipo 'Promise[]' non è assegnabile al tipo 'number[]'.
Il tipo 'Promise non è assegnabile al tipo 'number'.
Come posso risolvere il problema? Come posso far funzionare insieme ```async await`` e ```Array.map``? | Il problema è che si sta cercando di ```aspettare'' un array di promesse piuttosto che una Promessa. Questo non fa quello che ci si aspetta.
Quando l'oggetto passato a ```await``` non è una Promessa, ```await`` restituisce semplicemente il valore così com'è, invece di cercare di risolverlo. Quindi, avendo passato a ```await`` un array (di oggetti Promise) invece di una Promise, il valore restituito da await è semplicemente quell'array, che è di tipo ```Promise[]``.
Probabilmente si vuole chiamare ```Promise.all``` sull'array restituito da ```map``, per convertirlo in una singola Promessa prima di ```await``.
Secondo i documenti MDN per ```Promise.all```:
Il metodo ```Promise.all(iterable)`` restituisce una promessa che si risolve
quando tutte le promesse dell'argomento iterabile si sono risolte, oppure
rifiuta con il motivo della prima promessa passata che rifiuta.
Quindi, nel vostro caso:
```var arr = [1, 2, 3, 4, 5];
var results: number[] = await Promise.all(arr.map(async (item): Promise => {
await callAsynchronousOperation(item);
restituisce item + 1;
}));
```
Questo risolverà l'errore specifico che si sta incontrando.
A seconda di ciò che si sta cercando di fare, si può anche considerare di usare ``Promise.allSettled```, ```Promise.any``` o ```Promise.race`` al posto di ```Promise.all```, anche se nella maggior parte delle situazioni (quasi certamente inclusa questa) ``Promise.all``` sarà quello desiderato. |
224 | Why don't helicopters use reaction wheels to counter the main rotor? | You're talking about a device (in helicopters the tail fan imparting horizontal thrust) that counteracts the torque imparted on the main rotor (and therefore on the helicopter) by the surrounding air as the main rotor is dragged through the air.
You propose instead to impart an opposite torque through a reaction wheel. That would indeed impart an opposite torque for short lengths of time. However, you don't get a torque from spinning a reaction wheel at constant angular velocity but by changing and accelerating that angular velocity.
Now the torque imparted on the helicopter by the air through the main rotor is steady - or at least its of roughly constant direction. Therefore, to counter that torque, the reaction wheel would have to accelerated uniformly and indefinitely. Clearly this is impossible from an engineering standpoint.
You can also think of this from a conservation of angular momentum, without thinking about the origin of the torques. The air imparts a steady angular impulse to the helicopter. Therefore, the helicopter system's angular momentum must increase steadily (unless there's a countering torque from the tailfan). So either that angular momentum is the spinning of the helicopter's body (which is what we're trying to avoid) or that of the reaction wheel, whose angular momentum must be steadily increasing under the action of the angular impulse to the system. | Warum werden bei Hubschraubern keine Reaktionsräder verwendet, um dem Hauptrotor entgegenzuwirken? | Sie sprechen von einer Vorrichtung (bei Hubschraubern das Heckgebläse, das einen horizontalen Schub erzeugt), die dem Drehmoment entgegenwirkt, das von der Umgebungsluft auf den Hauptrotor (und damit auf den Hubschrauber) ausgeübt wird, wenn der Hauptrotor durch die Luft gezogen wird.
Sie schlagen stattdessen vor, ein entgegengesetztes Drehmoment durch ein Reaktionsrad zu erzeugen. Das würde tatsächlich für kurze Zeit ein entgegengesetztes Drehmoment erzeugen. Ein Drehmoment erhält man jedoch nicht, indem man ein Reaktionsrad mit konstanter Winkelgeschwindigkeit dreht, sondern indem man die Winkelgeschwindigkeit ändert und beschleunigt.
Nun ist das Drehmoment, das die Luft durch den Hauptrotor auf den Hubschrauber ausübt, konstant - oder zumindest hat es eine annähernd konstante Richtung. Um diesem Drehmoment entgegenzuwirken, müsste das Reaktionsrad also gleichmäßig und unbegrenzt beschleunigt werden. Das ist aus technischer Sicht natürlich unmöglich.
Man kann dies auch unter dem Gesichtspunkt der Drehimpulserhaltung betrachten, ohne über den Ursprung der Drehmomente nachzudenken. Die Luft gibt dem Hubschrauber einen konstanten Drehimpuls. Daher muss der Drehimpuls des Hubschraubersystems stetig zunehmen (es sei denn, es gibt ein entgegengesetztes Drehmoment vom Heckventilator). Dieser Drehimpuls ist also entweder das Trudeln des Hubschrauberkörpers (was wir vermeiden wollen) oder der des Reaktionsrades, dessen Drehimpuls unter der Wirkung des Drehimpulses auf das System stetig zunehmen muss. | ¿Por qué los helicópteros no utilizan ruedas de reacción para contrarrestar el rotor principal? | Hablamos de un dispositivo (en los helicópteros, el ventilador de cola que imparte empuje horizontal) que contrarresta el par impartido al rotor principal (y, por tanto, al helicóptero) por el aire circundante cuando el rotor principal es arrastrado por el aire.
Tú propones en cambio impartir un par opuesto a través de una rueda de reacción. En efecto, eso impartiría un par opuesto durante breves periodos de tiempo. Sin embargo, no se obtiene un par girando una rueda de reacción a velocidad angular constante, sino cambiando y acelerando esa velocidad angular.
Ahora bien, el par impartido al helicóptero por el aire a través del rotor principal es constante, o al menos su dirección es más o menos constante. Por lo tanto, para contrarrestar ese par, la rueda de reacción tendría que acelerarse de manera uniforme e indefinida. Evidentemente, esto es imposible desde el punto de vista de la ingeniería.
También se puede pensar en ello desde el punto de vista de la conservación del momento angular, sin pensar en el origen de los pares. El aire imparte un impulso angular constante al helicóptero. Por lo tanto, el momento angular del sistema del helicóptero debe aumentar constantemente (a menos que haya un par de torsión contrario del ventilador de cola). Así que o bien ese momento angular es el giro del cuerpo del helicóptero (que es lo que estamos tratando de evitar) o el de la rueda de reacción, cuyo momento angular debe estar aumentando constantemente bajo la acción del impulso angular al sistema. | Pourquoi les hélicoptères n'utilisent-ils pas des roues de réaction pour contrer le rotor principal ? | Il s'agit d'un dispositif (dans les hélicoptères, le ventilateur de queue qui donne une poussée horizontale) qui s'oppose au couple imposé au rotor principal (et donc à l'hélicoptère) par l'air environnant lorsque le rotor principal est entraîné dans l'air.
Vous proposez plutôt de transmettre un couple opposé par l'intermédiaire d'une roue de réaction. Cela permettrait en effet de transmettre un couple opposé pendant de courtes périodes. Cependant, on n'obtient pas un couple en faisant tourner une roue de réaction à une vitesse angulaire constante, mais en modifiant et en accélérant cette vitesse angulaire.
Or, le couple transmis à l'hélicoptère par l'air à travers le rotor principal est constant - ou du moins sa direction est à peu près constante. Par conséquent, pour contrer ce couple, la roue de réaction devrait être accélérée uniformément et indéfiniment. Il est clair que cela est impossible d'un point de vue technique.
On peut également envisager cette situation du point de vue de la conservation du moment angulaire, sans se préoccuper de l'origine des couples. L'air transmet une impulsion angulaire régulière à l'hélicoptère. Par conséquent, le moment angulaire du système de l'hélicoptère doit augmenter régulièrement (à moins qu'il n'y ait un couple contraire provenant du ventilateur de queue). Ce moment angulaire est donc soit la rotation du corps de l'hélicoptère (ce que nous essayons d'éviter), soit celle de la roue de réaction, dont le moment angulaire doit augmenter régulièrement sous l'action de l'impulsion angulaire transmise au système. | Perché gli elicotteri non usano ruote di reazione per contrastare il rotore principale? | Si parla di un dispositivo (negli elicotteri la ventola di coda che impartisce una spinta orizzontale) che contrasta la coppia impressa al rotore principale (e quindi all'elicottero) dall'aria circostante mentre il rotore principale viene trascinato nell'aria.
Lei propone invece di imprimere una coppia opposta attraverso una ruota di reazione. In questo modo si potrebbe effettivamente imprimere una coppia contraria per brevi periodi di tempo. Tuttavia, non si ottiene una coppia facendo girare una ruota di reazione a velocità angolare costante, ma cambiando e accelerando tale velocità angolare.
Ora, la coppia impartita all'elicottero dall'aria attraverso il rotore principale è costante, o almeno ha una direzione approssimativamente costante. Pertanto, per contrastare questa coppia, la ruota di reazione dovrebbe accelerare in modo uniforme e indefinito. Chiaramente questo è impossibile da un punto di vista ingegneristico.
Si può anche pensare a questa situazione dal punto di vista della conservazione del momento angolare, senza pensare all'origine delle coppie. L'aria imprime un impulso angolare costante all'elicottero. Pertanto, il momento angolare del sistema elicottero deve aumentare costantemente (a meno che non ci sia una coppia contraria dalla ventola di coda). Quindi, o il momento angolare è la rotazione del corpo dell'elicottero (che è quello che stiamo cercando di evitare) o quello della ruota di reazione, il cui momento angolare deve aumentare costantemente sotto l'azione dell'impulso angolare al sistema. |
225 | When configuring cron to run a command every other day using the "Day of Month" field, like so:
```1 22 */2 * * COMMAND
```
it runs every time the day of month is odd: 1,3,5,7,9 and so on.
How can I configure cron to run on days of month that are even like 2,6,8,10 and so on (without specifying it literally, which is problematic as every month has a different number of days in the month)? | The syntax you tried is actually ambiguous. Depending on how many days are in the month, some months it will run on odd days and some on even. This is because the way it is calculated takes the total number of possibilities and divides them up. You can override this strage-ish behavior by manually specifying the day range and using either an odd or even number of days. Since even day scripts would never run on the 31st day of longer months, you don't lose anything using 30 days as the base for even-days, and by specifying specifically to divide it up as if there were 31 days you can force odd-day execution.
The syntax would look like this:
```# Will only run on odd days:
0 0 1-31/2 * * command
# Will only run on even days:
0 0 2-30/2 * * command
```
Your concern about months not having the same number of days is not important here because no months have MORE days than this, and for poor February, the date range just won't ever match the last day or two, but it will do no harm having it listed.
The only 'gotcha' for this approach is that if you are on an odd day cycle, following months with 31 days your command will also run on the first of the month. Likewise if you are forcing an even cycle, each leap year will cause one three-day cycle at the end of February. You cannot really get around the fact that any regular pattern of "every other day" is not always going to fall on even or odd days in every month and any way you force this you will either have an extra run or be missing a run between months with mismatched day counts. | Wenn Sie cron so konfigurieren, dass es jeden zweiten Tag einen Befehl ausführt, indem Sie das Feld "Tag des Monats" verwenden, etwa so:
```1 22 */2 * * BEFEHL
```
wird es jedes Mal ausgeführt, wenn der Tag des Monats ungerade ist: 1,3,5,7,9 und so weiter.
Wie kann ich cron so konfigurieren, dass es an geraden Monatstagen wie 2,6,8,10 usw. ausgeführt wird (ohne es wörtlich anzugeben, was problematisch ist, da jeder Monat eine andere Anzahl von Tagen hat)? | Die Syntax, die Sie ausprobiert haben, ist eigentlich zweideutig. Je nachdem, wie viele Tage der Monat hat, wird er in manchen Monaten an ungeraden und in manchen an geraden Tagen ausgeführt. Das liegt daran, dass bei der Berechnung die Gesamtzahl der Möglichkeiten zugrunde gelegt und aufgeteilt wird. Sie können dieses strenge Verhalten umgehen, indem Sie den Tagesbereich manuell festlegen und entweder eine gerade oder eine ungerade Anzahl von Tagen verwenden. Da Skripte mit geraden Tagen niemals am 31. Tag eines längeren Monats ausgeführt werden würden, haben Sie nichts zu verlieren, wenn Sie 30 Tage als Basis für die geraden Tage verwenden, und wenn Sie speziell angeben, dass sie so aufgeteilt werden sollen, als gäbe es 31 Tage, können Sie die Ausführung an ungeraden Tagen erzwingen.
Die Syntax würde wie folgt aussehen:
```# Wird nur an ungeraden Tagen ausgeführt:
0 0 1-31/2 * * Befehl
# Wird nur an geraden Tagen ausgeführt:
0 0 2-30/2 * * Befehl
```
Ihre Sorge, dass die Monate nicht die gleiche Anzahl von Tagen haben, ist hier nicht wichtig, da kein Monat mehr Tage hat als dieser, und für den armen Februar wird der Datumsbereich einfach nie mit dem letzten Tag oder den letzten zwei Tagen übereinstimmen, aber es schadet nicht, ihn aufzulisten.
Das einzige Problem bei diesem Ansatz ist, dass bei einem ungeraden Tageszyklus nach Monaten mit 31 Tagen der Befehl auch am Ersten des Monats ausgeführt wird. Wenn Sie einen geraden Zyklus erzwingen, führt jedes Schaltjahr zu einem dreitägigen Zyklus am Ende des Februars. Sie können die Tatsache nicht wirklich umgehen, dass ein regelmäßiges Muster von "jeden zweiten Tag" nicht immer auf gerade oder ungerade Tage in jedem Monat fällt, und egal, wie Sie dies erzwingen, Sie werden entweder einen zusätzlichen Lauf haben oder einen Lauf zwischen Monaten mit nicht übereinstimmender Tageszahl verpassen. | Al configurar cron para que ejecute un comando cada dos días utilizando el campo "Día del mes", de este modo:
```1 22 */2 * * COMANDO
```
se ejecuta cada vez que el día del mes es impar: 1,3,5,7,9 y así sucesivamente.
¿Cómo puedo configurar cron para que se ejecute en los días del mes que son pares como 2,6,8,10 y así sucesivamente (sin especificarlo literalmente, lo cual es problemático ya que cada mes tiene un número diferente de días en el mes)? | La sintaxis que has probado es en realidad ambigua. Dependiendo de cuántos días tenga el mes, algunos meses se ejecutará en los días impares y otros en los pares. Esto se debe a que la forma en que se calcula toma el número total de posibilidades y las divide. Usted puede anular este comportamiento extraño especificando manualmente el rango de días y utilizando un número par o impar de días. Dado que los scripts de días pares nunca se ejecutarían el día 31 de los meses más largos, no se pierde nada utilizando 30 días como base para los días pares, y especificando específicamente que se dividan como si hubiera 31 días se puede forzar la ejecución de días impares.
La sintaxis sería la siguiente
```# Sólo se ejecutará en días impares:
0 0 1-31/2 * * comando
# Sólo se ejecutará en días pares:
0 0 2-30/2 * * comando
```
Tu preocupación de que los meses no tengan el mismo número de días no es importante aquí porque ningún mes tiene MÁS días que este, y para el pobre Febrero, el rango de fechas simplemente no coincidirá nunca con el último día o dos, pero no hará ningún daño tenerlo listado.
El único "inconveniente" de este enfoque es que si está en un ciclo de días impares, siguiendo meses con 31 días, su comando también se ejecutará el primer día del mes. Del mismo modo, si está forzando un ciclo par, cada año bisiesto causará un ciclo de tres días a finales de febrero. No se puede evitar el hecho de que cualquier patrón regular de "un día sí y un día no" no siempre va a caer en días pares o impares en cada mes y de cualquier forma que fuerce esto tendrá una ejecución extra o se perderá una ejecución entre meses con recuentos de días no coincidentes. | Lorsque vous configurez cron pour exécuter une commande tous les deux jours en utilisant le champ "Jour du mois", comme suit :
```1 22 */2 * * COMMANDE
```
elle s'exécute chaque fois que le jour du mois est impair : 1,3,5,7,9 et ainsi de suite.
Comment puis-je configurer cron pour qu'il s'exécute les jours du mois qui sont pairs comme 2,6,8,10 et ainsi de suite (sans le spécifier littéralement, ce qui est problématique car chaque mois a un nombre différent de jours dans le mois) ? | La syntaxe que vous avez essayée est en fait ambiguë. En fonction du nombre de jours dans le mois, certains mois seront exécutés les jours impairs et d'autres les jours pairs. Ceci est dû au fait que la méthode de calcul prend en compte le nombre total de possibilités et les divise. Vous pouvez annuler ce comportement en spécifiant manuellement la plage de jours et en utilisant un nombre de jours pairs ou impairs. Comme les scripts de jours pairs ne s'exécuteraient jamais le 31e jour d'un mois long, vous ne perdez rien à utiliser 30 jours comme base pour les jours pairs, et en spécifiant spécifiquement de les diviser comme s'il y avait 31 jours, vous pouvez forcer l'exécution des jours impairs.
La syntaxe ressemblerait à ceci :
```# Ne s'exécutera que les jours impairs :
0 0 1-31/2 * * commande
# Ne s'exécutera que les jours pairs :
0 0 2-30/2 * * commande
```
Votre préoccupation concernant les mois n'ayant pas le même nombre de jours n'est pas importante ici car aucun mois n'a PLUS de jours que celui-ci, et pour le pauvre mois de février, l'intervalle de dates ne correspondra jamais au dernier jour ou aux deux derniers jours, mais cela ne fera pas de mal de l'avoir listé.
Le seul problème de cette approche est que si vous êtes sur un cycle de jours impairs, en suivant des mois de 31 jours, votre commande s'exécutera également le premier du mois. De même, si vous imposez un cycle pair, chaque année bissextile entraînera un cycle de trois jours à la fin du mois de février. Vous ne pouvez pas vraiment contourner le fait qu'un cycle régulier "un jour sur deux" ne tombera pas toujours sur des jours pairs ou impairs dans chaque mois et que, de quelque manière que vous forciez cela, vous aurez soit un cycle supplémentaire, soit vous manquerez un cycle entre des mois dont le nombre de jours n'est pas le même. | Quando si configura cron per eseguire un comando ogni due giorni utilizzando il campo "Giorno del mese", in questo modo:
```1 22 */2 * * COMANDO
```
viene eseguito ogni volta che il giorno del mese è dispari: 1,3,5,7,9 e così via.
Come posso configurare cron in modo che venga eseguito nei giorni del mese pari, come 2,6,8,10 e così via (senza specificarlo letteralmente, il che è problematico dato che ogni mese ha un numero diverso di giorni nel mese)? | La sintassi che avete provato è in realtà ambigua. A seconda del numero di giorni del mese, in alcuni mesi verrà eseguito nei giorni dispari e in altri in quelli pari. Questo perché il modo in cui viene calcolato prende il numero totale di possibilità e le divide. È possibile annullare questo comportamento rigido specificando manualmente l'intervallo di giorni e utilizzando un numero di giorni pari o dispari. Poiché gli script dei giorni pari non verrebbero mai eseguiti il 31° giorno dei mesi più lunghi, non si perde nulla usando 30 giorni come base per i giorni pari, e specificando specificamente di dividerli come se ci fossero 31 giorni si può forzare l'esecuzione dei giorni dispari.
La sintassi sarebbe la seguente:
```# Verrà eseguito solo nei giorni dispari:
0 0 1-31/2 * * comando
# Verrà eseguito solo nei giorni pari:
0 0 2-30/2 * * comando
```
La preoccupazione che i mesi non abbiano lo stesso numero di giorni non è importante in questo caso, perché nessun mese ha più giorni di questo e per il povero febbraio l'intervallo di date non coinciderà mai con l'ultimo giorno o due, ma non farà male averlo elencato.
L'unico problema di questo approccio è che se si utilizza un ciclo di giorni dispari, seguendo mesi con 31 giorni, il comando verrà eseguito anche il primo del mese. Allo stesso modo, se si forza un ciclo pari, ogni anno bisestile causerà un ciclo di tre giorni alla fine di febbraio. Non è possibile aggirare il fatto che qualsiasi schema regolare di "a giorni alterni" non cade sempre nei giorni pari o dispari di ogni mese e, in qualsiasi modo si forzi la cosa, si avrà una corsa in più o si perderà una corsa tra mesi con conteggi di giorni non corrispondenti. |
226 | Is there a way to have a private setter for a property in TypeScript?
```class Test
{
private _prop: string;
public get prop() : string
{
return this._prop;
}
private set prop(val: string)
{
//can put breakpoints here
this._prop = val;
}
}
```
Compiler complains that visibility for getter and setter don't match. I know I can just set the backing field, but but then I can't set breakpoints when the value is set.
I though about using an interface to hide the setter, but interfaces can only define a property, not whether it has a getter on setter.
Am I missing something here? There doesn't seem to be any reason to not allow private setters, the resulting JS doesn't enforce visibility anyway, and seems better that the current alternatives.
Am I missing something? If not is there a good reason for no private setters? | The TypeScript specification (8.4.3) says"
Accessors for the same member name must specify the same accessibility
So you have to choose a suitable alternative. Here are two options for you:
You can just not have a setter, which means only the ```Test``` class is able to set the property. You can place a breakpoint on the line ```this._prop =...```.
```class Test
{
private _prop: string;
public get prop() : string
{
return this._prop;
}
doSomething() {
this._prop = 'I can set it!';
}
}
var test = new Test();
test._prop = 'I cannot!';
```
Probably the ideal way to ensure private access results in something akin to a "notify property changed" pattern can be implemented is to have a pair of private get/set property accessors, and a separate public get property accessor.
You still need to be cautious about someone later adding a direct call to the backing field. You could get creative in that area to try and make it less likely.
```class Test
{
private _nameBackingField: string;
private get _name() : string
{
return this._nameBackingField;
}
private set _name(val: string)
{
this._nameBackingField = val;
// other actions... notify the property has changed etc
}
public get name(): string {
return this._name;
}
doSomething() {
this._name += 'Additional Stuff';
}
}
``` | Gibt es eine Möglichkeit, einen privaten Setter für eine Eigenschaft in TypeScript zu haben?
```Klasse Test
{
private _prop: string;
public get prop() : string
{
return this._prop;
}
private set prop(val: string)
{
//kann hier Haltepunkte setzen
this._prop = val;
}
}
```
Der Compiler beschwert sich, dass die Sichtbarkeit für Getter und Setter nicht übereinstimmt. Ich weiß, dass ich einfach das Hintergrundfeld setzen kann, aber dann kann ich keine Haltepunkte setzen, wenn der Wert gesetzt ist.
Ich dachte daran, eine Schnittstelle zu verwenden, um den Setter zu verbergen, aber Schnittstellen können nur eine Eigenschaft definieren, nicht aber, ob sie einen Getter oder Setter hat.
Übersehe ich hier etwas? Es scheint keinen Grund zu geben, private Setter nicht zuzulassen, das resultierende JS erzwingt ohnehin keine Sichtbarkeit und scheint besser zu sein als die derzeitigen Alternativen.
Übersehe ich etwas? Wenn nicht, gibt es einen guten Grund für keine privaten Setter? | Die TypeScript-Spezifikation (8.4.3) sagt"
Accessors für den gleichen Membernamen müssen die gleiche Zugänglichkeit angeben
Sie müssen also eine geeignete Alternative wählen. Hier sind zwei Optionen für Sie:
Sie können einfach keinen Setter haben, was bedeutet, dass nur die Klasse ```Test``` in der Lage ist, die Eigenschaft zu setzen. Sie können einen Haltepunkt in der Zeile ```this._prop =...``` setzen.
```Klasse Test
{
private _prop: string;
public get prop() : string
{
return this._prop;
}
doSomething() {
this._prop = 'Ich kann es einstellen!';
}
}
var test = new Test();
test._prop = 'Ich kann nicht!';
```
Der ideale Weg, um sicherzustellen, dass ein privater Zugriff zu etwas führt, das einem "notify property changed"-Muster ähnelt, besteht wahrscheinlich darin, ein Paar private get/set-Eigenschaftszugriffsfunktionen und eine separate öffentliche get-Eigenschaftszugriffsfunktion zu implementieren.
Sie müssen immer noch vorsichtig sein, dass jemand später einen direkten Aufruf zum Backing-Feld hinzufügt. Man könnte in diesem Bereich kreativ werden, um dies weniger wahrscheinlich zu machen.
```Klasse Test
{
private _nameBackingField: string;
private get _name() : string
{
return this._nameBackingField;
}
private set _name(val: string)
{
this._nameBackingField = val;
// andere Aktionen... mitteilen, dass sich die Eigenschaft geändert hat usw.
}
public get name(): string {
return this._name;
}
doSomething() {
this._name += 'Zusätzliches Zeug';
}
}
``` | ¿Hay alguna forma de tener un setter privado para una propiedad en TypeScript?
```class Test
{
private _prop: cadena;
public get prop() : cadena
{
return this._prop;
}
private set prop(val: cadena)
{
//puede poner puntos de interrupción aquí
this._prop = val;
}
}
```
El compilador se queja de que la visibilidad de getter y setter no coinciden. Sé que puedo simplemente establecer el campo de respaldo, pero entonces no puedo establecer puntos de interrupción cuando se establece el valor.
Pensé en usar una interfaz para ocultar el setter, pero las interfaces sólo pueden definir una propiedad, no si tiene un getter o setter.
¿Me estoy perdiendo algo aquí? No parece haber ninguna razón para no permitir setters privados, el JS resultante no impone la visibilidad de todos modos, y parece mejor que las alternativas actuales.
¿Me estoy perdiendo algo? Si no es así, ¿hay alguna buena razón para no permitir setters privados? | La especificación TypeScript (8.4.3) dice"
Los accesores para el mismo nombre de miembro deben especificar la misma accesibilidad
Así que tienes que elegir una alternativa adecuada. Aquí tienes dos opciones:
Puedes simplemente no tener un setter, lo que significa que sólo la clase ```Test`` puede establecer la propiedad. Puedes poner un breakpoint en la línea ```this._prop =...``.
``clase Test
{
private _prop: cadena;
public get prop() : cadena
{
return this._prop;
}
doSomething() {
this._prop = '¡Puedo establecerlo!
}
}
var test = new Test();
test._prop = '¡No puedo!';
```
Probablemente la forma ideal de asegurar que el acceso privado resulta en algo parecido a un patrón de "notificar propiedad cambiada" se puede implementar es tener un par de accesores de propiedad privada get/set, y un accesor de propiedad pública get separado.
Todavía tienes que tener cuidado con alguien más tarde añadiendo una llamada directa al campo de respaldo. Puedes ser creativo en esa área para intentar hacerlo menos probable.
```clase Test
{
privado _nameBackingField: string;
private get _nombre() : string
{
return this._nombreCampoDeRespaldo;
}
private set _nombre(val: cadena)
{
this._nameBackingField = val;
// otras acciones... notificar que la propiedad ha cambiado etc
}
public get nombre(): cadena {
return this._nombre;
}
doSomething() {
this._name += 'Cosas Adicionales';
}
}
``` | Existe-t-il un moyen d'avoir un setter privé pour une propriété en TypeScript ?
```classe Test
{
private _prop : string ;
public get prop() : string
{
return this._prop ;
}
private set prop(val : string)
{
//peut mettre des points d'arrêt ici
this._prop = val ;
}
}
```
Le compilateur se plaint que la visibilité des getter et setter ne correspond pas. Je sais que je peux simplement définir le champ d'appui, mais alors je ne peux pas définir de points d'arrêt lorsque la valeur est définie.
J'ai pensé à utiliser une interface pour cacher le setter, mais les interfaces ne peuvent définir qu'une propriété, pas si elle a un getter ou un setter.
Est-ce que quelque chose m'échappe ? Il ne semble pas y avoir de raison de ne pas autoriser les setters privés, le JS résultant n'applique pas la visibilité de toute façon, et semble meilleur que les alternatives actuelles.
Est-ce que j'ai raté quelque chose ? Si ce n'est pas le cas, y a-t-il une bonne raison de ne pas autoriser les fixateurs privés ? | La spécification TypeScript (8.4.3) indique "
Les accesseurs pour le même nom de membre doivent spécifier la même accessibilité
Vous devez donc choisir une alternative appropriée. Voici deux options pour vous :
Vous pouvez simplement ne pas avoir de setter, ce qui signifie que seule la classe ``Test`` est capable de définir la propriété. Vous pouvez placer un point d'arrêt sur la ligne ``this._prop =...``.
``classe Test
{
private _prop : string ;
public get prop() : string
{
return this._prop ;
}
doSomething() {
this._prop = 'Je peux le régler!' ;
}
}
var test = new Test() ;
test._prop = 'Je ne peux pas!' ;
```
La façon idéale de s'assurer que l'accès privé aboutisse à quelque chose qui ressemble à un modèle de "notification de changement de propriété" est probablement d'avoir une paire d'accesseurs de propriété privés (get/set), et un accesseur de propriété public (get) séparé.
Il faut tout de même faire attention à ce que quelqu'un ajoute plus tard un appel direct au champ d'appui. Vous pouvez être créatif dans ce domaine pour essayer de rendre cela moins probable.
```Classe Test
{
private _nameBackingField : string ;
private get _name() : string
{
return this._nameBackingField ;
}
private set _name(val : string)
{
this._nameBackingField = val ;
// autres actions... notifier que la propriété a changé, etc.
}
public get name() : string {
return this._name ;
}
doSomething() {
this._name += 'Additional Stuff' ;
}
}
``` | Esiste un modo per avere un setter privato per una proprietà in TypeScript?
```classe Test
{
private _prop: string;
public get prop() : string
{
return this._prop;
}
private set prop(val: string)
{
//possiamo inserire dei punti di interruzione qui
this._prop = val;
}
}
```
Il compilatore si lamenta che la visibilità di getter e setter non corrisponde. So che posso semplicemente impostare il campo di supporto, ma poi non posso impostare i breakpoint quando il valore è impostato.
Ho pensato di usare un'interfaccia per nascondere il setter, ma le interfacce possono solo definire una proprietà, non se ha un getter o un setter.
Mi sfugge qualcosa? Non sembra esserci alcuna ragione per non consentire setter privati, il JS risultante non impone comunque la visibilità e sembra migliore delle alternative attuali.
Mi sfugge qualcosa? In caso contrario, c'è una buona ragione per non consentire setter privati? | Le specifiche di TypeScript (8.4.3) dicono"
Gli accessiori per lo stesso nome di membro devono specificare la stessa accessibilità
Quindi bisogna scegliere un'alternativa adeguata. Ecco due opzioni:
Si può semplicemente non avere un setter, il che significa che solo la classe ```Test`` è in grado di impostare la proprietà. Si può inserire un punto di interruzione sulla riga ```this._prop =...```.
classe Test
{
private _prop: string;
public get prop() : string
{
return this._prop;
}
doSomething() {
this._prop = 'Posso impostarlo!';
}
}
var test = new Test();
test._prop = 'Non posso!';
```
Probabilmente il modo ideale per garantire che l'accesso privato si traduca in qualcosa di simile a uno schema di "notifica della proprietà modificata" è quello di avere una coppia di accessi privati alle proprietà get/set e un accesso pubblico separato alle proprietà get.
Bisogna comunque essere cauti sul fatto che qualcuno in seguito aggiunga una chiamata diretta al campo di supporto. Si può essere creativi in quest'area, per cercare di renderlo meno probabile.
``classe Test
{
private _nameBackingField: string;
private get _name() : string
{
return this._nameBackingField;
}
private set _name(val: string)
{
this._nameBackingField = val;
// altre azioni... notifica che la proprietà è cambiata, ecc.
}
public get name(): string {
restituisce this._name;
}
doSomething() {
this._name += 'Additional Stuff';
}
}
``` |
227 | When learning vocabulary, especially with the use of SRS (Spaced Repetition System), it is interesting to use flashcards. A commonly encountered problem is how to formulate those for maximum efficiency.
How does learning vocabulary through sentences, thus giving context to the used words, compare to learning to recognize words alone? For example, the context may give away the meaning of the problematic vocabulary. Are there studies or expert opinions on one approach being preferable to the other at different stages of language learning? Or is it recommended that they be mixed for best results? | It's usually best to avoid dichotomies like "Is strategy X better or strategy Y better?". In most cases, strategies are not mutually exclusive but complementary.
With vocabulary learning, using just one strategy is probably the least efficient. This is because every strategy has certain strengths (certain skills it builds well) and certain weaknesses (skills it doesn't cover well)- and if you keep using one strategy, you'll be only focusing on the strengths (but with diminishing returns), and not addressing the weaknesses.
Using flashcards helps you establish word-to-meaning equivalences quickly, but it usually does so with a shallow meaning, ignoring the breadth of meaning that words usually have. It also ignores the contextual subtleties of the word, and the knowledge is not always retained long-term.
It's best to combine flashcards with other strategies that will help you see how the word is used in context, show you the variety of meanings it can have (and doesn't have), see what collocations the word has, etc. One way of doing this is by reading examples of the word and writing your own sample sentences. Another important thing is to be exposed to the word in natural settings - so it's important to read a lot so that you'll encounter the words you've learnt naturally. | Beim Lernen von Vokabeln, insbesondere bei der Verwendung des SRS (Spaced Repetition System), ist es interessant, Lernkarten zu verwenden. Ein häufig auftretendes Problem ist die Frage, wie man diese für maximale Effizienz formuliert.
Wie verhält sich das Lernen von Vokabeln anhand von Sätzen, die den verwendeten Wörtern einen Kontext geben, im Vergleich zum Lernen des Erkennens von Wörtern allein? Zum Beispiel kann der Kontext die Bedeutung der problematischen Vokabeln verraten. Gibt es Studien oder Expertenmeinungen darüber, dass ein Ansatz dem anderen in verschiedenen Phasen des Sprachenlernens vorzuziehen ist? Oder wird empfohlen, beide Methoden zu kombinieren, um optimale Ergebnisse zu erzielen? | In der Regel ist es am besten, Dichotomien wie "Ist Strategie X besser oder Strategie Y besser?" zu vermeiden. In den meisten Fällen schließen sich die Strategien nicht gegenseitig aus, sondern ergänzen sich.
Beim Vokabellernen ist es wahrscheinlich am wenigsten effizient, nur eine Strategie zu verwenden. Das liegt daran, dass jede Strategie bestimmte Stärken (bestimmte Fertigkeiten, die sie gut abdeckt) und bestimmte Schwächen (Fertigkeiten, die sie nicht gut abdeckt) hat - und wenn Sie immer nur eine Strategie anwenden, konzentrieren Sie sich nur auf die Stärken (aber mit abnehmendem Erfolg) und gehen nicht auf die Schwächen ein.
Die Verwendung von Karteikarten hilft Ihnen dabei, schnell Wort-Bedeutungs-Entsprechungen herzustellen, aber in der Regel mit einer oberflächlichen Bedeutung, die die Breite der Bedeutung, die Wörter normalerweise haben, ignoriert. Außerdem werden die kontextbezogenen Feinheiten des Wortes ignoriert, und das Wissen wird nicht immer langfristig behalten.
Am besten ist es, die Karteikarten mit anderen Strategien zu kombinieren, die Ihnen zeigen, wie das Wort im Kontext verwendet wird, welche verschiedenen Bedeutungen es haben kann (und welche nicht), welche Kollokationen das Wort hat usw. Eine Möglichkeit, dies zu tun, besteht darin, Beispiele für das Wort zu lesen und eigene Beispielsätze zu schreiben. Wichtig ist auch, dass Sie mit dem Wort in einer natürlichen Umgebung in Berührung kommen - es ist also wichtig, dass Sie viel lesen, damit Ihnen die Wörter, die Sie gelernt haben, in der Natur begegnen. | A la hora de aprender vocabulario, especialmente con el uso del SRS (sistema de repetición espaciada), es interesante utilizar fichas. Un problema habitual es cómo formularlas para obtener la máxima eficacia.
¿Cómo se compara aprender vocabulario a través de frases, dando así contexto a las palabras utilizadas, con aprender a reconocer palabras por sí solas? Por ejemplo, el contexto puede desvelar el significado del vocabulario problemático. ¿Existen estudios u opiniones de expertos sobre si un enfoque es preferible al otro en las distintas etapas del aprendizaje de idiomas? ¿O se recomienda mezclarlos para obtener mejores resultados? | Suele ser mejor evitar dicotomías del tipo "¿Es mejor la estrategia X o la estrategia Y?". En la mayoría de los casos, las estrategias no son mutuamente excluyentes, sino complementarias.
En el aprendizaje de vocabulario, utilizar una sola estrategia es probablemente lo menos eficaz. Esto se debe a que cada estrategia tiene ciertos puntos fuertes (ciertas destrezas que desarrolla bien) y ciertas debilidades (destrezas que no cubre bien), y si sigues utilizando una sola estrategia, te estarás centrando únicamente en los puntos fuertes (pero con rendimientos decrecientes) y no estarás abordando los puntos débiles.
Utilizar tarjetas de vocabulario ayuda a establecer rápidamente equivalencias entre palabras, pero normalmente lo hace con un significado superficial, ignorando la amplitud de significado que suelen tener las palabras. También ignora las sutilezas contextuales de la palabra, y el conocimiento no siempre se retiene a largo plazo.
Lo mejor es combinar las flashcards con otras estrategias que te ayuden a ver cómo se utiliza la palabra en su contexto, te muestren la variedad de significados que puede tener (y que no tiene), veas qué colocaciones tiene la palabra, etc. Una forma de hacerlo es leyendo ejemplos de la palabra y escribiendo tus propias frases de ejemplo. Otra cosa importante es estar expuesto a la palabra en entornos naturales, por lo que es importante leer mucho para encontrar las palabras que has aprendido de forma natural. | Lors de l'apprentissage du vocabulaire, en particulier avec l'utilisation du SRS (système de répétition espacée), il est intéressant d'utiliser des flashcards. Un problème fréquemment rencontré est de savoir comment les formuler pour une efficacité maximale.
Comment l'apprentissage du vocabulaire par le biais de phrases, donnant ainsi un contexte aux mots utilisés, se compare-t-il à l'apprentissage de la reconnaissance des mots seuls ? Par exemple, le contexte peut révéler le sens du vocabulaire problématique. Existe-t-il des études ou des avis d'experts indiquant qu'une approche est préférable à l'autre à différents stades de l'apprentissage d'une langue ? Ou est-il recommandé de les combiner pour obtenir les meilleurs résultats ? | Il est généralement préférable d'éviter les dichotomies du type "La stratégie X est-elle meilleure ou la stratégie Y est-elle meilleure ? Dans la plupart des cas, les stratégies ne s'excluent pas mutuellement mais sont complémentaires.
En ce qui concerne l'apprentissage du vocabulaire, l'utilisation d'une seule stratégie est probablement la moins efficace. En effet, chaque stratégie présente certains points forts (certaines compétences qu'elle développe bien) et certains points faibles (compétences qu'elle ne couvre pas bien). Si vous continuez à utiliser une seule stratégie, vous ne vous concentrerez que sur les points forts (mais avec des rendements décroissants), et vous n'aborderez pas les points faibles.
L'utilisation de flashcards vous permet d'établir rapidement des équivalences entre les mots et leur sens, mais elle le fait généralement avec un sens superficiel, en ignorant l'étendue du sens que les mots ont généralement. Elle ignore également les subtilités contextuelles du mot, et les connaissances ne sont pas toujours retenues à long terme.
Il est préférable de combiner les flashcards avec d'autres stratégies qui vous aideront à voir comment le mot est utilisé dans son contexte, vous montreront la variété de sens qu'il peut avoir (et qu'il n'a pas), verront quelles collocations le mot a, etc. L'une des façons de procéder consiste à lire des exemples du mot et à rédiger vos propres phrases types. Une autre chose importante est d'être exposé au mot dans des contextes naturels - il est donc important de lire beaucoup pour rencontrer naturellement les mots que vous avez appris. | Quando si impara il vocabolario, soprattutto con l'uso del sistema SRS (Spaced Repetition System), è interessante usare le flashcard. Un problema comunemente riscontrato è come formularle per ottenere la massima efficienza.
In che modo l'apprendimento del vocabolario attraverso le frasi, che danno un contesto alle parole usate, è paragonabile all'apprendimento del solo riconoscimento delle parole? Ad esempio, il contesto può svelare il significato del vocabolario problematico. Esistono studi o pareri di esperti che affermano che un approccio è preferibile all'altro nelle diverse fasi dell'apprendimento della lingua? Oppure si raccomanda di combinarli per ottenere i migliori risultati? | Di solito è meglio evitare dicotomie come "È meglio la strategia X o la strategia Y?". Nella maggior parte dei casi, le strategie non si escludono a vicenda, ma sono complementari.
Per quanto riguarda l'apprendimento del vocabolario, l'utilizzo di una sola strategia è probabilmente la meno efficace. Questo perché ogni strategia ha alcuni punti di forza (alcune abilità che costruisce bene) e alcuni punti di debolezza (abilità che non copre bene) - e se si continua a usare una strategia, ci si concentrerà solo sui punti di forza (ma con rendimenti decrescenti) e non si affronteranno i punti di debolezza.
L'uso delle flashcard aiuta a stabilire rapidamente le equivalenze tra parole e significati, ma di solito lo fa con un significato superficiale, ignorando l'ampiezza di significato che le parole hanno di solito. Inoltre, non tiene conto delle sottigliezze contestuali della parola e non sempre la conoscenza viene mantenuta a lungo termine.
È meglio combinare le flashcard con altre strategie che vi aiutino a vedere come la parola è usata nel contesto, a mostrare la varietà di significati che può avere (e non ha), a vedere quali collocazioni ha la parola, ecc. Un modo per farlo è leggere esempi della parola e scrivere le proprie frasi di esempio. Un'altra cosa importante è l'esposizione alla parola in contesti naturali, quindi è importante leggere molto per incontrare le parole imparate in modo naturale. |
228 | Can I spend the night alone in a tent in a forest outside Stockholm in -20°C without risking my life?
The backstory
From the end of January, I'm starting my studies in a suburb of Stockholm. I've decided to, if it turns out plausible, not rent an apartment, but live in a tent. (This is not out of frugality, but out of a will to try something new.)
I do have friends who I could visit once a week or so to prepare food and wash my clothes, so I think I can solve the practical problems, or at least those that I've come to think of. I'd camp in one of the forests, maybe 1 km from "civilisation". I'd have access to showers etc at university every day.
However: I don't want to freeze to death in my sleep! That's very important to me. I've read that the nights can get as cold as -20°C (-4°F). With the proper preparations, would this be a plausible way of living, at least for a month or so?
I do have camping experience, and have been hiking for three weeks, but only in summer. | Yes, it is definitely doable. -20°C is only -4°F. The real question is whether it is doable by you at the level of discomfort and hassle you are willing to put up with. Only you can answer that. At best we can point out what the hassles and discomforts will be.
First, your fear of dying of cold in your sleep is silly. You'd have to do something pretty stupid to die of hypothermia, and even that's not going to happen when you're inside the sleeping bag. The main danger will be from frostbite, but that again would largely need stupidity to help it along, although that's easier to do than outright death from hypothermia.
Your tent will be a long term fixed installation you set up once at a time and conditions of your choosing. You can therefore afford a larger and heavier tent with more stuff you bring in once. Definitely get a tent you can stand upright in. That will make changing clothes much quicker and more comfortable. Since you should be able to keep water out of the tent, get a nice down sleeping bag and a few light blankets. The down bag should be rated for most nights, then put the blankets on top for the few unusually cold nights. Since again weight is not really a issue, get a full sleeping bag, not a mummy bag. They are simply more comfortable. Get a good insulating pad, and another two as backup. Get a tent large enough to fit your sleeping bag and something to sit on next to it, like a folding chair. Put something under the legs to spread out the weight to that they don't hurt the tent floor. Get one of those rubber-backed mats people sometimes put just inside their doors and put it just inside your tent. That allows a place to step with boots still on, then you can sit down on the chair with boots still on the mat to take them off. The crud stays on the mat, which you can shake clean by reaching outside after having put on your down hut booties.
Some things are going to be a hassle. At -4°F you want to keep your gloves on whenever possible, but some tasks will be difficult that way. You end up taking your gloves on and off a lot, trading off efficiency with cold fingers. Get a pair of polypro glove liners. They are thin and still allow many tasks to be done, but provide at least a little insulation. Their main advantage is that any metal you touch won't immediately conduct the heet from your hand away. Touching bare metal at -4°F is a good way to get frostbite.
Be prepared for some discomfort no matter what equipment you have. The toughest part will be getting yourself out of the sleeping bag in the morning. You'll really have to will yourself to leave the warm comfort of the bag and get into the air at probably the coldest part of the day. At some point you'll have to change your clothes and get undressed in the process. That's going to be cold. It won't be cold long enough to be any real danger, so it's really a mindset issue to get over. Whether you can or not and are willing to push yourself in that way only you can say.
You say you have access to heated buildings during the day, so it would make things a lot simpler for you if you don't have to deal with cooking and eating at your camp. Perparing food outside in the cold takes a lot longer than in a heated kitchen, severly limits what you can do, and may also risk predator encounters depending on what is around your area in the winter. | Kann ich bei -20°C allein in einem Zelt in einem Wald außerhalb von Stockholm übernachten, ohne mein Leben zu riskieren?
Die Vorgeschichte
Ab Ende Januar beginne ich mein Studium in einem Vorort von Stockholm. Ich habe beschlossen, wenn es sich als plausibel erweist, keine Wohnung zu mieten, sondern in einem Zelt zu leben. (Nicht aus Sparsamkeit, sondern weil ich etwas Neues ausprobieren will.)
Ich habe Freunde, die ich etwa einmal pro Woche besuchen könnte, um Essen zuzubereiten und meine Wäsche zu waschen, also denke ich, dass ich die praktischen Probleme lösen kann, oder zumindest die, an die ich gedacht habe. Ich würde in einem der Wälder zelten, vielleicht 1 km von der "Zivilisation" entfernt. Ich hätte jeden Tag Zugang zu Duschen usw. an der Universität.
Aber: Ich möchte nicht im Schlaf erfrieren! Das ist für mich sehr wichtig. Ich habe gelesen, dass die Nächte bis zu -20°C kalt werden können. Wäre das mit den richtigen Vorbereitungen eine plausible Lebensweise, zumindest für einen Monat oder so?
Ich habe zwar Campingerfahrung und bin schon drei Wochen lang gewandert, aber nur im Sommer. | Ja, das ist durchaus machbar. -20°C ist nur -4°F. Die eigentliche Frage ist, ob es für Sie machbar ist, und zwar mit dem Maß an Unbehagen und Ärger, das Sie bereit sind, in Kauf zu nehmen. Nur Sie können das beantworten. Wir können bestenfalls darauf hinweisen, welche Schwierigkeiten und Unannehmlichkeiten es geben wird.
Erstens: Ihre Angst, im Schlaf zu erfrieren, ist albern. Sie müssten schon etwas sehr Dummes tun, um an Unterkühlung zu sterben, und selbst das wird nicht passieren, wenn Sie sich im Schlafsack befinden. Die größte Gefahr geht von Erfrierungen aus, aber auch hier hilft nur Dummheit, obwohl das leichter ist als der Tod durch Unterkühlung.
Ihr Zelt wird eine langfristige feste Einrichtung sein, die Sie einmal zu einem Zeitpunkt und unter Bedingungen Ihrer Wahl aufbauen. Daher können Sie sich ein größeres und schwereres Zelt leisten, wenn Sie mehr Sachen mitnehmen. Kaufen Sie auf jeden Fall ein Zelt, in dem Sie aufrecht stehen können. Dann geht das Umziehen viel schneller und ist bequemer. Da Sie in der Lage sein sollten, Wasser aus dem Zelt fernzuhalten, besorgen Sie sich einen schönen Daunenschlafsack und ein paar leichte Decken. Der Daunenschlafsack sollte für die meisten Nächte ausreichen, und für die wenigen ungewöhnlich kalten Nächte können Sie die Decken darüber legen. Da auch hier das Gewicht keine Rolle spielt, sollten Sie einen Vollschlafsack und keinen Mumienschlafsack kaufen. Diese sind einfach bequemer. Besorgen Sie sich eine gute Isomatte und zwei weitere als Reserve. Besorgen Sie sich ein Zelt, das groß genug für Ihren Schlafsack ist, und etwas zum Sitzen daneben, z. B. einen Klappstuhl. Legen Sie etwas unter die Beine, um das Gewicht zu verteilen, damit sie den Zeltboden nicht verletzen. Besorgen Sie sich eine dieser Matten mit Gummirücken, die manchmal in die Tür gelegt werden, und legen Sie sie direkt in Ihr Zelt. So kann man mit angezogenen Stiefeln darauf treten und sich dann mit den Stiefeln auf der Matte auf den Stuhl setzen, um sie auszuziehen. Der Dreck bleibt auf der Matte, die man nach dem Anziehen der Daunenstiefel einfach ausschütteln kann.
Manche Dinge werden ein Problem sein. Bei -4°F möchte man die Handschuhe möglichst anbehalten, aber manche Aufgaben sind auf diese Weise schwierig. Sie müssen Ihre Handschuhe oft an- und ausziehen und tauschen damit Effizienz gegen kalte Finger. Besorgen Sie sich ein Paar Polypro-Handschuh-Liner. Sie sind dünn und ermöglichen es, viele Arbeiten zu erledigen, bieten aber zumindest ein wenig Isolierung. Ihr Hauptvorteil ist, dass jedes Metall, das Sie berühren, die Wärme nicht sofort von Ihrer Hand wegleitet. Das Berühren von blankem Metall bei -4°F ist ein guter Weg, um Erfrierungen zu bekommen.
Stellen Sie sich auf einige Unannehmlichkeiten ein, egal welche Ausrüstung Sie haben. Am schwierigsten wird es sein, sich morgens aus dem Schlafsack zu befreien. Man muss sich wirklich dazu zwingen, den warmen Schlafsack zu verlassen und sich zur wahrscheinlich kältesten Zeit des Tages an die Luft zu begeben. Irgendwann müssen Sie sich umziehen und sich dabei ausziehen. Das wird kalt sein. Es wird nicht lange genug kalt sein, um eine wirkliche Gefahr darzustellen, also ist es wirklich eine Frage der Einstellung, die man überwinden muss. Ob du das kannst oder nicht und bereit bist, dich so anzustrengen, kannst nur du sagen.
Du sagst, dass du tagsüber Zugang zu beheizten Gebäuden hast. Es wäre also viel einfacher für dich, wenn du dich nicht um das Kochen und Essen in deinem Lager kümmern müsstest. Das Zubereiten von Essen draußen in der Kälte dauert viel länger als in einer beheizten Küche, schränkt die Möglichkeiten stark ein und birgt außerdem das Risiko, auf Raubtiere zu stoßen, je nachdem, was es in Ihrer Gegend im Winter gibt. | ¿Puedo pasar la noche solo en una tienda de campaña en un bosque a las afueras de Estocolmo a -20 °C sin arriesgar mi vida?
La historia
Desde finales de enero, estoy empezando mis estudios en un suburbio de Estocolmo. He decidido, si resulta plausible, no alquilar un apartamento, sino vivir en una tienda de campaña. (No es por frugalidad, sino por ganas de probar algo nuevo).
Tengo amigos a los que podría visitar una vez a la semana más o menos para que me preparen la comida y me laven la ropa, así que creo que puedo resolver los problemas prácticos, o al menos los que se me han ocurrido. Acamparía en uno de los bosques, a 1 km de la "civilización". Tendría acceso a duchas, etc. en la universidad todos los días.
Pero no quiero morir congelado mientras duermo. Eso es muy importante para mí. He leído que las noches pueden llegar a ser tan frías como -20°C (-4°F). Con los preparativos adecuados, ¿sería ésta una forma de vida plausible, al menos durante un mes o así?
Tengo experiencia en acampadas y he hecho senderismo durante tres semanas, pero sólo en verano. | Sí, sin duda es factible. -20ºC son sólo -4ºF. La verdadera cuestión es si es factible para ti con el nivel de incomodidad y molestias que estás dispuesto a soportar. Sólo usted puede responder a eso. En el mejor de los casos, podemos indicarte cuáles serán las molestias e incomodidades.
En primer lugar, tu miedo a morir de frío mientras duermes es una tontería. Tendrías que hacer algo bastante estúpido para morir de hipotermia, y ni siquiera eso va a ocurrir cuando estés dentro del saco de dormir. El principal peligro es la congelación, pero también en este caso se necesita la estupidez, aunque es más fácil que la muerte por hipotermia.
Tu tienda será una instalación fija a largo plazo que montarás una vez en el momento y las condiciones que elijas. Por lo tanto, puedes permitirte una tienda más grande y pesada con más cosas que lleves una sola vez. Compra una tienda en la que puedas permanecer de pie. Eso hará que cambiarse de ropa sea mucho más rápido y cómodo. Para que no entre agua en la tienda, compra un buen saco de dormir de plumón y algunas mantas ligeras. El saco de plumón debería ser suficiente para la mayoría de las noches, y las mantas para las pocas noches inusualmente frías. Como el peso tampoco es un problema, compra un saco de dormir completo, no un saco momia. Son más cómodos. Hazte con un buen acolchado aislante y otros dos de reserva. Consigue una tienda de campaña lo suficientemente grande para que quepa el saco de dormir y algo para sentarte junto a ella, como una silla plegable. Pon algo debajo de las patas para repartir el peso y que no dañen el suelo de la tienda. Consigue una de esas alfombrillas de goma que la gente pone a veces en las puertas de sus casas y ponla justo dentro de la tienda. Así tendrás un lugar donde pisar con las botas puestas y podrás sentarte en la silla con las botas sobre la esterilla para quitártelas. La suciedad se queda en la esterilla, que puedes sacudir para limpiarla después de haberte puesto los escarpines.
Algunas cosas van a ser una molestia. A -4°F querrás tener los guantes puestos siempre que sea posible, pero algunas tareas serán difíciles así. Acabarás poniéndote y quitándote los guantes muchas veces, sacrificando eficacia por dedos fríos. Hazte con un par de forros de guante de polipropileno. Son finos y permiten realizar muchas tareas, pero proporcionan al menos un poco de aislamiento. Su principal ventaja es que cualquier metal que toques no conducirá inmediatamente el calor de tu mano. Tocar metal desnudo a -4 ºF es una buena forma de congelarse.
Prepárate para algunas molestias, independientemente del equipo que lleves. Lo más difícil será salir del saco de dormir por la mañana. Tendrás que esforzarte mucho para dejar la cálida comodidad del saco y salir al aire en el momento probablemente más frío del día. En algún momento tendrás que cambiarte de ropa y desvestirte. Eso va a ser frío. No hará frío el tiempo suficiente como para que suponga un peligro real, así que en realidad es una cuestión de mentalidad que hay que superar. Si puedes o no y estás dispuesto a esforzarte de esa manera, sólo tú puedes decirlo.
Dices que tienes acceso a edificios con calefacción durante el día, así que sería mucho más sencillo para ti no tener que ocuparte de cocinar y comer en tu campamento. Preparar la comida fuera en el frío lleva mucho más tiempo que en una cocina con calefacción, limita mucho lo que puedes hacer, y también puedes arriesgarte a encontrarte con depredadores dependiendo de lo que haya por tu zona en invierno. | Puis-je passer la nuit seul dans une tente dans une forêt à l'extérieur de Stockholm par -20°C sans risquer ma vie ?
L'histoire
À partir de fin janvier, je commence mes études dans une banlieue de Stockholm. J'ai décidé, si cela s'avère plausible, de ne pas louer un appartement, mais de vivre dans une tente. (Ce n'est pas par frugalité, mais par volonté d'essayer quelque chose de nouveau).
J'ai des amis à qui je pourrais rendre visite une fois par semaine environ pour préparer la nourriture et laver mes vêtements, je pense donc pouvoir résoudre les problèmes pratiques, ou du moins ceux qui me viennent à l'esprit. Je camperais dans l'une des forêts, à environ 1 km de la "civilisation". J'aurais accès à des douches, etc. à l'université tous les jours.
Mais je ne veux pas mourir de froid dans mon sommeil ! C'est très important pour moi. J'ai lu que les nuits peuvent être aussi froides que -20°C (-4°F). Avec les préparatifs adéquats, ce mode de vie serait-il plausible, au moins pour un mois environ ?
J'ai de l'expérience en matière de camping et j'ai fait de la randonnée pendant trois semaines, mais seulement en été. | Oui, c'est tout à fait faisable. -20°C n'est que -4°F. La vraie question est de savoir si c'est faisable pour vous au niveau d'inconfort et de tracas que vous êtes prêt à supporter. Vous seul pouvez répondre à cette question. Au mieux, nous pouvons vous indiquer quels seront les inconvénients et les désagréments.
Tout d'abord, votre crainte de mourir de froid dans votre sommeil est stupide. Il faudrait faire quelque chose d'assez stupide pour mourir d'hypothermie, et même cela ne se produira pas lorsque vous serez dans le sac de couchage. Le principal danger sera celui des gelures, mais là encore, il faudra faire preuve d'une grande stupidité, même si c'est plus facile à faire que de mourir d'hypothermie.
Votre tente sera une installation fixe à long terme que vous monterez une fois, au moment et dans les conditions de votre choix. Vous pouvez donc vous permettre d'avoir une tente plus grande et plus lourde avec plus de matériel que vous apportez une seule fois. Achetez absolument une tente dans laquelle vous pouvez vous tenir debout. Vous pourrez ainsi vous changer plus rapidement et plus confortablement. Puisque vous devez pouvoir empêcher l'eau de pénétrer dans la tente, prenez un bon sac de couchage en duvet et quelques couvertures légères. Le sac de couchage en duvet devrait être suffisant pour la plupart des nuits, puis mettez les couvertures par-dessus pour les quelques nuits exceptionnellement froides. Puisque le poids n'est pas un problème, achetez un sac de couchage complet, pas un sac momie. Ils sont tout simplement plus confortables. Achetez un bon matelas isolant et deux autres en réserve. Achetez une tente suffisamment grande pour y placer votre sac de couchage et quelque chose pour vous asseoir à côté, comme une chaise pliante. Placez quelque chose sous les pieds pour répartir le poids afin qu'ils ne blessent pas le sol de la tente. Procurez-vous l'un de ces tapis en caoutchouc que les gens placent parfois à l'intérieur de leur porte et placez-le à l'intérieur de votre tente. Cela permet de marcher avec les bottes encore en place, puis de s'asseoir sur la chaise avec les bottes encore sur le tapis pour les enlever. La saleté reste sur le tapis, que vous pouvez secouer pour la nettoyer après avoir enfilé vos chaussons de descente.
Certaines choses seront difficiles à faire. À -4°F, vous voulez garder vos gants autant que possible, mais certaines tâches seront difficiles à accomplir. Vous finirez par mettre et enlever vos gants souvent, troquant l'efficacité contre des doigts froids. Procurez-vous une paire de doublures de gants en polypro. Ils sont fins et permettent encore d'effectuer de nombreuses tâches, tout en offrant au moins un peu d'isolation. Leur principal avantage est que le métal que vous touchez ne conduit pas immédiatement la chaleur de votre main. Toucher du métal nu à -4°F est un bon moyen d'attraper des engelures.
Préparez-vous à un certain inconfort, quel que soit l'équipement dont vous disposez. Le plus difficile sera de se sortir du sac de couchage le matin. Vous devrez vraiment vous forcer à quitter le confort chaud du sac et à vous mettre à l'air libre à l'heure la plus froide de la journée. À un moment donné, vous devrez vous changer et vous déshabiller. Ce sera froid. Le froid ne durera pas assez longtemps pour représenter un réel danger, il s'agit donc d'une question d'état d'esprit à surmonter. Vous seul pouvez dire si vous en êtes capable ou non et si vous êtes prêt à vous dépasser de cette manière.
Vous dites que vous avez accès à des bâtiments chauffés pendant la journée, ce qui rendrait les choses beaucoup plus simples pour vous si vous n'aviez pas à vous occuper de la cuisine et des repas dans votre camp. Préparer la nourriture à l'extérieur dans le froid prend beaucoup plus de temps que dans une cuisine chauffée, limite considérablement ce que vous pouvez faire, et peut également entraîner des risques de rencontre avec des prédateurs en fonction de ce qui se trouve dans votre région en hiver. | Posso passare la notte da solo in una tenda in una foresta fuori Stoccolma a -20°C senza rischiare la vita?
Il retroscena
Dalla fine di gennaio inizierò i miei studi in un sobborgo di Stoccolma. Ho deciso, se sarà plausibile, di non affittare un appartamento, ma di vivere in una tenda. (Non è per frugalità, ma per la voglia di provare qualcosa di nuovo).
Ho amici che potrei andare a trovare una volta alla settimana o giù di lì per preparare il cibo e lavare i vestiti, quindi penso di poter risolvere i problemi pratici, o almeno quelli che mi sono venuti in mente. Mi accamperei in una delle foreste, a circa 1 km dalla "civiltà". Avrei accesso alle docce ecc. all'università ogni giorno.
Tuttavia: non voglio morire di freddo nel sonno! Questo è molto importante per me. Ho letto che le notti possono arrivare a -20°C (-4°F). Con i dovuti preparativi, sarebbe un modo plausibile di vivere, almeno per un mese o poco più?
Ho esperienza di campeggio e ho fatto escursioni per tre settimane, ma solo in estate. | Sì, è decisamente fattibile. -20°C è solo -4°F. La vera domanda è se è fattibile per voi, al livello di disagio e di fastidio che siete disposti a sopportare. Solo voi potete rispondere. Al massimo possiamo indicare quali saranno le seccature e i disagi.
Innanzitutto, la paura di morire di freddo nel sonno è sciocca. Dovreste fare qualcosa di piuttosto stupido per morire di ipotermia, e anche questo non accadrà quando sarete all'interno del sacco a pelo. Il pericolo principale è rappresentato dall'assideramento, ma anche in questo caso la stupidità è fondamentale, anche se è più facile che si verifichi una vera e propria morte per ipotermia.
La vostra tenda sarà un'installazione fissa a lungo termine che monterete una volta sola, in un momento e in condizioni di vostra scelta. Potete quindi permettervi una tenda più grande e più pesante con più roba da portare una volta sola. Prendete sicuramente una tenda in cui possiate stare in piedi. In questo modo il cambio di vestiti sarà molto più veloce e comodo. Dato che dovreste essere in grado di tenere l'acqua fuori dalla tenda, procuratevi un bel sacco a pelo in piuma e qualche coperta leggera. Il sacco a pelo dovrebbe essere adatto alla maggior parte delle notti, quindi metteteci sopra le coperte per le poche notti insolitamente fredde. Dato che il peso non è un problema, prendete un sacco a pelo pieno, non un sacco a mummia. Sono semplicemente più comodi. Procuratevi un buon materassino isolante e altri due di riserva. Procuratevi una tenda abbastanza grande da contenere il sacco a pelo e qualcosa su cui sedersi accanto, come una sedia pieghevole. Mettete qualcosa sotto le gambe per distribuire il peso in modo da non danneggiare il pavimento della tenda. Prendete uno di quei tappetini di gomma che a volte si mettono all'interno delle porte e mettetelo all'interno della tenda. In questo modo si può fare un passo con gli scarponi ancora addosso e poi ci si può sedere sulla sedia con gli scarponi ancora sul tappetino per toglierli. La sporcizia rimane sul tappetino, che si può scuotere per pulirlo dopo aver indossato i calzari del rifugio.
Alcune cose saranno una seccatura. A -4°F si desidera tenere i guanti quando possibile, ma alcuni compiti saranno difficili da svolgere. Si finisce per togliersi e rimettersi i guanti spesso, barattando l'efficienza con le dita fredde. Procuratevi un paio di guanti foderati in polipropilene. Sono sottili e consentono comunque di svolgere molte attività, ma forniscono almeno un po' di isolamento. Il loro vantaggio principale è che qualsiasi metallo toccato non condurrà immediatamente il calore della mano. Toccare il metallo nudo a -4°F è un buon modo per congelarsi.
Preparatevi a un po' di disagio, indipendentemente dall'attrezzatura che avete. La parte più difficile sarà uscire dal sacco a pelo al mattino. Dovrete davvero sforzarvi di lasciare il caldo comfort del sacco a pelo per entrare nell'aria, probabilmente nella parte più fredda della giornata. A un certo punto dovrete cambiarvi e spogliarvi. Farà freddo. Non sarà abbastanza freddo da costituire un pericolo reale, quindi si tratta di un problema di mentalità da superare. Se siete in grado di farlo o meno e se siete disposti a spingervi in questo modo, solo voi potete dirlo.
Dici di avere accesso a edifici riscaldati durante il giorno, quindi sarebbe molto più semplice per te se non dovessi cucinare e mangiare al tuo campo. Preparare il cibo all'aperto con il freddo richiede molto più tempo che in una cucina riscaldata, limita fortemente le possibilità di azione e può anche comportare il rischio di incontrare predatori, a seconda di ciò che si trova nella vostra zona in inverno. |
229 | Why is the volt not identical to the full name Volta, unlike the other electrical units ohm, ampere, coulomb, tesla, weber and henry? Is there a historical explanation, was the volt introduced at a different time? | The volt, ohm and farad were introduced by the same person, Latimer Clark, a cable engineer, in a paper in 1861. He started the tradition of naming units after scientists. He initially distorted all names: the unit names ohma, volt, galvat (from Galvani), and farad (from Faraday). In his words, he "neglected etymological rules".
In that same year, a committee of the British Association for the Advancement of Science began developing a coherent system of electrical units, the cgs system. Varley, a committee member, liked Clark's proposal, but he advocated adding a French name such as Ampere, to facilitate the international acceptance of the new units ("I should like to introduce a French name into the list. We have Germany, England and Italy represented"). For the same reason he may have pleaded for not distorting the French and German names. In addition, Varley objected to the galvat "because Galvani discovered next to nothing".
Latimer Clark adapted the unit names in his 'Elementary treatise on electrical measurement' (1868). He changed ohma to ohm, and dropped the galvat. Maxwell acknowledged Clark's practical units and their names in his 'Treatise on electricity and magnetism' (1873). In 1881, at the International Electrical Congress in Paris), two French names, ampere and coulomb, were added. The diplomacy worked, and the new system of electrical units was adopted by all countries. The only units that kept the initial name distortion were the volt and the farad. | Warum ist das Volt nicht mit dem vollen Namen Volta identisch, im Gegensatz zu den anderen elektrischen Einheiten Ohm, Ampere, Coulomb, Tesla, Weber und Henry? Gibt es eine historische Erklärung, wurde das Volt zu einem anderen Zeitpunkt eingeführt? | Das Volt, das Ohm und das Farad wurden von derselben Person, Latimer Clark, einem Kabelingenieur, in einem Aufsatz von 1861 eingeführt. Er begann die Tradition, Einheiten nach Wissenschaftlern zu benennen. Zunächst verdrehte er alle Namen: die Einheitsnamen ohma, volt, galvat (von Galvani) und farad (von Faraday). Nach seinen Worten "vernachlässigte er die etymologischen Regeln".
Im selben Jahr begann ein Ausschuss der British Association for the Advancement of Science mit der Entwicklung eines kohärenten Systems elektrischer Einheiten, des cgs-Systems. Varley, ein Mitglied des Komitees, fand Clarks Vorschlag gut, plädierte aber dafür, einen französischen Namen wie Ampere hinzuzufügen, um die internationale Akzeptanz der neuen Einheiten zu erleichtern ("Ich würde gerne einen französischen Namen in die Liste aufnehmen. Wir haben Deutschland, England und Italien vertreten"). Aus demselben Grund mag er dafür plädiert haben, die französischen und deutschen Namen nicht zu verfälschen. Außerdem lehnte Varley den Galvat ab, "weil Galvani so gut wie nichts entdeckt hat".
Latimer Clark passte die Einheitsnamen in seiner "Elementaren Abhandlung über elektrische Messungen" (1868) an. Er änderte ohma in ohm und ließ das Galvat weg. Maxwell erkannte Clarks praktische Einheiten und ihre Namen in seiner Abhandlung über Elektrizität und Magnetismus" (1873) an. 1881 wurden auf dem Internationalen Elektrokongress in Paris zwei französische Bezeichnungen, Ampere und Coulomb, hinzugefügt. Die Diplomatie funktionierte, und das neue System der elektrischen Einheiten wurde von allen Ländern übernommen. Die einzigen Einheiten, die die anfängliche Namensverfälschung beibehielten, waren das Volt und das Farad. | ¿Por qué el voltio no es idéntico al nombre completo Volta, a diferencia de las otras unidades eléctricas ohm, amperio, culombio, tesla, weber y henry? ¿Existe una explicación histórica, se introdujo el voltio en una época diferente? | El voltio, el ohmio y el faradio fueron introducidos por la misma persona, Latimer Clark, ingeniero de cables, en un artículo de 1861. Clark inició la tradición de bautizar las unidades con nombres científicos. Al principio distorsionó todos los nombres: las unidades ohma, voltio, galvat (de Galvani) y farad (de Faraday). En sus palabras, "descuidó las reglas etimológicas".
Ese mismo año, un comité de la Asociación Británica para el Avance de la Ciencia empezó a desarrollar un sistema coherente de unidades eléctricas, el sistema cgs. A Varley, miembro del comité, le gustó la propuesta de Clark, pero abogó por añadir un nombre francés, como Ampere, para facilitar la aceptación internacional de las nuevas unidades ("Me gustaría introducir un nombre francés en la lista. Tenemos representados a Alemania, Inglaterra e Italia"). Por la misma razón puede haber abogado por no distorsionar los nombres francés y alemán. Además, Varley se opuso al galvat "porque Galvani no descubrió casi nada".
Latimer Clark adaptó los nombres de las unidades en su "Tratado elemental sobre medición eléctrica" (1868). Cambió ohma por ohm y eliminó el galvat. Maxwell reconoció las unidades prácticas de Clark y sus nombres en su "Tratado sobre electricidad y magnetismo" (1873). En 1881, en el Congreso Internacional de Electricidad celebrado en París, se añadieron dos nombres franceses: ampere y coulomb. La diplomacia funcionó y el nuevo sistema de unidades eléctricas fue adoptado por todos los países. Las únicas unidades que mantuvieron la distorsión del nombre inicial fueron el voltio y el faradio. | Pourquoi le volt n'est-il pas identique au nom complet Volta, contrairement aux autres unités électriques que sont l'ohm, l'ampère, le coulomb, le tesla, le weber et le henry ? Y a-t-il une explication historique ? Le volt a-t-il été introduit à une autre époque ? | Le volt, l'ohm et le farad ont été introduits par la même personne, Latimer Clark, un ingénieur spécialiste des câbles, dans un article publié en 1861. Il a lancé la tradition de nommer les unités d'après des scientifiques. Au départ, il a déformé tous les noms : les noms des unités ohm, volt, galvat (de Galvani) et farad (de Faraday). Selon ses propres termes, il a "négligé les règles étymologiques".
La même année, un comité de la British Association for the Advancement of Science a commencé à élaborer un système cohérent d'unités électriques, le système cgs. Varley, membre du comité, apprécie la proposition de Clark, mais il préconise l'ajout d'un nom français, comme Ampère, pour faciliter l'acceptation internationale des nouvelles unités ("Je voudrais introduire un nom français dans la liste. L'Allemagne, l'Angleterre et l'Italie sont représentées"). Pour la même raison, il a pu plaider pour ne pas déformer les noms français et allemands. En outre, Varley s'est opposé au galvat "parce que Galvani n'a pratiquement rien découvert".
Latimer Clark a adapté les noms des unités dans son "Elementary treatise on electrical measurement" (1868). Il remplace ohma par ohm et abandonne le galvat. Maxwell a reconnu les unités pratiques de Clark et leurs noms dans son "Treatise on electricity and magnetism" (1873). En 1881, lors du Congrès international d'électricité à Paris, deux noms français, ampère et coulomb, ont été ajoutés. La diplomatie fonctionne et le nouveau système d'unités électriques est adopté par tous les pays. Seuls le volt et le farad conservent la déformation du nom initial. | Perché il volt non è identico al nome completo Volta, a differenza delle altre unità elettriche ohm, ampere, coulomb, tesla, weber e henry? C'è una spiegazione storica, il volt è stato introdotto in un momento diverso? | Il volt, l'ohm e il farad sono stati introdotti dalla stessa persona, Latimer Clark, un ingegnere di cavi, in un articolo del 1861. Egli diede inizio alla tradizione di dare alle unità il nome di scienziati. Inizialmente distorse tutti i nomi: i nomi delle unità ohma, volt, galvat (da Galvani) e farad (da Faraday). Nelle sue parole, "trascurò le regole etimologiche".
Nello stesso anno, un comitato della British Association for the Advancement of Science iniziò a sviluppare un sistema coerente di unità elettriche, il sistema cgs. Varley, membro del comitato, apprezzava la proposta di Clark, ma sosteneva l'aggiunta di un nome francese come Ampere, per facilitare l'accettazione internazionale delle nuove unità ("Vorrei introdurre un nome francese nell'elenco. Abbiamo Germania, Inghilterra e Italia rappresentate"). Per lo stesso motivo potrebbe aver chiesto di non distorcere i nomi francesi e tedeschi. Inoltre, Varley si oppose al galvat "perché Galvani non ha scoperto quasi nulla".
Latimer Clark adattò i nomi delle unità nel suo "Trattato elementare sulla misurazione elettrica" (1868). Cambiò ohma in ohm e abbandonò il galvat. Maxwell riconobbe le unità pratiche di Clark e i loro nomi nel suo "Trattato di elettricità e magnetismo" (1873). Nel 1881, al Congresso Elettrico Internazionale di Parigi, furono aggiunti due nomi francesi, ampere e coulomb. La diplomazia funzionò e il nuovo sistema di unità elettriche fu adottato da tutti i Paesi. Le uniche unità che mantennero la distorsione iniziale del nome furono il volt e il farad. |
230 | We can define cross products mathematically like if we take two vectors, we can find another vector with certain properties but why do we use it in physics, if we consider a hypothetical physical quantity like force which is equal to cross product of certain vectors?
For example, the force exerted on a charge in motion in an uniform magnetic field.
Why is it so? Why does that force have to be a cross product of two vectors?
Is it possible to come up with them when what we do is just observe the nature? | This is a great question. The dot and cross products seem very mysterious when they are first introduced to a new student. For example, why does the scalar (dot) product have a cosine in it and the vector (cross) product have a sine, rather than vice versa? And why do these same two very non-obvious ways of "multiplying" vectors together arise in so many different contexts?
The fundamental answer (which unfortunately may not be very accessible if you're a new student) is that there are only two algebraically independent tensors that are invariant under arbitrary rotations in $n$ dimensions (we say that they are "$\mathrm{SO}(n)$ invariant"). These are the Kronecker delta $\delta_{ij}$ and the Levi-Civita symbol $\epsilon_{ijk \cdots}$. Contracting two vectors with these symbols yields the dot and cross products, respectively (the latter only works in three dimensions). Since the laws of physics appear to be isotropic (i.e. rotationally invariant), it makes sense that any physically useful method for combining physical quantities like vectors together should be isotropic as well. The dot and cross products turn out to be the only two possible multilinear options.
Why multilinear maps are so useful in physics is an even deeper and more fundamental question, but which answers to that question are satisfying is probably inherently a matter of opinion. | Wir können Kreuzprodukte mathematisch definieren, z.B. wenn wir zwei Vektoren nehmen, können wir einen anderen Vektor mit bestimmten Eigenschaften finden, aber warum verwenden wir es in der Physik, wenn wir eine hypothetische physikalische Größe wie Kraft betrachten, die gleich dem Kreuzprodukt bestimmter Vektoren ist?
Zum Beispiel die Kraft, die auf eine bewegte Ladung in einem gleichmäßigen Magnetfeld ausgeübt wird.
Warum ist das so? Warum muss diese Kraft ein Kreuzprodukt aus zwei Vektoren sein?
Ist es möglich, sie zu finden, wenn wir nur die Natur beobachten? | Dies ist eine gute Frage. Das Punkt- und das Kreuzprodukt erscheinen sehr geheimnisvoll, wenn sie einem neuen Schüler zum ersten Mal vorgestellt werden. Warum hat zum Beispiel das Skalarprodukt (Punkt) einen Kosinus und das Vektorprodukt (Kreuzprodukt) einen Sinus und nicht umgekehrt? Und warum tauchen diese beiden nicht ganz offensichtlichen Möglichkeiten, Vektoren miteinander zu "multiplizieren", in so vielen verschiedenen Zusammenhängen auf?
Die grundsätzliche Antwort (die für Studienanfänger leider nicht so leicht zugänglich ist) lautet, dass es nur zwei algebraisch unabhängige Tensoren gibt, die unter beliebigen Drehungen in $n$ Dimensionen invariant sind (wir sagen, sie sind "$\mathrm{SO}(n)$ invariant"). Dies sind das Kronecker-Delta $\delta_{ij}$ und das Levi-Civita-Symbol $\epsilon_{ijk \cdots}$. Wenn man zwei Vektoren mit diesen Symbolen kontrahiert, erhält man das Punkt- bzw. Kreuzprodukt (letzteres funktioniert nur in drei Dimensionen). Da die physikalischen Gesetze isotrop zu sein scheinen (d. h. rotationsinvariant), liegt es nahe, dass jede physikalisch sinnvolle Methode zur Kombination physikalischer Größen wie Vektoren ebenfalls isotrop sein sollte. Das Punkt- und das Kreuzprodukt erweisen sich als die beiden einzigen möglichen multilinearen Optionen.
Warum multilineare Karten in der Physik so nützlich sind, ist eine noch tiefere und grundlegendere Frage, aber welche Antworten auf diese Frage befriedigend sind, ist wahrscheinlich von Natur aus eine Frage der Meinung. | Podemos definir los productos cruzados matemáticamente, por ejemplo, si tomamos dos vectores, podemos encontrar otro vector con ciertas propiedades, pero ¿por qué lo utilizamos en física, si consideramos una cantidad física hipotética como la fuerza, que es igual al producto cruzado de ciertos vectores?
Por ejemplo, la fuerza ejercida sobre una carga en movimiento en un campo magnético uniforme.
¿Por qué es así? ¿Por qué esa fuerza tiene que ser un producto cruzado de dos vectores?
¿Es posible dar con ellos cuando lo que hacemos es simplemente observar la naturaleza? | Ésta es una gran pregunta. Los productos punto y cruz parecen muy misteriosos cuando se presentan por primera vez a un nuevo estudiante. Por ejemplo, ¿por qué el producto escalar (punto) tiene un coseno y el producto vectorial (cruz) tiene un seno, y no al revés? ¿Y por qué estas dos formas tan poco obvias de "multiplicar" vectores surgen en tantos contextos diferentes?
La respuesta fundamental (que por desgracia puede no ser muy accesible si eres un estudiante nuevo) es que sólo hay dos tensores algebraicamente independientes que son invariantes bajo rotaciones arbitrarias en $n$ dimensiones (decimos que son "$\mathrm{SO}(n)$ invariantes"). Son el delta de Kronecker $\delta_{ij}$ y el símbolo de Levi-Civita $\epsilon_{ijk \cdots}$. Al contraer dos vectores con estos símbolos se obtienen los productos punto y cruz, respectivamente (este último sólo funciona en tres dimensiones). Puesto que las leyes de la física parecen ser isótropas (es decir, invariantes rotacionalmente), tiene sentido que cualquier método físicamente útil para combinar cantidades físicas como los vectores también sea isótropo. Los productos punto y cruz resultan ser las dos únicas opciones multilineales posibles.
Por qué los mapas multilineales son tan útiles en física es una cuestión aún más profunda y fundamental, pero qué respuestas a esa pregunta son satisfactorias es probablemente inherentemente una cuestión de opinión. | Nous pouvons définir les produits croisés de manière mathématique, par exemple si nous prenons deux vecteurs, nous pouvons trouver un autre vecteur avec certaines propriétés, mais pourquoi l'utiliser en physique, si nous considérons une quantité physique hypothétique comme la force qui est égale au produit croisé de certains vecteurs ?
Par exemple, la force exercée sur une charge en mouvement dans un champ magnétique uniforme.
Pourquoi en est-il ainsi ? Pourquoi cette force doit-elle être le produit de deux vecteurs ?
Est-il possible d'en trouver lorsque l'on se contente d'observer la nature ? | C'est une excellente question. Les produits en points et en croix semblent très mystérieux lorsqu'ils sont présentés pour la première fois à un nouvel étudiant. Par exemple, pourquoi le produit scalaire (point) contient-il un cosinus et le produit vectoriel (croix) un sinus, plutôt que l'inverse ? Et pourquoi ces deux mêmes façons très peu évidentes de "multiplier" des vecteurs entre eux apparaissent-elles dans tant de contextes différents ?
La réponse fondamentale (qui n'est malheureusement pas très accessible si vous êtes un nouvel étudiant) est qu'il n'existe que deux tenseurs algébriquement indépendants qui sont invariants sous l'effet de rotations arbitraires en $n$ dimensions (nous disons qu'ils sont "$\mathrm{SO}(n)$ invariants"). Il s'agit du delta de Kronecker $\delta_{ij}$ et du symbole de Levi-Civita $\epsilon_{ijk \cdots}$. En contractant deux vecteurs avec ces symboles, on obtient respectivement le produit de points et le produit en croix (ce dernier ne fonctionne qu'en trois dimensions). Puisque les lois de la physique semblent être isotropes (c'est-à-dire invariantes par rapport à la rotation), il est logique que toute méthode physiquement utile pour combiner des quantités physiques telles que des vecteurs soit également isotrope. Les produits de points et de croix s'avèrent être les deux seules options multilinéaires possibles.
La raison pour laquelle les cartes multilinéaires sont si utiles en physique est une question encore plus profonde et plus fondamentale, mais les réponses satisfaisantes à cette question sont probablement intrinsèquement une question d'opinion. | Possiamo definire i prodotti incrociati matematicamente, ad esempio se prendiamo due vettori, possiamo trovare un altro vettore con determinate proprietà, ma perché lo usiamo in fisica, se consideriamo un'ipotetica grandezza fisica come la forza che è uguale al prodotto incrociato di alcuni vettori?
Ad esempio, la forza esercitata su una carica in movimento in un campo magnetico uniforme.
Perché è così? Perché questa forza deve essere il prodotto incrociato di due vettori?
È possibile trovare delle soluzioni quando ci si limita a osservare la natura? | Questa è una grande domanda. I prodotti di punto e di croce sembrano molto misteriosi quando vengono presentati per la prima volta a un nuovo studente. Per esempio, perché il prodotto scalare (punto) ha un coseno e il prodotto vettoriale (incrociato) ha un seno, e non viceversa? E perché questi due modi non ovvi di "moltiplicare" i vettori si presentano in tanti contesti diversi?
La risposta fondamentale (che purtroppo potrebbe non essere molto accessibile se siete studenti alle prime armi) è che esistono solo due tensori algebricamente indipendenti che sono invarianti sotto rotazioni arbitrarie in $n$ dimensioni (diciamo che sono "$mathrm{SO}(n)$ invarianti"). Si tratta del delta di Kronecker $\delta_{ij}$ e del simbolo di Levi-Civita $\epsilon_{ijk \cdots}$. Contraendo due vettori con questi simboli si ottengono rispettivamente il prodotto di punti e il prodotto incrociato (quest'ultimo funziona solo in tre dimensioni). Poiché le leggi della fisica sembrano essere isotrope (cioè invarianti di rotazione), è logico che qualsiasi metodo fisicamente utile per combinare insieme quantità fisiche come i vettori debba essere anch'esso isotropo. Il prodotto di punti e il prodotto incrociato risultano essere le uniche due opzioni multilineari possibili.
Perché le mappe multilineari siano così utili in fisica è una questione ancora più profonda e fondamentale, ma quali siano le risposte soddisfacenti è probabilmente una questione di opinioni. |
231 | I have a web project in my solution file that is "unavailable" when I open the solution. When I right-click on the web project and reload the project, I get the following error:
```
The Web Application Project mycompany.myapp.mywebproject is configured to use IIS. The Web Server 'http://localhost/MyWebApp could not be found.
```
I have not manually set up virtual directories for this web application.
Per colleagues, Visual Studio should prompt me to create virtual directories but I am not getting prompted.
I installed VS2010 before installing IIS on my dev machine.
Here is my development machine setup:
* Windows 7 Enterprise
* Service Pack 1
* 64 bit OS
* Visual Studio 2010 Enterprise Service pack 1
* IIS version 7.5
| When this happens the easiest solution is to make the virtual directory manually.
First of all, you need to make sure you have the right version of ASP.Net installed and that you have installed the IIS extensions.
To do this, go to the relevant .net version's folder in C:\(Windows)\Microsoft.NET\Framework\(dotnetver)\
(substituting the bracketed folders for the right folders on your PC) and run this command
```aspnet_regiis.exe -i
```
Next once that's run and finished, sometimes running
```iisreset
```
from the command line helps, sometimes you don't need to.
Next, go to your IIS Manager and find you localhost website and choose add a folder.
Browse to the folder in your project that contains the actual ASP.Net project and add that.
Finally, right click on the folder you added and you should have an option that says 'convert to application' or 'create virtual directory' or something similar.
Please make sure the Virtual directory has the name 'MyWebApp'!! Reload your solution and it should work.
Good luck! | Ich habe ein Webprojekt in meiner Projektmappe, das beim Öffnen der Projektmappe "nicht verfügbar" ist. Wenn ich mit der rechten Maustaste auf das Webprojekt klicke und das Projekt neu lade, erhalte ich den folgenden Fehler:
```
Das Webanwendungsprojekt mycompany.myapp.mywebproject ist für die Verwendung von IIS konfiguriert. Der Webserver 'http://localhost/MyWebApp konnte nicht gefunden werden.
```
Ich habe keine virtuellen Verzeichnisse für diese Webanwendung manuell eingerichtet.
Laut Kollegen sollte Visual Studio mich auffordern, virtuelle Verzeichnisse zu erstellen, aber ich werde nicht dazu aufgefordert.
Ich habe VS2010 vor der Installation von IIS auf meinem Entwicklungsrechner installiert.
Hier ist meine Entwicklungsmaschine eingerichtet:
* Windows 7 Enterprise
* Service Pack 1
* 64-Bit-Betriebssystem
* Visual Studio 2010 Enterprise Service Pack 1
* IIS Version 7.5
| In diesem Fall ist die einfachste Lösung, das virtuelle Verzeichnis manuell zu erstellen.
Zunächst müssen Sie sicherstellen, dass Sie die richtige Version von ASP.Net installiert haben und dass die IIS-Erweiterungen installiert sind.
Gehen Sie dazu zum Ordner der entsprechenden .net-Version in C:\(Windows)\Microsoft.NET\Framework\(dotnetver)\
(ersetzen Sie die eingeklammerten Ordner durch die richtigen Ordner auf Ihrem PC) und führen Sie diesen Befehl aus
```aspnet_regiis.exe -i
```
Sobald das ausgeführt und beendet ist, führen Sie manchmal
``iisreset
```
von der Kommandozeile aus auszuführen, manchmal ist das aber auch nicht nötig.
Als nächstes gehen Sie zu Ihrem IIS Manager und suchen Sie Ihre localhost Website und wählen Sie Ordner hinzufügen.
Navigieren Sie zu dem Ordner in Ihrem Projekt, der das eigentliche ASP.Net-Projekt enthält, und fügen Sie diesen hinzu.
Klicken Sie schließlich mit der rechten Maustaste auf den hinzugefügten Ordner, und Sie sollten eine Option erhalten, die lautet: "In Anwendung konvertieren" oder "Virtuelles Verzeichnis erstellen" oder etwas Ähnliches.
Bitte stellen Sie sicher, dass das virtuelle Verzeichnis den Namen 'MyWebApp' trägt! Laden Sie Ihre Lösung neu und sie sollte funktionieren.
Viel Erfolg! | Tengo un proyecto web en mi archivo de solución que está "no disponible" cuando abro la solución. Cuando hago clic con el botón derecho en el proyecto web y vuelvo a cargar el proyecto, obtengo el siguiente error:
```
El proyecto de aplicación web mycompany.myapp.mywebproject está configurado para utilizar IIS. No se pudo encontrar el Servidor Web 'http://localhost/MyWebApp.
```
No he configurado manualmente directorios virtuales para esta aplicación web.
Según mis colegas, Visual Studio debería pedirme que cree directorios virtuales, pero no lo hace.
He instalado VS2010 antes de instalar IIS en mi máquina de desarrollo.
Aquí está la configuración de mi máquina de desarrollo:
* Windows 7 Enterprise
* Service Pack 1
* Sistema operativo de 64 bits
* Visual Studio 2010 Enterprise Service Pack 1
* IIS versión 7.5
| Cuando esto ocurre, la solución más sencilla es crear el directorio virtual manualmente.
En primer lugar, debe asegurarse de que tiene instalada la versión correcta de ASP.Net y de que ha instalado las extensiones IIS.
Para ello, vaya a la carpeta de la versión .net correspondiente en C:\(Windows)\Microsoft.NET\Framework\(dotnetver)\
(sustituyendo las carpetas entre corchetes por las carpetas correctas de su PC) y ejecute este comando
```aspnet_regiis.exe -i
```
A continuación, una vez que se ha ejecutado y terminado, a veces se ejecuta
``iisreset
```
desde la línea de comandos ayuda, a veces no es necesario.
A continuación, vaya a su Administrador de IIS y encontrar su sitio web localhost y seleccione agregar una carpeta.
Busque la carpeta de su proyecto que contiene el proyecto ASP.Net y añádala.
Por último, haga clic con el botón derecho en la carpeta que ha añadido y debe tener una opción que dice "convertir en aplicación" o "crear directorio virtual" o algo similar.
Asegúrate de que el directorio virtual tiene el nombre 'MyWebApp'. Recarga tu solución y debería funcionar.
Buena suerte. | J'ai un projet web dans mon fichier de solution qui est "indisponible" lorsque j'ouvre la solution. Lorsque je fais un clic droit sur le projet web et que je recharge le projet, j'obtiens l'erreur suivante :
```
Le projet d'application Web mycompany.myapp.mywebproject est configuré pour utiliser IIS. Le serveur Web 'http://localhost/MyWebApp n'a pas pu être trouvé.
```
Je n'ai pas configuré manuellement les répertoires virtuels pour cette application web.
Selon mes collègues, Visual Studio devrait m'inviter à créer des répertoires virtuels, mais ce n'est pas le cas.
J'ai installé VS2010 avant d'installer IIS sur ma machine de développement.
Voici la configuration de ma machine de développement :
* Windows 7 Enterprise
* Service Pack 1
* OS 64 bits
* Visual Studio 2010 Enterprise Service pack 1
* IIS version 7.5
| Dans ce cas, la solution la plus simple consiste à créer manuellement le répertoire virtuel.
Tout d'abord, vous devez vous assurer que vous avez installé la bonne version d'ASP.Net et que vous avez installé les extensions IIS.
Pour ce faire, allez dans le dossier de la version .net concernée dans C:\N(Windows)\NMicrosoft.NET\NFramework\N(dotnetver)\N(Windows)\N(Windows)\N(Windows)\NFramework\N(dotnetver)).
(en remplaçant les dossiers entre parenthèses par les bons dossiers sur votre PC) et exécutez la commande suivante
```aspnet_regiis.exe -i
```
Ensuite, une fois cette commande exécutée et terminée, lancez parfois la commande
``iisreset
```
à partir de la ligne de commande, mais parfois ce n'est pas nécessaire.
Ensuite, allez dans votre gestionnaire IIS et trouvez votre site web localhost et choisissez ajouter un dossier.
Naviguez jusqu'au dossier de votre projet qui contient le projet ASP.Net et ajoutez-le.
Enfin, faites un clic droit sur le dossier que vous avez ajouté et vous devriez avoir une option qui dit "convertir en application" ou "créer un répertoire virtuel" ou quelque chose de similaire.
Assurez-vous que le répertoire virtuel porte le nom "MyWebApp" ! Rechargez votre solution et elle devrait fonctionner.
Bonne chance ! | Ho un progetto Web nel mio file di soluzione che risulta "non disponibile" quando apro la soluzione. Quando faccio clic con il pulsante destro del mouse sul progetto Web e lo ricarico, ottengo il seguente errore:
```
Il progetto di applicazione Web mycompany.myapp.mywebproject è configurato per utilizzare IIS. Il server Web 'http://localhost/MyWebApp non è stato trovato.
```
Non ho impostato manualmente le directory virtuali per questa applicazione Web.
Secondo i colleghi, Visual Studio dovrebbe richiedere la creazione di directory virtuali, ma a me non viene richiesto.
Ho installato VS2010 prima di installare IIS sulla mia macchina di sviluppo.
Ecco la configurazione della mia macchina di sviluppo:
* Windows 7 Enterprise
* Service Pack 1
* Sistema operativo a 64 bit
* Visual Studio 2010 Enterprise Service Pack 1
* IIS versione 7.5
| In questo caso, la soluzione più semplice è creare la directory virtuale manualmente.
Prima di tutto, è necessario assicurarsi di avere installato la versione giusta di ASP.Net e di aver installato le estensioni di IIS.
A tale scopo, accedere alla cartella della versione .net in questione in C:\(Windows)\Microsoft.NET\Framework(dotnetver)\
(sostituendo le cartelle tra parentesi con le cartelle giuste sul vostro PC) ed eseguite questo comando
``aspnet_regiis.exe -i
```
Quindi, una volta eseguito e terminato, eseguire a volte
``iisreset
```
dalla riga di comando è utile, altre volte non è necessario.
Quindi, andare in IIS Manager e trovare il sito web localhost e scegliere aggiungi una cartella.
Cercare la cartella del progetto che contiene il progetto ASP.Net vero e proprio e aggiungerla.
Infine, fate clic con il pulsante destro del mouse sulla cartella aggiunta e dovreste avere un'opzione che dice "converti in applicazione" o "crea directory virtuale" o qualcosa di simile.
Assicuratevi che la cartella virtuale abbia il nome 'MyWebApp'!!! Ricaricate la soluzione e dovrebbe funzionare.
Buona fortuna! |
232 | Why is it hard to draw people running in animes? | The walk cycle is considered to be one of the most basic aspects of animation. American animators and animation enthusiasts often times scorn the Japanese styles and methods of animation as lazy, while Japanese anime enthusiasts deride the American style as clunky or too comical.
Why is that you ask? The answer lies in how these countries distribute their budget and time.
While American animation often times may seem lacking in it's attention to detail, it makes up for it the quality of their animation. American animation often times meticulous and original in how they animate motion, though sometimes content is reused cyclically, the animation is painstakingly frame by frame.
In contrast, Japanese anime uses a lot of shortcuts (to save budget and meet deadlines). Typically long scenes feature only the mouth of a character (and maybe other minor features like a waving hair or glittering eyes) moving during delivery of key information/dialog, or the short burst of motion of some character in some an action pose against an animated, cyclic, and stylized background (I'm looking at you transformation scenes). Often times these uses of dramatic still-shots are done against patterned (or static illustrated) backgrounds, sometimes a few moving emotive icons (sweat drops, question marks, small chibi animated heads) will accompany a some sort of monologue. Admittedly both styles of animation reuse shots and sequences, but it's more noticeable in Japanese anime for various reason (e.g., not enough budget and/or manpower). This is why Japanese anime is typically labeled as "lazy" by American animators and enthusiasts.
A typical walk cycle in animation consists of 8 keyframes typically:
The smoothness of an animation is typically determined by the framerate and amount of key frames in the animation.
In American animation, the animation is captured by shooting two frames of film per drawing at a rate of 24 frames per second (fps) to achieve the smooth motion of American animation.
Japanese anime, while it also runs at an average 24 fps, typically captures their animation at a rate of three or four frames per drawing in order to save money and manpower. Though it varies depending on the studio and tools used (e.g 3DCG) with main objects in the foreground (typically characters) are animated at 8 to 12 fps, while background objects can be animated at as low as 6 to 8 fps.
Lets compare the difference between one walk cycle that is 8 frame to one that is 16 frames, both at 60 fps:
Notice the 16 frame one is smoother, but slower while the 8 frame is faster, but choppier. This is because it takes the 16 frame animation twice as long, covering more frames, to go through one cycle than the 8 frame one.
The varying of frame rates can also be be used to depict the expansion and compression of time (think bullet time from The Matrix). However generally choppy animation is the result of not enough keyframes in your animation. More frames mean more and manpower and/or time, which ultimately means more money is required. Japanese anime production don't typically have as big of a budget compared to American productions (but there are exceptions), so they must make do with what they have and cut corners where they can (like Shaft did with the certain Bakemonogatari TV episodes). | Warum ist es so schwer, Menschen in Animes zum Laufen zu bringen? | Der Gehzyklus gilt als einer der grundlegendsten Aspekte der Animation. Amerikanische Animatoren und Animationsenthusiasten verachten oft die japanischen Animationsstile und -methoden als faul, während japanische Anime-Enthusiasten den amerikanischen Stil als klobig oder zu komisch verhöhnen.
Warum ist das so, fragen Sie? Die Antwort liegt darin, wie diese Länder ihr Budget und ihre Zeit verteilen.
Während es dem amerikanischen Animationsfilm oft an Liebe zum Detail zu mangeln scheint, macht er dies durch die Qualität seiner Animationen wieder wett. Amerikanische Animationsfilme sind oft akribisch und originell in der Art und Weise, wie sie Bewegungen animieren, obwohl manchmal Inhalte zyklisch wiederverwendet werden.
Im Gegensatz dazu werden in japanischen Animes viele Abkürzungen verwendet (um Budget zu sparen und Fristen einzuhalten). In langen Szenen bewegt sich typischerweise nur der Mund einer Figur (und vielleicht andere unbedeutende Merkmale wie wehendes Haar oder glitzernde Augen), während wichtige Informationen/Dialoge vermittelt werden, oder die kurze Bewegung einer Figur in einer Action-Pose vor einem animierten, zyklischen und stilisierten Hintergrund (ich schaue dich an, Verwandlungsszenen). Oft werden diese dramatischen Standbilder vor gemusterten (oder statisch illustrierten) Hintergründen eingesetzt, manchmal begleiten ein paar bewegte emotionale Symbole (Schweißtropfen, Fragezeichen, kleine animierte Chibi-Köpfe) eine Art Monolog. Zugegebenermaßen werden bei beiden Animationsstilen Aufnahmen und Sequenzen wiederverwendet, doch ist dies beim japanischen Anime aus verschiedenen Gründen (z. B. mangelndes Budget und/oder Arbeitskräfte) stärker ausgeprägt. Aus diesem Grund werden japanische Anime von amerikanischen Animateuren und Enthusiasten in der Regel als "faul" abgestempelt.
Ein typischer Laufzyklus in der Animation besteht in der Regel aus 8 Keyframes:
Die Geschmeidigkeit einer Animation wird in der Regel durch die Framerate und die Anzahl der Keyframes in der Animation bestimmt.
Im amerikanischen Zeichentrickfilm werden zwei Bilder pro Zeichnung mit einer Rate von 24 Bildern pro Sekunde (fps) aufgenommen, um die flüssigen Bewegungen des amerikanischen Zeichentrickfilms zu erreichen.
Japanische Anime laufen zwar auch mit durchschnittlich 24 Bildern pro Sekunde, aber in der Regel werden die Animationen mit drei oder vier Bildern pro Zeichnung aufgenommen, um Geld und Arbeitskräfte zu sparen. Je nach Studio und verwendeten Werkzeugen (z. B. 3DCG) variiert diese Rate, wobei die Hauptobjekte im Vordergrund (in der Regel die Figuren) mit 8 bis 12 Bildern pro Sekunde animiert werden, während die Hintergrundobjekte mit nur 6 bis 8 Bildern pro Sekunde animiert werden können.
Vergleichen wir den Unterschied zwischen einem 8-Frames-Gehzyklus und einem 16-Frames-Gehzyklus, beide mit 60 fps:
Der 16-Frames-Zyklus ist flüssiger, aber langsamer, während der 8-Frames-Zyklus schneller, aber abgehackter ist. Das liegt daran, dass die 16-Bilder-Animation doppelt so lange braucht, um einen Zyklus zu durchlaufen, und mehr Bilder umfasst als die 8-Bilder-Animation.
Die unterschiedlichen Bildraten können auch verwendet werden, um die Ausdehnung und Komprimierung der Zeit darzustellen (z. B. Bullet Time in The Matrix). Im Allgemeinen sind abgehackte Animationen jedoch das Ergebnis von zu wenig Keyframes in Ihrer Animation. Mehr Einzelbilder bedeuten mehr Arbeitskraft und/oder Zeit, was letztendlich mehr Geld bedeutet. Japanische Anime-Produktionen verfügen in der Regel nicht über ein so großes Budget wie amerikanische Produktionen (aber es gibt auch Ausnahmen), so dass sie mit dem auskommen müssen, was sie haben, und sparen, wo sie können (wie Shaft bei bestimmten Bakemonogatari-Fernsehepisoden). | ¿Por qué es difícil dibujar a gente corriendo en los animes? | El ciclo de paseo se considera uno de los aspectos más básicos de la animación. Los animadores y entusiastas de la animación estadounidenses a menudo desprecian los estilos y métodos de animación japoneses por considerarlos perezosos, mientras que los entusiastas del anime japonés se burlan del estilo estadounidense por considerarlo tosco o demasiado cómico.
¿Por qué? La respuesta está en cómo distribuyen estos países su presupuesto y su tiempo.
Aunque la animación norteamericana a menudo parece carecer de atención al detalle, lo compensa con la calidad de su animación. La animación estadounidense es a menudo meticulosa y original en la forma de animar el movimiento, aunque a veces el contenido se reutiliza cíclicamente, la animación es minuciosa fotograma a fotograma.
En cambio, el anime japonés utiliza muchos atajos (para ahorrar presupuesto y cumplir plazos). Por lo general, las escenas largas sólo muestran la boca de un personaje (y tal vez otros rasgos menores, como el cabello ondulante o los ojos brillantes) en movimiento durante la entrega de información/diálogo clave, o la breve ráfaga de movimiento de algún personaje en alguna pose de acción contra un fondo animado, cíclico y estilizado (te estoy mirando a ti, escenas de transformación). A menudo, estas tomas fijas dramáticas se hacen sobre fondos estampados (o estáticos ilustrados); a veces, algunos iconos emotivos en movimiento (gotas de sudor, signos de interrogación, pequeñas cabezas animadas chibi) acompañan a algún tipo de monólogo. Es cierto que ambos estilos de animación reutilizan planos y secuencias, pero en el anime japonés se nota más por diversas razones (por ejemplo, falta de presupuesto o de mano de obra). Esta es la razón por la que los animadores y aficionados estadounidenses suelen tachar el anime japonés de "perezoso".
Un ciclo de paseo típico en animación suele constar de 8 fotogramas clave:
La suavidad de una animación suele venir determinada por la velocidad de fotogramas y la cantidad de fotogramas clave de la animación.
En la animación americana, la animación se captura rodando dos fotogramas de película por dibujo a una velocidad de 24 fotogramas por segundo (fps) para conseguir el movimiento suave de la animación americana.
El anime japonés, aunque también funciona a una media de 24 fps, suele capturar su animación a una velocidad de tres o cuatro fotogramas por dibujo para ahorrar dinero y mano de obra. Aunque varía según el estudio y las herramientas utilizadas (por ejemplo, 3DCG), los objetos principales en primer plano (normalmente los personajes) se animan a entre 8 y 12 fps, mientras que los objetos del fondo pueden animarse a tan sólo 6 u 8 fps.
Comparemos la diferencia entre un ciclo de paseo de 8 fotogramas y otro de 16 fotogramas, ambos a 60 fps:
Observa que el de 16 fotogramas es más suave, pero más lento, mientras que el de 8 fotogramas es más rápido, pero más entrecortado. Esto se debe a que la animación de 16 fotogramas tarda el doble, abarcando más fotogramas, en recorrer un ciclo que la de 8 fotogramas.
La variación de la velocidad de fotogramas también se puede utilizar para representar la expansión y compresión del tiempo (piensa en el tiempo bala de Matrix). Sin embargo, una animación entrecortada es el resultado de no tener suficientes fotogramas clave. Más fotogramas significa más mano de obra y/o tiempo, lo que en última instancia significa más dinero. Las producciones japonesas de anime no suelen tener tanto presupuesto como las estadounidenses (aunque hay excepciones), por lo que deben arreglárselas con lo que tienen y recortar gastos cuando pueden (como hizo Shaft con algunos episodios de Bakemonogatari). | Pourquoi est-il difficile de dessiner des gens qui courent dans les animes ? | Le cycle de marche est considéré comme l'un des aspects les plus fondamentaux de l'animation. Les animateurs américains et les passionnés d'animation méprisent souvent les styles et méthodes d'animation japonais qu'ils considèrent comme paresseux, tandis que les passionnés d'anime japonais tournent en dérision le style américain qu'ils jugent maladroit ou trop comique.
Pourquoi ? La réponse réside dans la manière dont ces pays répartissent leur budget et leur temps.
Si l'animation américaine semble souvent manquer d'attention aux détails, elle se rattrape par la qualité de ses animations. L'animation américaine est souvent méticuleuse et originale dans sa façon d'animer les mouvements, bien que le contenu soit parfois réutilisé de façon cyclique, l'animation est minutieusement réalisée image par image.
En revanche, les dessins animés japonais utilisent beaucoup de raccourcis (pour économiser du budget et respecter les délais). Généralement, les longues scènes ne présentent que la bouche d'un personnage (et peut-être d'autres éléments mineurs comme des cheveux qui bougent ou des yeux qui brillent) en mouvement pendant la transmission d'informations/dialogues clés, ou la brève explosion de mouvement d'un personnage dans une pose d'action sur un fond animé, cyclique et stylisé (je vous regarde, les scènes de transformation). Souvent, ces plans fixes dramatiques sont utilisés sur des fonds à motifs (ou statiques illustrés), parfois quelques icônes émotives en mouvement (gouttes de sueur, points d'interrogation, petites têtes animées chibi) accompagnent une sorte de monologue. Il est vrai que les deux styles d'animation réutilisent des plans et des séquences, mais c'est plus visible dans l'anime japonais pour diverses raisons (par exemple, manque de budget et/ou de main d'œuvre). C'est la raison pour laquelle les animateurs et les amateurs américains qualifient généralement l'animation japonaise de "paresseuse".
En animation, un cycle de marche typique se compose de 8 images clés :
La fluidité d'une animation est généralement déterminée par le taux de rafraîchissement et le nombre d'images clés dans l'animation.
Dans l'animation américaine, l'animation est capturée en filmant deux images par dessin à une vitesse de 24 images par seconde (ips) afin d'obtenir le mouvement fluide de l'animation américaine.
L'animation japonaise, bien qu'elle se déroule également à une vitesse moyenne de 24 images par seconde, est généralement capturée à une vitesse de trois ou quatre images par dessin afin d'économiser de l'argent et de la main d'œuvre. Bien que cela varie en fonction du studio et des outils utilisés (par exemple 3DCG), les objets principaux au premier plan (généralement les personnages) sont animés à une vitesse de 8 à 12 images par seconde, tandis que les objets d'arrière-plan peuvent être animés à une vitesse aussi basse que 6 à 8 images par seconde.
Comparons la différence entre un cycle de marche de 8 images et un cycle de 16 images, tous deux à 60 fps :
Remarquez que le cycle de 16 images est plus fluide, mais plus lent, tandis que le cycle de 8 images est plus rapide, mais plus haché. Cela s'explique par le fait que l'animation de 16 images prend deux fois plus de temps, couvrant plus d'images, pour parcourir un cycle que l'animation de 8 images.
La variation des fréquences d'images peut également être utilisée pour illustrer l'expansion et la compression du temps (pensez au bullet time de Matrix). Cependant, une animation hachée est généralement le résultat d'un nombre insuffisant d'images clés dans l'animation. Plus d'images signifie plus de main d'œuvre et/ou de temps, ce qui signifie en fin de compte plus d'argent. Les productions d'anime japonaises n'ont généralement pas un budget aussi important que les productions américaines (mais il y a des exceptions), elles doivent donc faire avec ce qu'elles ont et couper les coins ronds quand elles le peuvent (comme Shaft l'a fait avec certains épisodes télévisés de Bakemonogatari). | Perché è difficile disegnare persone che corrono negli anime? | Il ciclo della camminata è considerato uno degli aspetti fondamentali dell'animazione. Gli animatori e gli appassionati di animazione americani spesso disprezzano gli stili e i metodi di animazione giapponesi come pigri, mentre gli appassionati di anime giapponesi deridono lo stile americano come goffo o troppo comico.
Perché? La risposta sta nel modo in cui questi Paesi distribuiscono il loro budget e il loro tempo.
Se l'animazione americana spesso può sembrare carente nell'attenzione ai dettagli, la sua qualità è compensata dalla qualità dell'animazione. L'animazione americana è spesso meticolosa e originale nel modo in cui anima il movimento, anche se a volte i contenuti vengono riutilizzati ciclicamente, l'animazione è scrupolosa fotogramma per fotogramma.
Al contrario, gli anime giapponesi utilizzano molte scorciatoie (per risparmiare sul budget e rispettare le scadenze). In genere, le scene più lunghe presentano solo la bocca di un personaggio (e magari altre caratteristiche minori, come i capelli che ondeggiano o gli occhi che scintillano) che si muove durante la trasmissione di informazioni/dialoghi chiave, oppure la breve esplosione di movimento di un personaggio in qualche posa d'azione su uno sfondo animato, ciclico e stilizzato (mi riferisco alle scene di trasformazione). Spesso queste riprese drammatiche sono realizzate su sfondi disegnati (o illustrati in modo statico), mentre a volte alcune icone emotive in movimento (gocce di sudore, punti interrogativi, piccole teste animate in stile chibi) accompagnano una sorta di monologo. È vero che entrambi gli stili di animazione riutilizzano inquadrature e sequenze, ma ciò è più evidente negli anime giapponesi per vari motivi (ad esempio, mancanza di budget e/o manodopera sufficienti). Questo è il motivo per cui gli anime giapponesi sono tipicamente etichettati come "pigri" dagli animatori e dagli appassionati americani.
Un tipico ciclo di camminata nell'animazione consiste in 8 fotogrammi chiave:
La fluidità di un'animazione è tipicamente determinata dal framerate e dalla quantità di fotogrammi chiave dell'animazione.
Nell'animazione americana, l'animazione è catturata girando due fotogrammi di pellicola per disegno a una velocità di 24 fotogrammi al secondo (fps) per ottenere il movimento fluido dell'animazione americana.
Gli anime giapponesi, pur girando anch'essi a una media di 24 fps, in genere catturano le loro animazioni a una velocità di tre o quattro fotogrammi per disegno per risparmiare denaro e manodopera. Anche se varia a seconda dello studio e degli strumenti utilizzati (ad esempio 3DCG), gli oggetti principali in primo piano (tipicamente i personaggi) sono animati a 8-12 fps, mentre gli oggetti di sfondo possono essere animati a 6-8 fps.
Confrontiamo la differenza tra un ciclo di camminata di 8 fotogrammi e uno di 16 fotogrammi, entrambi a 60 fps:
Si noti che quello a 16 fotogrammi è più fluido, ma più lento, mentre quello a 8 fotogrammi è più veloce, ma più spezzettato. Questo perché l'animazione a 16 fotogrammi impiega il doppio del tempo, coprendo più fotogrammi, per compiere un ciclo rispetto a quella a 8 fotogrammi.
La variazione della velocità dei fotogrammi può essere utilizzata anche per rappresentare l'espansione e la compressione del tempo (si pensi al bullet time di Matrix). In genere, però, un'animazione discontinua è il risultato di un numero insufficiente di fotogrammi chiave. Più fotogrammi significano più manodopera e/o tempo, il che significa in ultima analisi più denaro. Le produzioni di anime giapponesi non dispongono in genere di un budget così elevato rispetto alle produzioni americane (ma ci sono delle eccezioni), quindi devono accontentarsi di ciò che hanno e tagliare gli angoli dove possono (come ha fatto Shaft con alcuni episodi televisivi di Bakemonogatari). |
233 | Malachi 4:5:
I will send you the prophet Elijah. He will come before the day of the Lord arrives. It will be a great and terrifying day
Jesus says in Matthew 11:14
"and if you are willing to believe their message, John is Elijah, whose coming was predicted"
Jesus says in Mathew 17:12
But I tell you, Elijah has already come, and they did not recognize him, but have done to him everything they wished. In the same way the Son of Man is going to suffer at their hands.”
It's pretty clear from the above verses that John was Elijah reincarnated.
Wouldn't the above verses imply that reincarnation is true? | Faulty Premise #1: John the Baptist was a reincarnation of Elijah
When Jesus asked Peter who people said he was, he answered that some people thought that Jesus was Elijah come back. Peter knew better and said Jesus was the Christ. In any event, John the Baptist himself directly denied the claim (see John 1:19-21).
What Jesus more likely was saying in Matthew 11 is that John the Baptist was a prophet in the tradition of Elijah. Elijah was the greatest of the prophets (even if his disciple Elisha inherited a double portion of his spirit). All of the prophets that followed came in the name and spirit of Elijah, in the same way that some of Paul's letters apparently were created after his death. They were in the spirit and tradition even if not the actual man.
Note also Elijah never died - he was taken up into heaven, and people thought he would return. As such, no Elijah was not being thought to have reincarnated- only returned. Elijah's return was long a part of Jewish custom. Even today, during a Passover sedar, a chair is left empty for Elijah. But again, since he did not die, Jews look for his return, not his reincarnation.
Faulty Premise #2: The Jewish world view has any concept of reincarnation at all
The most basic rule of hermeneutics suggests that a text cannot mean what it could not mean to the original audience. If the Jews had no concept of reincarnation, then any interpretation that says it does has a very, very high bar to clear.
In his book The Gift of the Jews, Thomas Cahill advances the thesis that the primary distinctive philosophy of the Jews was precisely that history was not circular. Their linear idea of a human life was a departure from others and was an explicit rejection of reincarnation. As such, a text would need to be exceedingly explicit to a culture that rejected circular life patterns, and the obscure interpretation above (especially in light of the more obvious intepretation) simply doesn't hold water.
Furthermore, the book of Hebrews - written to the people into which both Jesus and John the Baptist were born - explicitly reject reincarnation. As the writer points out in 9:27,
It is appointed unto a man once to die and then the judgement.
Here we do have an explicit rejection of reincarnation by the followers of Jesus. There is one death. There is one judgement. Hence, in any Christian worldview, you don't come back. | Maleachi 4:5:
Ich werde euch den Propheten Elia senden. Er wird kommen, bevor der Tag des Herrn anbricht. Es wird ein großer und schrecklicher Tag sein
Jesus sagt in Matthäus 11:14
"Und wenn ihr bereit seid, ihrer Botschaft zu glauben, dann ist Johannes der Elia, dessen Kommen vorhergesagt wurde"
Jesus sagt in Matthäus 17:12
Ich aber sage euch: Elia ist schon gekommen, und sie haben ihn nicht erkannt, sondern haben ihm alles angetan, was sie wollten. So wird auch der Menschensohn durch ihre Hand leiden müssen".
Aus den obigen Versen geht ziemlich klar hervor, dass Johannes der wiedergeborene Elia war.
Würden die obigen Verse nicht implizieren, dass die Reinkarnation wahr ist? | Fehlerhafte Prämisse Nr. 1: Johannes der Täufer war eine Reinkarnation von Elia
Als Jesus Petrus fragte, wer er sei, antwortete dieser, dass einige Leute dächten, Jesus sei der wiedergekommene Elia. Petrus wusste es besser und sagte, Jesus sei der Christus. Auf jeden Fall hat Johannes der Täufer selbst diese Behauptung direkt bestritten (siehe Johannes 1,19-21).
Was Jesus in Matthäus 11 wohl eher sagen wollte, ist, dass Johannes der Täufer ein Prophet in der Tradition von Elia war. Elia war der größte der Propheten (auch wenn sein Schüler Elisa einen doppelten Teil seines Geistes geerbt hat). Alle nachfolgenden Propheten traten im Namen und im Geist des Elias auf, so wie einige der Briefe des Paulus offenbar erst nach seinem Tod entstanden sind. Sie standen im Geist und in der Tradition, wenn auch nicht in der des eigentlichen Menschen.
Beachten Sie auch, dass Elia nie gestorben ist - er wurde in den Himmel aufgenommen, und die Menschen glaubten, er würde wiederkommen. Es wurde also nicht angenommen, dass Elia reinkarniert, sondern nur zurückgekehrt sei. Elia's Rückkehr war lange Zeit Teil des jüdischen Brauchs. Auch heute noch wird bei einem Pessach-Sedar ein Stuhl für Elia leer gelassen. Aber auch hier gilt: Da er nicht gestorben ist, erwarten die Juden seine Rückkehr, nicht seine Reinkarnation.
Fehlerhafte Prämisse Nr. 2: Die jüdische Weltanschauung hat überhaupt ein Konzept der Reinkarnation
Die grundlegendste Regel der Hermeneutik besagt, dass ein Text nicht bedeuten kann, was er für das ursprüngliche Publikum nicht bedeuten konnte. Wenn die Juden kein Konzept der Reinkarnation hatten, dann muss jede Interpretation, die dies behauptet, eine sehr, sehr hohe Hürde nehmen.
In seinem Buch The Gift of the Jews vertritt Thomas Cahill die These, dass die Juden sich vor allem dadurch auszeichneten, dass die Geschichte nicht zirkulär war. Ihre lineare Vorstellung von einem menschlichen Leben war eine Abweichung von anderen und eine ausdrückliche Ablehnung der Reinkarnation. Daher müsste ein Text für eine Kultur, die zirkuläre Lebensmuster ablehnte, äußerst explizit sein, und die obige obskure Interpretation (insbesondere im Lichte der offensichtlicheren Interpretation) ist einfach nicht stichhaltig.
Darüber hinaus lehnt das Buch der Hebräer - geschrieben für das Volk, in das sowohl Jesus als auch Johannes der Täufer hineingeboren wurden - die Reinkarnation ausdrücklich ab. Wie der Schreiber in 9:27 hervorhebt,
Es ist dem Menschen bestimmt, einmal zu sterben, und dann das Gericht.
Hier haben wir eine ausdrückliche Ablehnung der Reinkarnation durch die Anhänger Jesu. Es gibt nur einen Tod. Es gibt nur ein Gericht. In jeder christlichen Weltanschauung kommt man daher nicht zurück. | Malaquías 4:5:
Os enviaré al profeta Elías. Él vendrá antes de que llegue el día del Señor. Será un día grande y aterrador
Jesús dice en Mateo 11:14
"y si estáis dispuestos a creer su mensaje, Juan es Elías, cuya venida fue predicha"
Jesús dice en Mateo 17:12
Pero yo os digo que Elías ya ha venido, y no le han reconocido, sino que le han hecho todo lo que han querido. De la misma manera el Hijo del hombre va a sufrir a manos de ellos".
Está bastante claro en los versículos anteriores que Juan era Elías reencarnado.
¿No implicarían los versículos anteriores que la reencarnación es cierta? | Premisa errónea nº 1: Juan el Bautista fue una reencarnación de Elías
Cuando Jesús le preguntó a Pedro quién decía la gente que era, él respondió que algunas personas pensaban que Jesús era Elías que había regresado. Pedro lo sabía mejor y dijo que Jesús era el Cristo. En cualquier caso, el propio Juan el Bautista negó directamente esa afirmación (véase Juan 1:19-21).
Lo que más probablemente estaba diciendo Jesús en Mateo 11 es que Juan el Bautista era un profeta en la tradición de Elías. Elías fue el más grande de los profetas (aunque su discípulo Eliseo heredó una doble porción de su espíritu). Todos los profetas que siguieron vinieron en el nombre y espíritu de Elías, de la misma manera que algunas de las cartas de Pablo aparentemente fueron creadas después de su muerte. Estaban en el espíritu y la tradición aunque no en el hombre real.
Nótese también que Elías nunca murió - fue llevado al cielo, y la gente pensó que volvería. Como tal, no se pensaba que Elías se había reencarnado - sólo que había regresado. El regreso de Elías formó parte de las costumbres judías durante mucho tiempo. Incluso hoy en día, durante una cena de Pascua, se deja una silla vacía para Elías. Pero una vez más, puesto que no murió, los judíos esperan su regreso, no su reencarnación.
Premisa errónea nº 2: La cosmovisión judía no tiene ningún concepto de la reencarnación.
La regla más básica de la hermenéutica sugiere que un texto no puede significar lo que no podía significar para la audiencia original. Si los judíos no tenían ningún concepto de la reencarnación, entonces cualquier interpretación que diga que sí lo tiene tiene que superar un listón muy, muy alto.
En su libro The Gift of the Jews (El don de los judíos), Thomas Cahill avanza la tesis de que la principal filosofía distintiva de los judíos era precisamente que la historia no era circular. Su idea lineal de la vida humana se apartaba de la de los demás y era un rechazo explícito de la reencarnación. Como tal, un texto tendría que ser extremadamente explícito para una cultura que rechazaba los modelos de vida circulares, y la oscura interpretación anterior (especialmente a la luz de la interpretación más obvia) simplemente no se sostiene.
Además, el libro de Hebreos -escrito para el pueblo en el que nacieron tanto Jesús como Juan el Bautista- rechaza explícitamente la reencarnación. Como señala el escritor en 9:27,
Está establecido para el hombre que muera una sola vez, y entonces el juicio.
Aquí tenemos un rechazo explícito de la reencarnación por parte de los seguidores de Jesús. Hay una sola muerte. Hay un solo juicio. Por lo tanto, en cualquier cosmovisión cristiana, uno no vuelve. | Malachie 4:5 :
Je vous enverrai le prophète Élie. Il viendra avant que le jour du Seigneur n'arrive. Ce sera un jour grand et terrifiant
Jésus dit dans Matthieu 11:14
"Et si vous voulez croire à leur message, Jean est l'Élie dont la venue a été prédite.
Jésus dit dans Matthieu 17:12
Mais je vous le dis, Élie est déjà venu, et ils ne l'ont pas reconnu, mais ils lui ont fait tout ce qu'ils ont voulu. De même, le Fils de l'homme va souffrir de leur part".
Il ressort clairement des versets ci-dessus que Jean était Élie réincarné.
Les versets ci-dessus n'impliquent-ils pas que la réincarnation est vraie ? | Prémisse erronée n° 1 : Jean Baptiste était une réincarnation d'Elie
Lorsque Jésus a demandé à Pierre qui les gens disaient qu'il était, celui-ci a répondu que certaines personnes pensaient que Jésus était Élie revenu. Pierre savait mieux que cela et a dit que Jésus était le Christ. Quoi qu'il en soit, Jean-Baptiste lui-même a directement démenti cette affirmation (voir Jean 1:19-21).
Ce que Jésus disait plus probablement dans Matthieu 11, c'est que Jean-Baptiste était un prophète dans la tradition d'Elie. Élie était le plus grand des prophètes (même si son disciple Élisée a hérité d'une double portion de son esprit). Tous les prophètes qui ont suivi sont venus au nom et dans l'esprit d'Elie, de la même manière que certaines lettres de Paul ont apparemment été créées après sa mort. Ils étaient dans l'esprit et la tradition, même si ce n'était pas l'homme lui-même.
Notez également qu'Élie n'est jamais mort - il a été enlevé au ciel et les gens pensaient qu'il reviendrait. Ainsi, on ne pensait pas qu'Élie s'était réincarné, mais seulement qu'il reviendrait. Le retour d'Élie a longtemps fait partie des coutumes juives. Aujourd'hui encore, lors du sedar de Pessah, une chaise est laissée vide pour Élie. Mais là encore, comme il n'est pas mort, les juifs attendent son retour, et non sa réincarnation.
Prémisse erronée n° 2 : La vision juive du monde n'a aucun concept de réincarnation.
La règle la plus élémentaire de l'herméneutique suggère qu'un texte ne peut pas signifier ce qu'il ne pouvait pas signifier pour le public d'origine. Si les juifs n'avaient aucun concept de réincarnation, alors toute interprétation qui affirme le contraire doit franchir une barre très, très haute.
Dans son livre The Gift of the Jews, Thomas Cahill avance la thèse selon laquelle la principale philosophie distinctive des Juifs était précisément que l'histoire n'était pas circulaire. Leur idée linéaire de la vie humaine était différente des autres et constituait un rejet explicite de la réincarnation. En tant que tel, un texte devrait être extrêmement explicite pour une culture qui rejetait les modèles de vie circulaires, et l'interprétation obscure ci-dessus (en particulier à la lumière de l'interprétation plus évidente) ne tient tout simplement pas la route.
En outre, le livre des Hébreux - écrit pour le peuple dans lequel Jésus et Jean-Baptiste sont nés - rejette explicitement la réincarnation. Comme le souligne l'auteur en 9:27,
Il est réservé à l'homme de mourir une fois, puis de subir le jugement.
Nous avons ici un rejet explicite de la réincarnation par les disciples de Jésus. Il n'y a qu'une seule mort. Il n'y a qu'un seul jugement. Par conséquent, dans toute vision chrétienne du monde, on ne revient pas. | Malachia 4:5:
Vi manderò il profeta Elia. Egli verrà prima che arrivi il giorno del Signore. Sarà un giorno grande e terrificante
Gesù dice in Matteo 11:14
"e se siete disposti a credere al loro messaggio, Giovanni è Elia, di cui era stata predetta la venuta".
Gesù dice in Matteo 17:12
Ma io vi dico che Elia è già venuto, ed essi non lo hanno riconosciuto, ma gli hanno fatto tutto quello che hanno voluto. Allo stesso modo il Figlio dell'uomo soffrirà per mano loro".
Dai versetti precedenti è abbastanza chiaro che Giovanni era Elia reincarnato.
I versetti sopra citati non implicherebbero che la reincarnazione è vera? | Premessa errata n. 1: Giovanni Battista era una reincarnazione di Elia.
Quando Gesù chiese a Pietro chi fosse, questi rispose che alcuni pensavano che Gesù fosse Elia tornato. Pietro lo sapeva bene e disse che Gesù era il Cristo. In ogni caso, lo stesso Giovanni Battista negò direttamente questa affermazione (vedere Giovanni 1:19-21).
È più probabile che Gesù abbia detto in Matteo 11 che Giovanni Battista era un profeta nella tradizione di Elia. Elia era il più grande dei profeti (anche se il suo discepolo Eliseo ereditò una doppia parte del suo spirito). Tutti i profeti che seguirono vennero nel nome e nello spirito di Elia, allo stesso modo in cui alcune lettere di Paolo sembrano essere state create dopo la sua morte. Erano nello spirito e nella tradizione, anche se non dell'uomo vero e proprio.
Si noti anche che Elia non è mai morto - è stato portato in cielo e la gente pensava che sarebbe tornato. Di conseguenza, non si pensava che Elia si fosse reincarnato, ma solo che fosse tornato. Il ritorno di Elia è stato a lungo parte delle usanze ebraiche. Ancora oggi, durante un sedar pasquale, si lascia una sedia vuota per Elia. Ma ancora una volta, poiché non è morto, gli ebrei cercano il suo ritorno, non la sua reincarnazione.
Premessa errata n. 2: la visione del mondo ebraica non ha alcun concetto di reincarnazione.
La regola più elementare dell'ermeneutica suggerisce che un testo non può significare ciò che non poteva significare per il pubblico originale. Se gli ebrei non avevano alcun concetto di reincarnazione, allora qualsiasi interpretazione che affermi il contrario deve superare una barriera molto, molto alta.
Nel suo libro Il dono degli ebrei, Thomas Cahill avanza la tesi che la principale filosofia distintiva degli ebrei era proprio che la storia non era circolare. La loro idea lineare di vita umana si discostava dagli altri e costituiva un esplicito rifiuto della reincarnazione. In quanto tale, un testo avrebbe dovuto essere estremamente esplicito per una cultura che rifiutava modelli di vita circolari, e l'interpretazione oscura di cui sopra (soprattutto alla luce dell'interpretazione più ovvia) semplicemente non regge.
Inoltre, il libro degli Ebrei - scritto per il popolo in cui nacquero sia Gesù che Giovanni Battista - rifiuta esplicitamente la reincarnazione. Come sottolinea lo scrittore in 9,27,
All'uomo è toccato morire una volta sola e poi il giudizio.
Qui abbiamo un esplicito rifiuto della reincarnazione da parte dei seguaci di Gesù. C'è una sola morte. C'è un solo giudizio. Quindi, in qualsiasi visione cristiana del mondo, non si torna indietro. |
234 | I see hugely varied performance depending on how many newlines there are in the file I'm visiting.
Here's an example. I have two JSON files:
```$ wget https://github.com/Wilfred/ReVo-utilities/blob/a4bdc40dd2656c496defc461fc19c403c8306d9f/revo-export/dictionary.json?raw=true -O one_line.json
$ python -m json.tool pretty_printed.json
```
These are two JSON files with the same content. ```one_line.json``` is 18MiB of JSON without any newlines. ```pretty_printed.json``` has newlines and whitespace added, making it 41MiB.
However, the bigger file split over many lines is much faster to open in Emacs, both in Javascript mode and Fundamental mode.
Why does Emacs have such poor performance with long lines, since it's actually fewer bytes? Is there anything I can do to improve performance without reformatting the data outside of Emacs? | Emacs' handling of long lines is not very well optimized. For a number of operations, Emacs has to scan the whole line repeatedly. For example, to display a line, Emacs has to figure out the height of the line, which requires scanning the whole line to find the tallest glyph. Additionally, scanning for bidirectional display eats up a lot of time. You can get some additional information in, for example, the docstring of ```cache-long-line-scans``` (renamed ```cache-long-scans``` in 24.4).
You can try and see if setting ```bidi-paragraph-direction``` to ```left-to-right``` and setting ```bidi-inhibit-bpa``` (new in Emacs 27, see footnote 1) to ```t``` improves the speed for you (see footnote 2). This removes some significant contributors to line scans, but sadly not the only ones.
The best option is to add newlines. You can pipe a JSON file through e.g. ```python -c 'import json, sys ; json.dump(json.load(sys.stdin), sys.stdout, indent=2)'``` to add newlines and improve readability in general.
Footnote 1: ```bidi-inhibit-bpa``` is new in Emacs 27. Setting it to ```t``` can have a noticeable (sometimes dramatic) effect in cases where (a) a physical line is very long, and (b) the line includes many parentheses and/or braces, especially if they are nested.
Footnote 2: There is also ```bidi-display-reordering```, but this is only for internal/debugging purposes. Setting it to ```nil``` may improve performance, however that is an unsupported setting which may cause other problems, so it is not recommended. In Emacs 27, the combination of setting ```bidi-paragraph-direction``` and ```bidi-inhibit-bpa``` is a supported configuration which provides approximately the same performance boost. | Die Leistung ist sehr unterschiedlich, je nachdem, wie viele Zeilenumbrüche in der aufgerufenen Datei enthalten sind.
Hier ist ein Beispiel. Ich habe zwei JSON-Dateien:
```$ wget https://github.com/Wilfred/ReVo-utilities/blob/a4bdc40dd2656c496defc461fc19c403c8306d9f/revo-export/dictionary.json?raw=true -O one_line.json
$ python -m json.tool pretty_printed.json
```
Dies sind zwei JSON-Dateien mit demselben Inhalt. ```one_line.json`` ist 18MiB JSON ohne Zeilenumbrüche. Die Datei ``pretty_printed.json`` wurde mit Zeilenumbrüchen und Leerzeichen versehen, so dass sie 41MiB groß ist.
Die größere Datei, die über viele Zeilen aufgeteilt ist, lässt sich jedoch in Emacs viel schneller öffnen, sowohl im Javascript-Modus als auch im Fundamental-Modus.
Warum ist die Leistung von Emacs bei langen Zeilen so schlecht, wenn es doch eigentlich weniger Bytes sind? Gibt es irgendetwas, was ich tun kann, um die Leistung zu verbessern, ohne die Daten außerhalb von Emacs neu zu formatieren? | Der Umgang von Emacs mit langen Zeilen ist nicht sehr gut optimiert. Für eine Reihe von Operationen muss Emacs die gesamte Zeile wiederholt scannen. Um eine Zeile anzuzeigen, muss Emacs zum Beispiel die Höhe der Zeile herausfinden, was das Scannen der gesamten Zeile erfordert, um die höchste Glyphe zu finden. Außerdem frisst das Scannen für die bidirektionale Anzeige eine Menge Zeit. Sie können einige zusätzliche Informationen z.B. im Docstring von ```cache-long-line-scans`` (umbenannt in ```cache-long-scans`` in 24.4) erhalten.
Sie können versuchen zu sehen, ob das Setzen von ``bidi-paragraph-direction`` auf ``links-nach-rechts`` und das Setzen von ``bidi-inhibit-bpa`` (neu in Emacs 27, siehe Fußnote 1) auf ``t`` die Geschwindigkeit für Sie verbessert (siehe Fußnote 2). Dies beseitigt einige wichtige Faktoren, die zu Zeilenscans beitragen, aber leider nicht die einzigen.
Die beste Option ist, Zeilenumbrüche hinzuzufügen. Sie k?nnen eine JSON-Datei z.B. mit ```python -c 'import json, sys ; json.dump(json.load(sys.stdin), sys.stdout, indent=2)'``` durchleiten, um Zeilenumbr?che hinzuzuf?gen und die Lesbarkeit im Allgemeinen zu verbessern.
Fußnote 1: ```bidi-inhibit-bpa`` ist neu in Emacs 27. Die Einstellung ``t`` kann einen spürbaren (manchmal dramatischen) Effekt in Fällen haben, in denen (a) eine physische Zeile sehr lang ist und (b) die Zeile viele Klammern und/oder geschweifte Klammern enthält, besonders wenn sie verschachtelt sind.
Fußnote 2: Es gibt auch ```bidi-display-reordering``, aber das ist nur für interne/debugging Zwecke. Das Setzen auf ```nil`` kann die Leistung verbessern, allerdings ist dies eine nicht unterstützte Einstellung, die andere Probleme verursachen kann, daher wird sie nicht empfohlen. In Emacs 27 ist die Kombination der Einstellungen ``bidi-paragraph-direction`` und ``bidi-inhibit-bpa`` eine unterstützte Konfiguration, die ungefähr den gleichen Leistungsschub bringt. | Veo que el rendimiento varía enormemente dependiendo de cuántas nuevas líneas haya en el archivo que estoy visitando.
He aquí un ejemplo. Tengo dos archivos JSON:
```$ wget https://github.com/Wilfred/ReVo-utilities/blob/a4bdc40dd2656c496defc461fc19c403c8306d9f/revo-export/dictionary.json?raw=true -O una_línea.json
$ python -m json.tool pretty_printed.json
```
Se trata de dos archivos JSON con el mismo contenido. ```one_line.json`` es 18MiB de JSON sin nuevas líneas. A ``pretty_printed.json`` se le han añadido nuevas líneas y espacios en blanco, por lo que ocupa 41MiB.
Sin embargo, el archivo más grande dividido en muchas líneas es mucho más rápido de abrir en Emacs, tanto en modo Javascript como en modo Fundamental.
¿Por qué Emacs tiene un rendimiento tan pobre con líneas largas, ya que en realidad son menos bytes? ¿Hay algo que pueda hacer para mejorar el rendimiento sin reformatear los datos fuera de Emacs? | El manejo de Emacs de las líneas largas no está muy bien optimizado. Para un número de operaciones, Emacs tiene que escanear la línea entera repetidamente. Por ejemplo, para mostrar una línea, Emacs tiene que averiguar la altura de la línea, lo que requiere escanear toda la línea para encontrar el glifo más alto. Además, el escaneo bidireccional consume mucho tiempo. Puedes obtener información adicional en, por ejemplo, el docstring de ``cache-long-line-scans`` (renombrado ``cache-long-scans`` en 24.4).
Puedes probar y ver si estableciendo ``bidi-paragraph-direction`` a ``left-to-right`` y ``bidi-inhibit-bpa`` (nuevo en Emacs 27, ver nota 1) a ```t`` mejora la velocidad para ti (ver nota 2). Esto elimina algunos contribuyentes significativos a los escaneos de línea, pero tristemente no son los únicos.
La mejor opción es añadir nuevas líneas. Puedes pasar un archivo JSON a través de, por ejemplo, ``python -c 'import json, sys ; json.dump(json.load(sys.stdin), sys.stdout, indent=2)'``` para añadir nuevas líneas y mejorar la legibilidad en general.
Nota 1: ``bidi-inhibit-bpa`` es nuevo en Emacs 27. Configurarlo a ```t`` puede tener un efecto notable (a veces dramático) en casos donde (a) una línea física es muy larga, y (b) la línea incluye muchos paréntesis y/o llaves, especialmente si están anidados.
Nota 2: También existe ``bidi-display-reordering``, pero es sólo para propósitos internos/de depuración. Configurarlo a ```nil`` puede mejorar el rendimiento, sin embargo es una configuración no soportada que puede causar otros problemas, por lo que no se recomienda. En Emacs 27, la combinación de ``bidi-paragraph-direction`` y ``bidi-inhibit-bpa`` es una configuración soportada que proporciona aproximadamente la misma mejora de rendimiento. | Je constate que les performances varient énormément en fonction du nombre de nouvelles lignes dans le fichier que je visite.
Voici un exemple. J'ai deux fichiers JSON :
```$ wget https://github.com/Wilfred/ReVo-utilities/blob/a4bdc40dd2656c496defc461fc19c403c8306d9f/revo-export/dictionary.json?raw=true -O one_line.json
$ python -m json.tool pretty_printed.json
```
Ce sont deux fichiers JSON avec le même contenu. ``one_line.json`` est 18MiB de JSON sans aucune nouvelle ligne. ``pretty_printed.json`` a des nouvelles lignes et des espaces ajoutés, ce qui fait 41MiB.
Cependant, le fichier le plus gros, divisé en plusieurs lignes, est beaucoup plus rapide à ouvrir dans Emacs, à la fois en mode Javascript et en mode Fondamental.
Pourquoi Emacs est-il si peu performant avec les longues lignes, puisqu'il s'agit en fait de moins d'octets ? Y a-t-il quelque chose que je puisse faire pour améliorer les performances sans reformater les données en dehors d'Emacs ? | La gestion des longues lignes par Emacs n'est pas très bien optimisée. Pour un certain nombre d'opérations, Emacs doit parcourir la ligne entière à plusieurs reprises. Par exemple, pour afficher une ligne, Emacs doit déterminer la hauteur de la ligne, ce qui nécessite de parcourir toute la ligne pour trouver le glyphe le plus haut. De plus, l'analyse de l'affichage bidirectionnel prend beaucoup de temps. Vous pouvez obtenir des informations supplémentaires, par exemple, dans la docstring de ``cache-long-line-scans`` (renommé ``cache-long-scans`` en 24.4).
Vous pouvez essayer de voir si le fait de mettre ``bidi-paragraph-direction`` à ``left-to-right`` et de mettre ``bidi-inhibit-bpa`` (nouveau dans Emacs 27, voir note 1) à ``t`` améliore la vitesse pour vous (voir note 2). Ceci élimine quelques contributeurs significatifs aux balayages de lignes, mais malheureusement pas les seuls.
La meilleure option est d'ajouter des nouvelles lignes. Vous pouvez faire passer un fichier JSON par exemple ``python -c 'import json, sys ; json.dump(json.load(sys.stdin), sys.stdout, indent=2)'`` pour ajouter des retours à la ligne et améliorer la lisibilité en général.
Note de bas de page 1 : ``bidi-inhibit-bpa`` est nouveau dans Emacs 27. Lui donner la valeur ``t`` peut avoir un effet notable (parfois dramatique) dans les cas où (a) une ligne physique est très longue, et (b) la ligne comprend de nombreuses parenthèses et/ou accolades, surtout si elles sont imbriquées.
Note 2 : Il y a aussi ``bidi-display-recordering``, mais c'est seulement pour des besoins internes/de débogage. Le mettre à ``nil`` peut améliorer les performances, mais c'est un réglage non supporté qui peut causer d'autres problèmes, donc ce n'est pas recommandé. Dans Emacs 27, la combinaison des paramètres ``bidi-paragraph-direction`` et ``bidi-inhibit-bpa`` est une configuration supportée qui fournit approximativement le même gain de performance. | Vedo prestazioni molto diverse a seconda del numero di linee nuove presenti nel file che sto visitando.
Ecco un esempio. Ho due file JSON:
```$ wget https://github.com/Wilfred/ReVo-utilities/blob/a4bdc40dd2656c496defc461fc19c403c8306d9f/revo-export/dictionary.json?raw=true -O one_line.json
$ python -m json.tool pretty_printed.json
```
Questi sono due file JSON con lo stesso contenuto. ```one_line.json`` è 18MiB di JSON senza alcuna newline. ```pretty_printed.json.json`` ha aggiunto newline e spazi bianchi, rendendolo di 41MiB.
Tuttavia, il file più grande, suddiviso su più righe, è molto più veloce da aprire in Emacs, sia in modalità Javascript che in modalità Fundamental.
Perché Emacs ha prestazioni così scarse con le righe lunghe, visto che si tratta di un numero inferiore di byte? C'è qualcosa che posso fare per migliorare le prestazioni senza riformattare i dati al di fuori di Emacs? | La gestione delle righe lunghe da parte di Emacs non è molto ben ottimizzata. Per alcune operazioni, Emacs deve scansionare ripetutamente l'intera riga. Per esempio, per visualizzare una riga, Emacs deve capire l'altezza della riga, il che richiede la scansione dell'intera riga per trovare il glifo più alto. Inoltre, la scansione per la visualizzazione bidirezionale richiede molto tempo. È possibile ottenere ulteriori informazioni, per esempio, nella docstring di ``cache-long-line-scans`` (rinominata ``cache-long-scans`` in 24.4).
Si può provare a vedere se impostando ``bidi-paragraph-direction`` a ``sinistra-destra`` e impostando ``bidi-inhibit-bpa`` (novità di Emacs 27, si veda la nota 1) a ``t`` migliora la velocità (si veda la nota 2). Questo rimuove alcuni fattori significativi che contribuiscono alla scansione delle righe, ma purtroppo non gli unici.
L'opzione migliore è l'aggiunta di newline. È possibile inviare un file JSON tramite pipe, ad esempio ```python -c 'import json, sys ; json.dump(json.load(sys.stdin), sys.stdout, indent=2)'`` per aggiungere le newline e migliorare la leggibilità in generale.
Nota 1: ```bidi-inhibit-bpa`` è una novità di Emacs 27. Impostarlo su ``t``` può avere un effetto notevole (a volte drammatico) nei casi in cui (a) una riga fisica è molto lunga e (b) la riga include molte parentesi e/o parentesi graffe, specialmente se sono annidate.
Nota 2: Esiste anche ``bidi-display-reordering'', ma è solo per scopi interni o di debug. Impostarlo a ``nil'' può migliorare le prestazioni, ma è un'impostazione non supportata che può causare altri problemi, quindi non è raccomandata. In Emacs 27, la combinazione delle impostazioni ``bidi-paragraph-direction'' e ``bidi-inhibit-bpa'' è una configurazione supportata che fornisce all'incirca lo stesso incremento di prestazioni. |
235 | Sooner or later we come across a task in our project, with which we are totally unfamiliar ('we' as in PM, but also possibly the staff assigned to do this particular task).
How can we estimate amount of time/work/resources needed to complete such a task? What margins of error should we assume? | Don't place too much confidence on your first guess just because you've used a sophisticated formula to derive your estimate. Do your best, move on, plan to revise your estimate, don't let bad estimates linger and destroy the discipline of your project schedule ... errors in time estimates are likely to be lognormally distributed... use a method that incorporates an optimistic guess, a pessimistic guess and heavily weights your best guess.
Estimate, test, check, then revise and update your project schedule. The third or fourth revision of the estimates is usually about as accurate as you can hope for; your second estimate is far better than your first guess ... if possible, try to get a measure from an early trial of a similar or analogous task ... revise the estimate and revise your plan as soon as better data becomes available.
If your first estimate was too conservative, don't allow slack time to corrupt completion of succeeding tasks. If your first estimate was overly optimistic, make your adjustments EARLY and let your stakeholders and customers know. It's more important to be good at following up, to check your estimates and to competently communicate updates than it is to be a develop skill as an estimator of unfamiliar tasks. | Früher oder später stoßen wir in unserem Projekt auf eine Aufgabe, mit der wir überhaupt nicht vertraut sind ("wir" im Sinne von PM, aber möglicherweise auch die Mitarbeiter, die mit dieser speziellen Aufgabe betraut sind).
Wie können wir den Zeit-/Arbeits-/Ressourcenaufwand für die Erledigung einer solchen Aufgabe abschätzen? Von welchen Fehlermargen sollten wir ausgehen? | Verlassen Sie sich nicht zu sehr auf Ihre erste Schätzung, nur weil Sie eine ausgeklügelte Formel zur Ableitung Ihrer Schätzung verwendet haben. Geben Sie Ihr Bestes, machen Sie weiter, planen Sie eine Überarbeitung Ihrer Schätzung ein, lassen Sie schlechte Schätzungen nicht verweilen und zerstören Sie die Disziplin Ihres Projektplans ... Fehler in Zeitschätzungen sind wahrscheinlich lognormal verteilt ... verwenden Sie eine Methode, die eine optimistische Schätzung, eine pessimistische Schätzung und eine starke Gewichtung Ihrer besten Schätzung beinhaltet.
Schätzen, testen, prüfen, überarbeiten und aktualisieren Sie Ihren Projektzeitplan. Die dritte oder vierte Überarbeitung der Schätzungen ist in der Regel so genau, wie man es sich erhoffen kann; Ihre zweite Schätzung ist weitaus besser als Ihre erste Vermutung ... wenn möglich, versuchen Sie, ein Maß aus einem frühen Versuch einer ähnlichen oder analogen Aufgabe zu erhalten ... überarbeiten Sie die Schätzung und überarbeiten Sie Ihren Plan, sobald bessere Daten zur Verfügung stehen.
Wenn Ihre erste Schätzung zu konservativ war, lassen Sie keine Zeit verstreichen, um die Fertigstellung nachfolgender Aufgaben zu beeinträchtigen. Wenn Ihre erste Schätzung zu optimistisch war, nehmen Sie Ihre Anpassungen FRÜH vor und informieren Sie Ihre Stakeholder und Kunden darüber. Es ist wichtiger, dass Sie gut nachfassen, Ihre Schätzungen überprüfen und Aktualisierungen kompetent kommunizieren, als dass Sie als Schätzer für unbekannte Aufgaben Fähigkeiten entwickeln. | Tarde o temprano nos encontramos con una tarea en nuestro proyecto con la que no estamos familiarizados en absoluto ("nosotros" como PM, pero también posiblemente el personal asignado para hacer esta tarea en particular).
¿Cómo podemos estimar la cantidad de tiempo/trabajo/recursos necesarios para completar dicha tarea? ¿Qué márgenes de error debemos asumir? | No confíes demasiado en tu primera estimación sólo porque hayas utilizado una fórmula sofisticada para obtenerla. Hazlo lo mejor que puedas, sigue adelante, planifica la revisión de tu estimación, no dejes que las malas estimaciones se prolonguen y destruyan la disciplina del calendario del proyecto... es probable que los errores en las estimaciones de tiempo se distribuyan lognormalmente... utiliza un método que incorpore una conjetura optimista, una conjetura pesimista y pondere en gran medida tu mejor conjetura.
Estime, pruebe, compruebe y, a continuación, revise y actualice el calendario del proyecto. La tercera o cuarta revisión de las estimaciones suele ser lo más preciso que puede esperar; su segunda estimación es mucho mejor que su primera conjetura... si es posible, intente obtener una medida de una primera prueba de una tarea similar o análoga... revise la estimación y revise su plan en cuanto disponga de mejores datos.
Si su primera estimación fue demasiado conservadora, no deje tiempo libre para corromper la realización de las tareas sucesivas. Si la primera estimación era demasiado optimista, haz los ajustes con antelación y comunícalo a tus accionistas y clientes. Es más importante ser bueno en el seguimiento, comprobar tus estimaciones y comunicar de forma competente las actualizaciones que desarrollar habilidades como estimador de tareas desconocidas. | Tôt ou tard, nous rencontrons dans notre projet une tâche que nous ne connaissons pas du tout ("nous" en tant que chef de projet, mais aussi éventuellement le personnel chargé de cette tâche particulière).
Comment pouvons-nous estimer le temps, le travail et les ressources nécessaires à la réalisation d'une telle tâche ? Quelles sont les marges d'erreur à prendre en compte ? | Ne vous fiez pas trop à votre première estimation simplement parce que vous avez utilisé une formule sophistiquée pour calculer votre estimation. Faites de votre mieux, passez à autre chose, prévoyez de réviser votre estimation, ne laissez pas de mauvaises estimations traîner et détruire la discipline du calendrier de votre projet ... les erreurs dans les estimations de temps sont susceptibles d'être distribuées de façon log-normale ... utilisez une méthode qui incorpore une estimation optimiste, une estimation pessimiste et qui pondère fortement votre meilleure estimation.
Estimez, testez, vérifiez, puis révisez et mettez à jour le calendrier de votre projet. La troisième ou quatrième révision des estimations est généralement aussi précise que vous pouvez l'espérer ; votre deuxième estimation est bien meilleure que votre première supposition ... si possible, essayez d'obtenir une mesure à partir d'un premier essai d'une tâche similaire ou analogue ... révisez l'estimation et révisez votre plan dès que de meilleures données sont disponibles.
Si votre première estimation était trop prudente, ne prévoyez pas de temps mort pour corrompre l'achèvement des tâches suivantes. Si votre première estimation était trop optimiste, procédez à des ajustements TÔT et informez-en les parties prenantes et les clients. Il est plus important d'être bon dans le suivi, de vérifier ses estimations et de communiquer avec compétence les mises à jour que de développer des compétences en tant qu'estimateur de tâches peu familières. | Prima o poi ci imbattiamo in un compito nel nostro progetto, con il quale non abbiamo alcuna familiarità ("noi" come PM, ma anche eventualmente il personale assegnato a questo particolare compito).
Come possiamo stimare la quantità di tempo/lavoro/risorse necessarie per completare tale compito? Quali margini di errore dobbiamo considerare? | Non fidatevi troppo della vostra prima ipotesi solo perché avete usato una formula sofisticata per ricavare la vostra stima. Fate del vostro meglio, andate avanti, prevedete di rivedere le vostre stime, non lasciate che le stime sbagliate si attardino e distruggano la disciplina del vostro progetto... è probabile che gli errori nelle stime dei tempi siano distribuiti in modo lognormale... utilizzate un metodo che incorpori un'ipotesi ottimistica, un'ipotesi pessimistica e pesi fortemente la vostra ipotesi migliore.
Stimate, testate, controllate, quindi rivedete e aggiornate il programma del progetto. La terza o quarta revisione delle stime è di solito la più accurata che si possa sperare; la seconda stima è di gran lunga migliore della prima ipotesi... se possibile, cercate di ottenere una misura da una prova iniziale di un compito simile o analogo... rivedete la stima e rivedete il piano non appena sono disponibili dati migliori.
Se la prima stima è stata troppo prudente, non lasciate che il tempo di ritardo corrompa il completamento dei compiti successivi. Se la prima stima era eccessivamente ottimistica, apportate tempestivamente le modifiche e informate gli stakeholder e i clienti. È più importante essere bravi a seguire, a controllare le stime e a comunicare con competenza gli aggiornamenti, piuttosto che sviluppare abilità come stimatori di compiti sconosciuti. |
236 | Why is Nazi-Germany commonly referred to as "The Third Reich" in English? Why is reich not translated when Dritten ("third") is?
And what is the English synonym of reich? Realm?
Austria (Republik Österreich), Norway (Kongeriket Norge) and Sweden (Konungariket Sverige) all have reich (or the Norwegian/Swedish corresponding etymology related word) in their name and they all have English translations of their name. | Although English historians have defined Reich as being a strictly German concept of sovereign rule, in the German language itself it means "Empire". In English, we speak of the Holy Roman Empire; in German, it is the HRR or "Heiliges Römisches Reich Deutscher Nation".
Wiktionary quotes Busching, who in 1762 explained Reich as a German understanding of "Eminence", from the Latin Regnum, rather than an Empire or a Realm as other cultures would understand it.
One could see it as a word used in English, Russian, Portuguese and many other languages as a designation for any kind of German kingdom, empire or absolutism, similar to how one would address a foreigner according to their origin, e.g. Senor Martinez, Monsieur Aragon.
Compare it to how many cultures, including the Germans, also use the word "Commonwealth" or "Soviet Union", despite the fact that Bavaria had formed its own Union of Soviets, the Räterepublik, during the Weimar Republic.
If you're interested in knowing when the word "Third Reich" came into usage, it is worth noting that during Fascist Germany, the country's official name was Das Deutsche Reich, and in the USA and UK it was usually referred to as Germany, Hitler's Germany, Berlin, Reich or, the most popular term, Nazi Germany.
(Sources: Neville Chamberlain's declaration of war against Germany, headlines about Germany in newspapers like the NY Times or the Times, the Daily Mail's Lord Rothermere)
In Germany itself, the idea of a third Reich stemmed from the 19th century, where it was a popular philosophical theme in literature and theology. Writers like Johannes Schlaf, who wrote "Das Dritte Reich" in 1899, or the German translator of Ibsen's "The Emperor and the Galilean", popularized the idea of the imminent arrival of a thousand years of Christianity (a kind of positive apocalypse), which would follow a third "Reich". And they would quote Paul the Apostle and various saints, to make it clear that the third Reich would follow the heretic lex naturalis and the lex mosaica.
Nazi propagandists exploited this in their articles, making it sound as if the saints had had some sort of epiphany about Hitler and the Nazis.
In other words, the Third Reich began as an abstract idea of a Christian revolution, but was assumed by Nazi writers in order to bolster Hitler's popularity and justify the drastic and bloody decisions that the Fascist government was making.
In one of the earliest examples of the Third Reich being mentioned outside of Germany, Major Strasser in the film Casablanca talks about the Third Reich as if it was just the beginning to a kind of paradisaical future or of a fourth Reich.
After 1945, the term was used exclusively to associate only to the unsuccessful reign of Fascism in Germany, and it ceased as a philosophical or theological idea in German literary circles. | Warum wird Nazi-Deutschland im Englischen gemeinhin als "The Third Reich" bezeichnet? Warum wird "reich" nicht übersetzt, "Dritten" aber schon?
Und was ist das englische Synonym von reich? Reich?
Österreich (Republik Österreich), Norwegen (Kongeriket Norge) und Schweden (Konungariket Sverige) haben alle "Reich" (oder das entsprechende norwegische/schwedische Wort) in ihrem Namen und alle haben englische Übersetzungen ihres Namens. | Obwohl englische Historiker "Reich" als ein rein deutsches Konzept von souveräner Herrschaft definiert haben, bedeutet es in der deutschen Sprache selbst "Reich". Im Englischen sprechen wir vom Heiligen Römischen Reich, im Deutschen ist es das HRR oder "Heiliges Römisches Reich Deutscher Nation".
Wiktionary zitiert Busching, der 1762 erklärte, Reich sei ein deutsches Verständnis von "Eminenz", vom lateinischen Regnum, und nicht ein Imperium oder ein Reich, wie andere Kulturen es verstehen würden.
Man könnte es als ein Wort sehen, das im Englischen, Russischen, Portugiesischen und vielen anderen Sprachen als Bezeichnung für jede Art von deutschem Königreich, Reich oder Absolutismus verwendet wird, ähnlich wie man einen Ausländer je nach seiner Herkunft anspricht, z. B. Senor Martinez, Monsieur Aragon.
Vergleichen Sie es damit, wie viele Kulturen, einschließlich der Deutschen, auch das Wort "Commonwealth" oder "Sowjetunion" verwenden, obwohl Bayern während der Weimarer Republik seine eigene Union der Sowjets, die Räterepublik, gegründet hatte.
Wenn Sie wissen möchten, wann das Wort "Drittes Reich" in Gebrauch kam, sollten Sie wissen, dass das Land während des Faschismus offiziell "Das Deutsche Reich" hieß und in den USA und im Vereinigten Königreich gewöhnlich als "Deutschland", "Hitlerdeutschland", "Berlin", "Reich" oder, was der populärste Begriff ist, "Nazi-Deutschland" bezeichnet wurde.
(Quellen: Neville Chamberlains Kriegserklärung an Deutschland, Schlagzeilen über Deutschland in Zeitungen wie der NY Times oder der Times, Lord Rothermere von der Daily Mail)
In Deutschland selbst stammt die Idee eines Dritten Reiches aus dem 19. Jahrhundert, wo sie ein beliebtes philosophisches Thema in Literatur und Theologie war. Schriftsteller wie Johannes Schlaf, der 1899 "Das Dritte Reich" schrieb, oder der deutsche Übersetzer von Ibsens "Der Kaiser und der Galiläer" popularisierten die Vorstellung von der bevorstehenden Ankunft eines tausendjährigen Christentums (eine Art positive Apokalypse), die auf ein drittes "Reich" folgen würde. Und sie zitierten den Apostel Paulus und verschiedene Heilige, um klarzustellen, dass das dritte Reich der häretischen lex naturalis und der lex mosaica folgen würde.
Die Nazi-Propagandisten nutzten dies in ihren Artikeln aus und ließen es so klingen, als hätten die Heiligen eine Art Erleuchtung über Hitler und die Nazis gehabt.
Mit anderen Worten: Das Dritte Reich begann als abstrakte Idee einer christlichen Revolution, wurde aber von den nationalsozialistischen Schriftstellern übernommen, um Hitlers Popularität zu steigern und die drastischen und blutigen Entscheidungen der faschistischen Regierung zu rechtfertigen.
In einem der frühesten Beispiele für die Erwähnung des Dritten Reichs außerhalb Deutschlands spricht Major Strasser in dem Film Casablanca über das Dritte Reich, als ob es nur der Beginn einer Art paradiesischen Zukunft oder eines vierten Reichs wäre.
Nach 1945 wurde der Begriff ausschließlich im Zusammenhang mit der gescheiterten Herrschaft des Faschismus in Deutschland verwendet und verschwand als philosophische oder theologische Idee aus dem deutschen Literaturbetrieb. | ¿Por qué se suele denominar a la Alemania nazi "Tercer Reich"? ¿Por qué no se traduce reich y sí Dritten ("tercero")?
¿Y cuál es el sinónimo inglés de reich? ¿Reino?
Austria (Republik Österreich), Noruega (Kongeriket Norge) y Suecia (Konungariket Sverige) tienen reich (o la palabra noruega/sueca correspondiente relacionada con la etimología) en su nombre y todos tienen traducciones inglesas de su nombre. | Aunque los historiadores ingleses han definido Reich como un concepto estrictamente alemán de gobierno soberano, en la propia lengua alemana significa "Imperio". En inglés, hablamos del Sacro Imperio Romano; en alemán, es el HRR o "Heiliges Römisches Reich Deutscher Nation".
Wikcionario cita a Busching, que en 1762 explicó Reich como un concepto alemán de "Eminencia", del latín Regnum, en lugar de Imperio o Reino, como lo entenderían otras culturas.
Se podría considerar una palabra utilizada en inglés, ruso, portugués y muchos otros idiomas para designar cualquier tipo de reino, imperio o absolutismo alemán, de forma similar a cómo uno se dirigiría a un extranjero según su origen, por ejemplo, Señor Martínez, Señor Aragón.
Compárese con cómo muchas culturas, incluida la alemana, utilizan también la palabra "Commonwealth" o "Unión Soviética", a pesar de que Baviera había formado su propia Unión de Soviets, la Räterepublik, durante la República de Weimar.
Si le interesa saber cuándo empezó a utilizarse la palabra "Tercer Reich", cabe señalar que durante la Alemania fascista, el nombre oficial del país era Das Deutsche Reich, y en Estados Unidos y el Reino Unido se solía hacer referencia a él como Alemania, Alemania de Hitler, Berlín, Reich o, el término más popular, Alemania nazi.
(Fuentes: La declaración de guerra de Neville Chamberlain contra Alemania, titulares sobre Alemania en periódicos como el NY Times o el Times, Lord Rothermere del Daily Mail)
En la propia Alemania, la idea de un Tercer Reich surgió en el siglo XIX, donde era un tema filosófico popular en la literatura y la teología. Escritores como Johannes Schlaf, que escribió "Das Dritte Reich" en 1899, o el traductor alemán de "El emperador y la galilea" de Ibsen, popularizaron la idea de la inminente llegada de mil años de cristianismo (una especie de apocalipsis positivo), que seguiría a un tercer "Reich". Y citaban al apóstol Pablo y a varios santos, para dejar claro que el tercer Reich seguiría a la herética lex naturalis y a la lex mosaica.
Los propagandistas nazis explotaron esto en sus artículos, haciendo parecer que los santos habían tenido algún tipo de epifanía sobre Hitler y los nazis.
En otras palabras, el Tercer Reich comenzó como una idea abstracta de una revolución cristiana, pero fue asumida por los escritores nazis para reforzar la popularidad de Hitler y justificar las drásticas y sangrientas decisiones que estaba tomando el gobierno fascista.
En uno de los primeros ejemplos de mención del Tercer Reich fuera de Alemania, el mayor Strasser, en la película Casablanca, habla del Tercer Reich como si fuera el principio de una especie de futuro paradisíaco o de un cuarto Reich.
Después de 1945, el término se utilizó exclusivamente para asociarlo al fracasado reinado del fascismo en Alemania, y dejó de ser una idea filosófica o teológica en los círculos literarios alemanes. | Pourquoi l'Allemagne nazie est-elle communément appelée "The Third Reich" en anglais ? Pourquoi reich n'est-il pas traduit alors que Dritten ("troisième") l'est ?
Et quel est le synonyme anglais de reich ? Realm ?
L'Autriche (Republik Österreich), la Norvège (Kongeriket Norge) et la Suède (Konungariket Sverige) ont toutes trois reich (ou le mot norvégien/suédois correspondant à l'étymologie) dans leur nom et elles ont toutes des traductions anglaises de leur nom. | Bien que les historiens anglais aient défini le Reich comme étant un concept strictement allemand de souveraineté, dans la langue allemande elle-même, il signifie "Empire". En anglais, nous parlons du Saint Empire romain ; en allemand, il s'agit du HRR ou "Heiliges Römisches Reich Deutscher Nation".
Le Wiktionnaire cite Busching qui, en 1762, explique que Reich est un terme allemand signifiant "éminence", du latin Regnum, plutôt qu'un empire ou un royaume comme l'entendraient d'autres cultures.
On pourrait y voir un mot utilisé en anglais, en russe, en portugais et dans de nombreuses autres langues pour désigner tout type de royaume, d'empire ou d'absolutisme allemand, de la même manière que l'on s'adresse à un étranger en fonction de son origine, par exemple Senor Martinez, Monsieur Aragon.
Comparez cela à la façon dont de nombreuses cultures, y compris les Allemands, utilisent également le mot "Commonwealth" ou "Union soviétique", bien que la Bavière ait formé sa propre Union des Soviets, la Räterepublik, pendant la République de Weimar.
Si vous souhaitez savoir quand le terme "Troisième Reich" est entré dans l'usage, il convient de noter que sous l'Allemagne fasciste, le nom officiel du pays était Das Deutsche Reich, et qu'aux États-Unis et au Royaume-Uni, il était généralement appelé Allemagne, Allemagne hitlérienne, Berlin, Reich ou, le terme le plus populaire, Allemagne nazie.
(Sources : Déclaration de guerre de Neville Chamberlain contre l'Allemagne, titres sur l'Allemagne dans des journaux comme le NY Times ou le Times, Lord Rothermere du Daily Mail)
En Allemagne même, l'idée d'un troisième Reich remonte au XIXe siècle, où elle était un thème philosophique populaire dans la littérature et la théologie. Des écrivains comme Johannes Schlaf, qui a écrit "Das Dritte Reich" en 1899, ou le traducteur allemand de "L'Empereur et le Galiléen" d'Ibsen, ont popularisé l'idée de l'arrivée imminente de mille ans de christianisme (une sorte d'apocalypse positive), qui succéderait à un troisième "Reich". Et ils citaient l'apôtre Paul et divers saints, pour bien montrer que le troisième Reich suivrait la lex naturalis hérétique et la lex mosaica.
Les propagandistes nazis ont exploité cela dans leurs articles, en donnant l'impression que les saints avaient eu une sorte de révélation sur Hitler et les nazis.
En d'autres termes, le Troisième Reich a commencé par être une idée abstraite de révolution chrétienne, mais a été repris par les écrivains nazis afin de renforcer la popularité d'Hitler et de justifier les décisions drastiques et sanglantes prises par le gouvernement fasciste.
Dans l'un des premiers exemples de mention du Troisième Reich en dehors de l'Allemagne, le commandant Strasser, dans le film Casablanca, parle du Troisième Reich comme s'il n'était que le début d'une sorte d'avenir paradisiaque ou d'un quatrième Reich.
Après 1945, le terme a été utilisé exclusivement pour désigner le règne infructueux du fascisme en Allemagne, et il a cessé d'être une idée philosophique ou théologique dans les cercles littéraires allemands. | Perché la Germania nazista è comunemente chiamata "Terzo Reich" in inglese? Perché reich non viene tradotto mentre Dritten ("terzo") sì?
E qual è il sinonimo inglese di reich? Regno?
L'Austria (Republik Österreich), la Norvegia (Kongeriket Norge) e la Svezia (Konungariket Sverige) hanno tutte reich (o la corrispondente parola etimologica norvegese/svedese) nel loro nome e hanno tutte traduzioni inglesi del loro nome. | Sebbene gli storici inglesi abbiano definito il Reich come un concetto strettamente tedesco di governo sovrano, nella stessa lingua tedesca significa "Impero". In inglese si parla di Sacro Romano Impero, in tedesco di HRR o "Heiliges Römisches Reich Deutscher Nation".
Wiktionary cita Busching, che nel 1762 spiegò che Reich è un'accezione tedesca di "Eminenza", dal latino Regnum, piuttosto che un Impero o un Regno come lo intenderebbero altre culture.
Si potrebbe vedere come una parola usata in inglese, russo, portoghese e molte altre lingue per indicare qualsiasi tipo di regno, impero o assolutismo tedesco, in modo simile a come ci si rivolge a uno straniero in base alla sua origine, ad esempio Senor Martinez, Monsieur Aragon.
Si confronti con il fatto che molte culture, compresi i tedeschi, usano anche la parola "Commonwealth" o "Unione Sovietica", nonostante la Baviera avesse formato la propria Unione dei Soviet, la Räterepublik, durante la Repubblica di Weimar.
Se siete interessati a sapere quando è entrata in uso la parola "Terzo Reich", vale la pena di notare che durante la Germania fascista, il nome ufficiale del Paese era Das Deutsche Reich, mentre negli Stati Uniti e nel Regno Unito era solitamente indicato come Germania, Germania di Hitler, Berlino, Reich o, il termine più popolare, Germania nazista.
(Fonti: Dichiarazione di guerra di Neville Chamberlain contro la Germania, titoli sulla Germania in giornali come il NY Times o il Times, Lord Rothermere del Daily Mail).
Nella stessa Germania, l'idea di un terzo Reich nasce nel XIX secolo, dove era un tema filosofico popolare nella letteratura e nella teologia. Scrittori come Johannes Schlaf, che scrisse "Das Dritte Reich" nel 1899, o il traduttore tedesco de "L'imperatore e il galileo" di Ibsen, resero popolare l'idea dell'imminente arrivo di mille anni di cristianesimo (una sorta di apocalisse positiva), che avrebbe seguito un terzo "Reich". E citavano l'apostolo Paolo e vari santi, per chiarire che il terzo Reich avrebbe seguito la lex naturalis eretica e la lex mosaica.
I propagandisti nazisti sfruttarono questo fatto nei loro articoli, facendo sembrare che i santi avessero avuto una sorta di epifania su Hitler e i nazisti.
In altre parole, il Terzo Reich nacque come un'idea astratta di rivoluzione cristiana, ma fu assunto dagli scrittori nazisti per rafforzare la popolarità di Hitler e giustificare le decisioni drastiche e sanguinose che il governo fascista stava prendendo.
In uno dei primi esempi di menzione del Terzo Reich al di fuori della Germania, il maggiore Strasser nel film Casablanca parla del Terzo Reich come se fosse solo l'inizio di una sorta di futuro paradisiaco o di un quarto Reich.
Dopo il 1945, il termine è stato usato esclusivamente per associare il regno fallimentare del fascismo in Germania e ha cessato di essere un'idea filosofica o teologica nei circoli letterari tedeschi. |
237 | If we fold a paper and then apply pressure on the newly formed crease, it seems that the paper's surface gets a permanent deformation but what exactly has happened to the paper at a molecular scale? | Basically, a fold or crease in paper will remain because the structure of the fibers in the paper have become irreversibly damaged. This happens because the paper is bent/compressed beyond its elastic limit.
Chemically, paper is mainly composed of cellulose from plant fibers. Cellulose is an organic polymer, which has D-glucose units connected through hydrogen bonds. These bonds form between the oxygen atom of the one-hydroxyl group belonging to the glucose and the hydrogen atom of the next glucose unit. These are microscopic properties of paper, but to understand what happens when we fold paper or do Origami, it is sufficient to learn what is happening macroscopically.
All materials have what is called an elastic limit and a plastic region. The elastic limit is the point at which a material will bend but still return to its original position without any permanent change or damage to its structure. Further deforming the material beyond this limit takes it to its plastic region. At this point any structural or physical changes become permanent and the paper will not return to its original form.
Every material has a different elastic limit or yield, and plastic region. Imagine holding a piece of paper slightly bent but not folding or creasing it. The plant fibers that make up the paper will not have exceeded their elastic limit. So as soon as you let go of the paper sheet it will quickly return to its noncreased original flat state. However, if you were to roll that piece of paper into a cylinder and hold it for a few minutes, some of these fibers will be pushed beyond the elastic limit which is evident since it will not lie flat anymore since slight deformations have occurred in this sheet.
Now, when you properly fold a piece of paper as you would during Origami, the plant fibers along the crease are pushed into the plastic region of the paper, causing a fracture point at the actual line of the fold. A practical example of this is if you were to fold a piece of paper, you will note that if you stretch the paper evenly on both sides of the fold, the paper will tear right on the fold (a quick way to "cut" paper if you have no scissors). The fold then becomes an irreversible structural failure and the fibers in the paper will never regain their original state.
Because of this damage to its structure, the paper will from then on have this fold. And no matter how hard you try to flatten out the fold it will never return to its original state. This is why Origami models continually retain their shape. | Wenn wir ein Papier falten und dann Druck auf die neu entstandene Falte ausüben, scheint es, dass die Oberfläche des Papiers eine dauerhafte Verformung erfährt, aber was genau ist mit dem Papier auf molekularer Ebene geschehen? | Grundsätzlich bleibt eine Falte oder ein Knick im Papier bestehen, weil die Struktur der Papierfasern irreversibel beschädigt wurde. Dies geschieht, weil das Papier über seine Elastizitätsgrenze hinaus gebogen/gestaucht wird.
Chemisch gesehen besteht Papier hauptsächlich aus Zellulose, die aus Pflanzenfasern gewonnen wird. Cellulose ist ein organisches Polymer, das aus D-Glucose-Einheiten besteht, die durch Wasserstoffbrücken verbunden sind. Diese Bindungen entstehen zwischen dem Sauerstoffatom der zur Glukose gehörenden Ein-Hydroxyl-Gruppe und dem Wasserstoffatom der nächsten Glukoseeinheit. Dies sind die mikroskopischen Eigenschaften von Papier, aber um zu verstehen, was passiert, wenn wir Papier falten oder Origami machen, ist es ausreichend zu wissen, was makroskopisch passiert.
Alle Materialien haben eine so genannte Elastizitätsgrenze und einen plastischen Bereich. Die Elastizitätsgrenze ist der Punkt, an dem sich ein Material verbiegt, aber immer noch in seine ursprüngliche Position zurückkehrt, ohne seine Struktur dauerhaft zu verändern oder zu beschädigen. Wird das Material über diese Grenze hinaus weiter verformt, gelangt es in den plastischen Bereich. An diesem Punkt werden alle strukturellen oder physikalischen Veränderungen dauerhaft und das Papier kehrt nicht mehr in seine ursprüngliche Form zurück.
Jedes Material hat eine andere Elastizitätsgrenze oder Fließgrenze und einen anderen plastischen Bereich. Stellen Sie sich vor, Sie halten ein Stück Papier in der Hand, das leicht geknickt, aber nicht gefaltet oder geknittert ist. Die Pflanzenfasern, aus denen das Papier besteht, haben ihre Elastizitätsgrenze noch nicht überschritten. Sobald Sie das Papier loslassen, kehrt es schnell wieder in seinen flachen, nicht geknickten Ursprungszustand zurück. Wenn Sie das Papier jedoch zu einem Zylinder rollen und einige Minuten lang festhalten, werden einige dieser Fasern über die Elastizitätsgrenze hinausgedrückt, was daran zu erkennen ist, dass das Blatt nicht mehr flach liegt, da es sich leicht verformt hat.
Wenn Sie nun ein Stück Papier richtig falten, wie Sie es beim Origami tun würden, werden die Pflanzenfasern entlang der Falte in den plastischen Bereich des Papiers gedrückt, wodurch eine Bruchstelle an der eigentlichen Faltlinie entsteht. Ein praktisches Beispiel hierfür ist das Falten eines Blattes Papier. Wenn Sie das Papier auf beiden Seiten des Falzes gleichmäßig dehnen, reißt das Papier direkt am Falz (eine schnelle Art, Papier zu zerschneiden, wenn Sie keine Schere haben). Der Falz wird dann zu einem irreversiblen Strukturbruch und die Fasern des Papiers werden nie wieder ihren ursprünglichen Zustand erreichen.
Aufgrund dieser Beschädigung seiner Struktur wird das Papier von nun an diese Falte aufweisen. Und egal, wie sehr man sich bemüht, die Falte zu glätten, sie wird nie wieder in ihren ursprünglichen Zustand zurückkehren. Aus diesem Grund behalten Origami-Modelle ständig ihre Form. | Si doblamos un papel y luego ejercemos presión sobre el pliegue recién formado, parece que la superficie del papel sufre una deformación permanente, pero ¿qué le ha ocurrido exactamente al papel a escala molecular? | Básicamente, un pliegue o arruga en el papel permanecerá porque la estructura de las fibras del papel se ha dañado irreversiblemente. Esto ocurre porque el papel se dobla/comprime más allá de su límite elástico.
Químicamente, el papel está compuesto principalmente de celulosa procedente de fibras vegetales. La celulosa es un polímero orgánico, que tiene unidades de D-glucosa conectadas a través de enlaces de hidrógeno. Estos enlaces se forman entre el átomo de oxígeno del grupo 1-hidroxilo perteneciente a la glucosa y el átomo de hidrógeno de la siguiente unidad de glucosa. Éstas son propiedades microscópicas del papel, pero para entender lo que ocurre cuando doblamos papel o hacemos origami, basta con saber lo que ocurre macroscópicamente.
Todos los materiales tienen lo que se denomina un límite elástico y una región plástica. El límite elástico es el punto en el que un material se doblará pero volverá a su posición original sin sufrir ningún cambio permanente ni dañar su estructura. Si el material se deforma más allá de este límite, pasa a la región plástica. En este punto, cualquier cambio estructural o físico se convierte en permanente y el papel no volverá a su forma original.
Cada material tiene un límite elástico y una región plástica diferentes. Imagine que sujeta un trozo de papel ligeramente doblado, pero sin doblarlo ni arrugarlo. Las fibras vegetales que componen el papel no habrán sobrepasado su límite elástico. Así que en cuanto suelte la hoja de papel, volverá rápidamente a su estado plano original sin doblar. Sin embargo, si enrollamos ese trozo de papel en un cilindro y lo sujetamos durante unos minutos, algunas de estas fibras habrán sobrepasado el límite elástico, lo cual es evidente, ya que dejará de estar plano al haberse producido ligeras deformaciones en esta hoja.
Ahora bien, cuando se dobla correctamente un trozo de papel como se haría durante el Origami, las fibras vegetales a lo largo del pliegue son empujadas hacia la región plástica del papel, provocando un punto de fractura en la línea real del pliegue. Un ejemplo práctico de esto es que si se dobla un trozo de papel, se observará que si se estira el papel uniformemente a ambos lados del pliegue, el papel se rasgará justo en el pliegue (una forma rápida de "cortar" papel si no se tienen tijeras). El pliegue se convierte entonces en un fallo estructural irreversible y las fibras del papel nunca recuperarán su estado original.
Debido a este daño en su estructura, el papel tendrá a partir de entonces este pliegue. Y por mucho que se intente aplanar el pliegue, nunca volverá a su estado original. Esta es la razón por la que los modelos de origami conservan continuamente su forma. | Si l'on plie une feuille de papier et que l'on exerce une pression sur le pli nouvellement formé, il semble que la surface du papier subisse une déformation permanente, mais que s'est-il passé exactement à l'échelle moléculaire ? | Fondamentalement, un pli ou une pliure dans le papier restera parce que la structure des fibres du papier a été endommagée de manière irréversible. Cela se produit parce que le papier est plié/compressé au-delà de sa limite d'élasticité.
D'un point de vue chimique, le papier est principalement composé de cellulose provenant de fibres végétales. La cellulose est un polymère organique dont les unités D-glucose sont reliées par des liaisons hydrogène. Ces liaisons se forment entre l'atome d'oxygène du groupe hydroxyle appartenant au glucose et l'atome d'hydrogène de l'unité de glucose suivante. Il s'agit là de propriétés microscopiques du papier, mais pour comprendre ce qui se passe lorsque nous plions du papier ou faisons de l'origami, il suffit d'apprendre ce qui se passe au niveau macroscopique.
Tous les matériaux ont ce que l'on appelle une limite élastique et une région plastique. La limite d'élasticité est le point à partir duquel un matériau peut se déformer tout en revenant à sa position d'origine sans subir de changement permanent ou de dommage à sa structure. En déformant davantage le matériau au-delà de cette limite, on l'amène dans la zone plastique. À ce stade, tout changement structurel ou physique devient permanent et le papier ne reviendra pas à sa forme initiale.
Chaque matériau a une limite d'élasticité ou de rendement et une zone plastique différentes. Imaginez que vous tenez un morceau de papier légèrement plié, mais sans le plier ni le froisser. Les fibres végétales qui composent le papier n'auront pas dépassé leur limite d'élasticité. Ainsi, dès que vous lâchez la feuille de papier, elle revient rapidement à son état plat d'origine, sans avoir été pliée. Toutefois, si vous enroulez cette feuille de papier en cylindre et la maintenez pendant quelques minutes, certaines de ces fibres seront poussées au-delà de la limite d'élasticité, ce qui est évident puisqu'elle ne reposera plus à plat, de légères déformations s'étant produites dans cette feuille.
Or, lorsque vous pliez correctement une feuille de papier comme vous le feriez pour un origami, les fibres végétales situées le long du pli sont poussées dans la zone plastique du papier, ce qui provoque un point de rupture à la ligne de pliage proprement dite. Si vous pliez une feuille de papier, vous remarquerez que si vous étirez le papier uniformément des deux côtés du pli, le papier se déchirera directement sur le pli (une façon rapide de couper du papier si vous n'avez pas de ciseaux). Le pli devient alors une défaillance structurelle irréversible et les fibres du papier ne retrouveront jamais leur état d'origine.
En raison de la détérioration de sa structure, le papier présentera toujours ce pli. Et quels que soient les efforts déployés pour aplanir le pli, il ne reviendra jamais à son état d'origine. C'est pourquoi les modèles d'Origami conservent toujours leur forme. | Se pieghiamo un foglio e poi applichiamo una pressione sulla piega appena formata, sembra che la superficie della carta subisca una deformazione permanente, ma cosa è successo esattamente alla carta su scala molecolare? | In pratica, una piega o una grinza nella carta rimane perché la struttura delle fibre della carta si è danneggiata in modo irreversibile. Questo accade perché la carta viene piegata/compressa oltre il suo limite elastico.
Dal punto di vista chimico, la carta è composta principalmente da cellulosa proveniente da fibre vegetali. La cellulosa è un polimero organico con unità di D-glucosio collegate da legami idrogeno. Questi legami si formano tra l'atomo di ossigeno del gruppo 1-idrossile appartenente al glucosio e l'atomo di idrogeno dell'unità di glucosio successiva. Queste sono proprietà microscopiche della carta, ma per capire cosa succede quando pieghiamo la carta o facciamo Origami, è sufficiente imparare cosa succede a livello macroscopico.
Tutti i materiali hanno un limite elastico e una regione plastica. Il limite elastico è il punto in cui un materiale si piega ma torna alla sua posizione originale senza subire cambiamenti o danni permanenti alla sua struttura. Se si deforma ulteriormente il materiale oltre questo limite, si passa alla regione plastica. A questo punto qualsiasi cambiamento strutturale o fisico diventa permanente e la carta non tornerà alla sua forma originale.
Ogni materiale ha un limite elastico o di snervamento e una regione plastica diversi. Immaginate di tenere un pezzo di carta leggermente piegato, ma senza piegarlo o sgualcirlo. Le fibre vegetali che compongono la carta non avranno superato il loro limite elastico. Quindi, non appena si lascia il foglio di carta, questo tornerà rapidamente al suo stato piatto originale non piegato. Tuttavia, se si arrotola il foglio di carta in un cilindro e lo si tiene per qualche minuto, alcune delle fibre saranno state spinte oltre il limite elastico, il che è evidente dal fatto che il foglio non sarà più piatto, poiché ha subito una leggera deformazione.
Ora, quando si piega correttamente un foglio di carta come si fa con gli Origami, le fibre vegetali lungo la piega vengono spinte nella regione plastica della carta, causando un punto di frattura sulla linea effettiva della piega. Un esempio pratico di questo fenomeno è che se si piega un pezzo di carta, si noterà che se si allunga la carta in modo uniforme su entrambi i lati della piega, la carta si strapperà proprio sulla piega (un modo rapido per "tagliare" la carta se non si hanno le forbici). La piega diventa quindi un cedimento strutturale irreversibile e le fibre della carta non riacquisteranno mai il loro stato originale.
A causa di questo danno alla struttura, da quel momento in poi la carta avrà questa piega. E per quanto si cerchi di appiattirla, la piega non tornerà mai allo stato originale. Ecco perché i modelli Origami mantengono sempre la loro forma. |
238 | In general, there are two types of syntax of defining functions - Something like C, C++, C#, or Java (```int functionName(char arg)```) vs the ML (and others) tradition of defining the return type after the function (and using something like a ```fun``` keyword to define a function - like ```fun functionName(char arg): int```).
One of the advantages (for the parser, at least) for a ```fun``` keyword is that it lets the parser be context-free (it doesn't have to guess if ```int``` defines a variable or if it defines a function).
When C was invented, computers had very little memory and speed (so little, that the reason C requires one to define all the variables in the beginning of the function was because it had to be a one-pass parser). Why didn't they choose the simple way out and use function defining keyword? | Dennis Ritchie’s paper on The Development of the C Language gives some idea of the reasoning behind this: namely, the fundamental rule in C that declaration syntax should match expression syntax"
For each object of such a composed type, there was already a way to mention the underlying object: index the array, call the function, use the indirection operator on the pointer. Analogical reasoning led to a declaration syntax for names mirroring that of the expression syntax in which the names typically appear. Thus,
```int i, *pi, **ppi;
```
declare an integer, a pointer to an integer, a pointer to a pointer to an integer. The syntax of these declarations reflects the observation that ```i```, ```*pi```, and ```**ppi``` all yield an ```int``` type when used in an expression. Similarly,
```int f(), *f(), (*f)();
```
declare a function returning an integer, a function returning a pointer to an integer, a pointer to a function returning an integer;
```int *api[10], (*pai)[10];
```
declare an array of pointers to integers, and a pointer to an array of integers. In all these cases the declaration of a variable resembles its usage in an expression whose type is the one named at the head of the declaration.
It appears this rule trumped parser considerations. Its immediate consequence is that function declarations can’t use specific keywords, or impose a different ordering of declaration components.
It’s worth noting that parsing was somewhat different in early C, since function declarations didn’t specify their arguments, and function definitions separated the argument list from the argument declarations (which weren’t necessary for ```int``` arguments):
```sum();
```
declares a ```sum``` function, which would then be defined as
```sum(a, b) {
return a + b;
}
```
(no types needed here, the default is ```int```). So the parser didn’t deal with types inside argument lists. | Im Allgemeinen gibt es zwei Arten von Syntax für die Definition von Funktionen - etwas wie C, C++, C# oder Java (```int Funktionsname(char arg)```) vs. die ML (und andere) Tradition, den Rückgabetyp nach der Funktion zu definieren (und etwas wie ein ```fun``-Schlüsselwort zu verwenden, um eine Funktion zu definieren - wie ```fun Funktionsname(char arg): int``).
Einer der Vorteile (zumindest für den Parser) eines ```fun``-Schlüsselworts ist, dass es dem Parser erlaubt, kontextfrei zu sein (er muss nicht raten, ob ```int`` eine Variable oder eine Funktion definiert).
Als C erfunden wurde, hatten Computer sehr wenig Speicher und Geschwindigkeit (so wenig, dass der Grund, warum C verlangt, dass man alle Variablen am Anfang der Funktion definiert, darin lag, dass es ein One-Pass-Parser sein musste). Warum hat man nicht den einfachen Weg gewählt und ein funktionsdefinierendes Schlüsselwort verwendet? | Dennis Ritchies Aufsatz über die Entwicklung der Sprache C gibt eine Vorstellung von den Gründen dafür: nämlich die grundlegende Regel in C, dass die Syntax von Deklarationen der Syntax von Ausdrücken entsprechen sollte.
Für jedes Objekt eines solchen zusammengesetzten Typs gab es bereits eine Möglichkeit, das zugrundeliegende Objekt zu erwähnen: Indizierung des Arrays, Aufruf der Funktion, Verwendung des Umleitungsoperators auf den Zeiger. Analoge Überlegungen führten zu einer Deklarationssyntax für Namen, die die Syntax der Ausdrücke widerspiegelt, in denen die Namen typischerweise erscheinen. Also
```int i, *pi, **ppi;
```
eine ganze Zahl, einen Zeiger auf eine ganze Zahl und einen Zeiger auf einen Zeiger auf eine ganze Zahl deklarieren. Die Syntax dieser Deklarationen spiegelt die Beobachtung wider, dass ```i``, ```*pi``` und ```**ppi``` alle einen Typ ```int`` ergeben, wenn sie in einem Ausdruck verwendet werden. Ähnlich,
```int f(), *f(), (*f)();
```
eine Funktion deklarieren, die eine Ganzzahl zurückgibt, eine Funktion, die einen Zeiger auf eine Ganzzahl zurückgibt, einen Zeiger auf eine Funktion, die eine Ganzzahl zurückgibt;
```int *api[10], (*pai)[10];
```
deklarieren ein Array von Zeigern auf Integer, und einen Zeiger auf ein Array von Integer. In all diesen Fällen ähnelt die Deklaration einer Variablen ihrer Verwendung in einem Ausdruck, dessen Typ derjenige ist, der am Kopf der Deklaration genannt wird.
Es scheint, dass diese Regel die Überlegungen der Parser übertrumpft hat. Die unmittelbare Folge ist, dass Funktionsdeklarationen keine spezifischen Schlüsselwörter verwenden oder eine andere Reihenfolge der Deklarationskomponenten vorschreiben können.
Es ist erwähnenswert, dass das Parsen im frühen C etwas anders war, da Funktionsdeklarationen ihre Argumente nicht spezifizierten und Funktionsdefinitionen die Argumentliste von den Argumentdeklarationen trennten (die für ```int``-Argumente nicht notwendig waren):
``Summe();
```
deklariert eine ```sum``-Funktion, die dann definiert wäre als
```sum(a, b) {
return a + b;
}
```
(hier werden keine Typen benötigt, der Standard ist ```int``). Der Parser hat also nicht mit Typen innerhalb von Argumentlisten gearbeitet. | En general, hay dos tipos de sintaxis para definir funciones - Algo como C, C++, C#, o Java (```int nombrefuncion(char arg)```) vs la tradición de ML (y otros) de definir el tipo de retorno después de la función (y usar algo como una palabra clave ```fun`` para definir una función - como ```fun nombrefuncion(char arg): int```).
Una de las ventajas (al menos para el analizador sintáctico) de la palabra clave ``fun`` es que permite al analizador sintáctico ser libre de contexto (no tiene que adivinar si ``int`` define una variable o si define una función).
Cuando se inventó C, los ordenadores tenían muy poca memoria y velocidad (tan poca, que la razón por la que C requiere que uno defina todas las variables al principio de la función era porque tenía que ser un analizador sintáctico de una sola pasada). ¿Por qué no eligieron el camino más sencillo y utilizaron la palabra clave de definición de función? | El artículo de Dennis Ritchie The Development of the C Language (El desarrollo del lenguaje C) da una idea del razonamiento que hay detrás de esto: a saber, la regla fundamental en C de que la sintaxis de las declaraciones debe coincidir con la sintaxis de las expresiones".
Para cada objeto de este tipo compuesto, ya existía una forma de mencionar el objeto subyacente: indexar la matriz, llamar a la función, utilizar el operador de indirección sobre el puntero. Un razonamiento análogo condujo a una sintaxis de declaración de nombres que refleja la sintaxis de expresión en la que suelen aparecer los nombres. Así,
```int i, *pi, **ppi;
```
declaran un entero, un puntero a un entero, un puntero a un puntero a un entero. La sintaxis de estas declaraciones refleja la observación de que ```i``, ```*pi``, y ```**ppi`` dan lugar a un tipo ```int`` cuando se utilizan en una expresión. Del mismo modo,
``int f(), *f(), (*f)();
```
declaran una función que devuelve un entero, una función que devuelve un puntero a un entero, un puntero a una función que devuelve un entero;
```int *api[10], (*pai)[10];
```
declaran una matriz de punteros a enteros, y un puntero a una matriz de enteros. En todos estos casos la declaración de una variable se asemeja a su uso en una expresión cuyo tipo es el nombrado en la cabecera de la declaración.
Parece que esta regla se impuso a las consideraciones del analizador sintáctico. Su consecuencia inmediata es que las declaraciones de funciones no pueden utilizar palabras clave específicas ni imponer un orden diferente de los componentes de la declaración.
Vale la pena señalar que el análisis sintáctico era algo diferente en el primer C, ya que las declaraciones de función no especificaban sus argumentos, y las definiciones de función separaban la lista de argumentos de las declaraciones de argumentos (que no eran necesarias para argumentos ```int``):
```suma();
```
declara una función ``suma``, que se definiría como
``suma(a, b) {
devuelve a + b;
}
```
(aquí no se necesitan tipos, el predeterminado es ``int``). Así que el analizador sintáctico no se ocupaba de los tipos dentro de las listas de argumentos. | En général, il y a deux types de syntaxe pour définir les fonctions - Quelque chose comme C, C++, C#, ou Java (``int nomfonction(char arg)``) contre la tradition ML (et d'autres) de définir le type de retour après la fonction (et d'utiliser quelque chose comme un mot-clé ``fun`` pour définir une fonction - comme ``fun nomfonction(char arg) : int``).
Un des avantages (pour l'analyseur, au moins) du mot-clé ``fun`` est qu'il permet à l'analyseur d'être sans contexte (il n'a pas à deviner si ``int`` définit une variable ou s'il définit une fonction).
Lorsque le langage C a été inventé, les ordinateurs avaient très peu de mémoire et de vitesse (si peu que la raison pour laquelle le langage C exige que l'on définisse toutes les variables au début de la fonction est qu'il devait être un analyseur en une seule passe). Pourquoi n'ont-ils pas choisi la solution la plus simple et n'ont-ils pas utilisé le mot-clé définissant la fonction ? | L'article de Dennis Ritchie sur le développement du langage C donne une idée du raisonnement sous-jacent : il s'agit de la règle fondamentale du langage C selon laquelle la syntaxe de la déclaration doit correspondre à la syntaxe de l'expression"
Pour chaque objet d'un tel type composé, il existait déjà un moyen de mentionner l'objet sous-jacent : indexer le tableau, appeler la fonction, utiliser l'opérateur d'indirection sur le pointeur. Un raisonnement analogique a conduit à une syntaxe de déclaration pour les noms reflétant celle de la syntaxe d'expression dans laquelle les noms apparaissent généralement. Ainsi,
```int i, *pi, **ppi ;
```
déclarent un entier, un pointeur sur un entier, un pointeur sur un pointeur sur un entier. La syntaxe de ces déclarations reflète l'observation que ``i``, ``*pi``, et ``**ppi`` produisent tous un type ``int`` lorsqu'ils sont utilisés dans une expression. De même,
``int f(), *f(), (*f)() ;
```
déclarer une fonction renvoyant un entier, une fonction renvoyant un pointeur sur un entier, un pointeur sur une fonction renvoyant un entier ;
```int *api[10], (*pai)[10] ;
```
déclare un tableau de pointeurs sur des entiers, et un pointeur sur un tableau d'entiers. Dans tous ces cas, la déclaration d'une variable ressemble à son utilisation dans une expression dont le type est celui nommé en tête de la déclaration.
Il semble que cette règle ait prévalu sur les considérations de l'analyseur. La conséquence immédiate est que les déclarations de fonctions ne peuvent pas utiliser de mots-clés spécifiques, ni imposer un ordre différent des composants de la déclaration.
Il est intéressant de noter que l'analyse était quelque peu différente au début du langage C, puisque les déclarations de fonctions ne spécifiaient pas leurs arguments, et que les définitions de fonctions séparaient la liste des arguments des déclarations d'arguments (qui n'étaient pas nécessaires pour les arguments ``int``) :
``sum() ;
```
déclare une fonction ``sum``, qui serait alors définie comme suit
``sum(a, b) {
return a + b ;
}
```
(aucun type n'est nécessaire ici, la valeur par défaut est ``int``). L'analyseur n'a donc pas tenu compte des types à l'intérieur des listes d'arguments. | In generale, ci sono due tipi di sintassi per definire le funzioni: qualcosa di simile a C, C++, C# o Java (```int functionName(char arg)``) contro la tradizione di ML (e altri) di definire il tipo di ritorno dopo la funzione (e di usare qualcosa come una parola chiave ``fun`` per definire una funzione, come ```fun functionName(char arg): int```).
Uno dei vantaggi (almeno per il parser) di una parola chiave ```fun`` è che permette al parser di essere libero dal contesto (non deve indovinare se ```int`` definisce una variabile o se definisce una funzione).
Quando il C fu inventato, i computer avevano poca memoria e velocità (così poca che il motivo per cui il C richiedeva di definire tutte le variabili all'inizio della funzione era perché doveva essere un parser a passaggio unico). Perché non hanno scelto la via più semplice e non hanno usato la parola chiave per definire le funzioni? | L'articolo di Dennis Ritchie su Lo sviluppo del linguaggio C dà un'idea del ragionamento che sta alla base di questo: in particolare, la regola fondamentale del C secondo cui la sintassi delle dichiarazioni deve corrispondere alla sintassi delle espressioni".
Per ogni oggetto di questo tipo composto, esisteva già un modo per menzionare l'oggetto sottostante: indicizzare l'array, chiamare la funzione, usare l'operatore di indirezione sul puntatore. Un ragionamento analogo ha portato a una sintassi di dichiarazione per i nomi che rispecchia quella delle espressioni in cui i nomi tipicamente compaiono. Quindi,
```int i, *pi, **ppi;
```
dichiarano un intero, un puntatore a un intero, un puntatore a un puntatore a un intero. La sintassi di queste dichiarazioni riflette l'osservazione che ```i``, ```*pi`` e ````**ppi`` danno tutti un tipo ```int`` quando vengono usati in un'espressione. Analogamente,
``int f(), *f(), (*f)();
```
dichiarare una funzione che restituisce un intero, una funzione che restituisce un puntatore a un intero, un puntatore a una funzione che restituisce un intero;
```int *api[10], (*pai)[10];
```
dichiarano un array di puntatori a numeri interi e un puntatore a un array di numeri interi. In tutti questi casi, la dichiarazione di una variabile assomiglia al suo utilizzo in un'espressione il cui tipo è quello indicato all'inizio della dichiarazione.
Sembra che questa regola abbia prevalso sulle considerazioni del parser. La conseguenza immediata è che le dichiarazioni di funzione non possono usare parole chiave specifiche o imporre un ordine diverso dei componenti della dichiarazione.
Vale la pena notare che il parsing era un po' diverso nei primi tempi del C, poiché le dichiarazioni di funzione non specificavano i loro argomenti e le definizioni di funzione separavano l'elenco degli argomenti dalle dichiarazioni degli argomenti (che non erano necessarie per gli argomenti ```int''):
```somma();
```
dichiara una funzione ``somma'', che verrebbe quindi definita come
``somma(a, b) {
restituisce a + b;
}
```
(non c'è bisogno di tipi, il default è ```int```). Quindi il parser non trattava i tipi all'interno degli elenchi di argomenti. |
239 | I am new to TeX, working on it for about 2 months. Have not yet figured out how to script the 'curvy L' for Lagrangian and/or for Laplace Transforms.
As of now I am using the 'L' - which is not good! :-(
Any help?
UPDATE The 2 best solutions are;
```\usepackage{ amssymb }
\mathcal{L}
```
and
```\usepackage{ mathrsfs }
\mathscr{L}
```
I got my answers at, http://detexify.kirelabs.org/classify.html | You have been told how to get a curved L. But here's some more general advice, which also applies in this situation: In cases such as this, always create your own shortcut macro, say
```\newcommand{\Lagr}{\mathcal{L}}
```
This way, if you ever decide that that curly L is not quite the one you like, it is easy to switch. Also, even before you knew the answer to this question, you could have written
```\newcommand{\Lagr}{L}
```
in your preamble. Then you could start/continue writing the document, use ordinary capital Ls where you want, and ```\Lagr``` wherever you actually mean a Lagrangian, and then later changing the definition of ```\Lagr``` to something appropriate. This way, you wouldn't have to manually search for each occurence of a capital L and decide if it's a Lagrangian or not. Clearly ```\Lagr``` (or whatever you want to call this macro) is also easier to type than ```\mathcal{L}```, and it makes the source code much more readable.
Another advantage, which is probably more subtle, since you're new to LaTeX, is that we can make the curvy L exactly the type of math we want. TeX distinguishes between ordinary letters, binary operators, binary relations, opening and closing parenthesis and so on; the spacing between two ordinary letters is not the same as the spacing between the ```a```, ```+```, and ```b``` in ```$a+b$```. So since the Lagrangian is a kind of operator, we could say
```\newcommand{\Lagr}{\mathop{\mathcal{L}}}
```
But in the case of operators, the package amsmath (which you are most likely using; if not, you should) provides a somewhat better mechanism:
```\DeclareMathOperator{\Lagr}{\mathcal{L}}
```
Another (related) tip: Even if you are using the same notation for two different things, it is best to make a separate macro for each. In this case you might have
```\DeclareMathOperator{\Lagr}{\mathcal{L}}
\DeclareMathOperator{\Lapl}{\mathcal{L}}
```
The reason is the same as in the ```L``` vs. ```\Lagr``` case above: If you at some point decide that using ```\mathcal{L}``` for both is a bad idea, you would have to find each occurence of ```\Lagr``` and figure out if it is really a Laplacian. Using macro names carrying semantic meaning is one of the great powers of TeX. | Ich bin neu in TeX und arbeite seit etwa 2 Monaten daran. Ich habe noch nicht herausgefunden, wie ich das "geschwungene L" für die Lagrange und/oder für Laplace-Transformationen schreiben kann.
Im Moment benutze ich das 'L' - was nicht gut ist! :-(
Kann mir jemand helfen?
UPDATE Die 2 besten Lösungen sind;
Paket "amssymb".
\mathcal{L}
```
und
```\usepackage{ mathrsfs }
\mathscr{L}
```
Ich habe meine Antworten unter http://detexify.kirelabs.org/classify.html. | Es wurde Ihnen gesagt, wie Sie ein gekrümmtes L erhalten können. Aber hier sind noch einige allgemeinere Ratschläge, die auch in dieser Situation gelten: Erstellen Sie in Fällen wie diesem immer Ihr eigenes Verknüpfungsmakro, z. B.
```\neuerBefehl{\Lagr}{\mathcal{L}}
```
Auf diese Weise können Sie den Befehl leicht ändern, wenn Sie feststellen, dass das geschweifte L nicht ganz das ist, was Sie wollen. Auch bevor Sie die Antwort auf diese Frage kannten, hätten Sie schreiben können
```\neuer Befehl{\Lagr}{L}
```
in Ihre Präambel schreiben können. Dann könnten Sie mit dem Schreiben des Dokuments beginnen/fortfahren, normale große Ls verwenden, wo Sie wollen, und ```\Lagr`` überall dort, wo Sie tatsächlich einen Lagrangeschen meinen, und dann später die Definition von ```\Lagr`` in etwas Passendes ändern. Auf diese Weise müßten Sie nicht manuell nach jedem Vorkommen eines großen L suchen und entscheiden, ob es sich um eine Lagrange handelt oder nicht. Natürlich ist ```\Lagr`` (oder wie auch immer Sie dieses Makro nennen wollen) auch einfacher zu schreiben als ```\mathcal{L}``, und es macht den Quellcode viel lesbarer.
Ein weiterer Vorteil, der wahrscheinlich subtiler ist, da Sie LaTeX noch nicht kennen, ist, dass wir das geschwungene L genau zu der Art von Mathematik machen können, die wir wollen. TeX unterscheidet zwischen normalen Buchstaben, binären Operatoren, binären Beziehungen, öffnenden und schließenden Klammern und so weiter; der Abstand zwischen zwei normalen Buchstaben ist nicht derselbe wie der Abstand zwischen ```a```, ```+``` und ```b`` in ```$a+b$```. Da die Lagrange also eine Art Operator ist, könnten wir sagen
````neuer Befehl{\Lagr}{\mathop{\mathcal{L}}}
```
Aber im Falle von Operatoren bietet das Paket amsmath (das Sie höchstwahrscheinlich benutzen; falls nicht, sollten Sie es tun) einen etwas besseren Mechanismus:
```\DeclareMathOperator{\Lagr}{\mathcal{L}}
```
Ein weiterer (verwandter) Tipp: Selbst wenn Sie die gleiche Notation für zwei verschiedene Dinge verwenden, ist es am besten, für jedes ein eigenes Makro zu erstellen. In diesem Fall könnten Sie
```\DeclareMathOperator{\Lagr}{\mathcal{L}}
\DeclareMathOperator{\Lapl}{\mathcal{L}}
```
Der Grund ist derselbe wie im Fall ```L``` vs. ```Lagr``` oben: Wenn Sie irgendwann entscheiden, dass die Verwendung von ```\mathcal{L}`` für beide eine schlechte Idee ist, müssten Sie jedes Vorkommen von ```\Lagr`` finden und herausfinden, ob es wirklich ein Laplacian ist. Die Verwendung von Makronamen mit semantischer Bedeutung ist eine der großen Stärken von TeX. | Soy nuevo en TeX, trabajando en ello durante unos 2 meses. Todavía no he descubierto cómo escribir la 'L curva' para la Lagrangiana y/o para las Transformadas de Laplace.
Por ahora estoy usando la 'L' - ¡lo cual no es bueno! :-(
¿Alguna ayuda?
ACTUALIZACIÓN Las 2 mejores soluciones son;
```usepackage{ amssymb }
\mathcal{L}
```
y
```usepackage{ mathrsfs }
\y ``usepackage
```
Tengo mis respuestas en, http://detexify.kirelabs.org/classify.html | Ya te hemos dicho cómo conseguir una L curva. Pero aquí tienes un consejo más general, que también se aplica en esta situación: En casos como este, siempre crear su propia macro de acceso directo, por ejemplo
```newcommand{\Lagr}{\mathcal{L}}
```
De este modo, si alguna vez decides que esa L rizada no es exactamente la que te gusta, es fácil cambiarla. Además, incluso antes de saber la respuesta a esta pregunta, podría haber escrito
```nuevocomando{\Lagr}{L}}
```
en su preámbulo. Entonces usted podría comenzar / continuar escribiendo el documento, el uso ordinario de mayúsculas L donde quieras, y ```Lagr`` siempre que realmente significa un Lagrangiano, y más tarde cambiar la definición de ```Lagr`` a algo apropiado. De esta forma, no tendrías que buscar manualmente cada vez que aparece una L mayúscula y decidir si es un lagrangiano o no. Claramente ```Lagr`` (o como quieras llamar a esta macro) también es más fácil de escribir que ```mathcal{L}``, y hace que el código fuente sea mucho más legible.
Otra ventaja, que es probablemente más sutil, ya que eres nuevo en LaTeX, es que podemos hacer la curva L exactamente el tipo de matemáticas que queremos. TeX distingue entre letras ordinarias, operadores binarios, relaciones binarias, paréntesis de apertura y cierre, etc.; el espaciado entre dos letras ordinarias no es el mismo que el espaciado entre ```a``, ```+``, y ```b`` en ```$a+b$``. Así que como el Lagrangiano es un tipo de operador, podríamos decir
``newcommand{\Lagr}{\mathop{\mathcal{L}}
```
Pero en el caso de los operadores, el paquete amsmath (que es muy probable que estés utilizando; si no, deberías) proporciona un mecanismo algo mejor:
```DeclareMathOperator{\Lagr}{\mathcal{L}}
```
Otro consejo (relacionado): Incluso si está utilizando la misma notación para dos cosas diferentes, es mejor hacer una macro separada para cada uno. En este caso, usted podría tener
```DeclareMathOperator {\Lagr}{\mathcal{L}}
\``DeclareMathOperator {\Lapl}{\mathcal{L}}
```
La razón es la misma que en el ```L`` vs. ```Lagr`` caso anterior: Si en algún momento decide que el uso de ```\mathcal{L}`` para ambos es una mala idea, usted tendría que encontrar cada ocurrencia de ```\Lagr`` y averiguar si es realmente un Laplaciano. El uso de nombres de macro con significado semántico es uno de los grandes poderes de TeX. | Je suis nouveau à TeX, je travaille dessus depuis environ 2 mois. Je n'ai pas encore trouvé comment écrire le "L curviligne" pour le lagrangien et/ou pour les transformations de Laplace.
Pour l'instant, j'utilise le 'L' - ce qui n'est pas bon ! :-(
De l'aide ?
MISE A JOUR Les 2 meilleures solutions sont ;
```\N-usepackage{ amssymb }
\mathcal{L}
```
et
```\usepackage{ mathrsfs }
\mathscr{L}
```
J'ai obtenu mes réponses à l'adresse suivante : http://detexify.kirelabs.org/classify.html | On vous a expliqué comment obtenir un L courbe. Mais voici un conseil plus général, qui s'applique également à cette situation : Dans des cas comme celui-ci, créez toujours votre propre macro de raccourci, par exemple
```\newcommand{\Lagr}{\mathcal{L}}
```
De cette façon, si vous décidez que ce L bouclé n'est pas tout à fait celui que vous aimez, il est facile d'en changer. De plus, même avant de connaître la réponse à cette question, vous auriez pu écrire
```Nouvellecommande{\Lagr}{L}
```
dans votre préambule. Ensuite, vous auriez pu commencer/continuer à écrire le document, utiliser des L majuscules ordinaires là où vous le souhaitiez, et ``Lagr`` là où vous vouliez parler d'un Lagrangien, et changer plus tard la définition de ``Lagr`` pour quelque chose d'approprié. De cette façon, vous n'auriez pas à rechercher manuellement chaque occurrence d'un L majuscule et à décider s'il s'agit d'un Lagrangien ou non. Il est clair que ``\Lagr`` (ou quel que soit le nom que vous voulez donner à cette macro) est aussi plus facile à taper que ``\mathcal{L}``, et cela rend le code source beaucoup plus lisible.
Un autre avantage, qui est probablement plus subtil, puisque vous êtes nouveau à LaTeX, est que nous pouvons faire du L courbe exactement le type de mathématiques que nous voulons. TeX fait la distinction entre les lettres ordinaires, les opérateurs binaires, les relations binaires, les parenthèses ouvrantes et fermantes et ainsi de suite ; l'espacement entre deux lettres ordinaires n'est pas le même que l'espacement entre les ``a``, ``+``, et ``b`` dans ``$a+b$``. Ainsi, puisque le Lagrangien est une sorte d'opérateur, nous pourrions dire
```\newcommand{\Lagr}{\mathop{\mathcal{L}}}
```
Mais dans le cas des opérateurs, le paquetage amsmath (que vous utilisez très probablement ; si ce n'est pas le cas, vous devriez l'utiliser) fournit un mécanisme un peu plus efficace :
```\DeclareMathOperator{\Lagr}{\mathcal{L}}
```
Un autre conseil (lié) : même si vous utilisez la même notation pour deux choses différentes, il est préférable de faire une macro séparée pour chacune d'entre elles. Dans ce cas, vous pourriez avoir
```\DeclareMathOperator{\Lagr}{\mathcal{L}}
\DeclareMathOperator{\Lapl}{\mathcal{L}}
```
La raison est la même que dans le cas ``L`` vs ``\Lagr`` ci-dessus : Si vous décidez à un moment donné qu'utiliser ``mathcal{L}`` pour les deux est une mauvaise idée, vous devrez trouver chaque occurrence de ``Lagr`` et déterminer s'il s'agit vraiment d'un Laplacien. L'utilisation de noms de macros porteurs d'une signification sémantique est l'une des grandes forces de TeX. | Sono nuovo di TeX, ci lavoro da circa 2 mesi. Non ho ancora capito come scrivere la 'curvy L' per la Lagrangiana e/o per le Trasformate di Laplace.
Al momento sto usando la 'L', il che non va bene! :-(
Qualche aiuto?
AGGIORNAMENTO Le due migliori soluzioni sono;
``usepackage{ amssymb }
\mathcal{L}
```
e
``usepackage{ mathrsfs }
\mathscr{L}
```
Ho ottenuto le mie risposte su, http://detexify.kirelabs.org/classify.html | Vi è stato spiegato come ottenere una L curva. Ma ecco un consiglio più generale, valido anche in questa situazione: In casi come questo, creare sempre una propria macro di scelta rapida, ad esempio
``nuovocomando{{Lagr}{mathcal{L}}
```
In questo modo, se si decide che quella L riccioluta non è proprio quella che ci piace, è facile cambiare. Inoltre, anche prima di conoscere la risposta a questa domanda, avreste potuto scrivere
``nuovocomando{\Lagr}{L}
```
nel preambolo. Poi si potrebbe iniziare/continuare a scrivere il documento, usando le normali L maiuscole dove si vuole, e ```Lagr'' ovunque si intenda effettivamente una lagrangiana, e poi in seguito cambiare la definizione di ```Lagr'' con qualcosa di appropriato. In questo modo, non si dovrebbe cercare manualmente ogni occorrenza di una L maiuscola e decidere se si tratta di un lagrangiano o meno. Chiaramente ````Lagr`` (o qualsiasi altro nome si voglia dare a questa macro) è anche più facile da digitare di ````mathcal{L}``, e rende il codice sorgente molto più leggibile.
Un altro vantaggio, probabilmente più sottile, visto che siete nuovi di LaTeX, è che possiamo rendere la L sinuosa esattamente il tipo di matematica che vogliamo. TeX distingue tra lettere ordinarie, operatori binari, relazioni binarie, parentesi di apertura e di chiusura e così via; la spaziatura tra due lettere ordinarie non è la stessa di quella tra le lettere ```a``, ```+`` e ```b`` in ```$a+b$``. Quindi, dato che la lagrangiana è un tipo di operatore, potremmo dire
``nuovo comando{\Lagr}{mathop{\mathcal{L}}
```
Ma nel caso degli operatori, il pacchetto amsmath (che probabilmente state usando; se non lo fate, dovreste farlo) fornisce un meccanismo un po' migliore:
``DeclareMathOperator{\Lagr}{\mathcal{L}}
```
Un altro consiglio (correlato): anche se si usa la stessa notazione per due cose diverse, è meglio creare una macro separata per ciascuna di esse. In questo caso si potrebbe avere
``DeclareMathOperator{\Lagr}{\mathcal{L}}
\¿DeclareMathOperator{\Lapl}{\mathcal{L}}
```
La ragione è la stessa del caso ```L``` contro ````Lagr``` di cui sopra: Se a un certo punto si decidesse che usare ````mathcal{L}``` per entrambi è una cattiva idea, bisognerebbe trovare ogni occorrenza di ````Lagr`` e capire se si tratta davvero di un laplaciano. L'uso di nomi di macro con significato semantico è uno dei grandi poteri di TeX. |
240 | My son doesn't want to share anything with other kids, and if some kid even so much as touches his toy, he pushes the kid. He shouts and cries at the same time, and tries to express his anger by pushing and hitting the kid. I feel so embarrassed in front of other parents.
And when he is at home with me and doing something wrong, I try to stop him, he tries to repeat my words and shouts at me. He is copying the behavior of others, whether it's a good act or bad...
Please help me how to stop him from being a bully. | Welcome to the "Terrible Two's"!
Your son behaves typically for his age. At 2 he starts to assert himself and express his demands. It's likely that he has also learned that he gets his way when he throws a tantrum. For a 2-year old screaming, hitting or even biting is a normal way to express his anger - at least he will try and every success reinforces this.
He also comes across more limitations: The more he is able to do, the more often he is stopped.
The solution? It's already in your question:
He will copy what others do. So by all means, stay calm. No yelling, no fussing and - please! - no hitting. He has some learning (accepted behaviour like sharing) and some unlearning (no hitting or pushing) to do and needs your help.
* When he throws a tantrum, either ignore him, or quietly remove him from the scene. Do not worry about others! Most likely they have had the same trouble with their kids or will some time ;-)
* When he doesn't want to share yet - fine, he will learn. This can be practiced. Don't make him share, or he will resent it. Rather, teach him the benefits of sharing. Start with food, for example. Have a plate of cookies (or other favorite food), that's yours. He will likely demand some, but demanding doesn't get him a cookie. Asking nicely will! Explain, repeat. Then, switch roles. If he has cookies, ask him to share. If he does, praise him. Else - remind him next time when he wants your cookies that he didn't share. Share whenever possible: Having a bite from your plate, getting a piece off his. Repeat, repeat, repeat.... Same goes for objects. Ask him to "please" share a toy, "play" with it for a short moment, then return. Say "Thank you". He learns, that he gets the toy back. Share some of your things. (Monitor the behaviour of other children, that want his toys - make sure they ask first and give toys back, at least during this learning stage.)
You have some serious work to do, but it will be sooooo worth it! | Mein Sohn will nichts mit anderen Kindern teilen, und wenn ein Kind sein Spielzeug auch nur berührt, schubst er es. Er schreit und weint gleichzeitig und versucht, seine Wut auszudrücken, indem er das Kind schubst und schlägt. Ich schäme mich so sehr vor den anderen Eltern.
Und wenn er zu Hause bei mir ist und etwas Falsches tut und ich versuche, ihn aufzuhalten, versucht er, meine Worte zu wiederholen und schreit mich an. Er kopiert das Verhalten anderer, ob es nun gut oder schlecht ist...
Bitte helfen Sie mir, wie ich ihn davon abhalten kann, ein Tyrann zu sein. | Willkommen bei den "Schrecklichen Zwei"!
Ihr Sohn verhält sich typisch für sein Alter. Mit 2 Jahren beginnt er, sich durchzusetzen und seine Forderungen zu stellen. Wahrscheinlich hat er auch gelernt, dass er seinen Willen bekommt, wenn er einen Wutanfall bekommt. Für einen 2-Jährigen ist Schreien, Schlagen oder sogar Beißen eine normale Art, seine Wut auszudrücken - zumindest versucht er es, und jeder Erfolg bestärkt ihn darin.
Er stößt auch auf mehr Grenzen: Je mehr er tun kann, desto häufiger wird er gestoppt.
Die Lösung? Sie steckt bereits in Ihrer Frage:
Er wird kopieren, was andere tun. Bleiben Sie also auf jeden Fall ruhig. Kein Schreien, kein Getue und - bitte! - kein Schlagen. Er muss etwas lernen (akzeptiertes Verhalten wie Teilen) und etwas verlernen (nicht schlagen oder schubsen) und braucht Ihre Hilfe.
* Wenn er einen Wutanfall bekommt, ignorieren Sie ihn entweder oder entfernen Sie ihn leise von der Szene. Machen Sie sich keine Sorgen um andere! Höchstwahrscheinlich hatten sie die gleichen Probleme mit ihren Kindern oder werden sie irgendwann haben ;-)
* Wenn er noch nicht teilen will - gut, er wird es lernen. Das kann geübt werden. Zwingen Sie ihn nicht zum Teilen, sonst wird er es ablehnen. Bringen Sie ihm stattdessen die Vorteile des Teilens bei. Beginnen Sie zum Beispiel mit dem Essen. Nehmen Sie einen Teller mit Keksen (oder einem anderen Lieblingsessen), der Ihnen gehört. Wahrscheinlich wird er etwas davon verlangen, aber durch Verlangen bekommt er keinen Keks. Wenn Sie nett fragen, schon! Erklären Sie es, wiederholen Sie es. Dann tauschen Sie die Rollen. Wenn er Kekse hat, fragen Sie ihn, ob er teilen möchte. Wenn er das tut, loben Sie ihn. Andernfalls - erinnern Sie ihn das nächste Mal, wenn er Ihre Kekse haben will, daran, dass er nicht geteilt hat. Teilen Sie wann immer möglich: Nimm einen Bissen von deinem Teller, nimm ein Stück von seinem. Wiederholen, wiederholen, wiederholen.... Das Gleiche gilt für Gegenstände. Bitten Sie ihn, ein Spielzeug "bitte" mit Ihnen zu teilen, spielen Sie kurz damit und geben Sie es dann zurück. Sagen Sie "Danke". So lernt er, dass er das Spielzeug zurückbekommt. Teilen Sie einige Ihrer Sachen. (Beobachten Sie das Verhalten anderer Kinder, die sein Spielzeug haben wollen - stellen Sie sicher, dass sie zuerst fragen und das Spielzeug zurückgeben, zumindest in dieser Lernphase).
Sie haben einiges an Arbeit vor sich, aber es wird sich sooooo lohnen! | Mi hijo no quiere compartir nada con otros niños, y si algún niño siquiera toca su juguete, lo empuja. Grita y llora al mismo tiempo, e intenta expresar su rabia empujando y pegando al niño. Me siento muy avergonzada delante de otros padres.
Y cuando está en casa conmigo y hace algo mal, intento pararle, él intenta repetir mis palabras y me grita. Está copiando el comportamiento de los demás, ya sea un acto bueno o malo...
Por favor ayúdenme como hacer para que deje de ser un abusón. | ¡Bienvenido al "Terrible Two's"!
Tu hijo tiene un comportamiento típico para su edad. A los 2 años empieza a imponerse y a expresar sus exigencias. Es probable que también haya aprendido que se sale con la suya cuando tiene una rabieta. Para un niño de 2 años, gritar, pegar o incluso morder es una forma normal de expresar su enfado; al menos lo intentará y cada éxito lo refuerza.
También se encuentra con más limitaciones: Cuanto más es capaz de hacer, más a menudo se le detiene.
¿La solución? Ya está en tu pregunta:
Copiará lo que hacen los demás. Así que, por favor, mantén la calma. Sin gritos, sin aspavientos y -¡por favor! - ni pegar. Tiene que aprender (comportamientos aceptados como compartir) y desaprender (no pegar ni empujar) y necesita tu ayuda.
* Cuando tenga una rabieta, ignóralo o retíralo discretamente de la escena. No te preocupes por los demás. Lo más probable es que ellos hayan tenido los mismos problemas con sus hijos o los tendrán alguna vez ;-)
* Cuando aún no quiera compartir, vale, ya aprenderá. Esto se puede practicar. No le obligues a compartir, o se resentirá. Enséñale las ventajas de compartir. Empieza con la comida, por ejemplo. Ponle un plato de galletas (u otra comida favorita), es tuyo. Seguramente te pedirá algunas, pero exigir no le da una galleta. Si se lo pides amablemente, sí. Explícaselo y repíteselo. Luego, cambia los papeles. Si tiene galletas, pídele que las comparta. Si lo hace, elógiale. Si no, recuérdale la próxima vez que quiera tus galletas que no las ha compartido. Comparte siempre que sea posible: Toma un bocado de tu plato, coge un trozo del suyo. Repite, repite, repite.... Lo mismo ocurre con los objetos. Pídele que "por favor" comparta un juguete, "juega" con él un ratito y luego vuelve. Dile "gracias". Así aprenderá que se le devuelve el juguete. Comparte algunas de tus cosas. (Vigila el comportamiento de otros niños que quieran sus juguetes: asegúrate de que pregunten primero y devuelvan los juguetes, al menos durante esta etapa de aprendizaje).
Tienes mucho trabajo por delante, ¡pero merecerá la pena! | Mon fils ne veut rien partager avec les autres enfants, et si un enfant touche ne serait-ce qu'à son jouet, il le pousse. Il crie et pleure en même temps et essaie d'exprimer sa colère en poussant et en frappant l'enfant. Je me sens tellement gênée devant les autres parents.
Et lorsqu'il est à la maison avec moi et qu'il fait quelque chose de mal, j'essaie de l'arrêter, il essaie de répéter mes mots et me crie dessus. Il copie le comportement des autres, qu'il s'agisse d'une bonne ou d'une mauvaise action...
S'il vous plaît, aidez-moi à faire en sorte qu'il cesse d'être un tyran. | Bienvenue aux "deux terribles" !
Votre fils a un comportement typique de son âge. À 2 ans, il commence à s'affirmer et à exprimer ses exigences. Il est probable qu'il ait également appris qu'il obtient ce qu'il veut en faisant une crise de colère. Pour un enfant de 2 ans, crier, frapper ou même mordre est une façon normale d'exprimer sa colère - au moins, il essaiera et chaque succès le renforcera.
Il se heurte également à davantage de limites : Plus il est capable de faire de choses, plus il est souvent arrêté.
La solution ? Elle est déjà dans votre question :
Il copiera ce que font les autres. Alors, restez calme. Ne criez pas, ne faites pas d'histoires et - s'il vous plaît ! - pas de coups. Il a un certain apprentissage (comportement accepté comme le partage) et un certain désapprentissage (ne pas frapper ou pousser) à faire et a besoin de votre aide.
* Lorsqu'il fait une crise de colère, ignorez-le ou retirez-le discrètement de la scène. Ne vous inquiétez pas pour les autres ! Il est fort probable qu'ils aient eu les mêmes problèmes avec leurs enfants ou qu'ils en auront un jour ;-)
* Lorsqu'il ne veut pas encore partager - très bien, il apprendra. Cela peut être pratiqué. Ne l'obligez pas à partager, car il n'en voudra pas. Apprenez-lui plutôt les avantages du partage. Commencez par la nourriture, par exemple. Prenez une assiette de biscuits (ou d'autres aliments préférés) qui vous appartient. Il en réclamera probablement, mais ce n'est pas en exigeant qu'il obtiendra un biscuit, mais en demandant gentiment ! Demander gentiment, oui ! Expliquez, répétez. Ensuite, inversez les rôles. S'il a des biscuits, demandez-lui de les partager. S'il le fait, félicitez-le. Sinon, rappelez-lui la prochaine fois qu'il voudra des biscuits qu'il n'a pas partagés. Partagez chaque fois que c'est possible : Prenez un morceau de votre assiette, prenez un morceau de la sienne. Répétez, répétez, répétez.... Il en va de même pour les objets. Demandez-lui de partager un jouet "s'il vous plaît", "jouez" avec pendant un court instant, puis revenez. Dites-lui "merci". Il apprend ainsi qu'il récupère le jouet. Partagez certaines de vos affaires. (Surveillez le comportement des autres enfants qui veulent ses jouets - assurez-vous qu'ils demandent d'abord et rendent les jouets, au moins pendant cette phase d'apprentissage).
Vous avez du pain sur la planche, mais cela en vaut vraiment la peine ! | Mio figlio non vuole condividere nulla con gli altri bambini e se un bambino tocca anche solo il suo giocattolo, lo spinge. Grida e piange allo stesso tempo e cerca di esprimere la sua rabbia spingendo e colpendo il bambino. Mi sento così in imbarazzo di fronte agli altri genitori.
E quando è a casa con me e fa qualcosa di sbagliato, io cerco di fermarlo, lui cerca di ripetere le mie parole e mi urla contro. Sta copiando il comportamento degli altri, che sia una buona azione o una cattiva...
Per favore, aiutatemi a fermare il suo comportamento da bullo. | Benvenuti nei "Terribili due"!
Suo figlio si comporta in modo tipico per la sua età. A 2 anni inizia a farsi valere e a esprimere le sue richieste. È probabile che abbia anche imparato che quando fa i capricci ottiene quello che vuole. Per un bambino di 2 anni urlare, colpire o addirittura mordere è un modo normale di esprimere la propria rabbia - almeno ci prova e ogni successo lo rafforza.
Inoltre, incontra più limiti: Più è in grado di fare, più spesso viene fermato.
La soluzione? È già nella vostra domanda:
Copierà quello che fanno gli altri. Quindi, in ogni caso, mantenete la calma. Non urlare, non agitarti e - per favore! - non picchiatelo. Deve imparare (comportamenti accettati come la condivisione) e disimparare (niente botte o spinte) e ha bisogno del vostro aiuto.
* Quando fa i capricci, ignoratelo o allontanatelo silenziosamente dalla scena. Non preoccupatevi degli altri! Molto probabilmente hanno avuto lo stesso problema con i loro figli o lo avranno prima o poi ;-)
* Quando non vuole ancora condividere, va bene, imparerà. Questo può essere esercitato. Non costringetelo a condividere, altrimenti si risentirà. Piuttosto, insegnategli i vantaggi della condivisione. Iniziate con il cibo, ad esempio. Prendete un piatto di biscotti (o altro cibo preferito), che sia vostro. Probabilmente ne chiederà un po', ma pretendere non gli farà ottenere un biscotto. Chiedere con gentilezza sì! Spiegate e ripetete. Poi, scambiatevi i ruoli. Se ha i biscotti, chiedetegli di condividerli. Se lo fa, lodatelo. Altrimenti, la prossima volta, quando vorrà i vostri biscotti, ricordategli che non li ha condivisi. Condividete ogni volta che è possibile: Prendete un boccone dal vostro piatto e prendete un pezzo dal suo. Ripetere, ripetere, ripetere.... Lo stesso vale per gli oggetti. Chiedetegli di condividere "per favore" un giocattolo, "giocateci" per un breve momento e poi restituitelo. Dite "grazie". Impara che il giocattolo gli viene restituito. Condividete alcune delle vostre cose. (Controllate il comportamento degli altri bambini che vogliono i suoi giocattoli: assicuratevi che chiedano prima e restituiscano i giocattoli, almeno in questa fase di apprendimento).
Avete un bel po' di lavoro da fare, ma ne varrà la pena! |
241 | What are the differences between the Strategy design pattern and the State design pattern? please explain the difference in layman's terms? | The difference simply lies in that they solve different problems:
* The State pattern deals with what (state or type) an object is (in) -- it encapsulates state-dependent behavior, whereas
* the Strategy pattern deals with how an object performs a certain task -- it encapsulates an algorithm.
The constructs for achieving these different goals are however very similar; both patterns are examples of composition with delegation.
Some observations on their advantages:
* By using the State pattern the state-holding (context) class is relieved from knowledge of what state or type it is and what states or types that are available. This means that the class adheres to the open-closed design principle (OCP): the class is closed for changes in what states/types there are, but the states/types are open to extensions.
* By using the Strategy pattern the algorithm-using (context) class is relieved from knowledge of how to perform a certain task (-- the "algorithm"). This case also creates an adherence to the OCP; the class is closed for changes regarding how to perform this task, but the design is very open to additions of other algorithms for solving this task.
This likely also improves the context class' adherence to the single responsibility principle (SRP). Further the algorithm becomes easily available for reuse by other classes. | Was sind die Unterschiede zwischen dem Strategy Design Pattern und dem State Design Pattern? Bitte erklären Sie den Unterschied in einfachen Worten. | Der Unterschied liegt einfach darin, dass sie unterschiedliche Probleme lösen:
* Das State-Muster befasst sich damit, in welchem Zustand (oder Typ) sich ein Objekt befindet - es kapselt zustandsabhängiges Verhalten, während
* das Strategy-Muster sich damit beschäftigt, wie ein Objekt eine bestimmte Aufgabe ausführt - es kapselt einen Algorithmus.
Die Konstrukte zum Erreichen dieser unterschiedlichen Ziele sind jedoch sehr ähnlich; beide Muster sind Beispiele für Komposition mit Delegation.
Einige Beobachtungen zu ihren Vorteilen:
* Durch die Verwendung des Zustandsmusters wird die zustandstragende (Kontext-)Klasse von dem Wissen befreit, welcher Zustand oder Typ sie ist und welche Zustände oder Typen verfügbar sind. Das bedeutet, dass die Klasse dem Prinzip des offen-geschlossenen Entwurfs (OCP) folgt: die Klasse ist geschlossen für Änderungen der vorhandenen Zustände/Typen, aber die Zustände/Typen sind offen für Erweiterungen.
* Durch die Verwendung des Strategiemusters wird die den Algorithmus verwendende (Kontext-)Klasse von dem Wissen entlastet, wie eine bestimmte Aufgabe auszuführen ist (-- der "Algorithmus"). Auch in diesem Fall wird die OCP eingehalten; die Klasse ist für Änderungen bezüglich der Art und Weise, wie diese Aufgabe zu lösen ist, geschlossen, aber der Entwurf ist sehr offen für Erweiterungen um andere Algorithmen zur Lösung dieser Aufgabe.
Dadurch wird wahrscheinlich auch die Einhaltung des Prinzips der einzigen Verantwortung (SRP) durch die Kontextklasse verbessert. Außerdem kann der Algorithmus leicht von anderen Klassen wiederverwendet werden. | ¿Cuáles son las diferencias entre el patrón de diseño Strategy y el patrón de diseño State? Por favor, explique la diferencia en términos sencillos. | La diferencia radica simplemente en que resuelven problemas distintos:
* El patrón Estado se ocupa de en qué (estado o tipo) se encuentra un objeto (encapsula un comportamiento dependiente del estado), mientras que el patrón Estrategia se ocupa de cómo un objeto realiza una determinada tarea (encapsula un algoritmo).
* el patrón Estrategia se ocupa de cómo un objeto realiza una tarea determinada -- encapsula un algoritmo.
Sin embargo, las construcciones para lograr estos diferentes objetivos son muy similares; ambos patrones son ejemplos de composición con delegación.
Algunas observaciones sobre sus ventajas:
* Al utilizar el patrón State, la clase que mantiene el estado (contexto) se libera del conocimiento de qué estado o tipo es y qué estados o tipos están disponibles. Esto significa que la clase se adhiere al principio de diseño abierto-cerrado (OCP): la clase está cerrada a cambios en los estados/tipos que hay, pero los estados/tipos están abiertos a extensiones.
* Al utilizar el patrón Estrategia, la clase que utiliza el algoritmo (contexto) se libera del conocimiento de cómo realizar una determinada tarea (-- el "algoritmo"). Este caso también crea una adherencia a la OCP; la clase está cerrada a cambios respecto a cómo realizar esta tarea, pero el diseño está muy abierto a adiciones de otros algoritmos para resolver esta tarea.
Esto probablemente también mejora la adherencia de la clase de contexto al principio de responsabilidad única (SRP). Además, el algoritmo se vuelve fácilmente reutilizable por otras clases. | Quelles sont les différences entre le modèle de conception Stratégie et le modèle de conception État ? Veuillez expliquer la différence en termes simples. | La différence réside simplement dans le fait qu'ils résolvent des problèmes différents :
* Le modèle d'état traite de l'état ou du type d'un objet -- il encapsule un comportement dépendant de l'état, tandis que le modèle de stratégie traite de la manière dont un objet effectue une certaine tâche -- il encapsule un algorithme.
* le modèle de stratégie traite de la manière dont un objet effectue une certaine tâche - il encapsule un algorithme.
Les constructions permettant d'atteindre ces différents objectifs sont cependant très similaires ; les deux modèles sont des exemples de composition avec délégation.
Quelques observations sur leurs avantages :
* En utilisant le modèle de l'état, la classe qui détient l'état (contexte) est libérée de la connaissance de l'état ou du type qu'elle possède et des états ou types disponibles. Cela signifie que la classe adhère au principe de conception ouvert-fermé (OCP) : la classe est fermée aux modifications des états/types existants, mais les états/types sont ouverts aux extensions.
* En utilisant le modèle de stratégie, la classe utilisant l'algorithme (contexte) est libérée de la connaissance de la manière d'effectuer une certaine tâche (-- l'"algorithme"). Ce cas crée également une adhésion à l'OCP ; la classe est fermée aux changements concernant la manière d'effectuer cette tâche, mais la conception est très ouverte à l'ajout d'autres algorithmes pour résoudre cette tâche.
Cela améliore probablement aussi l'adhésion de la classe de contexte au principe de responsabilité unique (SRP). En outre, l'algorithme est facilement réutilisable par d'autres classes. | Quali sono le differenze tra il design pattern Strategy e il design pattern State? Spiegare la differenza in termini profani? | La differenza sta semplicemente nel fatto che risolvono problemi diversi:
* Il pattern State si occupa di quale sia lo stato o il tipo di un oggetto, incapsulando un comportamento dipendente dallo stato, mentre * il pattern Strategy si occupa di come un oggetto esegue un determinato compito, incapsulando un algoritmo.
* il pattern Strategy si occupa di come un oggetto esegue un determinato compito, incapsulando un algoritmo.
I costrutti per raggiungere questi diversi obiettivi sono comunque molto simili; entrambi i pattern sono esempi di composizione con delega.
Alcune osservazioni sui loro vantaggi:
* Utilizzando il pattern State, la classe che detiene lo stato (contesto) è sollevata dalla conoscenza di quale stato o tipo sia e di quali stati o tipi siano disponibili. Ciò significa che la classe aderisce al principio di progettazione aperto-chiuso (OCP): la classe è chiusa per le modifiche agli stati/tipi presenti, ma gli stati/tipi sono aperti alle estensioni.
* Usando il pattern Strategy, la classe che usa l'algoritmo (il contesto) è sollevata dalla conoscenza di come eseguire un certo compito (l'"algoritmo"). Questo caso crea anche un'aderenza all'OCP; la classe è chiusa alle modifiche su come eseguire questo compito, ma il progetto è molto aperto all'aggiunta di altri algoritmi per risolvere questo compito.
Questo probabilmente migliora anche l'aderenza della classe di contesto al principio della singola responsabilità (SRP). Inoltre, l'algoritmo diventa facilmente disponibile per il riutilizzo da parte di altre classi. |
242 | Why don't Tour de France riders always ride their TT bikes? | There are 2 good reasons for this.
First, a TT bike is the most efficient machine for flat, fast course racing, where there are a minimum of hills. It is not the most efficient machine when it comes to climbing. The body position is far too aggressive for even professional athletes to use in a non-TT style event. A bike with more a more upright body position, a more stable weight distribution, a lighter frame, and far, far lighter wheels, is a more efficient choice for that style of ride.
Secondly, a TT bike sacrifices bike handling for that extreme power and aero efficiency. The TT stages are controlled events, where there are either one rider, or one team on the course at a time, and so limitations on stability and handling are acceptable. Take the same bike in a 150 rider peloton, where riders constantly jockey for position, and where even on a stable bike losing focus for 1 second can cause a major crash, and all of a sudden, those same sacrifices in bike handling and stability are no longer a benefit for the rider or the team. They become a hazard to the team's chances of winning. And not just for the stage or the day, since a bad crash can take a rider out for the season.
Or God forbid, permanently.
For these reasons, the UCI has seen fit to ban the bikes in non-TT events, in order to ensure rider safety. And for once, their decision makes sense. | Warum fahren die Fahrer der Tour de France nicht immer auf ihren TT-Rädern? | Hierfür gibt es 2 gute Gründe.
Erstens ist ein TT-Rad die effizienteste Maschine für flache, schnelle Rennen, bei denen es ein Minimum an Hügeln gibt. Es ist nicht die effizienteste Maschine, wenn es ums Klettern geht. Die Körperhaltung ist selbst für Profisportler viel zu aggressiv, um sie bei einem Wettkampf im Nicht-TT-Stil einzusetzen. Ein Rad mit einer aufrechteren Körperhaltung, einer stabileren Gewichtsverteilung, einem leichteren Rahmen und viel, viel leichteren Laufrädern ist für diesen Fahrstil die effizientere Wahl.
Zweitens opfert ein TT-Rad das Handling des Fahrrads für die extreme Leistung und die aerodynamische Effizienz. Bei den TT-Etappen handelt es sich um kontrollierte Veranstaltungen, bei denen jeweils nur ein Fahrer oder ein Team auf der Strecke ist, so dass Einschränkungen bei der Stabilität und beim Handling akzeptabel sind. Nimmt man dasselbe Motorrad in einem Feld mit 150 Fahrern, in dem die Fahrer ständig um die Position kämpfen und in dem selbst auf einem stabilen Motorrad eine Sekunde Unkonzentriertheit zu einem schweren Sturz führen kann, dann sind die gleichen Opfer in Bezug auf Fahrverhalten und Stabilität plötzlich nicht mehr von Vorteil für den Fahrer oder das Team. Sie werden zu einer Gefahr für die Siegchancen des Teams. Und das nicht nur für die Etappe oder den Tag, denn ein schwerer Sturz kann einen Fahrer für die gesamte Saison außer Gefecht setzen.
Oder, Gott bewahre, für immer.
Aus diesen Gründen hat die UCI beschlossen, die Fahrräder bei Nicht-TT-Veranstaltungen zu verbieten, um die Sicherheit der Fahrer zu gewährleisten. Und ausnahmsweise macht diese Entscheidung Sinn. | ¿Por qué los corredores del Tour de Francia no montan siempre en sus bicicletas TT? | Hay dos buenas razones para ello.
En primer lugar, una bicicleta TT es la máquina más eficiente para carreras en llano y rápidas, donde hay un mínimo de cuestas. No es la máquina más eficiente cuando se trata de escalar. La posición del cuerpo es demasiado agresiva, incluso para los atletas profesionales, para utilizarla en un evento que no sea de estilo TT. Una bicicleta con una posición del cuerpo más erguida, una distribución del peso más estable, un cuadro más ligero y unas ruedas mucho, mucho más ligeras, es una opción más eficiente para ese estilo de conducción.
En segundo lugar, una bicicleta TT sacrifica el manejo de la bicicleta por esa potencia extrema y eficiencia aerodinámica. Las etapas TT son eventos controlados, donde hay un piloto o un equipo en el recorrido a la vez, por lo que las limitaciones en la estabilidad y el manejo son aceptables. Tome la misma bicicleta en un pelotón de 150 corredores, donde los corredores compiten constantemente por la posición, y donde incluso en una bicicleta estable perder la concentración durante 1 segundo puede causar una caída importante, y de repente, los mismos sacrificios en el manejo de la bicicleta y la estabilidad ya no son un beneficio para el piloto o el equipo. Se convierten en un peligro para las posibilidades de victoria del equipo. Y no sólo para la etapa o el día, ya que una mala caída puede dejar fuera de combate a un piloto durante toda la temporada.
O, Dios no lo quiera, para siempre.
Por estas razones, la UCI ha considerado oportuno prohibir las bicicletas en las pruebas que no son de MTB, con el fin de garantizar la seguridad de los corredores. Y por una vez, su decisión tiene sentido. | Pourquoi les coureurs du Tour de France n'utilisent-ils pas toujours leur vélo de TT ? | Il y a deux bonnes raisons à cela.
Tout d'abord, un vélo de TT est la machine la plus efficace pour les courses sur terrain plat et rapide, avec un minimum de côtes. Ce n'est pas la machine la plus efficace lorsqu'il s'agit de grimper. La position du corps est beaucoup trop agressive pour que même les athlètes professionnels puissent l'utiliser dans une épreuve qui n'est pas de type TT. Un vélo avec une position du corps plus droite, une répartition du poids plus stable, un cadre plus léger et des roues beaucoup, beaucoup plus légères, est un choix plus efficace pour ce type de course.
Deuxièmement, un vélo de TT sacrifie la maniabilité du vélo à la puissance extrême et à l'efficacité aérodynamique. Les étapes du TT sont des événements contrôlés, où il n'y a qu'un seul coureur ou qu'une seule équipe à la fois sur le parcours, et les limites de stabilité et de maniabilité sont donc acceptables. Prenez le même vélo dans un peloton de 150 coureurs, où les coureurs se battent constamment pour leur position, et où même sur un vélo stable, perdre sa concentration pendant une seconde peut provoquer une chute majeure, et tout d'un coup, ces mêmes sacrifices dans la maniabilité et la stabilité du vélo ne sont plus un avantage pour le coureur ou l'équipe. Ils deviennent un danger pour les chances de victoire de l'équipe. Et pas seulement pour l'étape ou la journée, puisqu'une mauvaise chute peut entraîner l'abandon d'un coureur pour la saison.
Ou, à Dieu ne plaise, définitivement.
Pour ces raisons, l'UCI a jugé bon d'interdire ces vélos dans les épreuves hors-TT, afin d'assurer la sécurité des coureurs. Et pour une fois, leur décision est logique. | Perché i corridori del Tour de France non vanno sempre in bici da TT? | Ci sono due buone ragioni per questo.
In primo luogo, una bicicletta TT è la macchina più efficiente per le corse piatte e veloci, dove le colline sono minime. Non è il mezzo più efficiente quando si tratta di salire. La posizione del corpo è troppo aggressiva perché anche gli atleti professionisti possano utilizzarla in un evento non in stile TT. Una bicicletta con una posizione del corpo più eretta, una distribuzione del peso più stabile, un telaio più leggero e ruote molto, molto più leggere, è una scelta più efficiente per questo stile di corsa.
In secondo luogo, una bici da TT sacrifica la maneggevolezza della bici per l'estrema potenza e l'efficienza aerodinamica. Le tappe del TT sono eventi controllati, in cui sul percorso c'è un solo corridore o una sola squadra alla volta, e quindi le limitazioni alla stabilità e alla maneggevolezza sono accettabili. Prendete la stessa moto in un gruppo di 150 corridori, dove i corridori sono costantemente in lotta per la posizione e dove anche su una moto stabile la perdita di concentrazione per un secondo può causare una grave caduta, e all'improvviso, quegli stessi sacrifici nella maneggevolezza e nella stabilità della moto non sono più un vantaggio per il corridore o la squadra. Diventano un pericolo per le possibilità di vittoria della squadra. E non solo per la tappa o la giornata, perché una brutta caduta può mettere fuori gioco un corridore per tutta la stagione.
O, Dio non voglia, per sempre.
Per questi motivi, l'UCI ha ritenuto opportuno vietare le biciclette negli eventi non-TT, al fine di garantire la sicurezza dei corridori. E per una volta, la loro decisione ha senso. |
243 | I remember when the Muslim holy book was the Koran when I was in middle school, but now it's the Quran. But it's always been Qatar and Iraq (but still Kuwait.)
Who decided that 'Q' was going to be represent that sound instead of 'K', and why? | In Arabic, in fact, they've always been separate sounds! The sound we write "K" is spelled with the letter ك in Arabic, and is pronounced a little bit further forward in the mouth; the sound we write "Q" is spelled with the letter ق and pronounced a little bit farther back. In phonetic terms, "K" is a velar sound, and "Q" is a uvular sound.
English doesn't distinguish between these two different sounds. But since we've got a spare letter lying around—the English letter "Q" is actually related to the Arabic letter ق, if you go back far enough!—it's become conventional to separate them in writing. "Kuwait" is spelled with a ك, so it gets a "K"; "Qatar" is spelled with a ق, so it gets a "Q". The "Qur'an", similarly, has a ق in it.
Nowadays, by the way, the letter "Q" has started to be associated with Arabic in particular, since it shows up significantly more there than in English. So in pop culture, you'll sometimes see names like "Hakeem" respelled to "Haqim"—even though the original Arabic has a ك in it! Linguistically, this is called hypercorrection, and it's the same reason you'll see words like "forté" with an é: English-speakers associate the acute accent with Romance loans (café, fiancé, résumé), but it has no special meaning in English, so it sometimes gets inserted where it doesn't actually belong (the original Italian word is simply forte). | Ich erinnere mich, dass das heilige Buch der Muslime der Koran war, als ich in der Mittelschule war, aber jetzt ist es der Koran. Aber es waren schon immer Katar und Irak (aber immer noch Kuwait).
Wer hat beschlossen, dass "Q" statt "K" für diesen Klang steht, und warum? | Im Arabischen waren es sogar schon immer getrennte Laute! Der Laut, den wir mit "K" schreiben, wird im Arabischen mit dem Buchstaben ك geschrieben und ein wenig weiter vorne im Mund ausgesprochen; der Laut, den wir mit "Q" schreiben, wird mit dem Buchstaben ق geschrieben und ein wenig weiter hinten ausgesprochen. Phonetisch gesehen ist "K" ein Velarlaut und "Q" ein Uvularlaut.
Im Englischen wird nicht zwischen diesen beiden Lauten unterschieden. Da wir aber einen Buchstaben übrig haben - der englische Buchstabe "Q" ist mit dem arabischen Buchstaben ق verwandt, wenn man weit genug zurückgeht -, hat es sich eingebürgert, die beiden Laute zu trennen. "Kuwait" wird mit einem ك geschrieben, also bekommt es ein "K"; "Katar" wird mit einem ق geschrieben, also bekommt es ein "Q". Der "Koran" hat ebenfalls ein ق.
Heutzutage wird der Buchstabe "Q" übrigens vor allem mit dem Arabischen in Verbindung gebracht, da er dort wesentlich häufiger vorkommt als im Englischen. So sieht man in der Popkultur manchmal Namen wie "Hakeem", die in "Haqim" umgeschrieben werden - obwohl das arabische Original ein ك enthält! Sprachwissenschaftlich nennt man dies Hyperkorrektur, und aus demselben Grund sieht man Wörter wie "forté" mit einem é: Englischsprachige assoziieren den akuten Akzent mit romanischen Entlehnungen (café, fiancé, résumé), aber er hat im Englischen keine besondere Bedeutung, so dass er manchmal dort eingefügt wird, wo er eigentlich nicht hingehört (das italienische Originalwort ist einfach forte). | Recuerdo cuando el libro sagrado musulmán era el Corán, cuando yo estaba en la escuela media, pero ahora es el Corán. Pero siempre ha sido Qatar e Irak (pero sigue siendo Kuwait).
¿Quién decidió que la 'Q' iba a representar ese sonido en lugar de la 'K', y por qué? | En árabe, de hecho, siempre han sido sonidos separados. El sonido que escribimos "K" se escribe con la letra ك en árabe, y se pronuncia un poco más adelante en la boca; el sonido que escribimos "Q" se escribe con la letra ق y se pronuncia un poco más atrás. En términos fonéticos, la "K" es un sonido velar y la "Q" es un sonido uvular.
El inglés no distingue entre estos dos sonidos diferentes. Pero como nos sobra una letra -la "Q" inglesa está emparentada con la ق árabe, si nos remontamos lo suficiente-, se ha vuelto convencional separarlas por escrito. "Kuwait" se escribe con ك, por lo que recibe una "K"; "Qatar" se escribe con ق, por lo que recibe una "Q". El "Corán", del mismo modo, lleva una ق.
Hoy en día, por cierto, la letra "Q" ha empezado a asociarse con el árabe en particular, ya que aparece mucho más allí que en inglés. En la cultura popular, nombres como "Hakeem" se repiten como "Haqim", a pesar de que el árabe original contiene una ك. Lingüísticamente, esto se llama hipercorrección, y es la misma razón por la que verás palabras como "forté" con una é: Los angloparlantes asocian el acento agudo con préstamos romances (café, fiancé, résumé), pero no tiene ningún significado especial en inglés, por lo que a veces se inserta donde no corresponde (la palabra original en italiano es simplemente forte). | Je me souviens que le livre saint des musulmans était le Coran lorsque j'étais au collège, mais aujourd'hui c'est le Coran. Mais cela a toujours été le Qatar et l'Irak (mais toujours le Koweït).
Qui a décidé que "Q" représenterait ce son au lieu de "K", et pourquoi ? | En arabe, en effet, il s'est toujours agi de sons distincts ! Le son que nous écrivons "K" s'écrit avec la lettre ك en arabe et se prononce un peu plus en avant dans la bouche ; le son que nous écrivons "Q" s'écrit avec la lettre ق et se prononce un peu plus en arrière. En termes phonétiques, le "K" est un son vélaire et le "Q" un son uvulaire.
L'anglais ne fait pas de distinction entre ces deux sons différents. Mais comme nous avons une lettre en trop - la lettre anglaise "Q" est en fait apparentée à la lettre arabe ق, si vous remontez assez loin dans le temps - il est devenu conventionnel de les séparer à l'écrit. Le "Koweït" s'écrit avec un ك, donc avec un "K" ; le "Qatar" s'écrit avec un ق, donc avec un "Q". De même, le "Coran" comporte un ق.
De nos jours, la lettre "Q" a commencé à être associée à l'arabe en particulier, car elle y apparaît beaucoup plus souvent qu'en anglais. Ainsi, dans la culture populaire, on voit parfois des noms comme "Hakeem" orthographié en "Haqim" - même si l'arabe original contient un ك ! C'est ce qu'on appelle l'hypercorrection, et c'est la même raison pour laquelle on voit des mots comme "forté" avec un é : Les anglophones associent l'accent aigu aux emprunts romans (café, fiancé, résumé), mais il n'a pas de signification particulière en anglais, si bien qu'il s'insère parfois là où il n'a pas sa place (le mot italien original est simplement forte). | Ricordo che quando andavo alle scuole medie il libro sacro dei musulmani era il Corano, mentre ora è il Corano. Ma è sempre stato il Qatar e l'Iraq (ma ancora il Kuwait).
Chi ha deciso che la 'Q' avrebbe rappresentato quel suono invece della 'K', e perché? | In arabo, infatti, sono sempre stati suoni separati! Il suono che scriviamo "K" in arabo si scrive con la lettera ك e si pronuncia un po' più avanti nella bocca; il suono che scriviamo "Q" si scrive con la lettera ق e si pronuncia un po' più indietro. In termini fonetici, la "K" è un suono velare e la "Q" è un suono uvulare.
L'inglese non distingue tra questi due suoni diversi. Ma poiché abbiamo una lettera di riserva in giro - la lettera inglese "Q" è in realtà imparentata con la lettera araba ق, se si va abbastanza indietro nel tempo - è diventato convenzionale separarle nella scrittura. "Kuwait" si scrive con una ك, quindi con una "K"; "Qatar" si scrive con una ق, quindi con una "Q". Il "Corano", allo stesso modo, ha una ق.
Al giorno d'oggi, tra l'altro, la lettera "Q" ha iniziato a essere associata in particolare all'arabo, poiché vi compare molto più spesso che in inglese. Così, nella cultura pop, a volte si vedono nomi come "Hakeem" ribattezzato in "Haqim", anche se nell'originale arabo c'è una ك! Dal punto di vista linguistico, questa operazione si chiama ipercorrezione ed è lo stesso motivo per cui si vedono parole come "forté" con una é: Gli anglofoni associano l'accento acuto ai prestiti romanzi (café, fiancé, résumé), ma in inglese non ha un significato particolare, quindi a volte viene inserito dove in realtà non c'è (la parola originale italiana è semplicemente forte). |
244 | How do you add Boost libraries in CMakeLists.txt? | Put this in your `CMakeLists.txt` file (change any options from OFF to ON if you want):
```
set(Boost_USE_STATIC_LIBS OFF)
set(Boost_USE_MULTITHREADED ON)
set(Boost_USE_STATIC_RUNTIME OFF)
find_package(Boost VERSION COMPONENTS *boost libraries here*)
if(Boost_FOUND)
include_directories(${Boost_INCLUDE_DIRS})
add_executable(progname file1.cxx file2.cxx)
target_link_libraries(progname ${Boost_LIBRARIES})
endif()
```
Obviously you need to put the libraries you want where I put `*boost libraries here*`. For example, if you're using the `filesystem` and `regex` library you'd write:
```
find_package(Boost VERSION COMPONENTS filesystem regex)
``` | Wie fügt man Boost-Bibliotheken in CMakeLists.txt hinzu? | Fügen Sie dies in Ihre Datei `CMakeLists.txt` ein (ändern Sie alle Optionen von OFF auf ON, wenn Sie wollen):
```
set(Boost_USE_STATIC_LIBS OFF)
set(Boost_USE_MULTITHREADED ON)
set(Boost_USE_STATIC_RUNTIME AUS)
find_package(Boost VERSION COMPONENTS *Boost-Bibliotheken hier*)
if(Boost_FOUND)
include_directories(${Boost_INCLUDE_DIRS})
add_executable(Prognosename file1.cxx file2.cxx)
target_link_libraries(Prognosename ${Boost_LIBRARIES})
endif()
```
Natürlich müssen Sie die gewünschten Bibliotheken an der Stelle einfügen, an der ich `*Boost-Bibliotheken hier*` eingefügt habe. Wenn Sie zum Beispiel die Bibliotheken `Dateisystem` und `Regex` benutzen, würden Sie schreiben:
```
find_package(Boost VERSION COMPONENTS dateisystem regex)
``` | ¿Cómo se añaden las bibliotecas Boost en CMakeLists.txt? | Ponga esto en su archivo `CMakeLists.txt` (cambie las opciones de OFF a ON si lo desea):
```
set(Boost_USE_STATIC_LIBS OFF)
set(Boost_USE_MULTITHREADED ON)
set(Boost_USE_STATIC_RUNTIME OFF)
find_package(Boost VERSION COMPONENTS *boost libraries here*)
if(Boost_FOUND)
include_directories(${Boost_INCLUDE_DIRS})
add_executable(nombre_proceso archivo1.cxx archivo2.cxx)
target_link_libraries(progname ${Boost_LIBRARIES})
endif()
```
Obviamente necesitas poner las librerías que quieras donde puse `*boost libraries here*`. Por ejemplo, si estás usando la librería `filesystem` y `regex` escribirías:
```
find_package(Boost VERSION COMPONENTES filesystem regex)
``` | Comment ajouter des bibliothèques Boost dans le fichier CMakeLists.txt ? | Mettez ceci dans votre fichier `CMakeLists.txt` (changez toutes les options de OFF à ON si vous le souhaitez) :
```
set(Boost_USE_STATIC_LIBS OFF)
set(Boost_USE_MULTITHREADED ON)
set(Boost_USE_STATIC_RUNTIME OFF)
find_package(Boost VERSION COMPONENTS *bibliothèques Boost ici*)
if(Boost_FOUND)
include_directories(${Boost_INCLUDE_DIRS})
add_executable(progname file1.cxx file2.cxx)
target_link_libraries(progname ${Boost_LIBRARIES})
endif()
```
Évidemment, vous devez mettre les bibliothèques que vous voulez là où j'ai mis `*boost libraries here*`. Par exemple, si vous utilisez les bibliothèques `filesystem` et `regex`, vous devez écrire :
```
find_package(Boost VERSION COMPONENTS filesystem regex)
``` | Come si aggiungono le librerie Boost in CMakeLists.txt? | Inserirlo nel file `CMakeLists.txt` (cambiare le opzioni da OFF a ON, se si vuole):
```
set(Boost_USE_STATIC_LIBS OFF)
set(Boost_USE_MULTITHREADED ON)
set(Boost_USE_STATIC_RUNTIME OFF)
find_package(Boost VERSION COMPONENTS *librerie Boost qui*)
se(Boost_FOUND)
include_directory(${Boost_INCLUDE_DIRS})
add_executable(progname file1.cxx file2.cxx)
target_link_libraries(progname ${Boost_LIBRARIES})
endif()
```
Ovviamente è necessario inserire le librerie desiderate nel punto in cui ho messo `*boost libraries here*`. Per esempio, se si usano le librerie `filesystem' e `regex', si scriverà:
```
find_package(Boost VERSION COMPONENTS filesystem regex)
``` |
245 | Quando devo fazer essa gravação direto no banco?
Quais as situações?
Eu sei que posso gravar no banco o caminho da imagem. | Além do custo ser mais alto como mencionado, deve-se levar em conta vários fatores:
* Volume de dados: para um baixo volume de dados pode não haver problema. Por outro lado, para armazenamento de grande massa de dados o banco de dados é praticamente inviável. Pergunte ao Facebook ou ao Google se eles usariam banco. O Facebook, por exemplo, usa um sistema de arquivos personalizado para tornar o acesso mais rápido ainda e diminuir a o overhead por arquivo exigido pelos sistemas de arquivos tradicionais.
* Clusterização: uma vantagem do banco de dados é no caso do seu sistema rodar em vários servidores, todos terão acesso uniforme aos arquivos. Porém, usar uma unidade na rede para armazenar os arquivos.
* Disponibilidade: seu sistema vai ter muitos acessos? Isso pode sobrecarregar um banco de dados tradicional. Por outro lado, seu servidor HTTP pode usar as rotinas de acesso de baixo nível ao sistema de arquivos para enviar o stream de dados ao cliente.
* Escalabilidade: se a demanda de volume ou disponibilidade aumentarem, será possível adicionar mais capacidade ao sistema? É muito mais fácil dividir arquivos entre servidores diferentes do que distribuir registros de uma tabela em mais servidores.
* Flexibilidade: fazer cópias de segurança, mover arquivos de um servidor para outro, fazer algum processamento nos arquivos armazenados, tudo isso fica mais fácil se os arquivos estiverem num diretório. Se você faz o deploy em ambiente de cliente, os arquivos no disco não inviabilizam você de receber cópias do banco de dados para testes. Tente pedir para o seu cliente enviar terabytes de dados para você analisar se der algum problema no banco.
* Overhead de leitura e gravação: o custo computacional para gravar e ler dados do banco de dados é maior do que para ler e gravar diretamente em um arquivo.
Existem várias estratégias para escalar um sistema tanto em termos de disponibilidade quanto em volume. Basicamente essas estratégias consistem em distribui-los em vários vários servidores e redirecionar o usuário para cada um deles conforme algum critério. Os detalhes variam de implementação, tais como: estratégia de atualização dos dados, redundância, critérios de distribuição, etc.
Uma das grandes dificuldades em gerenciar arquivos fora do BD é que temos agora duas fontes de dados distintas e que precisam estar sempre em sincronia.
Do ponto de vista de segurança, efetivamente há pouca diferença. Se um hacker pode comprometer um servidor, ele poderá ler tanto os arquivos gravados em disco do seu sistema quanto os arquivos do sistema de banco de dados. Se essa questão for crítica, uma alternativa é armazenar os dados criptografados.
Porém, sempre que fiz a análise do melhor tipo de solução, o uso do sistema de arquivos sempre esteve em grande vantagem. | Wann sollte ich diese Aufnahme direkt bei der Bank machen?
Was sind die Situationen?
Ich weiß, dass ich den Bildpfad in der Bank speichern kann. | Wie bereits erwähnt, sind nicht nur die Kosten höher, sondern es müssen auch mehrere Faktoren berücksichtigt werden:
* Datenvolumen: Bei einem geringen Datenvolumen mag es keine Probleme geben. Andererseits sind Datenbanken für die Speicherung großer Datenmengen praktisch nicht praktikabel. Fragen Sie Facebook oder Google, ob sie eine Datenbank verwenden würden. Facebook beispielsweise verwendet ein angepasstes Dateisystem, um den Zugriff noch schneller zu machen und den Overhead pro Datei zu reduzieren, der bei herkömmlichen Dateisystemen erforderlich ist.
* Clustering: Ein Vorteil einer Datenbank ist, dass, wenn Ihr System auf mehreren Servern läuft, diese alle einen einheitlichen Zugriff auf die Dateien haben. Die Verwendung eines Netzlaufwerks zur Speicherung der Dateien hat jedoch einen anderen Vorteil.
* Verfügbarkeit: Wird Ihr System viele Zugriffe haben? Dies kann eine herkömmliche Datenbank überlasten. Andererseits kann Ihr HTTP-Server Low-Level-Dateisystem-Zugriffsroutinen verwenden, um den Datenstrom an den Client zu senden.
* Skalierbarkeit: Ist es möglich, dem System mehr Kapazität hinzuzufügen, wenn der Bedarf oder die Verfügbarkeit steigt? Es ist viel einfacher, Dateien auf verschiedene Server aufzuteilen, als die Datensätze einer Tabelle auf mehrere Server zu verteilen.
* Flexibilität: Die Erstellung von Sicherungskopien, das Verschieben von Dateien von einem Server auf einen anderen, die Verarbeitung der gespeicherten Dateien - all dies ist einfacher, wenn sich die Dateien in einem Verzeichnis befinden. Wenn Sie die Software in einer Client-Umgebung einsetzen, hindern die Dateien auf dem Datenträger Sie nicht daran, Kopien der Datenbank zu Testzwecken zu erhalten. Bitten Sie Ihren Kunden, Ihnen Terabytes an Daten zu schicken, um zu analysieren, ob es Probleme mit der Datenbank gibt.
* Lese- und Schreibaufwand: Die Rechenkosten für das Schreiben und Lesen von Daten aus der Datenbank sind höher als das direkte Lesen und Schreiben in eine Datei.
Es gibt verschiedene Strategien zur Skalierung eines Systems in Bezug auf Verfügbarkeit und Volumen. Diese Strategien bestehen im Wesentlichen darin, die Daten auf mehrere Server zu verteilen und den Benutzer nach bestimmten Kriterien auf jeden dieser Server umzuleiten. Die Details variieren von Implementierung zu Implementierung, wie z.B.: Datenaktualisierungsstrategie, Redundanz, Verteilungskriterien, etc.
Eine der großen Schwierigkeiten bei der Verwaltung von Dateien außerhalb der DB besteht darin, dass wir nun zwei verschiedene Datenquellen haben, die immer synchronisiert sein müssen.
Vom Standpunkt der Sicherheit aus betrachtet, gibt es kaum einen Unterschied. Wenn es einem Hacker gelingt, einen Server zu kompromittieren, kann er sowohl die Dateien auf der Festplatte Ihres Systems als auch die Dateien im Datenbanksystem lesen. Wenn dies kritisch ist, besteht eine Alternative darin, die Daten verschlüsselt zu speichern.
Wann immer ich jedoch die beste Lösung analysiert habe, stand die Verwendung des Dateisystems an der Spitze. | ¿Cuándo debo hacer esta grabación directamente en el banco?
¿En qué situaciones?
Sé que puedo grabar la ruta de la imagen en el banco. | Además de que el coste es mayor, como ya se ha dicho, hay que tener en cuenta varios factores:
* Volumen de datos: para un volumen bajo de datos puede no haber problema. En cambio, las bases de datos son prácticamente inviables para almacenar grandes cantidades de datos. Pregunte a Facebook o Google si utilizarían una base de datos. Facebook, por ejemplo, utiliza un sistema de archivos personalizado para que el acceso sea aún más rápido y reducir la sobrecarga por archivo que requieren los sistemas de archivos tradicionales.
* Clustering: una de las ventajas de una base de datos es que si tu sistema funciona en varios servidores, todos ellos tendrán acceso uniforme a los archivos. Sin embargo, el uso de una unidad de red para almacenar los archivos.
* Disponibilidad: ¿su sistema va a tener muchos accesos? Esto puede sobrecargar una base de datos tradicional. Por otro lado, su servidor HTTP puede utilizar rutinas de acceso de bajo nivel al sistema de ficheros para enviar el flujo de datos al cliente.
* Escalabilidad: si aumenta la demanda de volumen o la disponibilidad, ¿será posible añadir más capacidad al sistema? Es mucho más fácil dividir archivos entre diferentes servidores que distribuir los registros de una tabla entre más servidores.
* Flexibilidad: hacer copias de seguridad, mover archivos de un servidor a otro, hacer algún procesamiento en los archivos almacenados, todo esto es más fácil si los archivos están en un directorio. Si realiza el despliegue en un entorno de cliente, los archivos en el disco no le impiden recibir copias de la base de datos para realizar pruebas. Prueba a pedir a tu cliente que te envíe terabytes de datos para analizar si hay algún problema con la base de datos.
* Sobrecarga de lectura y escritura: el coste computacional de escribir y leer datos de la base de datos es mayor que el de leer y escribir directamente en un archivo.
Existen varias estrategias para escalar un sistema tanto en términos de disponibilidad como de volumen. Básicamente, estas estrategias consisten en distribuirlos entre varios servidores y redirigir al usuario a cada uno de ellos en función de algún criterio. Los detalles varían de una implementación a otra, como por ejemplo: estrategia de actualización de datos, redundancia, criterios de distribución, etc.
Una de las grandes dificultades de la gestión de ficheros fuera de la BD es que ahora tenemos dos fuentes de datos diferentes que deben estar siempre sincronizadas.
Desde el punto de vista de la seguridad, la diferencia es efectivamente escasa. Si un hacker puede comprometer un servidor, podrá leer tanto los archivos escritos en el disco de su sistema como los archivos del sistema de base de datos. Si esto es crítico, una alternativa es almacenar los datos encriptados.
Sin embargo, siempre que he analizado el mejor tipo de solución, el uso del sistema de archivos ha estado a la cabeza. | Quand dois-je effectuer cet enregistrement directement auprès de la banque ?
Quelles sont les situations ?
Je sais que je peux enregistrer le chemin d'accès à l'image dans la banque. | Outre le coût plus élevé, comme indiqué ci-dessus, plusieurs facteurs doivent être pris en compte :
* Volume de données : pour un faible volume de données, il peut n'y avoir aucun problème. En revanche, les bases de données sont pratiquement irréalisables pour le stockage de grandes quantités de données. Demandez à Facebook ou à Google s'ils utiliseraient une base de données. Facebook, par exemple, utilise un système de fichiers personnalisé pour rendre l'accès encore plus rapide et réduire les frais généraux par fichier requis par les systèmes de fichiers traditionnels.
* Clustering : l'un des avantages d'une base de données est que si votre système fonctionne sur plusieurs serveurs, ceux-ci auront tous un accès uniforme aux fichiers. Cependant, l'utilisation d'un lecteur réseau pour stocker les fichiers.
* Disponibilité : votre système va-t-il faire l'objet d'un grand nombre d'accès ? Cela peut surcharger une base de données traditionnelle. D'autre part, votre serveur HTTP peut utiliser des routines d'accès au système de fichiers de bas niveau pour envoyer le flux de données au client.
* Évolutivité : si la demande de volume ou la disponibilité augmente, sera-t-il possible d'accroître la capacité du système ? Il est beaucoup plus facile de répartir des fichiers entre différents serveurs que de distribuer les enregistrements d'une table sur plusieurs serveurs.
* Flexibilité : faire des copies de sauvegarde, déplacer des fichiers d'un serveur à l'autre, effectuer des traitements sur les fichiers stockés, tout cela est plus facile si les fichiers sont dans un répertoire. Si vous déployez dans un environnement client, les fichiers sur le disque ne vous empêchent pas de recevoir des copies de la base de données à des fins de test. Demandez à votre client de vous envoyer des téraoctets de données pour analyser les problèmes éventuels de la base de données.
* Frais généraux de lecture et d'écriture : le coût de calcul de l'écriture et de la lecture des données de la base de données est plus élevé que celui de la lecture et de l'écriture directes dans un fichier.
Il existe plusieurs stratégies pour faire évoluer un système en termes de disponibilité et de volume. Fondamentalement, ces stratégies consistent à répartir les données sur plusieurs serveurs et à rediriger l'utilisateur vers chacun d'entre eux en fonction de certains critères. Les détails varient d'une implémentation à l'autre, tels que : la stratégie de mise à jour des données, la redondance, les critères de distribution, etc.
L'une des grandes difficultés de la gestion des fichiers en dehors de la base de données est que nous avons maintenant deux sources de données différentes qui doivent toujours être synchronisées.
Du point de vue de la sécurité, il y a en fait peu de différence. Si un pirate informatique parvient à compromettre un serveur, il sera en mesure de lire à la fois les fichiers écrits sur le disque de votre système et les fichiers du système de base de données. Si cet aspect est critique, une alternative consiste à stocker les données de manière cryptée.
Cependant, chaque fois que j'ai analysé le meilleur type de solution, l'utilisation du système de fichiers a toujours été en tête. | Quando è opportuno effettuare questa registrazione direttamente in banca?
Quali sono le situazioni?
So che posso salvare il percorso dell'immagine nel banco. | Oltre al costo più elevato, come già detto, bisogna tenere conto di diversi fattori:
* Volume dei dati: per un basso volume di dati il problema potrebbe non sussistere. D'altra parte, i database sono praticamente impraticabili per archiviare grandi quantità di dati. Chiedete a Facebook o a Google se utilizzerebbero un database. Facebook, ad esempio, utilizza un file system personalizzato per rendere l'accesso ancora più veloce e ridurre l'overhead per file richiesto dai file system tradizionali.
* Clustering: un vantaggio di un database è che se il sistema viene eseguito su più server, tutti avranno un accesso uniforme ai file. Tuttavia, l'utilizzo di un'unità di rete per memorizzare i file.
* Disponibilità: il sistema avrà molti accessi? Questo può sovraccaricare un database tradizionale. D'altra parte, il server HTTP può utilizzare routine di accesso al file system di basso livello per inviare il flusso di dati al client.
* Scalabilità: se la domanda di volume o la disponibilità aumentano, sarà possibile aggiungere altra capacità al sistema? È molto più facile dividere i file tra diversi server che distribuire i record di una tabella su più server.
* Flessibilità: fare copie di backup, spostare i file da un server all'altro, eseguire elaborazioni sui file archiviati, tutto questo è più facile se i file sono in una directory. Se si distribuisce in un ambiente client, i file sul disco non impediscono di ricevere copie del database per i test. Provate a chiedere al vostro cliente di inviarvi terabyte di dati per analizzare se ci sono problemi con il database.
* Overhead di lettura e scrittura: il costo computazionale della scrittura e della lettura dei dati dal database è superiore alla lettura e alla scrittura diretta su un file.
Esistono varie strategie per scalare un sistema in termini di disponibilità e volume. Fondamentalmente, queste strategie consistono nel distribuire i dati su più server e nel reindirizzare l'utente a ciascuno di essi in base ad alcuni criteri. I dettagli variano da implementazione a implementazione, come ad esempio: strategia di aggiornamento dei dati, ridondanza, criteri di distribuzione, ecc.
Una delle grandi difficoltà nella gestione dei file al di fuori del DB è che ora abbiamo due diverse fonti di dati che devono essere sempre sincronizzate.
Dal punto di vista della sicurezza, la differenza è effettivamente minima. Se un hacker riesce a compromettere un server, sarà in grado di leggere sia i file scritti sul disco del sistema sia i file del database. Se questo aspetto è critico, un'alternativa è quella di memorizzare i dati in modo criptato.
Tuttavia, ogni volta che ho analizzato il tipo di soluzione migliore, l'uso del file system è sempre stato in testa. |
246 | I need a regular expression that validates a number, but doesn't require a digit after the decimal. ie. ```123 123. 123.4 ``` would all be valid ```123.. ``` would be invalid | Here is the regular expression you can use:
```
/^\d*\.?\d*$/
```
* `^` - Beginning of the line;
* `\d*` - 0 or more digits;
* `\.?` - An optional dot (escaped, because in regex, . is a special character);
* `\d*` - 0 or more digits (the decimal part);
* `$` - End of the line.
This allows for .5 decimal rather than requiring the leading zero, such as 0.5 | Ich brauche einen regulären Ausdruck, der eine Zahl validiert, aber keine Ziffer nach dem Komma benötigt. z.B. ```123 123. 123.4 ``` wären alle gültig ```123. `` wäre ungültig | Hier ist der reguläre Ausdruck, den Sie verwenden können:
```
/^\d*\.?\d*$/
```
* `^` - Anfang der Zeile;
* `\d*` - 0 oder mehr Ziffern;
* `\d*` - 0 oder mehr Ziffern (der dezimale Teil);
* `$` - Ende der Zeile.
Dies ermöglicht .5 Dezimalstellen anstatt der führenden Null, wie z.B. 0.5 | Necesito una expresión regular que valida un número, pero no requiere un dígito después del decimal. es decir. ```123 123. 123.4 ``` sería todo válido ```123.. `` sería inválido | Esta es la expresión regular que puede utilizar:
```
/^\d*.?\d*$/
```
* `^` - Comienzo de la línea;
* `\d*` - 0 o más dígitos;
* Un punto opcional (escapado, porque en regex, . es un carácter especial);
* `\d*` - 0 o más dígitos (la parte decimal);
* `$` - Fin de línea.
Esto permite 0.5 decimal en lugar de requerir el cero inicial, como 0.5 | J'ai besoin d'une expression régulière qui valide un nombre, mais qui ne nécessite pas de chiffre après la décimale. ```123 123. 123.4 `` seraient tous valides ``123.. `` serait invalide | Voici l'expression régulière que vous pouvez utiliser :
```
/^\d*\.?\d*$/
```
* `^` - Début de la ligne ;
* `\d*` - 0 ou plusieurs chiffres ;
* ``.?` - Un point facultatif (échappé, car dans les expressions rationnelles, . est un caractère spécial) ;
* `\d*` - 0 ou plusieurs chiffres (la partie décimale) ;
* `$` - Fin de ligne.
Cela permet d'obtenir une décimale de 0,5 au lieu d'exiger le zéro initial, comme 0,5. | Ho bisogno di un'espressione regolare che convalidi un numero, ma che non richieda una cifra dopo il decimale. ad esempio ```123 123. 123.4 ``` sarebbero tutti validi ```123.. `` sarebbero non validi | Ecco l'espressione regolare che si può utilizzare:
```
/^\d*\.?\d*$/
```
* `^` - Inizio della riga;
* ``d*` - 0 o più cifre;
* `\.?` - Un punto opzionale (con escape, perché nelle regex, . è un carattere speciale);
* `\d*` - 0 o più cifre (la parte decimale);
* `$` - Fine della riga.
Questo consente di utilizzare .5 decimali invece di richiedere lo zero iniziale, come 0,5. |
247 | The year is 2109 C.E my friends and I were caught in a space disaster when the spacecraft we're in broke apart during a daring escape from a patrolling spacecraft. We stole an antique cellphone (from 1999, in good working condition) from a space museum but our escape was interrupted and fortunately we managed to get into the escape pod and didn't get caught up in the explosion. The only emergency transponder in the escape pod isn't working probably due to the destruction of the spacecraft. Given the technology of 1999, is it possible for us to sent out a distress signal to alert the leaving patrol spacecraft?
Note: the cellphone was the most innovative product of 1999 money can buy.
The escape pod is not a Faraday cage we're talking about the future and the patrol spacecraft don't necessary be on a lookout for distress signal; please use these clues to your advantage.
If there is absolutely no way to transmit any man-made signal out, please state a valid reason why it can't be done. | Assets
* 1 obsolete piece of short range comms kit requiring a battery you probably can't charge
* 1 slightly malfunctioning escape pod with up to date comms that isn't working but you're still alive
Current standards say the Mayday should be broadcast on VHF channel 16 (156.8 MHz). A 1999 phone, probably on 2g would likely use 900MHz (UHF). The slightly broken comms unit in the pod is probably using channel 16 or equivalent*. This is your first problem. The patrol ship will be listening in for signals broadcast on the mayday frequency. That's the frequency you need to hit, so first up is rebuilding your phone to that frequency.
Or you could look at the pod comms system and see what's wrong.
Your next problem is that your mobile phone's range is laughable in interstellar space. What's going to be even more laughable is when you try to use it in the radiation shielded environment of your escape pod. The signal, which is line of sight at the best of times, most likely won't even penetrate the hull. So now you need to hook it up to the external antenna used by the pod's own comms system.
Or you could look at the pod comms system and see what's wrong.
Now you need to make sure you're using the right broadcast method: are you on AM or FM? (There's no reason to think that 100 years from now they'd be able to pick up an analog signal)
I'm sure you can see where I'm going with this. Fix the pod.
Ultimately all you're going to do is rebuild a copy of the pod's own comms system with a batch of obsolete components. If you're good enough to do that you're good enough to fix the pod's own system which will be much easier.
*I mention channel 16 as an example to show that there are standards for distress signals and they're very different from the standards for mobiles, if you want someone to pick it up then you need to be broadcasting on a frequency they're listening on.
## Distress frequencies
2182 kHz forms an essential part of the Global Maritime Distress Safety System (GMDSS). It has an associated DSC frequency at 2187.5 kHz. Other international distress frequencies, in use as of 2008, include:
```121.5 MHz - civil aircraft emergency frequency
243 MHz - military aircraft emergency frequency
156.8 MHz - Marine VHF radio channel 16, short range maritime use
406 MHz / 406.1 MHz - Cospas-Sarsat international satellite-based search and rescue (SAR) distress alert detection and information distribution system
```
Discontinued frequencies
```500 kHz Morse code is no longer monitored.
121.5 or 243 MHz locators. (No longer automatically monitored by satellite, though still used for aircraft communication and short-range direction finding.)
Effective 1 August 2013, the U. S. Coast Guard terminated its radio guard of the international voice distress, safety and calling frequency 2182 kHz and the international digital selective calling (DSC) distress and safety frequency 2187.5 kHz. Additionally, marine information and weather broadcasts transmitted on 2670 kHz terminated concurrently.
``` | Wir schreiben das Jahr 2109 n. Chr. Meine Freunde und ich gerieten in eine Weltraumkatastrophe, als das Raumschiff, in dem wir uns befanden, während einer waghalsigen Flucht vor einem patrouillierenden Raumschiff auseinanderbrach. Wir haben ein antikes Handy (aus dem Jahr 1999, in gutem Zustand) aus einem Raumfahrtmuseum gestohlen, aber unsere Flucht wurde unterbrochen, und glücklicherweise haben wir es geschafft, in die Rettungskapsel zu gelangen und nicht von der Explosion erfasst zu werden. Der einzige Nottransponder in der Rettungskapsel funktioniert nicht, wahrscheinlich wegen der Zerstörung des Raumschiffs. Ist es mit der Technologie von 1999 möglich, ein Notsignal auszusenden, um das abfliegende Patrouillenschiff zu alarmieren?
Anmerkung: Das Mobiltelefon war 1999 das innovativste Produkt, das man für Geld kaufen konnte.
Die Rettungskapsel ist kein Faradayscher Käfig, wir sprechen über die Zukunft, und die Patrouillenraumschiffe müssen nicht unbedingt nach Notsignalen Ausschau halten; bitte nutzen Sie diese Hinweise zu Ihrem Vorteil.
Wenn es absolut keine Möglichkeit gibt, ein von Menschenhand erzeugtes Signal auszusenden, nennen Sie bitte einen triftigen Grund, warum dies nicht möglich ist. | Vermögenswerte
* 1 veraltetes Stück Kurzstreckenkommunikationsausrüstung mit einer Batterie, die Sie wahrscheinlich nicht aufladen können
* 1 leicht defekte Rettungskapsel mit aktueller Kommunikation, die nicht funktioniert, aber Sie sind noch am Leben
Die aktuellen Standards besagen, dass der Mayday-Ruf auf UKW-Kanal 16 (156,8 MHz) gesendet werden sollte. Ein Telefon von 1999, wahrscheinlich mit 2g, würde wahrscheinlich 900MHz (UHF) verwenden. Die leicht defekte Kommunikationseinheit in der Kapsel verwendet wahrscheinlich Kanal 16 oder einen ähnlichen Kanal*. Dies ist Ihr erstes Problem. Das Patrouillenschiff wird auf Signale hören, die auf der Mayday-Frequenz gesendet werden. Das ist die Frequenz, auf die Sie zugreifen müssen, also müssen Sie als Erstes Ihr Telefon auf diese Frequenz umstellen.
Oder du könntest dir das Kommunikationssystem der Kapsel ansehen und herausfinden, was falsch läuft.
Dein nächstes Problem ist, dass die Reichweite deines Handys im interstellaren Raum lächerlich ist. Noch lächerlicher wird es, wenn Sie versuchen, es in der strahlungsgeschützten Umgebung Ihrer Rettungskapsel zu benutzen. Das Signal, das im besten Fall auf Sichtweite ist, wird höchstwahrscheinlich nicht einmal die Hülle durchdringen. Sie müssen es also an die externe Antenne anschließen, die vom Kommunikationssystem der Kapsel verwendet wird.
Oder du könntest dir das Kommunikationssystem der Kapsel ansehen und herausfinden, was falsch läuft.
Jetzt musst du sicherstellen, dass du die richtige Übertragungsmethode verwendest: bist du auf AM oder FM? (Es gibt keinen Grund anzunehmen, dass sie in 100 Jahren noch in der Lage sein werden, ein analoges Signal zu empfangen)
Ich bin mir sicher, Sie sehen, worauf ich hinaus will. Reparieren Sie die Kapsel.
Letztendlich werden Sie nur eine Kopie des Kommunikationssystems der Raumkapsel mit einem Haufen veralteter Komponenten nachbauen. Wenn Sie dazu in der Lage sind, sind Sie auch in der Lage, das System des Pods zu reparieren, was viel einfacher sein wird.
*Ich erwähne Kanal 16 als Beispiel, um zu zeigen, dass es Standards für Notsignale gibt, die sich stark von den Standards für Mobiltelefone unterscheiden: Wenn man will, dass jemand den Funkspruch aufnimmt, muss man auf einer Frequenz senden, auf der er gehört wird.
## Notruf-Frequenzen
2182 kHz ist ein wesentlicher Bestandteil des weltweiten Seenotrettungssystems (GMDSS). Sie hat eine zugehörige DSC-Frequenz auf 2187,5 kHz. Andere internationale Notruffrequenzen, die seit 2008 in Betrieb sind, sind
121,5 MHz - Notfrequenz für Zivilflugzeuge
243 MHz - Notfrequenz für militärische Luftfahrzeuge
156,8 MHz - UKW-Seefunkkanal 16 für den maritimen Kurzstreckeneinsatz
406 MHz / 406,1 MHz - internationales satellitengestütztes Such- und Rettungsdienstsystem (SAR) Cospas-Sarsat zur Erkennung von Notfällen und zur Verbreitung von Informationen
```
Nicht mehr genutzte Frequenzen
500 kHz Morsecode wird nicht mehr überwacht.
121,5 oder 243 MHz Ortungsgeräte. (Werden nicht mehr automatisch per Satellit überwacht, werden aber weiterhin für die Flugzeugkommunikation und die Kurzstreckenpeilung verwendet).
Mit Wirkung vom 1. August 2013 hat die US-Küstenwache ihre Funküberwachung der internationalen Sprach-Notruf-, Sicherheits- und Ruffrequenz 2182 kHz und der internationalen digitalen Selektivruf- (DSC) Notruf- und Sicherheitsfrequenz 2187,5 kHz eingestellt. Gleichzeitig wurden auch die auf 2670 kHz ausgestrahlten Seeinformationen und Wettersendungen eingestellt.
``` | Corre el año 2109 E.C. Mis amigos y yo nos vimos atrapados en un desastre espacial cuando la nave en la que viajábamos se partió en pedazos durante una arriesgada huida de una nave espacial que patrullaba el espacio. Robamos un teléfono móvil antiguo (de 1999, en buen estado de funcionamiento) de un museo espacial, pero nuestra huida se vio interrumpida y, afortunadamente, conseguimos entrar en la cápsula de escape y no quedamos atrapados en la explosión. El único transpondedor de emergencia de la cápsula de escape no funciona, probablemente debido a la destrucción de la nave. Dada la tecnología de 1999, ¿es posible que enviemos una señal de socorro para alertar a la patrulla espacial que se marcha?
Nota: el teléfono móvil fue el producto más innovador de 1999 que el dinero puede comprar.
La cápsula de escape no es una jaula de Faraday, estamos hablando del futuro y las naves espaciales de patrulla no tienen por qué estar atentas a las señales de socorro.
Si no hay absolutamente ninguna manera de transmitir cualquier señal hecha por el hombre hacia fuera, por favor, indique una razón válida por la que no se puede hacer. | Activos
* 1 pieza obsoleta de equipo de comunicación de corto alcance que requiere una batería que probablemente no puedas cargar.
* 1 cápsula de escape ligeramente defectuosa con comunicaciones actualizadas que no funciona, pero sigues vivo.
Los estándares actuales dicen que el Mayday debe emitirse en el canal 16 de VHF (156,8 MHz). Un teléfono de 1999, probablemente en 2g, utilizaría 900MHz (UHF). La unidad de comunicaciones ligeramente rota en la cápsula probablemente esté utilizando el canal 16 o equivalente*. Este es el primer problema. La patrullera estará a la escucha de las señales emitidas en la frecuencia de mayday. Esa es la frecuencia a la que tienes que llegar, así que lo primero es reconstruir tu teléfono a esa frecuencia.
O podrías mirar en el sistema de comunicaciones de la cápsula y ver qué está mal.
Tu siguiente problema es que el alcance de tu teléfono móvil es irrisorio en el espacio interestelar. Lo que va a ser aún más ridículo es cuando intentes usarlo en el entorno blindado contra la radiación de tu cápsula de escape. Lo más probable es que la señal, que en el mejor de los casos es lineal, ni siquiera penetre en el casco. Así que ahora tienes que conectarlo a la antena externa utilizada por el propio sistema de comunicaciones de la cápsula.
O podrías mirar el sistema de comunicaciones de la cápsula y ver qué falla.
Ahora tienes que asegurarte de que estás utilizando el método de transmisión correcto: ¿estás en AM o FM? (No hay razón para pensar que dentro de 100 años puedan captar una señal analógica).
Estoy seguro de que puedes ver a dónde quiero llegar con esto. Arregla la cápsula.
En última instancia, todo lo que vas a hacer es reconstruir una copia del propio sistema de comunicaciones de la cápsula con un lote de componentes obsoletos. Si eres lo suficientemente bueno para hacer eso, serás lo suficientemente bueno para arreglar el propio sistema de la cápsula, lo que será mucho más fácil.
*Menciono el canal 16 como un ejemplo para mostrar que hay normas para las señales de socorro y que son muy diferentes de las normas para los móviles, si quieres que alguien lo recoja entonces tienes que estar transmitiendo en una frecuencia en la que están escuchando.
## Frecuencias de socorro
2182 kHz forma una parte esencial del Sistema Mundial de Seguridad Marítima de Socorro (SMSSM). Tiene una frecuencia DSC asociada a 2187,5 kHz. Otras frecuencias internacionales de socorro, en uso desde 2008, son:
```121,5 MHz - frecuencia de emergencia de aeronaves civiles
243 MHz - Frecuencia de emergencia para aeronaves militares
156,8 MHz - Canal 16 de radio VHF marina, uso marítimo de corto alcance
406 MHz / 406,1 MHz - Sistema internacional de detección y distribución de alertas de socorro (SAR) por satélite Cospas-Sarsat
```
Frecuencias discontinuadas
```Ya no se supervisa el código Morse de 500 kHz.
Localizadores de 121,5 o 243 MHz. (Ya no se vigilan automáticamente por satélite, aunque se siguen utilizando para la comunicación entre aeronaves y la radiogoniometría de corto alcance).
A partir del 1 de agosto de 2013, el Servicio de Guardacostas de Estados Unidos puso fin a la vigilancia por radio de la frecuencia internacional de voz de socorro, seguridad y llamada 2182 kHz y de la frecuencia internacional de llamada selectiva digital (DSC) de socorro y seguridad 2187,5 kHz. Además, la información marítima y las emisiones meteorológicas transmitidas en 2670 kHz terminaron al mismo tiempo.
``` | Nous sommes en 2109 C.E. Mes amis et moi avons été pris dans une catastrophe spatiale lorsque le vaisseau spatial dans lequel nous nous trouvions s'est brisé au cours d'une fuite audacieuse d'un vaisseau spatial en patrouille. Nous avons volé un téléphone portable antique (datant de 1999, en bon état de marche) dans un musée de l'espace, mais notre fuite a été interrompue et, heureusement, nous avons réussi à entrer dans la capsule de sauvetage et n'avons pas été pris dans l'explosion. Le seul transpondeur d'urgence de la capsule de sauvetage ne fonctionne pas, probablement en raison de la destruction du vaisseau spatial. Compte tenu de la technologie de 1999, est-il possible pour nous d'envoyer un signal de détresse pour alerter le vaisseau spatial de patrouille en partance ?
Note : le téléphone portable était le produit le plus innovant de 1999 que l'on puisse acheter.
La capsule de sauvetage n'est pas une cage de Faraday - nous parlons du futur - et le vaisseau spatial de patrouille n'a pas besoin d'être à l'affût d'un signal de détresse ; veuillez utiliser ces indices à votre avantage.
S'il n'y a absolument aucun moyen de transmettre un signal créé par l'homme, veuillez donner une raison valable pour laquelle ce n'est pas possible. | Actifs
* 1 pièce obsolète de kit de communication à courte portée nécessitant une batterie que vous ne pouvez probablement pas recharger
* 1 capsule de sauvetage légèrement défectueuse avec un système de communication à jour qui ne fonctionne pas, mais vous êtes toujours en vie.
Les normes actuelles stipulent que le Mayday doit être diffusé sur le canal VHF 16 (156,8 MHz). Un téléphone de 1999, probablement sur 2g, utiliserait probablement 900MHz (UHF). L'unité de communication légèrement cassée dans le pod utilise probablement le canal 16 ou un canal équivalent*. C'est votre premier problème. Le navire de patrouille écoutera les signaux émis sur la fréquence mayday. C'est cette fréquence que vous devez atteindre, et vous devez donc commencer par reconstruire votre téléphone sur cette fréquence.
Vous pouvez également examiner le système de communication du pod et voir ce qui ne va pas.
Le problème suivant est que la portée de votre téléphone portable est dérisoire dans l'espace interstellaire. Ce qui sera encore plus risible, c'est lorsque vous essaierez de l'utiliser dans l'environnement protégé des radiations de votre capsule de sauvetage. Le signal, qui est en ligne de mire dans le meilleur des cas, ne traversera probablement même pas la coque. Il faut donc le connecter à l'antenne externe utilisée par le système de communication de la nacelle.
Vous pouvez également examiner le système de communication du pod et voir ce qui ne va pas.
Il faut maintenant s'assurer que l'on utilise la bonne méthode de diffusion : AM ou FM (il n'y a aucune raison de penser que dans 100 ans, ils seront capables de capter un signal analogique).
Je suis sûr que vous voyez où je veux en venir. Réparez le pod.
En fin de compte, tout ce que vous allez faire, c'est reconstruire une copie du système de communication du pod avec un lot de composants obsolètes. Si vous êtes assez bon pour faire cela, vous serez assez bon pour réparer le système du pod, ce qui sera beaucoup plus facile.
*Je mentionne le canal 16 comme exemple pour montrer qu'il existe des normes pour les signaux de détresse et qu'elles sont très différentes des normes pour les téléphones portables.
## Fréquences de détresse
La fréquence 2182 kHz est un élément essentiel du système mondial de sécurité en cas de détresse maritime (SMDSM). Une fréquence ASN lui est associée à 2187,5 kHz. D'autres fréquences de détresse internationales, utilisées en 2008, sont les suivantes :
``121,5 MHz - fréquence d'urgence pour les aéronefs civils
243 MHz - fréquence d'urgence pour les aéronefs militaires
156,8 MHz - canal 16 de la radio VHF marine, utilisation maritime à courte distance
406 MHz / 406,1 MHz - Système international de recherche et de sauvetage (SAR) par satellite Cospas-Sarsat pour la détection des alertes de détresse et la diffusion d'informations.
```
Fréquences abandonnées
``Le code morse de 500 kHz n'est plus surveillé.
Localisateurs 121,5 ou 243 MHz. (Ces fréquences ne sont plus automatiquement surveillées par satellite, mais elles sont toujours utilisées pour les communications entre aéronefs et la radiogoniométrie à courte portée).
Depuis le 1er août 2013, les garde-côtes américains ne surveillent plus la fréquence internationale vocale de détresse, de sécurité et d'appel 2182 kHz, ni la fréquence internationale d'appel sélectif numérique (ASN) de détresse et de sécurité 2187,5 kHz. En outre, les informations maritimes et les émissions météorologiques transmises sur 2670 kHz ont été interrompues simultanément.
``` | L'anno è il 2109 C.E. Io e i miei amici siamo stati coinvolti in un disastro spaziale quando la navicella in cui ci trovavamo si è spezzata durante un'audace fuga da un'astronave di pattuglia. Abbiamo rubato un cellulare antico (del 1999, in buone condizioni di funzionamento) da un museo spaziale, ma la nostra fuga è stata interrotta e fortunatamente siamo riusciti a entrare nella capsula di salvataggio e non siamo stati coinvolti nell'esplosione. L'unico transponder di emergenza della capsula di salvataggio non funziona, probabilmente a causa della distruzione della navicella. Data la tecnologia del 1999, è possibile inviare un segnale di soccorso per allertare la navicella in partenza?
Nota: il cellulare era il prodotto più innovativo del 1999 che il denaro potesse comprare.
La capsula di salvataggio non è una gabbia di Faraday, stiamo parlando del futuro e le navicelle di pattuglia non devono necessariamente essere in cerca di segnali di soccorso; utilizzate questi indizi a vostro vantaggio.
Se non c'è assolutamente modo di trasmettere un segnale artificiale, indicate una ragione valida per cui non è possibile farlo. | Attività
* 1 pezzo obsoleto di kit di comunicazione a corto raggio che richiede una batteria che probabilmente non si può caricare
* 1 capsula di salvataggio leggermente malfunzionante con comunicazioni aggiornate che non funziona, ma siete ancora vivi.
Secondo gli standard attuali, il Mayday dovrebbe essere trasmesso sul canale 16 VHF (156,8 MHz). Un telefono del 1999, probabilmente a 2g, userebbe probabilmente 900MHz (UHF). L'unità di comunicazione leggermente rotta nella capsula sta probabilmente utilizzando il canale 16 o un canale equivalente*. Questo è il primo problema. La nave di pattuglia ascolterà i segnali trasmessi sulla frequenza del mayday. È questa la frequenza che dovete raggiungere, quindi la prima cosa da fare è ricostruire il vostro telefono su quella frequenza.
In alternativa, potete controllare il sistema di comunicazione della capsula e vedere cosa c'è che non va.
Il problema successivo è che il raggio d'azione del vostro cellulare è risibile nello spazio interstellare. E sarà ancora più ridicolo quando cercherete di usarlo nell'ambiente schermato dalle radiazioni della vostra capsula di salvataggio. Il segnale, che nel migliore dei casi è in linea di vista, molto probabilmente non riuscirà nemmeno a penetrare lo scafo. Quindi è necessario collegarlo all'antenna esterna utilizzata dal sistema di comunicazione della capsula.
Oppure si può controllare il sistema di comunicazione della capsula e vedere cosa c'è che non va.
Ora dovete assicurarvi di utilizzare il metodo di trasmissione corretto: siete in AM o in FM (non c'è motivo di pensare che tra 100 anni saranno in grado di ricevere un segnale analogico).
Sono sicuro che potete capire dove sto andando a parare. Riparare la capsula.
In definitiva, tutto ciò che farete è ricostruire una copia del sistema di comunicazione della capsula con una serie di componenti obsoleti. Se siete abbastanza bravi da farlo, sarete abbastanza bravi da riparare il sistema della capsula, il che sarà molto più facile.
*Ho citato il canale 16 come esempio per dimostrare che esistono degli standard per i segnali di soccorso e che sono molto diversi da quelli per i cellulari: se volete che qualcuno li recepisca, dovete trasmettere su una frequenza che loro ascoltano.
## Frequenze di soccorso
La frequenza 2182 kHz costituisce una parte essenziale del Sistema globale di sicurezza per il soccorso marittimo (GMDSS). Ha una frequenza DSC associata a 2187,5 kHz. Altre frequenze di soccorso internazionali, in uso dal 2008, sono:
``121,5 MHz - frequenza di emergenza per aerei civili
243 MHz - frequenza di emergenza per aerei militari
156,8 MHz - canale 16 della radio VHF marina, uso marittimo a corto raggio
406 MHz / 406,1 MHz - sistema internazionale di ricerca e salvataggio (SAR) via satellite Cospas-Sarsat per il rilevamento degli avvisi di soccorso e la distribuzione delle informazioni.
```
Frequenze cessate
Il codice Morse a 500 kHz non è più monitorato.
Localizzatori a 121,5 o 243 MHz. (Non più monitorati automaticamente dal satellite, ma ancora utilizzati per le comunicazioni con gli aerei e per l'individuazione della direzione a corto raggio).
A partire dal 1° agosto 2013, la Guardia Costiera degli Stati Uniti ha cessato di sorvegliare via radio la frequenza internazionale di soccorso, sicurezza e chiamata vocale 2182 kHz e la frequenza internazionale di soccorso e sicurezza a chiamata selettiva digitale (DSC) 2187,5 kHz. Inoltre, le trasmissioni di informazioni marine e meteo trasmesse su 2670 kHz sono terminate contemporaneamente.
``` |
248 | Often I want to just point the camera to an object or a specific area in my scene to get an idea of how it'll look in the render. What's the most painless hassle-free way to do this in blender?
A quick search on the blender wiki does not lend itself to easy look-up due to all the noise in the search result.
This question could probably be broken down into these two main questions:
* How do I point a selected camera to the current 3d-cursor location in the scene?
* How do I point the selected camera to the currently selected object(s) in the scene?
| Situation 1: You're not looking through the camera yet
* Fly Mode: Shift + F or the standard Viewport Navigation
* Set Camera to View: Ctrl + Alt + Numpad 0
Situation 2: You're already looking through the camera via Numpad 0
* Select the camera: Right Mouse Button
* Grab: G & optionally...
* Lock the grab to a local axis: XX or YY or ZZ (my favorite)
* Rotate:
* Tilt: R
* Look around: R R
* Orbit around the 3D cursor: .R followed by R, or Z. (Press , afterwards)
Tips & Notes (some go beyond this question):
1. In earlier versions of Blender, Fly Mode would to make the camera slowly flatten with the horizon line. It doesn't anymore, but you can reset the camera's rotation Alt + R to make the horizon flat and then use fly mode to reorient the camera while maintaining that flat horizon.
2. If you decide to use another object as a target for the camera to look at, you can use the Object Constraints. To do this:
* Select the camera.
* Shift-select the target.
* Press Ctrl T and select Track To or Damped Track To. You can modify the new constraint in the camera's Constraints panel, for example, to animate the influence. | Oft möchte ich die Kamera einfach auf ein Objekt oder einen bestimmten Bereich in meiner Szene richten, um eine Vorstellung davon zu bekommen, wie es im Rendering aussehen wird. Was ist der einfachste Weg, dies in Blender zu tun?
Eine schnelle Suche im Blender-Wiki ist aufgrund des vielen Rauschens in den Suchergebnissen nicht sehr hilfreich.
Diese Frage könnte wahrscheinlich in diese zwei Hauptfragen aufgeteilt werden:
* Wie kann ich eine ausgewählte Kamera auf die aktuelle 3D-Cursorposition in der Szene richten?
* Wie kann ich die ausgewählte Kamera auf das/die aktuell ausgewählte(n) Objekt(e) in der Szene ausrichten?
| Situation 1: Sie blicken noch nicht durch die Kamera
* Flugmodus: Shift + F oder die Standard-Viewport-Navigation
* Kamera auf Ansicht einstellen: Strg + Alt + Numpad 0
Situation 2: Sie blicken bereits durch die Kamera mit Numpad 0
* Wählen Sie die Kamera aus: Rechte Maustaste
* Greifen: G & optional...
* Sperre den Grab auf eine lokale Achse: XX oder YY oder ZZ (mein Favorit)
* Drehen:
* Neigen: R
* Umschauen: R R
* Umkreisen des 3D-Cursors: .R gefolgt von R oder Z. (Drücken Sie anschließend ,)
Tipps & Hinweise (einige gehen über diese Frage hinaus):
1. In früheren Versionen von Blender würde der Flugmodus die Kamera langsam mit der Horizontlinie abflachen lassen. Es tut nicht mehr, aber Sie können die Rotation der Kamera Alt + R zurücksetzen, um den Horizont flach zu machen und dann fliegen Modus verwenden, um die Kamera neu auszurichten, während die flachen Horizont zu halten.
2. Wenn Sie sich entscheiden, ein anderes Objekt als Ziel für die Kamera zu verwenden, können Sie die Objektbeschränkungen verwenden. Gehen Sie wie folgt vor:
* Wählen Sie die Kamera aus.
* Wählen Sie das Ziel mit der Umschalttaste aus.
* Drücken Sie Strg T und wählen Sie Verfolgen nach oder Gedämpftes Verfolgen nach. Sie können die neue Beschränkung im Bedienfeld "Beschränkungen" der Kamera ändern, um z. B. den Einfluss zu animieren. | A menudo quiero apuntar la cámara a un objeto o un área específica en mi escena para tener una idea de cómo se verá en el render. ¿Cuál es la forma más sencilla de hacer esto en Blender?
Una búsqueda rápida en la wiki de blender no se presta a una búsqueda fácil debido a todo el ruido en el resultado de la búsqueda.
Esta pregunta probablemente podría dividirse en estas dos preguntas principales:
* ¿Cómo apunto una cámara seleccionada a la ubicación actual del cursor 3d en la escena?
* ¿Cómo apunto la cámara seleccionada al objeto(s) actualmente seleccionado(s) en la escena?
| Situación 1: Aún no estás mirando por la cámara
* Modo Volar: Shift + F o la Navegación estándar Viewport
* Ajustar Cámara a Vista: Ctrl + Alt + Numpad 0
Situación 2: Ya estás mirando a través de la cámara mediante Numpad 0
* Seleccionar la cámara: Botón derecho del ratón
* Agarrar: G y opcionalmente...
* Bloquea el agarre a un eje local: XX o YY o ZZ (mi favorito)
* Rotar:
* Inclinación: R
* Mirar alrededor R
* Orbitar alrededor del cursor 3D: .R seguido de R, o Z. (Pulse , después)
Consejos y notas (algunos van más allá de esta pregunta):
1. En versiones anteriores de Blender, el Modo Volar hacía que la cámara se aplanara lentamente con la línea del horizonte. Ya no lo hace, pero se puede restablecer la rotación de la cámara Alt + R para hacer que el horizonte plano y luego usar el modo de vuelo para reorientar la cámara mientras se mantiene ese horizonte plano.
2. Si decides utilizar otro objeto como objetivo para que la cámara mire, puedes utilizar las Restricciones de Objeto. Para ello
* Seleccione la cámara.
* Selecciona el objetivo.
* Pulsa Ctrl T y selecciona Seguimiento a o Seguimiento amortiguado a. Puedes modificar la nueva restricción en el panel de Restricciones de la cámara, por ejemplo, para animar la influencia. | Souvent, je veux pointer la caméra sur un objet ou une zone spécifique de ma scène pour avoir une idée de ce que cela donnera dans le rendu. Quel est le moyen le plus simple de faire cela dans blender ?
Une recherche rapide sur le wiki de blender ne se prête pas à une recherche facile en raison de tout le bruit dans le résultat de la recherche.
Cette question pourrait probablement être décomposée en deux questions principales :
* Comment pointer une caméra sélectionnée sur l'emplacement actuel du curseur 3D dans la scène ?
* Comment pointer la caméra sélectionnée sur le(s) objet(s) sélectionné(s) dans la scène ?
| Situation 1 : Vous ne regardez pas encore à travers la caméra
* Mode vol : Shift + F ou la navigation standard dans la fenêtre de visualisation
* Régler la caméra sur la vue : Ctrl + Alt + Numpad 0
Situation 2 : Vous regardez déjà à travers la caméra via le Numpad 0
* Sélectionnez la caméra : Bouton droit de la souris
* Saisir : G et optionnellement...
* Verrouiller la saisie sur un axe local : XX ou YY ou ZZ (mon préféré)
* Rotation :
* Tilt : R
* Regarder autour de soi : R R
* Orbite autour du curseur 3D : .R suivi de R, ou Z. (Appuyez sur , ensuite)
Conseils et notes (certains vont au-delà de cette question) :
1. Dans les versions précédentes de Blender, le Fly Mode faisait en sorte que la caméra s'aplatisse lentement avec la ligne d'horizon. Ce n'est plus le cas, mais vous pouvez réinitialiser la rotation de la caméra Alt + R pour rendre l'horizon plat et ensuite utiliser le fly mode pour réorienter la caméra tout en maintenant cet horizon plat.
2. Si vous décidez d'utiliser un autre objet comme cible pour la caméra, vous pouvez utiliser les contraintes d'objet. Pour ce faire
* Sélectionnez la caméra.
* Sélectionnez la cible en appuyant sur la touche Maj.
* Appuyez sur Ctrl T et sélectionnez Suivre jusqu'à ou Suivre amorti jusqu'à. Vous pouvez modifier la nouvelle contrainte dans le panneau Contraintes de la caméra, par exemple pour animer l'influence. | Spesso voglio puntare la telecamera su un oggetto o un'area specifica della mia scena per avere un'idea di come apparirà nel rendering. Qual è il modo più indolore e senza problemi per farlo in Blender?
Una rapida ricerca sul wiki di Blender non si presta a una facile ricerca a causa di tutto il rumore nei risultati della ricerca.
Questa domanda potrebbe probabilmente essere suddivisa in queste due domande principali:
* Come faccio a puntare una telecamera selezionata verso la posizione corrente del cursore 3d nella scena?
* Come faccio a puntare la telecamera selezionata verso l'oggetto o gli oggetti attualmente selezionati nella scena?
| Situazione 1: non si sta ancora guardando attraverso la telecamera
* Modalità di volo: Shift + F o la Navigazione Viewport standard.
* Imposta la telecamera sulla vista: Ctrl + Alt + Numpad 0
Situazione 2: si sta già guardando attraverso la telecamera tramite Numpad 0
* Selezionare la telecamera: Tasto destro del mouse
* Afferrare: G e facoltativamente...
* Bloccare la presa su un asse locale: XX o YY o ZZ (il mio preferito)
* Rotazione:
* Inclinazione: R
* Guardarsi intorno: R R
* Orbita intorno al cursore 3D: .R seguito da R, o Z. (premere poi ,)
Suggerimenti e note (alcuni vanno oltre questa domanda):
1. Nelle versioni precedenti di Blender, la modalità Fly doveva far appiattire lentamente la telecamera con la linea dell'orizzonte. Ora non è più così, ma è possibile reimpostare la rotazione della telecamera Alt + R per rendere l'orizzonte piatto e poi usare la modalità Fly per riorientare la telecamera mantenendo l'orizzonte piatto.
2. Se si decide di usare un altro oggetto come bersaglio per la telecamera, si possono usare i Vincoli oggetto. Per fare ciò:
* Selezionare la telecamera.
* Selezionare l'obiettivo con il tasto Shift.
* Premere Ctrl T e selezionare Traccia verso o Traccia smorzata verso. È possibile modificare il nuovo vincolo nel pannello Vincoli della telecamera, ad esempio per animare l'influenza. |
249 | What are the general tactics of Krav Maga as opposed to Systema?
For instance, the tactics of Silat are to hurt the other person so badly they can't hurt back. Another example would be that the tactics of boxing would be to knock out the other person first using only punches. So, as far as I know, the goal of Systema and Krav Maga are both to do anything you can to defeat your attacker because they are serious about self defense. Does that mean that Krav Maga and Systema are strategical identical? Does Krav use strategies that Systema doesn't? Does Systema use any strategies that Krav doesn't? Is there a difference or do they generally work the same way? | At first glance Krav Maga and Systema seem to be very similar in that they are both very unconventional, no-rules, practical self-defence, martial arts (although Krav isn't technically a martial art) which are no holds barred and generally formless.
However...
Krav Maga is basically a very raw, dangerous situation survival system (including avoidance and escape) which builds upon your natural instincts and taught in a very short space of time. Therefore it is highly stress tested. It relies on the fact that fear will set in in order to use your natural responses and turn them into functional movements to your advantage. It relies heavily on shock and awe in that defence and attack should be simultaneous where possible to capitalise on the opponent's shock value.
Systema is - in many ways - the exact opposite, it is a system which teaches over a much longer period of time how to control your fear/anger/pity and teaches relaxation (through breathing/stretching) in stressful situations so that attacks on your person are less effective, better recovered from and the pressure points, levers and momentum of attackers can be manipulated to your advantage using the clarity of mind gained from your training.
In Summary
So in effect Krav Maga is taught fast and turns your weaknesses into strengths so your defence/attack becomes like a reflex just when you need it, while Systema is a methodology that needs to be learned and seeks to remove those weaknesses so that your defense/attacks can be more effective.
Also, another martial art, similar and somewhere between these is the Keysi Fighting Method (KFM) - developed for street fighting - but that has some actual forms that have to be learned such as the very distinctive 'Pensador' that the Christian Bale Batman uses/
KFM is a lot more like Krav Maga but it makes heavy use of the 'Pensador' guard (much like the 'Rhino' Krav pose) and concentrates a much larger chunk of its time to dealing with multiple opponents and ground based fighting, as it was developed for street fighting and this is where they tend to end up. It doesn't deal with survival (avoidance and get away) as much as Krav however. There are also no weapons. | Was sind die allgemeinen Taktiken von Krav Maga im Gegensatz zu Systema?
Die Taktik von Silat besteht zum Beispiel darin, die andere Person so stark zu verletzen, dass sie nicht zurückschlagen kann. Ein anderes Beispiel wäre, dass die Taktik beim Boxen darin besteht, die andere Person zunächst nur mit Schlägen k.o. zu schlagen. Soweit ich weiß, besteht das Ziel von Systema und Krav Maga also darin, alles zu tun, um den Angreifer zu besiegen, weil es ihnen um Selbstverteidigung geht. Heißt das, dass Krav Maga und Systema strategisch identisch sind? Verwendet Krav Maga Strategien, die Systema nicht verwendet? Verwendet Systema irgendwelche Strategien, die Krav nicht verwendet? Gibt es einen Unterschied oder funktionieren sie im Allgemeinen auf dieselbe Weise? | Auf den ersten Blick scheinen sich Krav Maga und Systema sehr ähnlich zu sein, denn beide sind sehr unkonventionelle, regellose, praktische Selbstverteidigungs- und Kampfsportarten (obwohl Krav technisch gesehen keine Kampfsportart ist), die keine Grenzen kennen und im Allgemeinen formlos sind.
Wie auch immer...
Krav Maga ist im Grunde ein sehr rohes System zum Überleben in gefährlichen Situationen (einschließlich Vermeidung und Flucht), das auf Ihren natürlichen Instinkten aufbaut und in sehr kurzer Zeit vermittelt wird. Daher ist es sehr stresserprobt. Es beruht auf der Tatsache, dass die Angst einsetzt, um Ihre natürlichen Reaktionen zu nutzen und sie in funktionale Bewegungen zu Ihrem Vorteil umzuwandeln. Es beruht stark auf Schock und Ehrfurcht, da Verteidigung und Angriff möglichst gleichzeitig erfolgen sollten, um den Schockwert des Gegners auszunutzen.
Systema ist - in vielerlei Hinsicht - das genaue Gegenteil, es ist ein System, das über einen viel längeren Zeitraum lehrt, wie man seine Angst/Angst/Mitleid kontrolliert, und das Entspannung (durch Atmung/Dehnung) in Stresssituationen lehrt, so dass Angriffe auf die eigene Person weniger effektiv sind, man sich besser davon erholt und die Druckpunkte, Hebel und den Schwung von Angreifern zu seinem Vorteil manipulieren kann, indem man die durch das Training gewonnene Klarheit des Geistes nutzt.
Zusammenfassung
Krav Maga wird also schnell erlernt und verwandelt Ihre Schwächen in Stärken, so dass Ihre Verteidigung/Angriff wie ein Reflex wird, wenn Sie es brauchen, während Systema eine Methode ist, die erlernt werden muss und darauf abzielt, diese Schwächen zu beseitigen, so dass Ihre Verteidigung/Angriffe effektiver sein können.
Eine andere Kampfkunst, die ähnlich ist und irgendwo dazwischen liegt, ist die Keysi Fighting Method (KFM) - entwickelt für den Straßenkampf -, die aber einige Formen hat, die man lernen muss, wie z. B. den sehr ausgeprägten "Pensador", den Christian Bale als Batman benutzt.
KFM ist dem Krav Maga sehr ähnlich, macht aber starken Gebrauch von der "Pensador"-Schutzhaltung (ähnlich der "Rhino"-Krav-Pose) und konzentriert sich zu einem sehr viel größeren Teil auf den Umgang mit mehreren Gegnern und den Bodenkampf, da es für den Straßenkampf entwickelt wurde, und genau dort landen sie in der Regel. Es befasst sich jedoch nicht so sehr wie Krav mit dem Überleben (Ausweichen und Entkommen). Außerdem gibt es keine Waffen. | ¿Cuáles son las tácticas generales de Krav Maga a diferencia de Systema?
Por ejemplo, las tácticas de Silat son herir a la otra persona tan mal que ellos no pueden herir atrás. Otro ejemplo sería que la táctica del boxeo sería noquear primero a la otra persona usando sólo golpes. Así, hasta donde yo sé, el objetivo de Systema y Krav Maga es hacer todo lo posible para derrotar a su atacante, porque son serios acerca de la autodefensa. ¿Significa eso que Krav Maga y Systema son estratégicamente idénticos? ¿Krav usa estrategias que Systema no usa? ¿Systema usa estrategias que Krav no usa? ¿Hay alguna diferencia o en general funcionan de la misma manera? | A primera vista Krav Maga y Systema parecen ser muy similares en que ambos son muy poco convencionales, sin reglas, la autodefensa práctica, las artes marciales (aunque Krav no es técnicamente un arte marcial) que son sin tabúes y generalmente sin forma.
Sin embargo...
Krav Maga es básicamente un muy crudo, sistema de supervivencia de situación peligrosa (incluyendo evitación y escape) que construye sobre sus instintos naturales y enseñó en un espacio muy corto de tiempo. Por lo tanto es altamente estrés probado. Se basa en el hecho de que el miedo se instalará con el fin de utilizar sus respuestas naturales y convertirlas en movimientos funcionales a su favor. Se basa en gran medida en la conmoción y el pavor, ya que la defensa y el ataque deben ser simultáneos en la medida de lo posible para aprovechar el valor de conmoción del oponente.
Systema es, en muchos sentidos, exactamente lo contrario: es un sistema que enseña durante un periodo de tiempo mucho más largo a controlar el miedo, la rabia y la compasión, y enseña relajación (mediante la respiración y los estiramientos) en situaciones de estrés, de modo que los ataques contra la persona sean menos eficaces, se recuperen mejor y los puntos de presión, las palancas y el impulso de los atacantes puedan manipularse en beneficio propio gracias a la claridad mental adquirida en el entrenamiento.
En resumen
Así que en efecto Krav Maga se enseña rápido y convierte sus debilidades en fortalezas para que su defensa / ataque se convierte en un reflejo justo cuando lo necesite, mientras que Systema es una metodología que necesita ser aprendido y trata de eliminar esas debilidades para que su defensa / ataques pueden ser más eficaces.
También, otro arte marcial, similar y en algún lugar entre estos es el Método de Lucha Keysi (KFM) - desarrollado para la lucha callejera - pero que tiene algunas formas reales que tienen que ser aprendidas como el muy distintivo 'Pensador' que el Batman de Christian Bale utiliza/
KFM es mucho más como Krav Maga pero hace el uso pesado del 'Pensador' guarda (mucho como el 'Rhino' Krav posa) y concentra una porción mucho más grande de su tiempo para tratar con oponentes múltiples y lucha de tierra basada, cuando fue desarrollado para la lucha de calle y esto es donde ellos tienden a terminar. Sin embargo, no se ocupa tanto de la supervivencia (evasión y huida) como el Krav. Tampoco hay armas. | Quelles sont les tactiques générales du Krav Maga par rapport au Systema ?
Par exemple, la tactique du Silat consiste à blesser l'autre personne si violemment qu'elle ne peut pas riposter. Un autre exemple serait que la tactique de la boxe consisterait à mettre l'autre personne KO en utilisant uniquement des coups de poing. Pour autant que je sache, l'objectif du Systema et du Krav Maga est de faire tout ce qui est en leur pouvoir pour vaincre leur agresseur, parce qu'il s'agit d'autodéfense. Cela signifie-t-il que le Krav Maga et le Systema sont identiques sur le plan stratégique ? Le Krav Maga utilise-t-il des stratégies que le Systema n'utilise pas ? Le Systema utilise-t-il des stratégies que le Krav n'utilise pas ? Y a-t-il une différence ou les deux fonctionnent-ils de la même manière ? | À première vue, le Krav Maga et le Systema semblent être très similaires en ce sens qu'il s'agit d'arts martiaux (bien que le Krav ne soit pas techniquement un art martial) non conventionnels, sans règles, d'autodéfense pratique, où tous les coups sont permis et où il n'y a généralement pas de forme.
Cependant...
Le Krav Maga est essentiellement un système de survie en situation dangereuse (y compris l'évitement et la fuite) qui s'appuie sur vos instincts naturels et qui est enseigné dans un laps de temps très court. Il est donc soumis à des tests de stress importants. Il s'appuie sur le fait que la peur s'installe afin d'utiliser vos réactions naturelles et de les transformer en mouvements fonctionnels à votre avantage. Il s'appuie fortement sur le principe du choc et de l'effroi en ce sens que la défense et l'attaque doivent être simultanées dans la mesure du possible afin de capitaliser sur l'effet de choc de l'adversaire.
Le Systema est - à bien des égards - l'exact opposé, c'est un système qui enseigne sur une période de temps beaucoup plus longue comment contrôler votre peur / colère / pitié et enseigne la relaxation (par la respiration / les étirements) dans des situations stressantes afin que les attaques sur votre personne soient moins efficaces, mieux récupérées et que les points de pression, les leviers et l'élan des attaquants puissent être manipulés à votre avantage en utilisant la clarté d'esprit acquise grâce à votre entraînement.
En résumé
En fait, le Krav Maga est enseigné rapidement et transforme vos faiblesses en forces afin que votre défense/attaque devienne comme un réflexe au moment où vous en avez besoin, tandis que le Systema est une méthodologie qui doit être apprise et qui cherche à éliminer ces faiblesses afin que votre défense/attaque puisse être plus efficace.
Un autre art martial, similaire et à mi-chemin entre les deux, est la Keysi Fighting Method (KFM) - développée pour le combat de rue - mais qui comporte des formes réelles qui doivent être apprises, telles que le "Pensador" très distinctif utilisé par Christian Bale Batman.
La KFM ressemble beaucoup plus au Krav Maga, mais elle utilise beaucoup la garde "Pensador" (comme la pose "Rhino" de Krav) et consacre une grande partie de son temps à la gestion d'adversaires multiples et au combat au sol, car elle a été développée pour le combat de rue et c'est là qu'ils ont tendance à se retrouver. Il n'aborde cependant pas la survie (évitement et fuite) autant que le Krav. Il n'y a pas non plus d'armes. | Quali sono le tattiche generali del Krav Maga rispetto al Systema?
Per esempio, le tattiche del Silat consistono nel colpire l'avversario in modo tale che non possa più reagire. Un altro esempio è che la tattica del pugilato consiste nel mettere al tappeto l'altra persona usando solo i pugni. Quindi, per quanto ne so, l'obiettivo del Systema e del Krav Maga è quello di fare tutto il possibile per sconfiggere l'aggressore, perché si tratta di una seria difesa personale. Questo significa che il Krav Maga e il Systema sono identici dal punto di vista strategico? Il Krav Maga usa strategie che il Systema non usa? Il Systema usa strategie che il Krav non usa? C'è una differenza o in generale funzionano allo stesso modo? | A prima vista il Krav Maga e il Systema sembrano essere molto simili, in quanto sono entrambi arti marziali non convenzionali, senza regole, di autodifesa pratica (anche se il Krav non è tecnicamente un'arte marziale), senza esclusione di colpi e generalmente senza forma.
Tuttavia...
Il Krav Maga è fondamentalmente un sistema di sopravvivenza in situazioni pericolose molto crudo (che include l'evitamento e la fuga) che si basa sui vostri istinti naturali e viene insegnato in un lasso di tempo molto breve. Per questo motivo è altamente stressante. Si basa sul fatto che la paura si insinua per utilizzare le vostre risposte naturali e trasformarle in movimenti funzionali a vostro vantaggio. Si basa molto sullo shock e sul timore, in quanto difesa e attacco devono essere simultanei, ove possibile, per sfruttare il valore di shock dell'avversario.
Il Systema è, per molti versi, l'esatto opposto: è un sistema che insegna, per un periodo di tempo molto più lungo, a controllare la paura/la rabbia/la pietà e insegna il rilassamento (attraverso la respirazione e lo stretching) in situazioni di stress, in modo che gli attacchi alla persona siano meno efficaci, si riprendano meglio e i punti di pressione, le leve e lo slancio degli aggressori possano essere manipolati a proprio vantaggio utilizzando la lucidità mentale acquisita con l'allenamento.
In sintesi
In effetti, il Krav Maga viene insegnato velocemente e trasforma i punti deboli in punti di forza, in modo che la difesa e l'attacco diventino come un riflesso al momento giusto, mentre il Systema è una metodologia che deve essere appresa e cerca di eliminare i punti deboli in modo che la difesa e gli attacchi siano più efficaci.
Inoltre, un'altra arte marziale, simile e a metà strada tra queste, è il Keysi Fighting Method (KFM) - sviluppato per i combattimenti in strada - ma che ha alcune forme vere e proprie che devono essere imparate, come il "Pensador", molto caratteristico, che usa il Batman di Christian Bale.
Il KFM è molto più simile al Krav Maga, ma fa un uso massiccio della guardia "Pensador" (molto simile alla posa "Rhino" del Krav) e concentra una parte molto più ampia del suo tempo sulla gestione di avversari multipli e sul combattimento a terra, poiché è stato sviluppato per i combattimenti di strada ed è qui che tendono a finire. Tuttavia, non si occupa di sopravvivenza (evitamento e fuga) come il Krav. Inoltre non ci sono armi. |
250 | I understand that unlocking the bootloader will wipe my Android phone, but have been looking around for why. Seems to be by design, but what is the reasoning for that design? Is it some security concern, some obscure technical reason, or just for lulz? I'm looking for something solid to chew on here, something more than because "that's how it is". | It's a security concern. The Android documentation doesn't provide a lot of elaboration, stating simply:
The procedure must be confirmed on-screen, and deletes the user data for privacy reasons.
However, the privacy concern is relatively straightforward to extrapolate. Once the bootloader is unlocked, the device can be flashed with unsigned images. This means that it is relatively trivial to root the device, and there are actually multiple ways it can be done, such as:
* Flashing a system image with root tools built in
* Flashing a boot image that runs ```adbd``` with root by default (an "unsecure" image)
* Flashing a recovery image, then using that to overwrite the system or boot partitions with ones that allow root access
Once root is obtained, all of the information on ```/data``` essentially becomes accessible. This could be emails, contact information, or many other pieces of personal information that you likely don't want in the wrong hands.
Therefore, it makes sense to wipe all of this data during the unlocking procedure to ensure that there is no off-the-shelf "official" way of bypassing the sandboxing restrictions implemented by the Android operating system, which would thereby allow someone to steal personal data.
Of course, there may be ways to root without wiping on some devices, but they rely on exploits rather than official methods like a bootloader unlock, meaning they are basically bugs. | Ich weiß, dass das Entsperren des Bootloaders mein Android-Telefon löschen wird, aber ich habe mich umgesehen, warum. Das scheint so gewollt zu sein, aber was ist der Grund für dieses Design? Ist es ein Sicherheitsaspekt, ein obskurer technischer Grund oder einfach nur zum Spaß? Ich bin auf der Suche nach etwas Handfestem, auf dem ich herumkauen kann, etwas mehr als nur "so ist es nun mal". | Das ist ein Sicherheitsproblem. In der Android-Dokumentation wird dies nicht näher erläutert, sondern nur gesagt:
Der Vorgang muss auf dem Bildschirm bestätigt werden und löscht die Benutzerdaten aus Datenschutzgründen.
Die Bedenken hinsichtlich des Datenschutzes lassen sich jedoch relativ leicht ausräumen. Sobald der Bootloader entriegelt ist, kann das Gerät mit unsignierten Images geflasht werden. Das bedeutet, dass es relativ trivial ist, das Gerät zu rooten, und es gibt tatsächlich mehrere Möglichkeiten, dies zu tun, z. B:
* Flashen eines System-Images mit eingebauten Root-Tools
* Flashen eines Boot-Images, das ```adbd`` standardmäßig mit root ausführt (ein "unsicheres" Image)
* Flashen eines Recovery-Images, das dann dazu benutzt wird, die System- oder Boot-Partitionen mit solchen zu überschreiben, die Root-Zugriff erlauben
Sobald Root-Zugriff erlangt wurde, werden alle Informationen auf ```/data``` im Wesentlichen zugänglich. Das können Emails, Kontaktinformationen oder viele andere persönliche Informationen sein, die nicht in die falschen Hände geraten sollten.
Daher ist es sinnvoll, alle diese Daten während des Entsperrungsvorgangs zu löschen, um sicherzustellen, dass es keinen "offiziellen" Weg gibt, die vom Android-Betriebssystem implementierten Sandboxing-Beschränkungen zu umgehen, der es jemandem ermöglichen würde, persönliche Daten zu stehlen.
Natürlich gibt es bei einigen Geräten Möglichkeiten, Root ohne Wiping durchzuführen, aber diese beruhen eher auf Exploits als auf offiziellen Methoden wie der Entsperrung des Bootloaders, d. h. sie sind im Grunde genommen Bugs. | Entiendo que desbloquear el cargador de arranque borrará mi teléfono Android, pero he estado buscando por qué. Parece ser por diseño, pero ¿cuál es el razonamiento para ese diseño? ¿Es una cuestión de seguridad, alguna oscura razón técnica, o simplemente para divertirse? Estoy buscando algo sólido para masticar aquí, algo más que porque "así es como es". | Es un problema de seguridad. La documentación de Android no proporciona mucha elaboración, diciendo simplemente:
El procedimiento debe confirmarse en pantalla, y borra los datos del usuario por razones de privacidad.
Sin embargo, la preocupación por la privacidad es relativamente fácil de extrapolar. Una vez desbloqueado el cargador de arranque, el dispositivo se puede flashear con imágenes no firmadas. Esto significa que es relativamente trivial rootear el dispositivo, y de hecho hay múltiples formas de hacerlo, como por ejemplo:
* Flasheando una imagen de sistema con herramientas de root incorporadas.
* Flasheando una imagen de arranque que ejecuta ```adbd`` con root por defecto (una imagen "insegura").
* Flasheando una imagen de recuperación, y usándola para sobreescribir las particiones del sistema o de arranque con otras que permitan el acceso root.
Una vez que se obtiene root, toda la información en ```/data`` es esencialmente accesible. Esto podría ser correos electrónicos, información de contacto, o muchas otras piezas de información personal que usted probablemente no quiere en las manos equivocadas.
Por lo tanto, tiene sentido borrar todos estos datos durante el procedimiento de desbloqueo para asegurarse de que no hay una forma "oficial" de saltarse las restricciones de sandboxing implementadas por el sistema operativo Android, lo que permitiría a alguien robar datos personales.
Por supuesto, puede haber formas de hacer root sin borrar los datos en algunos dispositivos, pero se basan en exploits y no en métodos oficiales como el desbloqueo del cargador de arranque, lo que significa que son básicamente bugs. | Je sais que le déverrouillage du bootloader effacera mon téléphone Android, mais j'ai cherché à savoir pourquoi. Il semble que ce soit par conception, mais quelle est la raison de cette conception ? Il y a un problème de sécurité, une raison technique obscure, ou juste pour le plaisir ? Je suis à la recherche de quelque chose de solide à mâcher ici, quelque chose de plus que "c'est comme ça". | Il s'agit d'un problème de sécurité. La documentation d'Android ne fournit pas beaucoup de détails, se contentant d'indiquer :
La procédure doit être confirmée à l'écran et supprime les données de l'utilisateur pour des raisons de confidentialité.
Cependant, le problème de confidentialité est relativement simple à extrapoler. Une fois le bootloader déverrouillé, l'appareil peut être flashé avec des images non signées. Cela signifie qu'il est relativement facile de déverrouiller l'appareil et qu'il y a en fait plusieurs façons de le faire, comme par exemple :
* Flashing d'une image système avec des outils de rootage intégrés
* Flashing d'une image de démarrage qui exécute ``adbd``` avec root par défaut (une image "non sécurisée")
* Flashing d'une image de récupération, puis utilisation de celle-ci pour écraser les partitions système ou de démarrage avec des partitions permettant l'accès root.
Une fois l'accès root obtenu, toutes les informations contenues dans ``/data``` deviennent accessibles. Il peut s'agir d'e-mails, de coordonnées ou de nombreuses autres informations personnelles que vous ne souhaitez probablement pas voir tomber entre de mauvaises mains.
Il est donc logique d'effacer toutes ces données au cours de la procédure de déverrouillage afin de s'assurer qu'il n'existe pas de moyen "officiel" de contourner les restrictions de sandboxing mises en œuvre par le système d'exploitation Android, ce qui permettrait à quelqu'un de voler des données personnelles.
Bien sûr, il peut y avoir des moyens de s'enraciner sans effacer les données sur certains appareils, mais ils reposent sur des exploits plutôt que sur des méthodes officielles comme le déverrouillage du chargeur de démarrage, ce qui signifie qu'il s'agit essentiellement de bogues. | So che lo sblocco del bootloader cancellerà il mio telefono Android, ma ho cercato di capire perché. Sembra che sia stato progettato, ma qual è il motivo per cui è stato progettato? Si tratta di un problema di sicurezza, di un'oscura ragione tecnica o di una semplice presa in giro? Sto cercando qualcosa di solido su cui basarmi, qualcosa di più del semplice "è così che funziona". | È un problema di sicurezza. La documentazione di Android non fornisce molti approfondimenti, affermando semplicemente che:
La procedura deve essere confermata sullo schermo e cancella i dati dell'utente per motivi di privacy.
Tuttavia, il problema della privacy è relativamente semplice da estrapolare. Una volta sbloccato il bootloader, il dispositivo può essere flashato con immagini non firmate. Ciò significa che è relativamente banale effettuare il root del dispositivo e che esistono diversi modi per farlo, ad esempio:
* flashing di un'immagine di sistema con strumenti di root incorporati
* Flashing di un'immagine di avvio che esegue ```adbd`` con root per impostazione predefinita (un'immagine "non sicura")
* Flashing di un'immagine di ripristino, quindi utilizzo di quest'ultima per sovrascrivere le partizioni di sistema o di avvio con partizioni che consentono l'accesso di root
Una volta ottenuto il root, tutte le informazioni su ```/data`` diventano essenzialmente accessibili. Potrebbe trattarsi di e-mail, informazioni di contatto o molte altre informazioni personali che probabilmente non si vogliono in mani sbagliate.
Pertanto, ha senso cancellare tutti questi dati durante la procedura di sblocco per garantire che non ci sia un modo "ufficiale" di aggirare le restrizioni di sandboxing implementate dal sistema operativo Android, che consentirebbe a qualcuno di rubare i dati personali.
Naturalmente, su alcuni dispositivi possono esistere metodi di root senza wiping, ma si basano su exploit piuttosto che su metodi ufficiali come lo sblocco del bootloader, il che significa che sono fondamentalmente dei bug. |
251 | The original IBM PC and later variants used an Intel 8253 or 8254 as a sound chip. Why did users add sound cards such as the Adlib or Sound Blaster. I remember voice output with programs like telephone answering programs. The sound was wimpy but I attributed most of the quality to speaker size.
What was lacking with the original PC sound chip? | > The original IBM PC and later variants used an Intel 8253 or 8254 as a sound chip.
The 8253 is a timer circuit, containing three timers able to generate timed interrupts or square-wave output with programmed frequencies. On the PC the third timer's output is, via an amplifier, connected to a simple speaker.
As said before, calling a 'simple' timer a sound chip is quite a stretch.
Since it's a digital output, no level control is available. Only on or off is possible. At best this results in rather nasty sounding square waves. There is no provision to smooth the signal (beside the inertia of the speaker membrane).
Also, the only frequencies that can be selected are those that result from dividing the base frequency (1,193,181.8 Hz) by an integer in the range of 1–65535. So even when accepting the meager signal quality, only very few notes can be played at correct frequency. Already the basic 440 Hz concert pitch will be off by .5Hz. So whatever is played using the timer will sound off pitch. Music can still sound good if a little off pitch, but only when all notes are off in the same way (*1) - which is not the case with this 'sound chip'.
Of course, there are also ways to manipulate the sound even a bit better by manually handling the output - which results in 100% CPU time usage.
> Why did users add sound cards such as the Adlib or Sound Blaster.
Simply because they wanted sound - or at least music. Not just a beeper.
> What was lacking with the original PC sound chip?
As said before, it's no sound chip at all. A sound chip will need programmable oscillators for different wave forms and at least some analogue ciruitry to make a smooth, more natural sound. Ofcourse, from an enginering point, the PC's use of a timer was a great improvement over the Apple II, its model and competition, as it allowed the beeping in parallel - not that this feature was used by BIOS or DOS.
Last but not least, the PC is an open system. It is made to add new/better hardware. So why shoudn't there be a real sound card? Improving the machine is a core feature of the design.
Addendum:
agtoever added a comment with a great example of what was possible with the direct fiddling with the speaker. Awesome, but less than apealing when compared to even the cheapest form of soundcard, the AdLib of the same time, as used by Monkey Island. Next to zero CPU usage and crisp clear sound. Not to mention easy programming. I'd call that a huge advantage.
*1 - The average human decodes frequencies relative to each other. As a result sound is still perceived as good, even if the whole scale is shifted, as long as it's in the same direction and same percentage. Output needs to be way off to be noticed by an average listener. In contrast, if notes are off by a different margin and in different directions, even less trained listeners will notice. | Der ursprüngliche IBM PC und spätere Varianten verwendeten einen Intel 8253 oder 8254 als Soundchip. Warum haben die Benutzer Soundkarten wie die Adlib oder Sound Blaster hinzugefügt? Ich erinnere mich an die Sprachausgabe mit Programmen wie Telefonbeantwortern. Der Klang war mager, aber ich schrieb die Qualität hauptsächlich der Größe der Lautsprecher zu.
Woran mangelte es dem ursprünglichen PC-Soundchip? | > Der ursprüngliche IBM PC und spätere Varianten verwendeten einen Intel 8253 oder 8254 als Soundchip.
Der 8253 ist ein Timer-Schaltkreis, der drei Timer enthält, die zeitgesteuerte Interrupts oder Rechteckwellen mit programmierten Frequenzen erzeugen können. Auf dem PC ist der Ausgang des dritten Zeitgebers über einen Verstärker an einen einfachen Lautsprecher angeschlossen.
Wie bereits gesagt, ist es ziemlich weit hergeholt, einen "einfachen" Timer als Soundchip zu bezeichnen.
Da es sich um einen digitalen Ausgang handelt, ist keine Pegelregelung möglich. Nur ein oder aus ist möglich. Im besten Fall führt dies zu ziemlich unangenehm klingenden Rechteckwellen. Es gibt keine Möglichkeit, das Signal zu glätten (abgesehen von der Trägheit der Lautsprechermembran).
Außerdem können nur die Frequenzen ausgewählt werden, die sich aus der Division der Basisfrequenz (1.193.181,8 Hz) durch eine ganze Zahl im Bereich von 1–65535 ergeben. Selbst wenn man die magere Signalqualität in Kauf nimmt, können also nur sehr wenige Töne mit der richtigen Frequenz gespielt werden. Schon der Kammerton von 440 Hz weicht um 0,5 Hz ab. Alles, was mit dem Timer gespielt wird, klingt also nicht richtig. Musik kann immer noch gut klingen, wenn sie ein wenig abweicht, aber nur, wenn alle Töne auf die gleiche Weise abweicht (*1) - was bei diesem "Soundchip" nicht der Fall ist.
Natürlich gibt es auch Möglichkeiten, den Klang noch ein bisschen besser zu manipulieren, indem man die Ausgabe manuell bearbeitet - was zu einer 100%igen CPU-Auslastung führt.
> Warum haben Benutzer Soundkarten wie Adlib oder Sound Blaster eingebaut?
Ganz einfach, weil sie Sound - oder zumindest Musik - haben wollten. Nicht nur einen Piepser.
> Was fehlte dem ursprünglichen PC-Soundchip?
Wie schon gesagt, es ist überhaupt kein Soundchip. Ein Soundchip benötigt programmierbare Oszillatoren für verschiedene Wellenformen und zumindest einige analoge Schaltkreise, um einen sanften, natürlichen Klang zu erzeugen. Aus technischer Sicht war die Verwendung eines Timers im PC natürlich eine große Verbesserung gegenüber dem Apple II, seinem Vorbild und Konkurrenten, da er das parallele Piepen ermöglichte - nicht dass diese Funktion von BIOS oder DOS genutzt wurde.
Und nicht zuletzt ist der PC ein offenes System. Er ist dafür gemacht, neue/bessere Hardware hinzuzufügen. Warum sollte es also keine echte Soundkarte geben? Die Verbesserung der Maschine ist ein zentrales Merkmal des Designs.
Nachtrag:
agtoever hat einen Kommentar mit einem großartigen Beispiel dafür hinzugefügt, was mit der direkten Fummelei am Lautsprecher möglich war. Fantastisch, aber nicht so gut wie die billigste Form der Soundkarte, die AdLib aus der gleichen Zeit, die von Monkey Island verwendet wurde. Nahezu keine CPU-Belastung und knackig klarer Sound. Ganz zu schweigen von der einfachen Programmierung. Das würde ich als großen Vorteil bezeichnen.
*1 - Der durchschnittliche Mensch dekodiert Frequenzen relativ zueinander. Folglich wird der Klang immer noch als gut empfunden, auch wenn die gesamte Skala verschoben ist, solange es in die gleiche Richtung und um den gleichen Prozentsatz geht. Die Ausgabe muss weit abweichen, um von einem durchschnittlichen Hörer wahrgenommen zu werden. Weichen die Noten dagegen um einen unterschiedlichen Prozentsatz und in verschiedene Richtungen ab, fällt das auch weniger geübten Zuhörern auf. | El IBM PC original y las variantes posteriores utilizaban un Intel 8253 o 8254 como chip de sonido. ¿Por qué los usuarios añadieron tarjetas de sonido como la Adlib o Sound Blaster. Recuerdo la salida de voz con programas como los contestadores telefónicos. El sonido era débil, pero yo atribuía la mayor parte de la calidad al tamaño de los altavoces.
¿Qué le faltaba al chip de sonido original del PC? | > El IBM PC original y las variantes posteriores utilizaban un Intel 8253 o 8254 como chip de sonido.
El 8253 es un circuito temporizador, que contiene tres temporizadores capaces de generar interrupciones temporizadas o una salida de onda cuadrada con frecuencias programadas. En el PC, la salida del tercer temporizador se conecta, a través de un amplificador, a un simple altavoz.
Como ya se ha dicho, llamar chip de sonido a un "simple" temporizador es una exageración.
Como es una salida digital, no hay control de nivel disponible. Sólo se puede activar o desactivar. En el mejor de los casos, esto da como resultado ondas cuadradas con un sonido bastante desagradable. No hay posibilidad de suavizar la señal (aparte de la inercia de la membrana del altavoz).
Además, las únicas frecuencias que se pueden seleccionar son las que resultan de dividir la frecuencia base (1.193.181,8 Hz) por un número entero en el rango de 1–65535. Por tanto, incluso aceptando la escasa calidad de la señal, sólo pueden reproducirse muy pocas notas a la frecuencia correcta. Ya el tono básico de concierto de 440 Hz estará desviado en 0,5 Hz. Así que todo lo que se toque usando el temporizador sonará fuera de tono. La música aún puede sonar bien si está un poco fuera de tono, pero sólo cuando todas las notas están fuera de la misma manera (*1) - que no es el caso con este "chip de sonido".
Por supuesto, también hay formas de manipular el sonido incluso un poco mejor manejando manualmente la salida - lo que resulta en un uso del 100% del tiempo de la CPU.
> Por qué los usuarios añadieron tarjetas de sonido como la Adlib o Sound Blaster.
Simplemente porque querían sonido - o al menos música. No solo un beeper.
> ¿Qué le faltaba al chip de sonido original del PC?
Como ya se ha dicho, no es un chip de sonido en absoluto. Un chip de sonido necesita osciladores programables para diferentes formas de onda y al menos algo de circuitería analógica para conseguir un sonido suave y natural. Por supuesto, desde el punto de vista de la ingeniería, el uso de un temporizador por parte del PC fue una gran mejora con respecto al Apple II, su modelo y competencia, ya que permitía el pitido en paralelo - no es que esta característica fuera utilizada por BIOS o DOS.
Por último, pero no menos importante, el PC es un sistema abierto. Está hecho para añadir nuevo/mejor hardware. Entonces, ¿por qué no debería haber una tarjeta de sonido real? Mejorar la máquina es una característica esencial del diseño.
Addendum:
agtoever añadió un comentario con un gran ejemplo de lo que era posible con la manipulación directa del altavoz. Impresionante, pero menos que apealing cuando se compara incluso con la forma más barata de tarjeta de sonido, el AdLib de la misma época, como el utilizado por Monkey Island. Uso de CPU casi nulo y sonido nítido y claro. Por no hablar de la facilidad de programación. Yo diría que es una gran ventaja.
*1 - El ser humano medio descodifica frecuencias relativas entre sí. Como resultado, el sonido se sigue percibiendo como bueno, incluso si toda la escala se desplaza, siempre y cuando sea en la misma dirección y el mismo porcentaje. La salida tiene que estar muy desviada para que la perciba un oyente medio. En cambio, si las notas están desviadas por un margen diferente y en distintas direcciones, incluso los oyentes menos entrenados lo notarán. | L'IBM PC original et ses variantes ultérieures utilisaient une puce sonore Intel 8253 ou 8254. Pourquoi les utilisateurs ont-ils ajouté des cartes son telles que Adlib ou Sound Blaster. Je me souviens de la sortie vocale avec des programmes tels que les programmes de réponse téléphonique. Le son était faible, mais j'attribuais la plupart de la qualité à la taille des haut-parleurs.
Qu'est-ce qui manquait à la puce sonore originale du PC ? | > Le PC original d'IBM et ses variantes ultérieures utilisaient une puce sonore Intel 8253 ou 8254.
Le 8253 est un circuit de temporisation, contenant trois temporisateurs capables de générer des interruptions temporisées ou des ondes carrées à des fréquences programmées. Sur le PC, la sortie de la troisième minuterie est, via un amplificateur, connectée à un simple haut-parleur.
Comme nous l'avons déjà dit, il est assez exagéré d'appeler une "simple" minuterie une puce sonore.
Comme il s'agit d'une sortie numérique, aucun contrôle de niveau n'est disponible. Seule l'activation ou la désactivation est possible. Dans le meilleur des cas, il en résulte des ondes carrées au son plutôt désagréable. Il n'y a aucune possibilité de lisser le signal (à part l'inertie de la membrane du haut-parleur).
En outre, les seules fréquences qui peuvent être sélectionnées sont celles qui résultent de la division de la fréquence de base (1 193 181,8 Hz) par un nombre entier compris entre 1–65535. Ainsi, même en acceptant la qualité médiocre du signal, seules quelques notes peuvent être jouées à la bonne fréquence. Le diapason d'un concert de 440 Hz est déjà décalé de 0,5 Hz. Ainsi, tout ce qui est joué à l'aide de la minuterie sonnera faux. La musique peut encore sonner bien si elle est un peu décalée, mais seulement si toutes les notes sont décalées de la même manière (*1) - ce qui n'est pas le cas avec cette "puce sonore".
Bien sûr, il y a aussi des moyens de manipuler le son encore un peu mieux en gérant manuellement la sortie - ce qui se traduit par une utilisation à 100% du temps du CPU.
> Pourquoi les utilisateurs ont-ils ajouté des cartes son telles que Adlib ou Sound Blaster.
Tout simplement parce qu'ils voulaient du son - ou au moins de la musique. Pas seulement un signal sonore.
> Qu'est-ce qui manquait à la puce sonore originale du PC ?
Comme nous l'avons déjà dit, il ne s'agit pas du tout d'une puce sonore. Une puce sonore aura besoin d'oscillateurs programmables pour différentes formes d'ondes et au moins d'un circuit analogique pour produire un son doux et plus naturel. Bien sûr, d'un point de vue technique, l'utilisation par le PC d'un timer était une grande amélioration par rapport à l'Apple II, son modèle et concurrent, car il permettait le bip en parallèle - bien que cette fonction n'ait pas été utilisée par le BIOS ou le DOS.
Enfin, le PC est un système ouvert. Il est fait pour ajouter du matériel nouveau/meilleur. Alors pourquoi n'y aurait-il pas une vraie carte son ? L'amélioration de la machine est une caractéristique essentielle de la conception.
Addendum :
agtoever a ajouté un commentaire avec un excellent exemple de ce qui était possible avec le bidouillage direct du haut-parleur. Génial, mais moins qu'une carte son, même la moins chère, l'AdLib de la même époque, telle qu'utilisée par Monkey Island. L'utilisation du processeur est quasiment nulle et le son est clair et net. Sans parler de la facilité de programmation. Je dirais que c'est un énorme avantage.
*1 - L'homme moyen décode les fréquences les unes par rapport aux autres. Par conséquent, le son est toujours perçu comme bon, même si toute l'échelle est décalée, tant que c'est dans la même direction et le même pourcentage. La sortie doit être très décalée pour être remarquée par un auditeur moyen. En revanche, si les notes sont décalées d'une marge différente et dans des directions différentes, même les auditeurs les moins entraînés le remarqueront. | Il PC IBM originale e le varianti successive utilizzavano un Intel 8253 o 8254 come chip audio. Perché gli utenti hanno aggiunto schede audio come Adlib o Sound Blaster. Ricordo l'output vocale con programmi come le segreterie telefoniche. Il suono era debole, ma ho attribuito la maggior parte della qualità alle dimensioni degli altoparlanti.
Cosa mancava al chip audio originale del PC? | > Il PC IBM originale e le varianti successive utilizzavano un Intel 8253 o 8254 come chip audio.
L'8253 è un circuito temporizzatore, contenente tre timer in grado di generare interrupt temporizzati o onde quadre con frequenze programmate. Sul PC l'uscita del terzo timer è collegata, tramite un amplificatore, a un semplice altoparlante.
Come già detto, definire un 'semplice' timer un chip audio è piuttosto azzardato.
Trattandosi di un'uscita digitale, non è possibile controllare il livello. È possibile solo l'accensione o lo spegnimento. Nel migliore dei casi si ottengono onde quadre dal suono piuttosto sgradevole. Non c'è alcuna possibilità di smussare il segnale (a parte l'inerzia della membrana dell'altoparlante).
Inoltre, le uniche frequenze selezionabili sono quelle che risultano dalla divisione della frequenza di base (1.193.181,8 Hz) per un numero intero nell'intervallo 1–65535. Quindi, anche accettando la scarsa qualità del segnale, solo pochissime note possono essere suonate alla frequenza corretta. Già l'intonazione di base di un concerto a 440 Hz sarà fuori scala di 0,5 Hz. Quindi, qualsiasi cosa venga suonata usando il timer suonerà fuori intonazione. La musica può ancora suonare bene se un po' stonata, ma solo quando tutte le note sono stonate allo stesso modo (*1), cosa che non accade con questo "chip sonoro".
Naturalmente, ci sono anche modi per manipolare il suono in modo ancora migliore, gestendo manualmente l'uscita, il che comporta un utilizzo del 100% del tempo della CPU.
> Perché gli utenti hanno aggiunto schede audio come Adlib o Sound Blaster.
Semplicemente perché volevano il suono, o almeno la musica. Non solo un segnale acustico.
> Cosa mancava al chip audio originale del PC?
Come già detto, non è affatto un chip sonoro. Un chip sonoro avrà bisogno di oscillatori programmabili per diverse forme d'onda e di almeno un po' di ciruito analogico per ottenere un suono omogeneo e più naturale. Naturalmente, da un punto di vista ingegneristico, l'uso del timer da parte del PC è stato un grande miglioramento rispetto all'Apple II, il suo modello e la sua concorrenza, in quanto permetteva di emettere il bip in parallelo - non che questa funzione fosse utilizzata dal BIOS o dal DOS.
Infine, ma non meno importante, il PC è un sistema aperto. È fatto per aggiungere nuovo/migliore hardware. Quindi perché non dovrebbe esserci una vera scheda audio? Il miglioramento della macchina è una caratteristica fondamentale del progetto.
Aggiunta:
agtoever ha aggiunto un commento con un grande esempio di ciò che è stato possibile fare con la manipolazione diretta dell'altoparlante. Impressionante, ma meno che stupefacente se paragonato anche alla scheda audio più economica, la AdLib dello stesso periodo, utilizzata da Monkey Island. Utilizzo della CPU quasi nullo e suono nitido e chiaro. Per non parlare della facilità di programmazione. Lo definirei un enorme vantaggio.
*1 - L'uomo medio decodifica le frequenze in relazione tra loro. Di conseguenza, il suono viene percepito come buono anche se l'intera scala è spostata, purché nella stessa direzione e nella stessa percentuale. Per essere notati da un ascoltatore medio, i suoni devono essere molto distanti. Al contrario, se le note sono spostate di un margine diverso e in direzioni diverse, anche gli ascoltatori meno allenati se ne accorgeranno. |
252 | According to the sources I have found, a lambda expression is essentially implemented by the compiler creating a class with overloaded function call operator and the referenced variables as members. This suggests that the size of lambda expressions varies, and given enough references variables that size can be arbitrarily large.
An ```std::function``` should have a fixed size, but it must be able to wrap any kind of callables, including any lambdas of the same kind. How is it implemented? If ```std::function``` internally uses a pointer to its target, then what happens, when the ```std::function``` instance is copied or moved? Are there any heap allocations involved? | The implementation of ```std::function``` can differ from one implementation to another, but the core idea is that it uses type-erasure. While there are multiple ways of doing it, you can imagine a trivial (not optimal) solution could be like this (simplified for the specific case of ```std::function<int (double)>``` for the sake of simplicity):
```struct callable_base {
virtual int operator()(double d) = 0;
virtual ~callable_base() {}
};
template <typename F>
struct callable : callable_base {
F functor;
callable(F functor) : functor(functor) {}
virtual int operator()(double d) { return functor(d); }
};
class function_int_double {
std::unique_ptr<callable_base> c;
public:
template <typename F>
function(F f) {
c.reset(new callable<F>(f));
}
int operator()(double d) { return c(d); }
// ...
};
```
In this simple approach the ```function``` object would store just a ```unique_ptr``` to a base type. For each different functor used with the ```function```, a new type derived from the base is created and an object of that type instantiated dynamically. The ```std::function``` object is always of the same size and will allocate space as needed for the different functors in the heap.
In real life there are different optimizations that provide performance advantages but would complicate the answer. The type could use small object optimizations, the dynamic dispatch can be replaced by a free-function pointer that takes the functor as argument to avoid one level of indirection, but the idea is basically the same.
Regarding the issue of how copies of the ```std::function``` behave, a quick test indicates that copies of the internal callable object are done, rather than sharing the state.
```// g++4.8
int main() {
int value = 5;
typedef std::function<void()> fun;
fun f1 = [=]() mutable { std::cout << value++ << '\n' };
fun f2 = f1;
f1(); // prints 5
fun f3 = f1;
f2(); // prints 5
f3(); // prints 6 (copy after first increment)
}
```
The test indicates that ```f2``` gets a copy of the callable entity, rather than a reference. If the callable entity was shared by the different ```std::function<>``` objects, the output of the program would have been 5, 6, 7. | Nach den Quellen, die ich gefunden habe, wird ein Lambda-Ausdruck im Wesentlichen dadurch implementiert, dass der Compiler eine Klasse mit einem überladenen Funktionsaufrufoperator und den referenzierten Variablen als Mitgliedern erstellt. Dies deutet darauf hin, dass die Größe von Lambda-Ausdrücken variiert, und bei genügend Referenzvariablen kann diese Größe beliebig groß sein.
Eine ````std::function`` sollte eine feste Größe haben, aber sie muss in der Lage sein, jede Art von Callables zu verpacken, einschließlich Lambdas der gleichen Art. Wie wird sie implementiert? Wenn ````std::function`` intern einen Zeiger auf sein Ziel verwendet, was passiert dann, wenn die ````std::function`` Instanz kopiert oder verschoben wird? Sind irgendwelche Heap-Allokationen involviert? | Die Implementierung von ````std::function`` kann sich von einer Implementierung zur anderen unterscheiden, aber der Kerngedanke ist, dass sie die Typerkennung verwendet. Obwohl es mehrere Möglichkeiten gibt, kann man sich eine triviale (nicht optimale) Lösung wie folgt vorstellen (der Einfachheit halber für den speziellen Fall von ```std::function<int (double)>`` vereinfacht):
```struct callable_base {
virtual int operator()(double d) = 0;
virtual ~callable_base() {}
};
template <Typname F>
struct callable : callable_base {
F functor;
callable(F functor) : functor(functor) {}
virtual int operator()(double d) { return functor(d); }
};
class function_int_double {
std::unique_ptr<callable_base> c;
public:
template <Typenname F>
function(F f) {
c.reset(new callable<F>(f));
}
int operator()(double d) { return c(d); }
// ...
};
```
In diesem einfachen Ansatz würde das ```Funktions``-Objekt nur einen ``unique_ptr`` zu einem Basistyp speichern. Für jeden anderen Funktor, der mit der ```Funktion`` verwendet wird, wird ein neuer, vom Basistyp abgeleiteter Typ erzeugt und ein Objekt dieses Typs dynamisch instanziiert. Das ```std::function``-Objekt hat immer die gleiche Größe und weist den verschiedenen Funktoren den benötigten Platz im Heap zu.
Im wirklichen Leben gibt es verschiedene Optimierungen, die Leistungsvorteile bieten, aber die Antwort verkomplizieren würden. Der Typ könnte kleine Objektoptimierungen verwenden, das dynamische Dispatch kann durch einen Zeiger auf eine freie Funktion ersetzt werden, der den Funktor als Argument nimmt, um eine Ebene der Indirektion zu vermeiden, aber die Idee ist im Grunde dieselbe.
Bezüglich der Frage, wie sich Kopien der ```std::function``` verhalten, zeigt ein schneller Test, dass Kopien des internen aufrufbaren Objekts gemacht werden, anstatt den Zustand zu teilen.
```// g++4.8
int main() {
int Wert = 5;
typedef std::function<void()> fun;
fun f1 = [=]() mutable { std::cout << value++ << '\n' };
fun f2 = f1;
f1(); // druckt 5
fun f3 = f1;
f2(); // druckt 5
f3(); // druckt 6 (Kopie nach dem ersten Inkrement)
}
```
Der Test zeigt an, dass ```f2`` eine Kopie der aufrufbaren Entität erhält und nicht nur eine Referenz. Wäre die aufrufbare Entität von den verschiedenen ```std::function<>``-Objekten gemeinsam genutzt worden, hätte die Ausgabe des Programms 5, 6, 7 gelautet. | Según las fuentes que he encontrado, una expresión lambda se implementa esencialmente mediante la creación por parte del compilador de una clase con operador de llamada a función sobrecargado y las variables referenciadas como miembros. Esto sugiere que el tamaño de las expresiones lambda varía, y dadas suficientes variables de referencia ese tamaño puede ser arbitrariamente grande.
Una ```std::function`` debería tener un tamaño fijo, pero debe ser capaz de envolver cualquier tipo de callables, incluyendo cualquier lambda del mismo tipo. ¿Cómo se implementa? Si ``std::function`` utiliza internamente un puntero a su destino, ¿qué ocurre cuando se copia o se mueve la instancia de ``std::function``? ¿Hay alguna asignación de heap implicada? | La implementación de ```std::function`` puede diferir de una implementación a otra, pero la idea central es que utiliza la comprobación de tipos. Aunque hay múltiples formas de hacerlo, puedes imaginar que una solución trivial (no óptima) podría ser como esta (simplificada para el caso específico de ```std::function<int (double)>``` en aras de la simplicidad):
```struct callable_base {
virtual int operator()(double d) = 0;
virtual ~callable_base() {}
};
plantilla <typename F>
struct invocable : invocable_base {
F functor;
callable(F functor) : functor(functor) {}
virtual int operator()(double d) { return functor(d); }
};
clase functor_int_double {
std::unique_ptr<base_llamable> c;
public:
template <typename F>
function(F f) {
c.reset(new callable<F>(f));
}
int operator()(double d) { return c(d); }
// ...
};
```
En este sencillo enfoque, el objeto ``función`` almacenaría sólo una ``ptr`` única a un tipo base. Para cada functor diferente utilizado con la ``función``, se crea un nuevo tipo derivado de la base y un objeto de ese tipo instanciado dinámicamente. El objeto ```std::function`` es siempre del mismo tamaño y asignará el espacio necesario para los diferentes functores en el montón.
En la vida real existen diferentes optimizaciones que proporcionan ventajas de rendimiento pero que complicarían la respuesta. El tipo podría utilizar pequeñas optimizaciones de objeto, el envío dinámico puede ser reemplazado por un puntero de función libre que toma el functor como argumento para evitar un nivel de indirección, pero la idea es básicamente la misma.
Respecto a la cuestión de cómo se comportan las copias de ```std::function``, una prueba rápida indica que se hacen copias del objeto interno invocable, en lugar de compartir el estado.
```// g++4.8
int main() {
int valor = 5;
typedef std::function<void()> fun;
fun f1 = [=]() mutable { std::cout << value++ << '\n' };
fun f2 = f1;
f1(); // imprime 5
fun f3 = f1;
f2(); // imprime 5
f3(); // imprime 6 (copia después del primer incremento)
}
```
La prueba indica que ```f2`` obtiene una copia de la entidad invocable, en lugar de una referencia. Si la entidad invocable fuera compartida por los diferentes objetos ```std::function<>``, la salida del programa habría sido 5, 6, 7. | D'après les sources que j'ai trouvées, une expression lambda est essentiellement mise en œuvre par le compilateur qui crée une classe avec un opérateur d'appel de fonction surchargé et les variables référencées en tant que membres. Cela suggère que la taille des expressions lambda varie, et qu'avec suffisamment de variables référencées, cette taille peut être arbitrairement grande.
Une ``std::function`` devrait avoir une taille fixe, mais elle doit être capable d'envelopper n'importe quel type de variables appelables, y compris les lambdas du même type. Comment l'implémenter ? Si ``std::function`` utilise en interne un pointeur sur sa cible, que se passe-t-il lorsque l'instance de ``std::function`` est copiée ou déplacée ? Y a-t-il des allocations de tas impliquées ? | L'implémentation de ``std::function`` peut différer d'une implémentation à l'autre, mais l'idée de base est qu'elle utilise l'effacement de type. Bien qu'il y ait de multiples façons de le faire, vous pouvez imaginer une solution triviale (non optimale) comme celle-ci (simplifiée pour le cas spécifique de ``std::function<int (double)>`` pour des raisons de simplicité) :
```structure callable_base {
virtual int operator()(double d) = 0 ;
virtual ~callable_base() {}
} ;
template <typename F>
struct callable : callable_base {
F functor ;
callable(F functor) : functor(functor) {}
virtual int operator()(double d) { return functor(d) ; }
} ;
class function_int_double {
std::unique_ptr<callable_base> c ;
public :
template <typename F>
function(F f) {
c.reset(new callable<F>(f)) ;
}
int operator()(double d) { return c(d) ; }
// ...
} ;
```
Dans cette approche simple, l'objet ``fonction`` ne stocke qu'un ``ptr_unique`` vers un type de base. Pour chaque foncteur différent utilisé avec la ``fonction``, un nouveau type dérivé de la base est créé et un objet de ce type est instancié dynamiquement. L'objet ``std::function`` est toujours de la même taille et alloue l'espace nécessaire aux différents foncteurs dans le tas.
Dans la réalité, il existe différentes optimisations qui offrent des avantages en termes de performances, mais qui compliquent la réponse. Le type pourrait utiliser de petites optimisations d'objets, le dispatching dynamique peut être remplacé par un pointeur de fonction libre qui prend le foncteur comme argument pour éviter un niveau d'indirection, mais l'idée est fondamentalement la même.
En ce qui concerne le comportement des copies de ``std::function``, un test rapide indique que les copies de l'objet interne appelable sont effectuées, plutôt que de partager l'état.
```// g++4.8
int main() {
int valeur = 5 ;
typedef std::function<void()> fun ;
fun f1 = [=]() mutable { std::cout << value++ << '\n' } ;
fun f2 = f1 ;
f1() ; // imprime 5
fun f3 = f1 ;
f2() ; // imprime 5
f3() ; // imprime 6 (copie après le premier incrément)
}
```
Le test indique que ``f2`` obtient une copie de l'entité appelable, plutôt qu'une référence. Si l'entité appelable était partagée par les différents objets ``std::function<>``, la sortie du programme aurait été 5, 6, 7. | Secondo le fonti che ho trovato, un'espressione lambda è essenzialmente implementata dal compilatore che crea una classe con un operatore di chiamata di funzione sovraccarico e le variabili di riferimento come membri. Questo suggerisce che la dimensione delle espressioni lambda varia e, dato un numero sufficiente di variabili di riferimento, tale dimensione può essere arbitrariamente grande.
Una ``std::function'' dovrebbe avere una dimensione fissa, ma deve essere in grado di avvolgere qualsiasi tipo di callable, comprese le lambda dello stesso tipo. Come si implementa? Se ``std::function`` utilizza internamente un puntatore al suo obiettivo, cosa succede quando l'istanza di ``std::function`` viene copiata o spostata? Ci sono allocazioni di heap coinvolte? | L'implementazione di ``std::function`` può differire da un'implementazione all'altra, ma l'idea di base è che utilizza la type-erasure. Sebbene ci siano diversi modi per farlo, si può immaginare una soluzione banale (non ottimale) come questa (semplificata per il caso specifico di ``std::function<int (double)>`` per semplicità):
```struttura callable_base {
virtual int operator()(double d) = 0;
virtual ~callable_base() {}
};
template <typename F>
struct callable : callable_base {
F functor;
callable(F functor) : functor(functor) {}
virtual int operator()(double d) { return functor(d); }; }.
};
classe funzione_int_doppia {
std::unique_ptr<callable_base> c;
pubblico:
template <typename F>
function(F f) {
c.reset(new callable<F>(f));
}
int operator()(double d) { return c(d); }
// ...
};
```
In questo semplice approccio, l'oggetto ``funzione'' memorizzerebbe solo un ```unique_ptr'' a un tipo base. Per ogni diverso funtore usato con la ``funzione``, viene creato un nuovo tipo derivato dalla base e un oggetto di quel tipo viene istanziato dinamicamente. L'oggetto ``std::function'' ha sempre la stessa dimensione e alloca lo spazio necessario per i diversi funtori nell'heap.
Nella vita reale ci sono diverse ottimizzazioni che forniscono vantaggi in termini di prestazioni, ma che complicherebbero la risposta. Il tipo potrebbe usare piccole ottimizzazioni per gli oggetti, il dispatch dinamico può essere sostituito da un puntatore a funzione libera che prende il funtore come argomento per evitare un livello di indirezione, ma l'idea è fondamentalmente la stessa.
Per quanto riguarda il problema di come si comportano le copie della ``std::function'', un rapido test indica che vengono fatte copie dell'oggetto interno richiamabile, piuttosto che condividere lo stato.
```// g++4.8
int main() {
int valore = 5;
typedef std::function<void()> fun;
fun f1 = [=]() mutable { std::cout << value++ << '\n' };
fun f2 = f1;
f1(); // stampa 5
fun f3 = f1;
f2(); // stampa 5
f3(); // stampa 6 (copia dopo il primo incremento)
}
```
Il test indica che ```f2`` ottiene una copia dell'entità richiamabile, anziché un riferimento. Se l'entità richiamabile fosse stata condivisa dai diversi oggetti ``std::function<>``, l'output del programma sarebbe stato 5, 6, 7. |
253 | So, I'm on vacation in Utah, and so I attended an LDS service. In the morning, I heard a reading from one of the Presidents of the church during the "Quorum of the Elders," then went to Sunday School, and finally witnessed the Sacrement of the bread and water. (I guess it makes sense there was no wine, but it did make me go "Huh!") After that, there were testimonies from missionaries and some music - but nothing that struck me as a sermon.
Was I missing something, or was this an atypical service? I guess I was trying to understand what the "pastor"s role in the service was supposed to be - or again, is it just that Mormons are even more Baptist than baptists?
If someone could explain how instruction and exhortation are primarily conferred in the LDS church Id appreciate it. | Mormon services are a bit different, as you discovered. In the United States, there is generally a block of 3 meetings back-to-back including a sunday school, a mens' and women's time for instruction, and a sacrament meeting where the general congregation meets together. It sounds like the first meeting you attended was Priesthood meeting where the brothers study the words of scripture and modern Church leaders. Those classes usually have a single instructor each week.
Sacrament meeting is where any equivalence of a sermon would be heard. The primary difference between Mormon services and some others is the focal event of church meetings. The purpose behind holding a sacrament meeting is to take the sacrament and renew covenants made at baptism. The actual administration of the sacrament is the most sacred public meeting to Mormons. Hearing people speak and even interpersonal communion (socializing) is only secondary, though important.
Members of a ward, or local congregation, are invited to speak by the bishop or his counselors (the basic equivalent of a pastor) and will have some time to prepare a talk. Talks should draw from the scriptures, personal experience and testimony, and focus on the Savior. Note that comments made by church members over the pulpit at a sacrament meeting do not necessarily reflect the Church's official position on a topic or even Church doctrine.
The talks are meant to urge, inspire, and exhort all in attendance to come to Christ, to give them an opportunity to feel the power of the Spirit, and to strengthen their faith. Often, members will come with questions in their hearts and find answers in the words that day.
Counsel from leaders like a bishop sometimes occur over the pulpit, but usually this is private and individual, based on personal circumstances. The bishop and his counselors are supposed to meet with members regularly in interviews. There is no paid clergy, so all the service is volunteer.
Each member is also assigned two "home teachers" which visit their family once a month to share a gospel message, check on well-being, and be a friend and support especially when needed. In this way, instruction is given which might also help replace a typical sermon pattern. The bishop, his counselors, and others he calls on help organize these efforts. (It has also proven to be very quick and effective during disaster response, as home teachers immediately report in on who they teach, and bishops coordinate an effort if needed.
So what you saw was apparently quite normal. Even once a month (the first Sunday), a fast and testimony meeting is held during sacrament meeting, where members forgo preparing talks and instead bear their testimonies about Christ and the gospel for the hour as they feel a desire to do so. Instruction is very member-to-member, you might say, but is guided by the direction of a bishop and other church leaders who also inspire and instruct. | Ich bin also im Urlaub in Utah und habe einen LDS-Gottesdienst besucht. Am Morgen hörte ich eine Lesung von einem der Präsidenten der Kirche während des "Quorum of the Elders", ging dann zur Sonntagsschule und wurde schließlich Zeuge des Sakraments von Brot und Wasser. (Ich denke, es macht Sinn, dass es keinen Wein gab, aber ich dachte: "Huh!") Danach gab es Zeugnisse von Missionaren und etwas Musik - aber nichts, was mir wie eine Predigt vorkam.
Habe ich etwas übersehen, oder war dies ein untypischer Gottesdienst? Ich glaube, ich habe versucht zu verstehen, was die Rolle des "Pastors" im Gottesdienst sein sollte - oder ist es wieder so, dass Mormonen noch baptistischer sind als Baptisten?
Wenn jemand erklären könnte, wie Unterweisung und Ermahnung in der LDS-Kirche in erster Linie übertragen werden, wäre ich dankbar. | Die Gottesdienste der Mormonen sind ein wenig anders, wie Sie festgestellt haben. In den Vereinigten Staaten gibt es in der Regel einen Block von drei aufeinander folgenden Versammlungen, darunter eine Sonntagsschule, eine Unterweisung für Männer und Frauen und eine Sakramentsversammlung, in der die gesamte Gemeinde zusammenkommt. Es klingt so, als wäre die erste Versammlung, an der Sie teilgenommen haben, die Priestertumsversammlung gewesen, in der die Brüder die Worte der Heiligen Schrift und der modernen Kirchenführer studieren. Diese Kurse haben in der Regel einen einzigen Lehrer pro Woche.
Die Sakramentenversammlung ist der Ort, an dem man so etwas wie eine Predigt hören würde. Der Hauptunterschied zwischen den mormonischen Gottesdiensten und einigen anderen ist das zentrale Ereignis der Kirchentreffen. Der Zweck einer Sakramentensitzung ist die Spendung des Sakraments und die Erneuerung der bei der Taufe geschlossenen Bündnisse. Die eigentliche Spendung des Sakraments ist für die Mormonen die heiligste öffentliche Veranstaltung. Das Anhören von Reden und sogar die zwischenmenschliche Gemeinschaft (Geselligkeit) sind nur zweitrangig, wenn auch wichtig.
Die Mitglieder einer Gemeinde werden vom Bischof oder seinen Beratern (dem grundlegenden Äquivalent eines Pastors) eingeladen, einen Vortrag zu halten, und haben einige Zeit Zeit, diesen vorzubereiten. Die Vorträge sollten sich auf die Heilige Schrift, persönliche Erfahrungen und Zeugnisse stützen und sich auf den Erlöser konzentrieren. Beachten Sie, dass Äußerungen von Kirchenmitgliedern von der Kanzel bei einer Sakramentsversammlung nicht unbedingt die offizielle Position der Kirche zu einem Thema oder gar die Lehre der Kirche wiedergeben.
Die Vorträge sollen alle Anwesenden dazu anregen, inspirieren und ermahnen, zu Christus zu kommen, ihnen Gelegenheit geben, die Kraft des Geistes zu spüren und ihren Glauben zu stärken. Oft kommen die Mitglieder mit Fragen in ihrem Herzen und finden in den Worten des Tages Antworten.
Ratschläge von Leitern wie dem Bischof werden manchmal von der Kanzel aus erteilt, aber in der Regel sind sie privat und individuell und basieren auf den persönlichen Umständen. Der Bischof und seine Seelsorger sollen sich regelmäßig mit den Mitgliedern zu Gesprächen treffen. Es gibt keinen bezahlten Klerus, so dass der gesamte Dienst ehrenamtlich geleistet wird.
Jedem Mitglied werden außerdem zwei "Hauslehrer" zugeteilt, die die Familie einmal im Monat besuchen, um die Botschaft des Evangeliums zu verkünden, sich nach dem Wohlbefinden zu erkundigen und vor allem als Freund und Stütze zur Verfügung zu stehen. Auf diese Weise wird eine Anleitung gegeben, die auch dazu beitragen kann, ein typisches Predigtmuster zu ersetzen. Der Bischof, seine Seelsorger und andere, die er hinzuzieht, helfen bei der Organisation dieser Bemühungen. (Es hat sich auch bei Katastropheneinsätzen als sehr schnell und effektiv erwiesen, da die Heimlehrer sofort melden, wen sie unterrichten, und die Bischöfe bei Bedarf einen Einsatz koordinieren.
Was Sie gesehen haben, war also offenbar ganz normal. Sogar einmal im Monat (am ersten Sonntag) wird während der Sakramentensitzung ein Fasten- und Zeugnistreffen abgehalten, bei dem die Mitglieder auf die Vorbereitung von Vorträgen verzichten und stattdessen eine Stunde lang ihr Zeugnis über Christus und das Evangelium ablegen, wenn sie das Bedürfnis dazu verspüren. Die Unterweisung erfolgt sozusagen von Mitglied zu Mitglied, wird aber von einem Bischof und anderen Kirchenführern geleitet, die ebenfalls inspirieren und unterweisen. | Estoy de vacaciones en Utah, y asistí a un servicio SUD. Por la mañana, escuché una lectura de uno de los Presidentes de la iglesia durante el "Quórum de los Ancianos", luego fui a la Escuela Dominical, y finalmente presencié el Sacramento del pan y el agua. (Después hubo testimonios de misioneros y algo de música, pero nada que me pareciera un sermón.
¿Me estaba perdiendo algo, o se trataba de un servicio atípico? Supongo que estaba tratando de entender cuál se suponía que era el papel del "pastor" en el servicio - o de nuevo, ¿es sólo que los mormones son aún más bautistas que los bautistas?
Si alguien pudiera explicar cómo la instrucción y la exhortación se confieren principalmente en la iglesia SUD se lo agradecería. | Los servicios mormones son un poco diferentes, como has descubierto. En los Estados Unidos, generalmente hay un bloque de 3 reuniones consecutivas que incluyen una escuela dominical, un tiempo de instrucción para hombres y mujeres, y una reunión sacramental donde se reúne la congregación en general. Parece que la primera reunión a la que usted asistió fue la reunión del Sacerdocio, donde los hermanos estudian las palabras de las Escrituras y de los líderes modernos de la Iglesia. Esas clases suelen tener un solo instructor cada semana.
La reunión sacramental es donde se escucharía cualquier equivalencia de un sermón. La diferencia principal entre los servicios mormones y algunos otros es el evento central de las reuniones de la Iglesia. El propósito de celebrar una reunión sacramental es tomar el sacramento y renovar los pactos hechos en el bautismo. La administración real del sacramento es la reunión pública más sagrada para los mormones. Escuchar a la gente hablar e incluso la comunión interpersonal (socializar) es sólo secundario, aunque importante.
Los miembros de un barrio, o congregación local, son invitados a hablar por el obispo o sus consejeros (el equivalente básico de un pastor) y tendrán algún tiempo para preparar una charla. Las charlas deben basarse en las Escrituras, la experiencia personal y el testimonio, y centrarse en el Salvador. Tenga en cuenta que los comentarios que hagan los miembros de la Iglesia desde el púlpito en una reunión sacramental no reflejan necesariamente la postura oficial de la Iglesia sobre un tema ni tampoco la doctrina de la Iglesia.
Las charlas tienen por objeto instar, inspirar y exhortar a todos los asistentes a venir a Cristo, darles la oportunidad de sentir el poder del Espíritu y fortalecer su fe. A menudo, los miembros acuden con preguntas en el corazón y encuentran respuestas en las palabras de ese día.
El consejo de líderes como el obispo a veces se da desde el púlpito, pero normalmente es privado e individual, basado en circunstancias personales. Se supone que el obispo y sus consejeros se reúnen regularmente con los miembros en entrevistas. No hay clero remunerado, por lo que todo el servicio es voluntario.
A cada miembro se le asignan también dos "maestros a domicilio" que visitan a su familia una vez al mes para compartir un mensaje evangélico, comprobar su bienestar y ser un amigo y un apoyo especialmente cuando lo necesitan. De este modo, se imparte una instrucción que también puede ayudar a sustituir el típico modelo de sermón. El obispo, sus consejeros y otras personas a las que llama ayudan a organizar estos esfuerzos. (También ha demostrado ser muy rápido y eficaz durante la respuesta a desastres, ya que los maestros en el hogar informan inmediatamente a quién enseñan, y los obispos coordinan un esfuerzo si es necesario.
Así pues, lo que usted ha visto es, al parecer, bastante normal. Incluso una vez al mes (el primer domingo), se celebra una reunión de ayuno y testimonio durante la reunión sacramental, en la que los miembros renuncian a preparar charlas y en su lugar dan su testimonio sobre Cristo y el Evangelio durante la hora que sientan el deseo de hacerlo. Se podría decir que la instrucción es muy de miembro a miembro, pero está guiada por la dirección de un obispo y otros líderes de la iglesia que también inspiran e instruyen. | Je suis en vacances dans l'Utah, et j'ai donc assisté à un culte LDS. Le matin, j'ai entendu une lecture de l'un des présidents de l'église pendant le "Quorum of the Elders", puis je suis allé à l'école du dimanche, et enfin j'ai été témoin du sacrement du pain et de l'eau (je suppose que c'est logique qu'il n'y ait pas de vin, mais cela m'a fait dire "Huh !"). (Après cela, il y a eu des témoignages de missionnaires et un peu de musique - mais rien qui ne m'ait semblé être un sermon.
Est-ce que j'ai raté quelque chose, ou est-ce que c'était un service atypique ? Je suppose que j'essayais de comprendre quel était le rôle du "pasteur" dans le service - ou encore, est-ce simplement que les mormons sont encore plus baptistes que les baptistes ?
Si quelqu'un pouvait expliquer comment l'instruction et l'exhortation sont principalement conférées dans l'église LDS, j'apprécierais. | Les services mormons sont un peu différents, comme vous l'avez découvert. Aux États-Unis, il y a généralement un bloc de trois réunions consécutives comprenant une école du dimanche, un temps d'instruction pour les hommes et les femmes, et une réunion de sacrement au cours de laquelle l'assemblée générale se réunit. Il semble que la première réunion à laquelle vous avez assisté était une réunion de prêtrise au cours de laquelle les frères étudient les paroles des Écritures et les dirigeants modernes de l'Église. Ces cours ont généralement un seul instructeur par semaine.
C'est lors de la réunion des sacrements que l'on entend l'équivalent d'un sermon. La principale différence entre les services mormons et d'autres est l'événement central des réunions d'église. L'objectif de la réunion des sacrements est de recevoir le sacrement et de renouveler les engagements pris lors du baptême. L'administration du sacrement est la réunion publique la plus sacrée pour les mormons. Le fait d'entendre les gens parler et même la communion interpersonnelle (socialisation) ne sont que secondaires, bien qu'importants.
Les membres d'une paroisse ou d'une congrégation locale sont invités à prendre la parole par l'évêque ou ses conseillers (l'équivalent d'un pasteur) et disposent d'un certain temps pour préparer leur discours. Les discours doivent s'appuyer sur les Écritures, l'expérience personnelle et le témoignage, et se concentrer sur le Sauveur. Notez que les commentaires faits par les membres de l'Église en chaire lors d'une réunion de sacrement ne reflètent pas nécessairement la position officielle de l'Église sur un sujet ou même la doctrine de l'Église.
Les discours ont pour but d'inciter, d'inspirer et d'exhorter toutes les personnes présentes à venir au Christ, de leur donner l'occasion de ressentir la puissance de l'Esprit et de fortifier leur foi. Souvent, les membres viennent avec des questions dans leur cœur et trouvent des réponses dans les paroles prononcées ce jour-là.
Les conseils de responsables tels que l'évêque sont parfois donnés en chaire, mais ils sont généralement privés et individuels, en fonction des circonstances personnelles. L'évêque et ses conseillers sont censés rencontrer régulièrement les membres lors d'entretiens. Il n'y a pas de clergé rémunéré, tout le service est donc bénévole.
Chaque membre se voit également attribuer deux "enseignants à domicile" qui rendent visite à leur famille une fois par mois pour partager un message de l'Évangile, s'assurer de leur bien-être, et être leur ami et leur soutien en cas de besoin. De cette façon, l'instruction est donnée, ce qui peut aussi aider à remplacer un modèle de sermon typique. L'évêque, ses conseillers et d'autres personnes qu'il appelle aident à organiser ces efforts. (Cette méthode s'est également avérée très rapide et efficace en cas de catastrophe, car les enseignants à domicile signalent immédiatement les personnes qu'ils instruisent et les évêques coordonnent les efforts si nécessaire.
Ce que vous avez vu était donc apparemment tout à fait normal. Même une fois par mois (le premier dimanche), une réunion de jeûne et de témoignage est organisée pendant la réunion de sacrement, au cours de laquelle les membres renoncent à préparer des discours et témoignent plutôt du Christ et de l'Évangile pendant l'heure où ils en ressentent le désir. L'enseignement est très personnalisé, mais il est guidé par un évêque et d'autres dirigeants de l'Église qui inspirent et instruisent également. | Sono in vacanza nello Utah e ho partecipato a una funzione LDS. Al mattino ho ascoltato la lettura di uno dei presidenti della Chiesa durante il "Quorum degli anziani", poi ho frequentato la Scuola Domenicale e infine ho assistito al sacramento del pane e dell'acqua. (Dopo di che ci sono state le testimonianze dei missionari e un po' di musica, ma niente che mi abbia colpito come un sermone.
Mi sono perso qualcosa o si trattava di un servizio atipico? Credo che stessi cercando di capire quale dovesse essere il ruolo del "pastore" nel servizio - o ancora, è solo che i mormoni sono ancora più battisti dei battisti?
Se qualcuno può spiegare in che modo l'istruzione e l'esortazione sono conferite principalmente nella Chiesa LDS, lo apprezzerei molto. | I servizi mormoni sono un po' diversi, come avete scoperto. Negli Stati Uniti, in genere c'è un blocco di tre riunioni consecutive, tra cui una scuola domenicale, un momento di istruzione per uomini e donne e una riunione sacramentale in cui la congregazione generale si riunisce. Sembra che la prima riunione a cui hai partecipato sia stata quella del Sacerdozio, in cui i fratelli studiano le parole delle Scritture e dei dirigenti moderni della Chiesa. Queste lezioni di solito hanno un unico istruttore ogni settimana.
La riunione sacramentale è il luogo in cui si ascolta l'equivalente di un sermone. La differenza principale tra i servizi mormoni e altri è l'evento centrale delle riunioni di chiesa. Lo scopo della riunione sacramentale è quello di ricevere il sacramento e rinnovare le alleanze fatte al momento del battesimo. L'amministrazione effettiva del sacramento è la riunione pubblica più sacra per i mormoni. Ascoltare le persone che parlano e persino la comunione interpersonale (socializzazione) sono solo secondari, anche se importanti.
I membri di un rione, o di una congregazione locale, sono invitati a parlare dal vescovo o dai suoi consiglieri (l'equivalente base di un pastore) e avranno un po' di tempo per preparare un discorso. I discorsi devono attingere alle Scritture, all'esperienza personale e alla testimonianza, e concentrarsi sul Salvatore. Si noti che i commenti fatti dai membri della Chiesa dal pulpito durante una riunione sacramentale non riflettono necessariamente la posizione ufficiale della Chiesa su un argomento e nemmeno la dottrina della Chiesa.
I discorsi hanno lo scopo di esortare, ispirare ed esortare tutti i presenti a venire a Cristo, di dare loro l'opportunità di sentire il potere dello Spirito e di rafforzare la loro fede. Spesso i membri arrivano con domande nel cuore e trovano risposte nelle parole di quel giorno.
A volte i consigli dei leader, come il vescovo, vengono dati dal pulpito, ma di solito si tratta di consigli privati e individuali, basati sulle circostanze personali. Il vescovo e i suoi consiglieri dovrebbero incontrare regolarmente i membri durante i colloqui. Non esiste un clero retribuito, quindi tutto il servizio è volontario.
A ogni membro vengono assegnati anche due "insegnanti domestici" che visitano la famiglia una volta al mese per condividere un messaggio del Vangelo, controllare il benessere, essere un amico e un sostegno soprattutto quando necessario. In questo modo, vengono impartite istruzioni che possono anche sostituire il tipico modello di sermone. Il vescovo, i suoi consiglieri e altri che egli chiama in causa aiutano a organizzare questi sforzi. (Questo metodo si è dimostrato molto rapido ed efficace anche in caso di risposta a un disastro, poiché gli insegnanti a domicilio fanno immediatamente rapporto su chi insegna e i vescovi coordinano uno sforzo se necessario).
Quindi quello che avete visto è apparentemente normale. Anche una volta al mese (la prima domenica), durante la riunione sacramentale si tiene una riunione di digiuno e testimonianza, in cui i membri rinunciano a preparare i discorsi e portano invece la loro testimonianza di Cristo e del Vangelo per l'ora in cui sentono il desiderio di farlo. L'istruzione è molto orientata da membro a membro, si potrebbe dire, ma è guidata dalla direzione di un vescovo e di altri dirigenti della Chiesa che ispirano e istruiscono. |
254 | A partir de un String, ```"123-654321"```, lo que deseo es dividirlo en dos Strings:
```string1=123
string2=654321
``` | Tres formas diferentes de hacerlo:
1. Utilizando la función ```String.split()``` :
``` String str = "123-654321";
String[] parts = str.split("-");
```
Esta solución utiliza expresiones regulares, así que no es lo más eficiente si no estas trabajando con ellas.
2. Utilizando la clase ```StringTokenizer``` :
```static private List fastSplit(final String text, final String separator, final boolean emptyStrings){
List result = new ArrayList();
final StringTokenizer st = new StringTokenizer(text, separator, true);
String token = null;
String lastToken = separator;
while (st.hasMoreTokens()) {
token = st.nextToken();
if (token.equals(separator)) {
if (lastToken.equals(separator) && emptyStrings) {
result.add("");
}
} else {
result.add(token);
}
lastToken = token;
}
return result;
}
```
El problema con este método es que solo funciona bien cuando el delimitador tiene longitud 1.
3. Implementarlo usando ```String.indexOf()``` :
En este caso si funcionará correctamente para delimitadores de cualquier longitud.
```static private List fastSplit2(final String text, final String separator, final boolean emptyStrings) {
final List result = new ArrayList();
if (text != null && text.length() > 0) {
int index1 = 0;
int index2 = text.indexOf(separator);
int sepLen = separator.length();
while (index2 >= 0) {
String token = text.substring(index1, index2);
if (!token.isEmpty() || emptyStrings){
result.add(token);
}
index1 = index2 + sepLen;
index2 = text.indexOf(separator, index1);
}
if (index1 < text.length() - 1) {
result.add(text.substring(index1));
}
}
return result;
}
``` | Aus einem String, ````"123-654321"```, möchte ich ihn in zwei Strings aufteilen:
````string1=123
Zeichenfolge2=654321
``` | Es gibt drei verschiedene Möglichkeiten, dies zu tun:
1. mit der Funktion ````String.split()``` :
```` String str = "123-654321";
String[] parts = str.split("-");
```
Diese Lösung verwendet reguläre Ausdrücke und ist daher nicht die effizienteste, wenn Sie nicht mit ihnen arbeiten.
2. Verwendung der Klasse ```StringTokenizer``:
````static private List fastSplit(final String text, final String separator, final boolean emptyStrings){
List result = new ArrayList();
final StringTokenizer st = new StringTokenizer(text, separator, true);
String token = null;
String lastToken = trennzeichen;
while (st.hasMoreTokens()) {
token = st.nextToken();
if (token.equals(trennzeichen)) {
if (lastToken.equals(separator) && emptyStrings) {
result.add("");
}
} else {
result.add(token);
}
lastToken = token;
}
return result;
}
```
Das Problem bei dieser Methode ist, dass sie nur gut funktioniert, wenn das Trennzeichen die Länge 1 hat.
3. Implementieren Sie sie mit ````String.indexOf()```:
In diesem Fall funktioniert sie korrekt für Begrenzungszeichen beliebiger Länge.
````static private List fastSplit2(final String text, final String separator, final boolean emptyStrings) { ````static List fastSplit2(final String text, final String separator, final boolean emptyStrings) {
final List result = new ArrayList();
if (text != null && text.length() > 0) {
int index1 = 0;
int index2 = text.indexOf(trennzeichen);
int sepLen = separator.length();
while (index2 >= 0) {
String token = text.substring(index1, index2);
if (!token.isEmpty() || emptyStrings){
result.add(token);
}
index1 = index2 + sepLen;
index2 = text.indexOf(trennzeichen, index1);
}
if (index1 < text.length() - 1) {
result.add(text.substring(index1));
}
}
return result;
}
``` | A partir de un String, ```"123-654321"```, lo que deseo es dividirlo en dos Strings:
```string1=123
string2=654321
``` | Tres formas diferentes de hacerlo:
1. Utilizando la función ```String.split()``` :
``` String str = "123-654321";
String[] parts = str.split("-");
```
Esta solución utiliza expresiones regulares, así que no es lo más eficiente si no estas trabajando con ellas.
2. Utilizando la clase ```StringTokenizer``` :
```static private List fastSplit(final String text, final String separator, final boolean emptyStrings){
List result = new ArrayList();
final StringTokenizer st = new StringTokenizer(text, separator, true);
String token = null;
String lastToken = separator;
while (st.hasMoreTokens()) {
token = st.nextToken();
if (token.equals(separator)) {
if (lastToken.equals(separator) && emptyStrings) {
result.add("");
}
} else {
result.add(token);
}
lastToken = token;
}
return result;
}
```
El problema con este método es que solo funciona bien cuando el delimitador tiene longitud 1.
3. Implementarlo usando ```String.indexOf()``` :
En este caso si funcionará correctamente para delimitadores de cualquier longitud.
```static private List fastSplit2(final String text, final String separator, final boolean emptyStrings) {
final List result = new ArrayList();
if (text != null && text.length() > 0) {
int index1 = 0;
int index2 = text.indexOf(separator);
int sepLen = separator.length();
while (index2 >= 0) {
String token = text.substring(index1, index2);
if (!token.isEmpty() || emptyStrings){
result.add(token);
}
index1 = index2 + sepLen;
index2 = text.indexOf(separator, index1);
}
if (index1 < text.length() - 1) {
result.add(text.substring(index1));
}
}
return result;
}
``` | A partir d'une chaîne, ````"123-654321"``, je veux la diviser en deux chaînes :
````string1=123
chaîne2=654321
``` | Il y a trois façons différentes de procéder :
1. en utilisant la fonction ````String.split()``` :
```` String str = "123-654321" ;
String[] parts = str.split("-") ;
```
Cette solution utilise des expressions régulières, elle n'est donc pas la plus efficace si vous ne travaillez pas avec elles.
2. Utiliser la classe ``StringTokenizer`` :
````static private List fastSplit(final String text, final String separator, final boolean emptyStrings){
List result = new ArrayList() ;
final StringTokenizer st = new StringTokenizer(text, separator, true) ;
String token = null ;
String lastToken = separator ;
while (st.hasMoreTokens()) {
token = st.nextToken() ;
if (token.equals(separator)) {
if (lastToken.equals(separator) && emptyStrings) {
result.add("") ;
}
} else {
result.add(token) ;
}
lastToken = token ;
}
return result ;
}
```
Le problème de cette méthode est qu'elle ne fonctionne bien que lorsque le délimiteur est de longueur 1.
3. Implémentez-la en utilisant ````String.indexOf()``` :
Dans ce cas, elle fonctionnera correctement pour les délimiteurs de n'importe quelle longueur.
````static private List fastSplit2(final String text, final String separator, final boolean emptyStrings) { ````static List fastSplit2(final String text, final String separator, final boolean emptyStrings) {
final List result = new ArrayList() ;
if (text != null && text.length() > 0) {
int index1 = 0 ;
int index2 = text.indexOf(separator) ;
int sepLen = separator.length() ;
while (index2 >= 0) {
String token = text.substring(index1, index2) ;
if (!token.isEmpty() || emptyStrings){
result.add(token) ;
}
index1 = index2 + sepLen ;
index2 = text.indexOf(separator, index1) ;
}
if (index1 < text.length() - 1) {
result.add(text.substring(index1)) ;
}
}
return result ;
}
``` | Da una stringa, ````"123-654321"```, voglio dividerla in due stringhe:
````stringa1=123
stringa2=654321
``` | Ci sono tre modi diversi per farlo:
1. utilizzando la funzione ````String.split()``` :
```` Stringa str = "123-654321";
String[] parts = str.split("-");
```
Questa soluzione utilizza le espressioni regolari, quindi non è la più efficiente se non si lavora con esse.
2. Utilizzo della classe ``StringTokenizer``:
````static private List fastSplit(final String text, final String separator, final boolean emptyStrings){
List result = new ArrayList();
final StringTokenizer st = new StringTokenizer(text, separator, true);
String token = null;
String lastToken = separatore;
while (st.hasMoreTokens()) {
token = st.nextToken();
se (token.equals(separatore)) {
se (lastToken.equals(separator) && emptyStrings) {
result.add(");
}
} else {
result.add(token);
}
lastToken = token;
}
return result;
}
```
Il problema di questo metodo è che funziona bene solo se il delimitatore ha lunghezza 1.
3. Implementarlo utilizzando ````String.indexOf()``` :
In questo caso funzionerà correttamente per delimitatori di qualsiasi lunghezza.
````static private List fastSplit2(final String text, final String separator, final boolean emptyStrings) { ````static List fastSplit2(final String text, final String separator, final boolean emptyStrings) {
final List result = new ArrayList();
if (text != null && text.length() > 0) {
int indexx1 = 0;
int index2 = text.indexOf(separatore);
int sepLen = separator.length();
while (index2 >= 0) {
String token = text.substring(index1, index2);
if (!token.isEmpty() || emptyStrings){
result.add(token);
}
index1 = index2 + sepLen;
index2 = text.indexOf(separatore, index1);
}
se (index1 < testo.lunghezza() - 1) {
result.add(text.substring(index1));
}
}
return result;
}
``` |
255 | What’s the difference between ```\n``` (newline) and ```\r``` (carriage return)?
In particular, are there any practical differences between ```\n``` and ```\r```? Are there places where one should be used instead of the other? | In terms of ascii code, it's 3 -- since they're 10 and 13 respectively.
But seriously, there are many differences:
* in Unix and all Unix-like systems, ```\n``` is the code for end-of-line, ```\r``` means nothing special
* as a consequence, in C and most languages that somehow copy it (even remotely), ```\n``` is the standard escape sequence for end of line (translated to/from OS-specific sequences as needed)
* in old Mac systems (pre-OS X), ```\r``` was the code for end-of-line instead
* in Windows (and many old OSs), the code for end of line is 2 characters, ```\r\n```, in this order
* as a surprising consequence (harking back to OSs much older than Windows), ```\r\n``` is the standard line-termination for text formats on the Internet
* for electromechanical teletype-like "terminals", ```\r``` commands the carriage to go back leftwards until it hits the leftmost stop (a slow operation), ```\n``` commands the roller to roll up one line (a much faster operation) -- that's the reason you always have ```\r``` before ```\n```, so that the roller can move while the carriage is still going leftwards!-) Wikipedia has a more detailed explanation.
* for character-mode terminals (typically emulating even-older printing ones as above), in raw mode, ```\r``` and ```\n``` act similarly (except both in terms of the cursor, as there is no carriage or roller.
In practice, in the modern context of writing to a text file, you should always use ```\n``` (the underlying runtime will translate that if you're on a weird OS, e.g., Windows. The only reason to use ```\r``` is if you're writing to a character terminal (or more likely a "console window" emulating it) and want the next line you write to overwrite the last one you just wrote (sometimes used for goofy "ascii animation" effects of e.g. progress bars) -- this is getting pretty obsolete in a world of GUIs, though | Was ist der Unterschied zwischen ```n`` (Zeilenumbruch) und ```r`` (Wagenrücklauf)?
Gibt es insbesondere praktische Unterschiede zwischen ```\n`` und ```\r``? Gibt es Stellen, an denen der eine anstelle des anderen verwendet werden sollte? | Was den ASCII-Code betrifft, so ist es 3, da sie 10 bzw. 13 sind.
Aber im Ernst: Es gibt viele Unterschiede:
* In Unix und allen Unix-ähnlichen Systemen ist ````n`` der Code für das Zeilenende, ````r`` bedeutet nichts besonderes
* In C und den meisten Sprachen, die es irgendwie (auch nur entfernt) kopieren, ist ```\n`` die Standard-Escape-Sequenz für das Zeilenende (je nach Bedarf in/aus betriebssystemspezifischen Sequenzen übersetzt)
* In alten Mac-Systemen (vor OS X) war stattdessen ```r`` der Code für das Zeilenende
* in Windows (und vielen alten Betriebssystemen) ist der Code für das Zeilenende 2 Zeichen, ````r\n``, in dieser Reihenfolge
* Als überraschende Konsequenz (die auf Betriebssysteme zurückgeht, die viel älter als Windows sind), ist ```r\n`` der Standard-Zeilenabschluss für Textformate im Internet
* Bei elektromechanischen, fernschreiberähnlichen "Terminals" befiehlt ```\r`` dem Wagen, nach links zurückzufahren, bis er auf den äußersten linken Anschlag trifft (ein langsamer Vorgang), ```\n`` befiehlt der Walze, eine Zeile nach oben zu rollen (ein sehr viel schnellerer Vorgang) -- das ist der Grund, warum man ```\r`` immer vor ```\n`` hat, damit sich die Walze bewegen kann, während der Wagen noch nach links fährt!-) Wikipedia hat eine ausführlichere Erklärung.
* Für Terminals im Zeichenmodus (typischerweise die Emulation von noch älteren Druckerterminals wie oben) verhalten sich ```\r`` und ```\n`` im Rohmodus ähnlich (außer in Bezug auf den Cursor, da es keinen Schlitten oder eine Rolle gibt.
In der Praxis, im modernen Kontext des Schreibens in eine Textdatei, sollten Sie immer ```\n`` verwenden (die zugrundeliegende Laufzeitumgebung wird das übersetzen, wenn Sie auf einem seltsamen Betriebssystem sind, z.B. Windows. Der einzige Grund, ```\r`` zu verwenden, ist, wenn man in ein Terminal (oder eher ein "Konsolenfenster", das ein solches emuliert) schreibt und möchte, dass die nächste Zeile, die man schreibt, die letzte, die man gerade geschrieben hat, überschreibt (manchmal wird dies für alberne "Ascii-Animations"-Effekte, z.B. bei Fortschrittsbalken, verwendet) -- dies ist allerdings in einer Welt von GUIs ziemlich veraltet | ¿Cuál es la diferencia entre ```n`` (nueva línea) y ```r`` (retorno de carro)?
En concreto, ¿hay alguna diferencia práctica entre ```n`` y ```r``? ¿Hay lugares en los que debería utilizarse uno en lugar del otro? | En términos de código ascii, es 3 -- ya que son 10 y 13 respectivamente.
Pero en serio, hay muchas diferencias:
* en Unix y todos los sistemas tipo Unix, ```n`` es el código de fin de línea, ```r`` no significa nada especial
* como consecuencia, en C y en la mayoría de los lenguajes que de alguna manera lo copian (incluso remotamente), `````` es la secuencia de escape estándar para fin de línea (traducida a/desde secuencias específicas del SO según sea necesario)
* en los viejos sistemas Mac (pre-OS X), ```\r`` era el código de fin de línea.
* en Windows (y muchos sistemas operativos antiguos), el código de fin de línea es de 2 caracteres, ```\r\n``, en este orden
* Como consecuencia sorprendente (que se remonta a sistemas operativos mucho más antiguos que Windows), ```r\n`` es la terminación de línea estándar para los formatos de texto en Internet.
* para los "terminales" electromecánicos tipo teletipo, ````r`` ordena al carro que retroceda hacia la izquierda hasta que llegue al tope izquierdo (una operación lenta), ````n`` ordena al rodillo que suba una línea (una operación mucho más rápida) -- ¡esa es la razón por la que siempre tienes ````r`` antes de ``````, para que el rodillo pueda moverse mientras el carro todavía va hacia la izquierda!-) Wikipedia tiene una explicación más detallada.
* Para los terminales en modo carácter (que suelen emular a los de impresión más antiguos), en modo raw, ```r`` y ```n`` actúan de forma similar (excepto en lo que se refiere al cursor, ya que no hay carro ni rodillo.
En la práctica, en el contexto moderno de la escritura a un archivo de texto, siempre se debe utilizar ```\n`` (el tiempo de ejecución subyacente traducirá que si estás en un sistema operativo raro, por ejemplo, Windows. La única razón para usar ```\r`` es si estás escribiendo en un terminal de caracteres (o más probablemente en una "ventana de consola" que lo emule) y quieres que la siguiente línea que escribas sobrescriba la última que acabas de escribir (a veces se usa para efectos de "animación ascii" de, por ejemplo, barras de progreso) -- aunque esto se está volviendo bastante obsoleto en un mundo de GUIs. | Quelle est la différence entre ``\n`` (nouvelle ligne) et ``\r`` (retour chariot) ?
En particulier, y a-t-il des différences pratiques entre ``\n`` et ``\r`` ? Y a-t-il des endroits où l'un devrait être utilisé à la place de l'autre ? | En termes de code ascii, c'est 3 -- puisqu'ils sont respectivement 10 et 13.
Mais sérieusement, il y a beaucoup de différences :
* dans Unix et tous les systèmes similaires à Unix, "``n``" est le code pour la fin de ligne, "``r``" ne signifie rien de spécial
* En conséquence, en C et dans la plupart des langages qui le copient d'une manière ou d'une autre (même à distance), ``n`` est la séquence d'échappement standard pour la fin de ligne (traduite en/depuis des séquences spécifiques au système d'exploitation si nécessaire)
* dans les anciens systèmes Mac (avant OS X), ``\r`` était le code pour la fin de ligne à la place
* sous Windows (et beaucoup d'anciens systèmes d'exploitation), le code de fin de ligne est composé de 2 caractères, ``\r\n``, dans cet ordre
* Conséquence surprenante (qui renvoie à des systèmes d'exploitation bien plus anciens que Windows), ``r\n`` est la terminaison de ligne standard pour les formats de texte sur Internet.
* pour les "terminaux" électromécaniques de type télétype, ``\r`` commande au chariot de reculer vers la gauche jusqu'à ce qu'il atteigne la butée la plus à gauche (une opération lente), ``\n`` commande au rouleau de remonter d'une ligne (une opération beaucoup plus rapide) -- c'est la raison pour laquelle vous avez toujours ``\r`` avant ``\n```, afin que le rouleau puisse se déplacer alors que le chariot va toujours vers la gauche!-) Wikipedia a une explication plus détaillée.
* Pour les terminaux en mode caractère (émulant typiquement les anciens terminaux d'impression comme ci-dessus), en mode brut, ``r`` et ``n`` agissent de manière similaire (sauf en ce qui concerne le curseur, car il n'y a pas de chariot ou de rouleau).
En pratique, dans le contexte moderne de l'écriture dans un fichier texte, vous devriez toujours utiliser ``\n`` (le moteur d'exécution sous-jacent traduira cela si vous êtes sur un système d'exploitation bizarre, par exemple Windows). La seule raison d'utiliser ``\r`` est si vous écrivez dans un terminal de caractères (ou plus probablement dans une "fenêtre console" qui l'émule) et que vous voulez que la prochaine ligne que vous écrivez écrase la dernière que vous venez d'écrire (parfois utilisé pour des effets bizarres d'"animation ascii", par exemple pour les barres de progression) -- cela devient assez obsolète dans un monde d'interfaces graphiques, cependant. | Qual è la differenza tra ````n``` (newline) e ````r``` (carriage return)?
In particolare, ci sono differenze pratiche tra ```n``` e ````r```? Ci sono luoghi in cui uno dei due dovrebbe essere usato al posto dell'altro? | In termini di codice ascii, è 3 -- dato che hanno rispettivamente 10 e 13 anni.
Ma, a dire il vero, ci sono molte differenze:
* in Unix e in tutti i sistemi Unix-like, ```n`` è il codice di fine riga, ````r``` non significa nulla di speciale.
* di conseguenza, in C e nella maggior parte dei linguaggi che in qualche modo lo copiano (anche lontanamente), ````n``` è la sequenza di escape standard per la fine della riga (tradotta in/da sequenze specifiche del sistema operativo a seconda delle necessità)
* Nei vecchi sistemi Mac (prima di OS X), ````r``` era invece il codice per la fine della riga.
* in Windows (e in molti vecchi sistemi operativi), il codice per la fine della riga è costituito da 2 caratteri, ````r````, in quest'ordine
* come conseguenza sorprendente (che risale a sistemi operativi molto più vecchi di Windows), ````r\n``` è la terminazione di riga standard per i formati di testo su Internet
* Per i terminali elettromeccanici simili alle telescriventi, ````r``` comanda al carrello di tornare indietro verso sinistra fino a toccare l'arresto più a sinistra (un'operazione lenta), mentre ````n``` comanda al rullo di arrotolarsi su una riga (un'operazione molto più veloce) -- questo è il motivo per cui c'è sempre ````r```` prima di ````n```, in modo che il rullo possa muoversi mentre il carrello sta ancora andando verso sinistra!) Wikipedia offre una spiegazione più dettagliata.
* Per i terminali in modalità carattere (che emulano tipicamente i vecchi terminali di stampa come sopra), in modalità raw, ````r``` e ````n``` si comportano in modo simile (tranne che per quanto riguarda il cursore, dato che non ci sono né carrello né rullo.
In pratica, nel contesto moderno della scrittura su un file di testo, si dovrebbe sempre usare ````n``` (il runtime sottostante lo tradurrà se si utilizza un sistema operativo strano, ad esempio Windows. L'unica ragione per usare ````r``` è se si sta scrivendo su un terminale a caratteri (o più probabilmente su una "finestra di console" che lo emula) e si vuole che la riga successiva che si scrive sovrascriva l'ultima appena scritta (a volte usato per effetti strani di "animazione ascii", ad esempio per le barre di avanzamento). |
256 | Assume that I am a programmer and I have an NP-complete problem that I need to solve it. What methods are available to deal with NPC problems? Is there a survey or something similar on this topic? | There are a number of well-studied strategies; which is best in your application depends on circumstance.
* Improve worst case runtime
Using problem-specific insight, you can often improve the naive algorithm. For instance, there are $O(c^n)$ algorithms for Vertex Cover with $c huge improvement over the naive $\Omega(2^n)$ and might make instance sizes relevant for you tractable.
* Improve expected runtime
Using heuristics, you can often devise algorithms that are fast on many instances. If those include most that you meet in practice, you are golden. Examples are SAT for which quite involved solvers exist, and the Simplex algorithm (which solves a polynomial problem, but still). One basic technique that is often helpful is branch and bound.
* Restrict the problem
If you can make more assumptions on your inputs, the problem may become easy.
* Structural properties
Your inputs may have properties that simplify solving the problem, e.g. planarity, bipartiteness or missing a minor for graphs. See here for some examples of graph classes for which CLIQUE is easy.
* Bounding functions of the input
Another thing to look at is parameterised complexity; some problems are solvable in time $O(2^kn^m)$ for $k$ some instance parameter (maximum node degree, maximum edge weight, ...) and $m$ constant. If you can bound $k$ by a polylogarithmic function in $n$ in your setting, you get polynomial algorithms. Saeed Amiri gives details in his answer.
* Bounding input quantities
Furthermore, some problems admit algorithms that run in pseudo-polynomial time, that is their runtime is bounded by a polynomial function in a number that is part of the input; the naive primality check is an example. This means that if the quantities encoded in your instances have reasonable size, you might have simple algorithms that behave well for you.
* Weaken the result
This means that you tolerate errorneous or incomplete results. There are two main flavors:
* Probabilistic algorithms
You only get the correct result with some probability. There are some variants, most notable Monte-Carlo and Las-Vegas algorithms. A famous example is the Miller-Rabin primality test.
* Approximation algorithms
You no longer look for optimal solutions but almost optimal ones. Some algorithms admit relative ("no worse than double the optimum"), others absolute ("no worse than $5$ plus the optimum") bounds on the error. For many problems it is open how well they can be approximated. There are some that can be approximated arbitrarily well in polynomial time, while others are known to not allow that; check the theory of polynomial-time approximation schemes.
Refer to Algorithmics for Hard Problems by Hromkovič for a thorough treatment.
* Simplicity is beauty: Improved upper bounds for vertex cover by Chen Jianer, Iyad A. Kanj, Ge Xia (2005)
| Angenommen, ich bin Programmierer und habe ein NP-komplettes Problem, das ich lösen muss. Welche Methoden gibt es, um mit NP-Problemen umzugehen? Gibt es eine Umfrage oder etwas Ähnliches zu diesem Thema? | Es gibt eine Reihe von gut untersuchten Strategien; welche für Ihre Anwendung am besten geeignet ist, hängt von den Umständen ab.
* Verbesserung der Worst-Case-Laufzeit
Mit Hilfe von problemspezifischen Erkenntnissen kann man oft den naiven Algorithmus verbessern. So gibt es beispielsweise $O(c^n)$-Algorithmen für Vertex Cover mit $c eine enorme Verbesserung gegenüber dem naiven $\Omega(2^n)$ und könnte die für Sie relevanten Instanzgrößen handhabbar machen.
* Verbesserung der erwarteten Laufzeit
Mit Hilfe von Heuristiken kann man oft Algorithmen entwickeln, die auf vielen Instanzen schnell sind. Wenn dazu die meisten Instanzen gehören, die man in der Praxis antrifft, ist das Gold wert. Beispiele dafür sind SAT, für das es recht komplizierte Löser gibt, und der Simplex-Algorithmus (der zwar ein Polynom löst, aber immerhin). Eine grundlegende Technik, die oft hilfreich ist, ist Branch and Bound.
* Schränken Sie das Problem ein.
Wenn Sie mehr Annahmen über Ihre Eingaben machen können, wird das Problem möglicherweise einfacher.
* Strukturelle Eigenschaften
Ihre Eingaben können Eigenschaften haben, die die Lösung des Problems vereinfachen, z. B. Planarität, Bipartitanität oder das Fehlen einer Nebenfigur bei Graphen. Hier finden Sie einige Beispiele für Graphenklassen, für die CLIQUE einfach ist.
* Bounding-Funktionen der Eingabe
Ein weiterer Aspekt ist die parametrisierte Komplexität; einige Probleme sind in der Zeit $O(2^kn^m)$ für $k$ einen Instanzparameter (maximaler Knotengrad, maximales Kantengewicht, ...) und $m$ konstant lösbar. Wenn man $k$ durch eine polylogarithmische Funktion in $n$ einschränken kann, erhält man polynomiale Algorithmen. Saeed Amiri gibt Details in seiner Antwort.
* Begrenzung der Eingabemengen
Darüber hinaus lassen einige Probleme Algorithmen zu, die in pseudopolynomieller Zeit laufen, d. h. ihre Laufzeit ist durch eine Polynomfunktion in einer Zahl begrenzt, die Teil der Eingabe ist; die naive Primzahlprüfung ist ein Beispiel dafür. Das bedeutet, dass Sie, wenn die in Ihren Instanzen kodierten Mengen eine vernünftige Größe haben, einfache Algorithmen haben könnten, die sich für Sie gut verhalten.
* Abschwächen des Ergebnisses
Dies bedeutet, dass Sie fehlerhafte oder unvollständige Ergebnisse tolerieren. Es gibt zwei Hauptvarianten:
* Probabilistische Algorithmen
Man erhält nur mit einer gewissen Wahrscheinlichkeit das richtige Ergebnis. Es gibt einige Varianten, vor allem Monte-Carlo- und Las-Vegas-Algorithmen. Ein berühmtes Beispiel ist der Miller-Rabin-Primatitätstest.
* Approximationsalgorithmen
Man sucht nicht mehr nach optimalen, sondern nach fast optimalen Lösungen. Einige Algorithmen lassen relative ("nicht schlechter als das Doppelte des Optimums"), andere absolute ("nicht schlechter als $5$ plus das Optimum") Fehlerschranken zu. Bei vielen Problemen ist es offen, wie gut sie approximiert werden können. Einige lassen sich in Polynomialzeit beliebig gut approximieren, während dies bei anderen bekanntermaßen nicht möglich ist; siehe die Theorie der Polynomialzeit-Approximationsverfahren.
In Algorithmics for Hard Problems von Hromkovič finden Sie eine gründliche Behandlung.
* Einfachheit ist Schönheit: Improved upper bounds for vertex cover von Chen Jianer, Iyad A. Kanj, Ge Xia (2005)
| Supongamos que soy programador y tengo un problema NP-completo que necesito resolver. ¿Qué métodos existen para resolver problemas NP-completos? ¿Existe alguna encuesta o algo similar sobre este tema? | Hay varias estrategias bien estudiadas; cuál es la mejor en su caso depende de las circunstancias.
* Mejorar el tiempo de ejecución en el peor de los casos
Utilizando conocimientos específicos del problema, a menudo se puede mejorar el algoritmo ingenuo. Por ejemplo, hay algoritmos $O(c^n)$ para Cubrir Vértices con $c enorme mejora sobre el algoritmo ingenuo $\Omega(2^n)$ y podría hacer que los tamaños de instancia relevantes para usted fueran manejables.
* Mejorar el tiempo de ejecución esperado
Usando la heurística, a menudo se pueden diseñar algoritmos que son rápidos en muchos casos. Si estos incluyen la mayoría de los que se encuentran en la práctica, que son de oro. Algunos ejemplos son SAT, para el que existen solucionadores bastante complicados, y el algoritmo Simplex (que resuelve un problema polinómico, pero aún así). Una técnica básica que a menudo es útil es branch and bound.
* Restringir el problema
Si usted puede hacer más suposiciones sobre sus entradas, el problema puede llegar a ser fácil.
* Propiedades estructurales
Sus entradas pueden tener propiedades que simplifican la solución del problema, por ejemplo, la planitud, la bipartición o la falta de un menor para los gráficos. Vea aquí algunos ejemplos de clases de grafos para los que CLIQUE es fácil.
* Funciones de contorno de la entrada
Otra cosa a tener en cuenta es la complejidad parametrizada; algunos problemas se pueden resolver en tiempo $O(2^kn^m)$ para $k$ algún parámetro de instancia (grado máximo de nodo, peso máximo de arista, ...) y $m$ constante. Si se puede acotar $k$ mediante una función polilogarítmica en $n$, se obtienen algoritmos polinómicos. Saeed Amiri da detalles en su respuesta.
* Acotar las cantidades de entrada
Además, algunos problemas admiten algoritmos que se ejecutan en tiempo pseudopolinómico, es decir, su tiempo de ejecución está acotado por una función polinómica en un número que forma parte de la entrada; la comprobación ingenua de la primalidad es un ejemplo. Esto significa que si las cantidades codificadas en sus instancias tienen un tamaño razonable, es posible que disponga de algoritmos sencillos que se comporten bien para usted.
* Debilitar el resultado
Esto significa que usted tolera resultados erróneos o incompletos. Hay dos tipos principales:
* Algoritmos probabilísticos
Sólo se obtiene el resultado correcto con cierta probabilidad. Existen algunas variantes, entre las que destacan los algoritmos de Monte-Carlo y Las-Vegas. Un ejemplo famoso es la prueba de primalidad de Miller-Rabin.
* Algoritmos de aproximación
Ya no se buscan soluciones óptimas, sino casi óptimas. Algunos algoritmos admiten límites de error relativos ("no peor que el doble del óptimo"), otros absolutos ("no peor que 5$ más el óptimo"). Para muchos problemas no está claro hasta qué punto pueden aproximarse. Hay algunos que pueden aproximarse arbitrariamente bien en tiempo polinómico, mientras que se sabe que otros no lo permiten; consulte la teoría de los esquemas de aproximación en tiempo polinómico.
Consulte Algorithmics for Hard Problems de Hromkovič para un tratamiento exhaustivo.
* La simplicidad es belleza: Improved upper bounds for vertex cover por Chen Jianer, Iyad A. Kanj, Ge Xia (2005)
| Supposons que je sois un programmeur et que je doive résoudre un problème NP-complet. Quelles sont les méthodes disponibles pour traiter les problèmes NP-complets ? Existe-t-il une enquête ou quelque chose de similaire sur ce sujet ? | Il existe un certain nombre de stratégies bien étudiées ; celle qui convient le mieux à votre application dépend des circonstances.
* Améliorer le temps d'exécution dans le pire des cas
En utilisant les connaissances spécifiques au problème, vous pouvez souvent améliorer l'algorithme naïf. Par exemple, il existe des algorithmes $O(c^n)$ pour Vertex Cover avec $c énorme amélioration par rapport à l'algorithme naïf $\Omega(2^n)$ et qui peuvent rendre traçables les tailles d'instances qui vous intéressent.
* Améliorer le temps d'exécution prévu
En utilisant des heuristiques, vous pouvez souvent concevoir des algorithmes qui sont rapides sur de nombreuses instances. Si ces dernières incluent la plupart de celles que vous rencontrez dans la pratique, vous êtes servi. Les exemples sont SAT, pour lequel il existe des solveurs assez complexes, et l'algorithme Simplex (qui résout un problème polynomial, mais tout de même). Une technique de base souvent utile est le branch and bound.
* Restreindre le problème
Si vous pouvez faire plus d'hypothèses sur vos entrées, le problème peut devenir facile.
* Propriétés structurelles
Vos entrées peuvent avoir des propriétés qui simplifient la résolution du problème, par exemple la planéité, la bipartition ou l'absence d'un mineur pour les graphes. Voir ici quelques exemples de classes de graphes pour lesquelles CLIQUE est facile.
* Fonctions de délimitation de l'entrée
Une autre chose à considérer est la complexité paramétrée ; certains problèmes sont résolus en temps $O(2^kn^m)$ pour $k$ un paramètre d'instance (degré maximal du noeud, poids maximal de l'arête, ...) et $m$ constant. Si vous pouvez lier $k$ par une fonction polylogarithmique en $n$ dans votre contexte, vous obtiendrez des algorithmes polynomiaux. Saeed Amiri donne des détails dans sa réponse.
* Limitation des quantités d'entrée
En outre, certains problèmes admettent des algorithmes qui s'exécutent en temps pseudo-polynomial, c'est-à-dire que leur temps d'exécution est limité par une fonction polynomiale dans un nombre qui fait partie de l'entrée ; le contrôle naïf de primalité en est un exemple. Cela signifie que si les quantités encodées dans vos instances ont une taille raisonnable, vous pouvez avoir des algorithmes simples qui se comportent bien pour vous.
* Affaiblir le résultat
Cela signifie que vous tolérez des résultats erronés ou incomplets. Il existe deux types d'affaiblissement :
* Algorithmes probabilistes
Vous n'obtenez le bon résultat qu'avec une certaine probabilité. Il existe quelques variantes, notamment les algorithmes de Monte-Carlo et de Las-Vegas. Un exemple célèbre est le test de primalité de Miller-Rabin.
* Algorithmes d'approximation
Vous ne recherchez plus des solutions optimales, mais des solutions presque optimales. Certains algorithmes admettent des limites relatives ("pas pire que le double de l'optimum"), d'autres des limites absolues ("pas pire que 5$ plus l'optimum") sur l'erreur. Pour de nombreux problèmes, la question de savoir dans quelle mesure ils peuvent être approximés n'est pas tranchée. Certains peuvent être approximés arbitrairement en temps polynomial, tandis que d'autres sont connus pour ne pas le permettre ; vérifiez la théorie des schémas d'approximation en temps polynomial.
Consultez Algorithmics for Hard Problems de Hromkovič pour un traitement approfondi.
* La simplicité est la beauté : Improved upper bounds for vertex cover par Chen Jianer, Iyad A. Kanj, Ge Xia (2005)
| Supponiamo che io sia un programmatore e che abbia un problema NP-completo da risolvere. Quali sono i metodi disponibili per affrontare i problemi NP? Esiste un sondaggio o qualcosa di simile su questo argomento? | Esistono diverse strategie ben studiate; quale sia la migliore per la vostra applicazione dipende dalle circostanze.
* Migliorare il tempo di esecuzione nel caso peggiore
Utilizzando le conoscenze specifiche del problema, è spesso possibile migliorare l'algoritmo ingenuo. Ad esempio, esistono algoritmi $O(c^n)$ per la copertura dei vertici con un miglioramento enorme di $c rispetto all'algoritmo ingenuo $Omega(2^n)$ e che potrebbero rendere trattabili le dimensioni delle istanze rilevanti per l'utente.
* Migliorare il tempo di esecuzione previsto
Utilizzando l'euristica, è spesso possibile ideare algoritmi veloci su molte istanze. Se queste includono la maggior parte delle istanze che si incontrano nella pratica, si è a posto. Esempi sono SAT, per il quale esistono risolutori piuttosto complessi, e l'algoritmo Simplex (che risolve un problema polinomiale, ma comunque). Una tecnica di base spesso utile è il branch and bound.
* Limitare il problema
Se si possono fare più ipotesi sugli input, il problema può diventare facile.
* Proprietà strutturali
I vostri input possono avere proprietà che semplificano la soluzione del problema, ad esempio la planarità, la bipartizione o la mancanza di un minore per i grafi. Si vedano qui alcuni esempi di classi di grafi per i quali CLIQUE è facile.
* Funzioni di contorno dell'input
Un'altra cosa da considerare è la complessità parametrizzata; alcuni problemi sono risolvibili in tempo $O(2^kn^m)$ per $k$ qualche parametro di istanza (grado massimo dei nodi, peso massimo dei bordi, ...) e $m$ costante. Se è possibile limitare $k$ con una funzione polilogaritmica in $n$ nella propria impostazione, si ottengono algoritmi polinomiali. Saeed Amiri fornisce i dettagli nella sua risposta.
* Limitare le quantità in ingresso
Inoltre, alcuni problemi ammettono algoritmi che funzionano in tempo pseudopolinomiale, cioè il loro tempo di esecuzione è limitato da una funzione polinomiale in un numero che fa parte dell'input; il controllo di primalità ingenuo ne è un esempio. Ciò significa che se le quantità codificate nelle istanze hanno dimensioni ragionevoli, si possono avere algoritmi semplici che si comportano bene.
* Indebolire il risultato
Significa che si tollerano risultati errati o incompleti. Esistono due varianti principali:
* Algoritmi probabilistici
Si ottiene il risultato corretto solo con una certa probabilità. Esistono alcune varianti, tra cui spiccano gli algoritmi di Monte-Carlo e Las-Vegas. Un esempio famoso è il test di primalità di Miller-Rabin.
* Algoritmi di approssimazione
Non si cercano più soluzioni ottimali, ma quasi ottimali. Alcuni algoritmi ammettono limiti relativi ("non peggio del doppio dell'ottimo"), altri assoluti ("non peggio di $5$ più l'ottimo") sull'errore. Per molti problemi non è chiaro quanto possano essere approssimati. Ce ne sono alcuni che possono essere approssimati arbitrariamente bene in tempo polinomiale, mentre altri sono noti per non consentirlo; verificare la teoria degli schemi di approssimazione in tempo polinomiale.
Per una trattazione approfondita si rimanda ad Algorithmics for Hard Problems di Hromkovič.
* La semplicità è bellezza: Migliori limiti superiori per la copertura dei vertici di Chen Jianer, Iyad A. Kanj, Ge Xia (2005)
|
257 | Why are the lights inside commercial airplanes turned off during take off and landing? | This is for safety reasons.
Take-off and landing are the two most critical phases of flight and thus, every additional step to ensure survivability, be it even just adjusting the light, is taken.
The interior lights or cabin lights are adjusted to match the exterior environment, so that in case of an emergency, especially if the interior lights fail, your eyes are already accustomed to the light setting and you do not require additional valuable seconds for adjustment to a possibly darker or brighter environment. The lights are usually adjusted at dusk, night or dawn to match the exterior environment.
If the cabin lights do not fail during an emergency, the dimmed light also makes it easier to identify the "EXIT" signs which illuminate and make the guidance lighting on the floor easier to follow. The bright emergency lighting is more prominent to identify when the cabin light is dimmed, saving valuable seconds as the aircraft is evacuated.
This also ties in with having to raise the blinds on the windows. The blinds need to be raised during take-off and landing irrespective of the outside light situation, however, with a darker cabin, any outside light source, especially from fires or other hazards is easier to identify by the crew, making the decision process of whether one side could be inappropriate to use for evacuation faster, e.g. fire on port side --> no evacuation on that side.
The blinds are therefore raised to allow a better view for cabin crew of the outside area and external aircraft parts, such as engines, wings, etc. | Warum werden die Lichter in Verkehrsflugzeugen während des Starts und der Landung ausgeschaltet? | Dies geschieht aus Sicherheitsgründen.
Start und Landung sind die beiden kritischsten Phasen des Fluges, und daher wird jeder zusätzliche Schritt unternommen, um die Überlebensfähigkeit zu gewährleisten, und sei es auch nur die Einstellung des Lichts.
Die Innenbeleuchtung bzw. die Kabinenbeleuchtung wird an die Außenbeleuchtung angepasst, damit sich die Augen im Notfall, insbesondere bei Ausfall der Innenbeleuchtung, bereits an die Lichteinstellung gewöhnt haben und keine weiteren wertvollen Sekunden für die Anpassung an eine möglicherweise dunklere oder hellere Umgebung benötigt werden. Die Beleuchtung wird in der Regel in der Dämmerung, in der Nacht oder in der Morgendämmerung an die äußere Umgebung angepasst.
Wenn die Kabinenbeleuchtung im Notfall nicht ausfällt, erleichtert das gedämpfte Licht auch das Erkennen der "EXIT"-Schilder, die aufleuchten und die Orientierungsbeleuchtung am Boden besser erkennbar machen. Die helle Notbeleuchtung ist bei gedämpftem Kabinenlicht besser zu erkennen, was bei der Evakuierung des Flugzeugs wertvolle Sekunden spart.
Dies hängt auch damit zusammen, dass die Jalousien an den Fenstern hochgezogen werden müssen. Die Jalousien müssen während des Starts und der Landung unabhängig von der Außenlichtsituation hochgezogen werden. Bei einer dunkleren Kabine ist jedoch jede Lichtquelle von außen, insbesondere Brände oder andere Gefahren, für die Besatzung leichter zu erkennen, so dass die Entscheidung, ob eine Seite für die Evakuierung ungeeignet ist, schneller getroffen werden kann, z. B. Feuer auf der Backbordseite --> keine Evakuierung auf dieser Seite.
Die Jalousien werden daher hochgezogen, um der Kabinenbesatzung eine bessere Sicht auf den Außenbereich und externe Flugzeugteile wie Triebwerke, Tragflächen usw. zu ermöglichen. | ¿Por qué se apagan las luces de los aviones comerciales durante el despegue y el aterrizaje? | Esto es por razones de seguridad.
El despegue y el aterrizaje son las dos fases más críticas del vuelo y, por lo tanto, se toman todas las medidas adicionales para garantizar la supervivencia, aunque sólo sea ajustando la luz.
Las luces interiores o las luces de la cabina se ajustan para que coincidan con el entorno exterior, de modo que en caso de emergencia, especialmente si fallan las luces interiores, sus ojos ya estén acostumbrados al ajuste de la luz y no necesite valiosos segundos adicionales para ajustarse a un entorno posiblemente más oscuro o más brillante. Las luces suelen ajustarse al anochecer, por la noche o al amanecer para adaptarse al entorno exterior.
Si las luces de la cabina no fallan durante una emergencia, la luz atenuada también facilita la identificación de las señales de "SALIDA" que se iluminan y hacen que la iluminación de guía en el suelo sea más fácil de seguir. La iluminación de emergencia brillante es más prominente para identificar cuando la luz de la cabina se atenúa, ahorrando valiosos segundos mientras se evacua la aeronave.
Esto también está relacionado con la necesidad de subir las persianas de las ventanillas. Las persianas deben levantarse durante el despegue y el aterrizaje independientemente de la situación de la luz exterior, sin embargo, con una cabina más oscura, cualquier fuente de luz exterior, especialmente de incendios u otros peligros es más fácil de identificar por la tripulación, haciendo que el proceso de decisión de si un lado podría ser inadecuado para la evacuación sea más rápido, por ejemplo, incendio en el lado de babor --> no evacuación en ese lado.
Por lo tanto, las persianas se levantan para permitir a la tripulación de cabina una mejor visión de la zona exterior y de las partes externas del avión, como los motores, las alas, etc. | Pourquoi les lumières à l'intérieur des avions commerciaux sont-elles éteintes pendant le décollage et l'atterrissage ? | Ceci pour des raisons de sécurité.
Le décollage et l'atterrissage sont les deux phases les plus critiques du vol et, par conséquent, toutes les mesures supplémentaires sont prises pour assurer la survie, ne serait-ce que le réglage de la lumière.
Les lumières intérieures ou les lumières de la cabine sont réglées en fonction de l'environnement extérieur, de sorte qu'en cas d'urgence, notamment si les lumières intérieures tombent en panne, vos yeux sont déjà habitués au réglage de la lumière et vous n'avez pas besoin de précieuses secondes supplémentaires pour vous adapter à un environnement éventuellement plus sombre ou plus lumineux. Les lumières sont généralement réglées au crépuscule, à la nuit ou à l'aube pour s'adapter à l'environnement extérieur.
Si les lumières de la cabine ne tombent pas en panne en cas d'urgence, la lumière tamisée permet également d'identifier plus facilement les panneaux "EXIT" qui s'allument et rendent l'éclairage de guidage au sol plus facile à suivre. L'éclairage de secours lumineux est plus facile à identifier lorsque l'éclairage de la cabine est réduit, ce qui permet de gagner de précieuses secondes lors de l'évacuation de l'avion.
Cela est également lié à la nécessité de relever les stores des fenêtres. Les stores doivent être relevés pendant le décollage et l'atterrissage, quelle que soit la luminosité extérieure, mais avec une cabine plus sombre, toute source de lumière extérieure, en particulier en cas d'incendie ou d'autres dangers, est plus facilement identifiable par l'équipage, ce qui accélère le processus de décision quant à l'opportunité d'évacuer un côté, par exemple un incendie à bâbord --> pas d'évacuation de ce côté.
Les stores sont donc relevés pour permettre à l'équipage de cabine de mieux voir la zone extérieure et les parties externes de l'avion, telles que les moteurs, les ailes, etc. | Perché le luci all'interno degli aerei commerciali sono spente durante il decollo e l'atterraggio? | Questo per motivi di sicurezza.
Il decollo e l'atterraggio sono le due fasi più critiche del volo e, pertanto, viene adottato ogni provvedimento supplementare per garantire la sopravvivenza, anche solo regolando la luce.
Le luci interne o della cabina vengono regolate in modo da adattarsi all'ambiente esterno, in modo che in caso di emergenza, soprattutto se le luci interne si guastano, gli occhi siano già abituati alla luce impostata e non siano necessari altri preziosi secondi per adattarsi a un ambiente eventualmente più scuro o più luminoso. Le luci vengono solitamente regolate al crepuscolo, di notte o all'alba per adattarsi all'ambiente esterno.
Se le luci della cabina non si guastano durante un'emergenza, la luce attenuata facilita anche l'identificazione dei cartelli "EXIT" che si illuminano e rendono più facile seguire l'illuminazione di guida sul pavimento. L'illuminazione di emergenza chiara è più evidente quando la luce della cabina è attenuata, facendo risparmiare secondi preziosi durante l'evacuazione dell'aeromobile.
Ciò si collega anche alla necessità di alzare le tende dei finestrini. Le tendine devono essere alzate durante il decollo e l'atterraggio indipendentemente dalla situazione della luce esterna; tuttavia, con una cabina più scura, qualsiasi fonte di luce esterna, soprattutto se proveniente da incendi o altri pericoli, è più facile da identificare per l'equipaggio, rendendo più rapido il processo decisionale se un lato potrebbe essere inappropriato da utilizzare per l'evacuazione, ad esempio un incendio sul lato sinistro --> nessuna evacuazione su quel lato.
Le tende sono quindi sollevate per consentire all'equipaggio di cabina una migliore visione dell'area esterna e delle parti esterne dell'aeromobile, come motori, ali, ecc. |
258 | The default behaviour of ```LIKE``` and the other comparison operators, ```=``` etc is case-sensitive.
Is it possible make them case-insensitive? | There are 3 main ways to perform a case-insensitive search in Oracle without using full-text indexes.
Ultimately what method you choose is dependent on your individual circumstances; the main thing to remember is that to improve performance you must index correctly for case-insensitive searching.
1. Case your column and your string identically.
You can force all your data to be the same case by using `UPPER()` or `LOWER()`:
```
select * from my_table where upper(column_1) = upper('my_string');
```
or
```
select * from my_table where lower(column_1) = lower('my_string');
```
If `column_1` is not indexed on `upper(column_1)` or `lower(column_1)`, as appropriate, this may force a full table scan. In order to avoid this you can create a function-based index.
```
create index my_index on my_table ( lower(column_1) );
```
If you're using LIKE then you have to concatenate a `%` around the string you're searching for.
```
select * from my_table where lower(column_1) LIKE lower('my_string') || '%';
```
2. Use regular expressions.
From Oracle 10g onwards `REGEXP_LIKE()` is available. You can specify the _match_parameter_ `'i'`, in order to perform case-insensitive searching.
In order to use this as an equality operator you must specify the start and end of the string, which is denoted by the carat and the dollar sign.
```
select * from my_table where regexp_like(column_1, '^my_string$', 'i');
```
In order to perform the equivalent of LIKE, these can be removed.
```
select * from my_table where regexp_like(column_1, 'my_string', 'i');
```
Be careful with this as your string may contain characters that will be interpreted differently by the regular expression engine.
3. Change it at the session level.
The NLS_SORT parameter governs the collation sequence for ordering and the various comparison operators, including `=` and LIKE. You can specify a binary, case-insensitive, sort by altering the session. This will mean that every query performed in that session will perform case-insensitive parameters.
```
alter session set nls_sort=BINARY_CI
```
There's plenty of additional information around linguistic sorting and string searching if you want to specify a different language, or do an accent-insensitive search using BINARY_AI.
You will also need to change the NLS_COMP parameter; the default value of NLS_COMP is BINARY; but, LINGUISTIC specifies that Oracle should pay attention to the value of NLS_SORT.
So, once again, you need to alter the session
```
alter session set nls_comp=LINGUISTIC
```
You may want to create a linguistic index to improve performance
```
create index my_linguistc_index on my_table
(NLSSORT(column_1, 'NLS_SORT = BINARY_CI'));
``` | Das Standardverhalten von ```LIKE``` und den anderen Vergleichsoperatoren, ```=``` usw., unterscheidet Groß- und Kleinschreibung.
Ist es möglich, die Groß-/Kleinschreibung nicht zu beachten? | Es gibt 3 Möglichkeiten, eine Suche ohne Berücksichtigung der Groß- und Kleinschreibung in Oracle durchzuführen, ohne Volltextindizes zu verwenden.
Für welche Methode Sie sich letztendlich entscheiden, hängt von Ihren individuellen Gegebenheiten ab. Das Wichtigste ist, dass Sie zur Verbesserung der Leistung einen korrekten Index für die Suche ohne Berücksichtigung der Groß-/Kleinschreibung benötigen.
1. Die Groß- und Kleinschreibung der Spalte und der Zeichenfolge muss identisch sein.
Sie können die gleiche Groß- und Kleinschreibung für alle Ihre Daten erzwingen, indem Sie `UPPER()` oder `LOWER()` verwenden:
```
select * from meine_tabelle where upper(spalte_1) = upper('meine_zeichenkette');
```
oder
```
select * from meine_tabelle where lower(spalte_1) = lower('meine_zeichenkette');
```
Wenn `spalte_1` nicht auf `oben(spalte_1)` oder `unten(spalte_1)` indiziert ist, kann dies einen vollständigen Tabellenscan erzwingen. Um dies zu vermeiden, können Sie einen funktionsbasierten Index erstellen.
```
create index my_index on my_table ( lower(column_1) );
```
Wenn Sie LIKE verwenden, müssen Sie ein `%` um die gesuchte Zeichenkette herum anhängen.
```
select * from my_table where lower(column_1) LIKE lower('my_string') || '%';
```
2. Verwenden Sie reguläre Ausdrücke.
Ab Oracle 10g ist `REGEXP_LIKE()` verfügbar. Sie können den _match_parameter_ `'i'` angeben, um eine Suche ohne Berücksichtigung der Groß- und Kleinschreibung durchzuführen.
Um dies als Gleichheitsoperator zu verwenden, müssen Sie den Anfang und das Ende der Zeichenkette angeben, die durch das Karat und das Dollarzeichen gekennzeichnet sind.
```
select * from meine_tabelle where regexp_like(spalte_1, '^meine_zeichenkette$', 'i');
```
Um das Äquivalent von LIKE auszuführen, können diese entfernt werden.
```
select * from meine_tabelle where regexp_like(spalte_1, 'meine_zeichenkette', 'i');
```
Seien Sie dabei vorsichtig, da Ihre Zeichenkette Zeichen enthalten kann, die von der Engine für reguläre Ausdrücke unterschiedlich interpretiert werden.
3. Ändern Sie ihn auf der Ebene der Sitzung.
Der NLS_SORT-Parameter bestimmt die Sortierreihenfolge und die verschiedenen Vergleichsoperatoren, einschließlich `=` und LIKE. Sie können eine binäre Sortierung ohne Berücksichtigung von Groß- und Kleinschreibung angeben, indem Sie die Sitzung ändern. Dies bedeutet, dass jede Abfrage, die in dieser Sitzung durchgeführt wird, die Groß- und Kleinschreibung nicht berücksichtigt.
```
alter session set nls_sort=BINARY_CI
```
Es gibt viele zusätzliche Informationen über linguistische Sortierung und Zeichenkettensuche, wenn Sie eine andere Sprache angeben oder eine akzent-unabhängige Suche mit BINARY_AI durchführen wollen.
Sie müssen auch den NLS_COMP-Parameter ändern; der Standardwert von NLS_COMP ist BINARY; aber LINGUISTIC gibt an, dass Oracle den Wert von NLS_SORT beachten soll.
Auch hier müssen Sie also die Sitzung ändern
```
alter session set nls_comp=LINGUISTIC
```
Um die Leistung zu verbessern, sollten Sie einen linguistischen Index erstellen
```
create index my_linguistc_index on my_table
(NLSSORT(column_1, 'NLS_SORT = BINARY_CI'));
``` | El comportamiento por defecto de ```LIKE`` y los demás operadores de comparación, ```=```, etc., distingue entre mayúsculas y minúsculas.
¿Es posible hacer que no distingan entre mayúsculas y minúsculas? | Existen 3 formas principales de realizar una búsqueda sin distinción entre mayúsculas y minúsculas en Oracle sin utilizar índices de texto completo.
En última instancia, el método que elija dependerá de sus circunstancias individuales; lo principal que debe recordar es que, para mejorar el rendimiento, debe indexar correctamente para realizar búsquedas que no distingan entre mayúsculas y minúsculas.
1. Escriba la columna y la cadena en mayúsculas y minúsculas de forma idéntica.
Puede forzar que todos sus datos tengan las mismas mayúsculas y minúsculas utilizando `UPPER()` o `LOWER()`:
```
select * from mi_tabla where upper(columna_1) = upper('mi_cadena');
```
o
```
select * from mi_tabla where lower(columna_1) = lower('mi_cadena');
```
Si "columna_1" no está indexada en "superior(columna_1)" o "inferior(columna_1)", según corresponda, esto puede forzar un escaneo completo de la tabla. Para evitarlo, puede crear un índice basado en funciones.
```
create index mi_índice on mi_tabla ( inferior(columna_1) );
```
Si usas LIKE tienes que concatenar un `%` alrededor de la cadena que estás buscando.
```
select * from mi_tabla where lower(columna_1) LIKE lower('mi_cadena') || '%';
```
2. Utilice expresiones regulares.
A partir de Oracle 10g está disponible `REGEXP_LIKE()`. Se puede especificar el parámetro _match_parameter_ `'i'`, para realizar búsquedas insensibles a mayúsculas y minúsculas.
Para utilizar esto como un operador de igualdad, debe especificar el inicio y el final de la cadena, que se denota por el quilate y el signo de dólar.
```
select * from mi_tabla where regexp_like(columna_1, '^mi_cadena$', 'i');
```
Para realizar el equivalente de LIKE, se pueden eliminar.
```
select * from mi_tabla where regexp_like(columna_1, 'mi_cadena', 'i');
```
Tenga cuidado con esto ya que su cadena puede contener caracteres que serán interpretados de forma diferente por el motor de expresiones regulares.
3. Modifíquelo a nivel de sesión.
El parámetro NLS_SORT gobierna la secuencia de cotejo para ordenar y los varios operadores de comparación, incluyendo `=` y LIKE. Puede especificar una ordenación binaria, insensible a mayúsculas y minúsculas, modificando la sesión. Esto significará que cada consulta realizada en esa sesión realizará parámetros insensibles a mayúsculas/minúsculas.
```
alter session set nls_sort=BINARY_CI
```
Existe mucha información adicional sobre la ordenación lingüística y la búsqueda por cadenas si desea especificar un idioma diferente, o realizar una búsqueda sin distinción de acentos utilizando BINARY_AI.
También tendrá que cambiar el parámetro NLS_COMP; el valor por defecto de NLS_COMP es BINARY; pero, LINGUISTIC especifica que Oracle debe prestar atención al valor de NLS_SORT.
Así que, una vez más, es necesario modificar la sesión
```
alter session set nls_comp=LINGUISTIC
```
Quizá quieras crear un índice lingüístico para mejorar el rendimiento
```
create index mi_índice_lingüístico on mi_tabla
(NLSSORT(columna_1, 'NLS_SORT = BINARY_CI'));
``` | Le comportement par défaut de ``LIKE`` et des autres opérateurs de comparaison, ``=`` etc est sensible à la casse.
Est-il possible de les rendre insensibles à la casse ? | Il existe trois façons principales d'effectuer une recherche insensible à la casse dans Oracle sans utiliser d'index plein texte.
En fin de compte, la méthode que vous choisissez dépend de votre situation personnelle ; la principale chose à retenir est que pour améliorer les performances, vous devez indexer correctement pour la recherche insensible à la casse.
1. Mettez votre colonne et votre chaîne de caractères en majuscules de manière identique.
Vous pouvez forcer toutes vos données à respecter la même casse en utilisant `UPPER()` ou `LOWER()` :
```
select * from my_table where upper(column_1) = upper('my_string') ;
```
ou
```
select * from my_table where lower(column_1) = lower('my_string') ;
```
Si `column_1` n'est pas indexé sur `upper(column_1)` ou `lower(column_1)`, selon le cas, cela peut forcer un balayage complet de la table. Pour éviter cela, vous pouvez créer un index basé sur une fonction.
```
create index my_index on my_table ( lower(column_1) ) ;
```
Si vous utilisez LIKE, vous devez concaténer un `%` autour de la chaîne que vous recherchez.
```
select * from my_table where lower(column_1) LIKE lower('my_string') || '%' ;
```
2. Utilisez des expressions régulières.
A partir d'Oracle 10g, `REGEXP_LIKE()` est disponible. Vous pouvez spécifier le paramètre _match_ `'i'`, afin d'effectuer une recherche insensible à la casse.
Pour l'utiliser comme opérateur d'égalité, vous devez spécifier le début et la fin de la chaîne, ce qui est indiqué par le carat et le signe du dollar.
```
select * from my_table where regexp_like(column_1, '^my_string$', 'i') ;
```
Pour obtenir l'équivalent de LIKE, il suffit de les supprimer.
```
select * from my_table where regexp_like(column_1, 'my_string', 'i') ;
```
Attention, votre chaîne peut contenir des caractères qui seront interprétés différemment par le moteur d'expressions régulières.
3. Modifiez-le au niveau de la session.
Le paramètre NLS_SORT régit la séquence de collation pour l'ordre et les divers opérateurs de comparaison, y compris `=` et LIKE. Vous pouvez spécifier un tri binaire, insensible à la casse, en modifiant la session. Cela signifie que toutes les requêtes effectuées dans cette session utiliseront des paramètres insensibles à la casse.
```
alter session set nls_sort=BINARY_CI
```
Il existe de nombreuses informations supplémentaires sur le tri linguistique et la recherche de chaînes de caractères si vous souhaitez spécifier une autre langue ou effectuer une recherche insensible aux accents à l'aide de BINARY_AI.
Vous devrez également modifier le paramètre NLS_COMP ; la valeur par défaut de NLS_COMP est BINARY ; mais LINGUISTIC spécifie qu'Oracle doit tenir compte de la valeur de NLS_SORT.
Donc, une fois de plus, vous devez modifier la session
```
alter session set nls_comp=LINGUISTIC
```
Vous pouvez créer un index linguistique pour améliorer les performances
```
create index my_linguistc_index on my_table
(NLSSORT(column_1, 'NLS_SORT = BINARY_CI')) ;
``` | Il comportamento predefinito di ```LIKE`` e degli altri operatori di confronto, ```=`` ecc. è sensibile alle maiuscole e alle minuscole.
È possibile renderli insensibili alle maiuscole e alle minuscole? | Esistono 3 modi principali per eseguire una ricerca senza distinzione tra maiuscole e minuscole in Oracle senza utilizzare gli indici full-text.
In definitiva, la scelta del metodo dipende dalle circostanze individuali; la cosa principale da ricordare è che per migliorare le prestazioni è necessario indicizzare correttamente la ricerca senza distinzione tra maiuscole e minuscole.
1. Mettere le maiuscole nella colonna e nella stringa in modo identico.
È possibile forzare tutti i dati allo stesso caso utilizzando `UPPER()` o `LOWER()`:
```
select * from my_table where upper(column_1) = upper('my_string');
```
oppure
```
selezionare * da mia_tabella dove inferiore(colonna_1) = inferiore('mia_stringa');
```
Se `colonna_1' non è indicizzata su `upper(column_1)` o `lower(column_1)`, a seconda dei casi, si potrebbe forzare una scansione completa della tabella. Per evitarlo, si può creare un indice basato su una funzione.
```
creare l'indice my_index su my_table ( lower(column_1) );
```
Se si utilizza LIKE, è necessario concatenare un `%` intorno alla stringa da cercare.
```
select * from my_table where lower(column_1) LIKE lower('my_string') || '%';
```
2. Utilizzare le espressioni regolari.
Da Oracle 10g in poi è disponibile `REGEXP_LIKE()`. È possibile specificare il parametro _match_parameter_ `'i'`, per eseguire una ricerca senza distinzione tra maiuscole e minuscole.
Per utilizzarlo come operatore di uguaglianza, è necessario specificare l'inizio e la fine della stringa, che è indicata dal carato e dal segno del dollaro.
```
select * from my_table where regexp_like(column_1, '^my_string$', 'i');
```
Per eseguire l'equivalente di LIKE, questi possono essere rimossi.
```
select * from my_table where regexp_like(column_1, 'my_string', 'i');
```
Fare attenzione a questa operazione, perché la stringa può contenere caratteri che saranno interpretati in modo diverso dal motore di espressione regolare.
3. Modificarlo a livello di sessione.
Il parametro NLS_SORT regola la sequenza di ordinamento e i vari operatori di confronto, compresi `=` e LIKE. È possibile specificare un ordinamento binario, senza distinzione tra maiuscole e minuscole, modificando la sessione. Ciò significa che ogni query eseguita in quella sessione eseguirà parametri case-insensitive.
```
altera la sessione e imposta nls_sort=BINARY_CI
```
Ci sono molte altre informazioni sull'ordinamento linguistico e sulla ricerca di stringhe se si vuole specificare una lingua diversa o fare una ricerca senza accento usando BINARY_AI.
È necessario modificare anche il parametro NLS_COMP; il valore predefinito di NLS_COMP è BINARY, ma LINGUISTIC specifica che Oracle deve prestare attenzione al valore di NLS_SORT.
Pertanto, ancora una volta, è necessario modificare la sessione
```
altera sessione imposta nls_comp=LINGUISTICO
```
Si potrebbe voler creare un indice linguistico per migliorare le prestazioni
```
creare l'indice my_linguistc_index su my_table
(NLSSORT(colonna_1, 'NLS_SORT = BINARY_CI'));
``` |
259 | I have a new SPA with a stateless authentication model using JWT. I am often asked to refer OAuth for authentication flows like asking me to send 'Bearer tokens' for every request instead of a simple token header but I do think that OAuth is a lot more complex than a simple JWT based authentication. What are the main differences, should I make the JWT authentication behave like OAuth?
I am also using the JWT as my XSRF-TOKEN to prevent XSRF but I am being asked to keep them separate? Should I keep them separate? Any help here will be appreciated and might lead to a set of guidelines for the community. | TL;DR If you have very simple scenarios, like a single client application, a single API then it might not pay off to go OAuth 2.0. On the other hand, if there are lots of different clients (browser-based, native mobile, server-side, etc) then sticking to OAuth 2.0 rules might make it more manageable than trying to roll your own system.
## Detailed Answer
JWT (Learn JSON Web Tokens) is just a token format. It defines a compact and self-contained mechanism for transmitting data between parties in a way that can be verified and trusted because it is digitally signed. Additionally, the encoding rules of a JWT also make these tokens very easy to use within the context of HTTP.
Being self-contained (the actual token contains information about a given subject), they are also a good choice for implementing stateless authentication mechanisms (aka Look mum, no sessions!). When going this route, the only thing a party must present to be granted access to a protected resource is the token itself, and the token in question can be called a bearer token.
In practice, what you're doing can already be classified as bearer token -based. However, do consider you're not using bearer tokens as specified by the OAuth 2.0 related specs (see RFC 6750). That would imply relying on the Authorization HTTP header and using the Bearer authentication scheme.
Regarding the use of the JWT to prevent CSRF: Without knowing exact details it's difficult to ascertain the validity of that practice. To be honest, it does not seem correct and/or worthwhile. The following article (Cookies vs Tokens: The Definitive Guide) may be a useful read on this subject, particularly the XSS and XSRF Protection section.
One final piece of advice. Even if you don't need to go full OAuth 2.0, I would strongly recommend on passing your access token within the Authorization header instead of going with custom headers. If they are really bearer tokens, follow the rules of RFC 6750. If not, you can always create a custom authentication scheme and still use that header. | Ich habe eine neue SPA mit einem zustandslosen Authentifizierungsmodell mit JWT. Ich werde oft gebeten, OAuth für Authentifizierungsabläufe zu verwenden, z. B. indem man mich bittet, "Bearer-Tokens" für jede Anfrage anstelle eines einfachen Token-Headers zu senden, aber ich denke, dass OAuth viel komplexer ist als eine einfache JWT-basierte Authentifizierung. Was sind die Hauptunterschiede, sollte ich die JWT-Authentifizierung so gestalten, dass sie sich wie OAuth verhält?
Ich verwende den JWT auch als meinen XSRF-TOKEN, um XSRF zu verhindern, aber ich werde gebeten, sie getrennt zu halten? Sollte ich sie getrennt halten? Wir sind für jede Hilfe dankbar, die zu einer Reihe von Leitlinien für die Gemeinschaft führen könnte. | TL;DR Wenn Sie sehr einfache Szenarien haben, wie eine einzige Client-Anwendung, eine einzige API, dann lohnt es sich möglicherweise nicht, OAuth 2.0 zu verwenden. Wenn es andererseits viele verschiedene Clients gibt (browserbasiert, nativ mobil, serverseitig usw.), dann könnte es sich lohnen, sich an die OAuth 2.0-Regeln zu halten, als zu versuchen, ein eigenes System zu entwickeln.
## Ausführliche Antwort
JWT (Learn JSON Web Tokens) ist lediglich ein Token-Format. Es definiert einen kompakten und in sich geschlossenen Mechanismus für die Übertragung von Daten zwischen Parteien auf eine Art und Weise, die überprüft und als vertrauenswürdig eingestuft werden kann, da sie digital signiert ist. Darüber hinaus machen die Kodierungsregeln eines JWT diese Token auch sehr einfach im Kontext von HTTP zu verwenden.
Da sie in sich geschlossen sind (das eigentliche Token enthält Informationen über ein bestimmtes Subjekt), sind sie auch eine gute Wahl für die Implementierung zustandsloser Authentifizierungsmechanismen (aka Look mum, no sessions!). In diesem Fall ist das einzige, was eine Partei vorlegen muss, um Zugang zu einer geschützten Ressource zu erhalten, das Token selbst, und das fragliche Token kann als Inhaber-Token bezeichnet werden.
In der Praxis kann das, was Sie tun, bereits als "bearer token"-basiert eingestuft werden. Bedenken Sie jedoch, dass Sie keine Inhaber-Token verwenden, wie sie in den OAuth 2.0-bezogenen Spezifikationen (siehe RFC 6750) spezifiziert sind. Das würde bedeuten, dass Sie sich auf den Authorization HTTP-Header verlassen und das Bearer-Authentifizierungsschema verwenden.
Bezüglich der Verwendung von JWT zur Verhinderung von CSRF: Ohne genaue Details zu kennen, ist es schwierig, die Gültigkeit dieser Praxis zu beurteilen. Um ehrlich zu sein, scheint sie nicht korrekt und/oder sinnvoll zu sein. Der folgende Artikel (Cookies vs. Tokens: The Definitive Guide) kann eine nützliche Lektüre zu diesem Thema sein, insbesondere der Abschnitt zum Schutz vor XSS und XSRF.
Ein letzter Ratschlag. Auch wenn Sie OAuth 2.0 nicht in vollem Umfang nutzen müssen, würde ich Ihnen dringend empfehlen, Ihr Zugriffstoken im Authorization-Header zu übergeben, anstatt benutzerdefinierte Header zu verwenden. Wenn es sich wirklich um Inhaber-Tokens handelt, befolgen Sie die Regeln von RFC 6750. Wenn nicht, können Sie jederzeit ein benutzerdefiniertes Authentifizierungsschema erstellen und trotzdem diesen Header verwenden. | Tengo una nueva SPA con un modelo de autenticación sin estado usando JWT. A menudo me piden que me refiera a OAuth para flujos de autenticación como pedirme que envíe 'Bearer tokens' para cada solicitud en lugar de una simple cabecera token pero creo que OAuth es mucho más complejo que una simple autenticación basada en JWT. ¿Cuáles son las principales diferencias? ¿Debería hacer que la autenticación JWT se comporte como OAuth?
También estoy usando el JWT como mi XSRF-TOKEN para prevenir XSRF pero me están pidiendo que los mantenga separados? ¿Debería mantenerlos separados? Cualquier ayuda aquí será apreciada y podría conducir a un conjunto de directrices para la comunidad. | TL;DR Si usted tiene escenarios muy simples, como una sola aplicación cliente, una sola API, entonces puede que no valga la pena ir a OAuth 2.0. Por otro lado, si hay muchos clientes diferentes (basados en navegador, móviles nativos, del lado del servidor, etc.), atenerse a las reglas de OAuth 2.0 puede hacerlo más manejable que intentar desarrollar tu propio sistema.
## Respuesta detallada
JWT (Learn JSON Web Tokens) es sólo un formato de token. Define un mecanismo compacto y autocontenido para la transmisión de datos entre las partes de una manera que puede ser verificada y de confianza, ya que está firmado digitalmente. Además, las reglas de codificación de un JWT también hacen que estos tokens sean muy fáciles de usar dentro del contexto de HTTP.
Al ser autónomos (el token contiene información sobre un sujeto determinado), también son una buena opción para implementar mecanismos de autenticación sin estado (es decir, sin sesiones). Cuando se sigue este camino, lo único que una parte debe presentar para que se le conceda acceso a un recurso protegido es el propio token, y el token en cuestión puede denominarse token portador.
En la práctica, lo que estás haciendo ya puede clasificarse como basado en token portador. Sin embargo, tenga en cuenta que no está utilizando tokens de portador como se especifica en las especificaciones relacionadas con OAuth 2.0 (véase RFC 6750). Eso implicaría confiar en la cabecera HTTP Authorization y utilizar el esquema de autenticación Bearer.
En cuanto al uso del JWT para prevenir CSRF: Sin conocer los detalles exactos es difícil determinar la validez de esa práctica. Sinceramente, no parece correcta y/o que merezca la pena. El siguiente artículo (Cookies vs Tokens: The Definitive Guide) puede ser una lectura útil sobre este tema, en particular la sección XSS and XSRF Protection.
Un último consejo. Incluso si usted no necesita ir completo OAuth 2.0, yo recomendaría encarecidamente en el paso de su token de acceso dentro de la cabecera de autorización en lugar de ir con cabeceras personalizadas. Si son realmente tokens portadores, sigue las reglas del RFC 6750. Si no, siempre puedes crear un esquema de autenticación personalizado y seguir utilizando esa cabecera. | J'ai une nouvelle SPA avec un modèle d'authentification sans état utilisant JWT. On me demande souvent de me référer à OAuth pour les flux d'authentification, par exemple en me demandant d'envoyer des "Bearer tokens" pour chaque requête au lieu d'un simple en-tête de jeton, mais je pense qu'OAuth est beaucoup plus complexe qu'une simple authentification basée sur JWT. Quelles sont les principales différences, dois-je faire en sorte que l'authentification JWT se comporte comme OAuth ?
J'utilise également le JWT comme XSRF-TOKEN pour empêcher XSRF, mais on me demande de les séparer ? Dois-je les séparer ? Toute aide sera appréciée et pourrait conduire à un ensemble de lignes directrices pour la communauté. | TL;DR Si vous avez des scénarios très simples, comme une seule application client, une seule API, il n'est peut-être pas utile d'adopter OAuth 2.0. D'un autre côté, s'il y a beaucoup de clients différents (navigateur, mobile natif, côté serveur, etc.), s'en tenir aux règles d'OAuth 2.0 peut rendre la situation plus facile à gérer que d'essayer de mettre en place son propre système.
## Réponse détaillée
JWT (Learn JSON Web Tokens) n'est qu'un format de jeton. Il définit un mécanisme compact et autonome pour la transmission de données entre des parties d'une manière qui peut être vérifiée et fiable parce qu'elle est signée numériquement. En outre, les règles d'encodage d'un JWT rendent ces jetons très faciles à utiliser dans le contexte de HTTP.
Étant autonomes (le jeton lui-même contient des informations sur un sujet donné), ils constituent également un bon choix pour mettre en œuvre des mécanismes d'authentification sans état (Look mum, pas de sessions !). Dans ce cas, la seule chose qu'une partie doit présenter pour obtenir l'accès à une ressource protégée est le jeton lui-même, et le jeton en question peut être appelé jeton porteur.
En pratique, ce que vous faites peut déjà être considéré comme basé sur un jeton porteur. Cependant, considérez que vous n'utilisez pas de bearer tokens comme spécifié par les spécifications d'OAuth 2.0 (voir RFC 6750). Cela impliquerait de s'appuyer sur l'en-tête HTTP Authorization et d'utiliser le schéma d'authentification Bearer.
En ce qui concerne l'utilisation du JWT pour empêcher le CSRF : sans connaître les détails exacts, il est difficile de s'assurer de la validité de cette pratique. Pour être honnête, elle ne semble pas correcte et/ou utile. L'article suivant (Cookies vs Tokens : The Definitive Guide) peut être une lecture utile sur ce sujet, en particulier la section XSS et XSRF Protection.
Un dernier conseil. Même si vous n'avez pas besoin d'aller jusqu'au bout d'OAuth 2.0, je vous recommande fortement de passer votre jeton d'accès dans l'en-tête Authorization au lieu d'utiliser des en-têtes personnalisés. S'il s'agit vraiment de jetons de porteur, suivez les règles de la RFC 6750. Sinon, vous pouvez toujours créer un schéma d'authentification personnalisé et utiliser cet en-tête. | Ho una nuova SPA con un modello di autenticazione stateless che utilizza JWT. Spesso mi viene chiesto di fare riferimento a OAuth per i flussi di autenticazione, ad esempio chiedendomi di inviare 'Bearer token' per ogni richiesta invece di un semplice header token, ma penso che OAuth sia molto più complesso di una semplice autenticazione basata su JWT. Quali sono le differenze principali, devo fare in modo che l'autenticazione JWT si comporti come OAuth?
Sto anche utilizzando il JWT come XSRF-TOKEN per evitare XSRF, ma mi viene chiesto di tenerli separati? Dovrei tenerli separati? Qualsiasi aiuto sarà apprezzato e potrebbe portare a una serie di linee guida per la comunità. | Se gli scenari sono molto semplici, come un'unica applicazione client e un'unica API, allora potrebbe non essere conveniente adottare OAuth 2.0. D'altra parte, se ci sono molti client diversi (basati su browser, mobile nativo, lato server, ecc.), attenersi alle regole di OAuth 2.0 potrebbe rendere il tutto più gestibile rispetto al tentativo di creare un proprio sistema.
## Risposta dettagliata
JWT (Learn JSON Web Tokens) è solo un formato di token. Definisce un meccanismo compatto e autonomo per la trasmissione di dati tra le parti in un modo che può essere verificato e attendibile perché è firmato digitalmente. Inoltre, le regole di codifica di un JWT rendono questi token molto facili da usare nel contesto di HTTP.
Essendo autocontenuti (il token vero e proprio contiene informazioni su un determinato soggetto), sono anche una buona scelta per implementare meccanismi di autenticazione stateless (aka Look mum, no sessions!). In questo caso, l'unica cosa che un soggetto deve presentare per ottenere l'accesso a una risorsa protetta è il token stesso, che può essere definito un token portatore.
In pratica, quello che state facendo può già essere classificato come un token al portatore. Tuttavia, bisogna considerare che non si stanno usando i token bearer come specificato dalle specifiche di OAuth 2.0 (vedere RFC 6750). Ciò implica che ci si affidi all'header HTTP Authorization e si utilizzi lo schema di autenticazione Bearer.
Per quanto riguarda l'uso del JWT per prevenire il CSRF: senza conoscere i dettagli esatti è difficile accertare la validità di questa pratica. Ad essere onesti, non sembra corretta e/o utile. Il seguente articolo (Cookies vs Tokens: The Definitive Guide) può essere una lettura utile su questo argomento, in particolare la sezione sulla protezione XSS e XSRF.
Un ultimo consiglio. Anche se non avete bisogno di andare fino in fondo con OAuth 2.0, vi consiglio vivamente di passare il vostro token di accesso all'interno dell'intestazione Authorization, invece di usare intestazioni personalizzate. Se si tratta davvero di token bearer, seguire le regole dell'RFC 6750. In caso contrario, si può sempre creare uno schema di autenticazione personalizzato e utilizzare comunque l'header. |
260 | Gostaria de saber se existe alguma forma simples de realizar um upload de arquivos via AJAX + JSON.
Se houver, qual seria? | Você pode fazer uploads de arquivos utilizando o método ```POST``` porém deve incluir o FormData com a propriedade ```enctype``` definida como ```multipart/form-data``` para que seus arquivos sejam enviados na requisição.
Contudo, a formatação do envio não vai ser um JSON, mas sim no ```enctype``` que você definir no seu ```FormData```, que dependendo da linguagem que você está utilizando no backend vai ter uma forma diferente de interpretar estes dados.
* application/x-www-form-urlencoded: é o enctype padrão, todos os valores de espaço são convertidos para "+" e caracteres não padrões são convertidos para representação ANSII HEX;
* multipart/form-data: nenhum caractere é convertido, mantendo os valores do formulário intactos, necessário para upload de arquivos;
* text/plain: apenas espaços são convertidos em "+";
Sendo essas as possibilidades, o que está sendo trafegado não é um JSON quando vamos comunicar enviando dados para o servidor. Esses dados são serializados para serem entregues dentro da área de data do método que você esta utilizando pra trafegar via HTTP(S) dentro dos formatos apresentados.
Durante o upload você pode capturar (nos browsers modernos) evento de progresso do upload, conforme no exemplo abaixo.
Exemplo utilizando **jQuery**:
**Formulário**
```<form id="formulario" method="post" enctype="multipart/form-data">
<input type="text" name="campo1" value="hello" />
<input type="text" name="campo2" value="world" />
<input name="arquivo" type="file" />
<button>Enviar</button>
</form>
```
**Javascript**
```$("#formulario").submit(function() {
var formData = new FormData(this);
$.ajax({
url: window.location.pathname,
type: 'POST',
data: formData,
success: function(data) {
alert(data)
},
cache: false,
contentType: false,
processData: false,
xhr: function() { // Custom XMLHttpRequest
var myXhr = $.ajaxSettings.xhr();
if (myXhr.upload) { // Avalia se tem suporte a propriedade upload
myXhr.upload.addEventListener('progress', function() {
/* faz alguma coisa durante o progresso do upload */
}, false);
}
return myXhr;
}
});
});
``` | Ich würde gerne wissen, ob es eine einfache Möglichkeit gibt, Dateien über AJAX + JSON hochzuladen.
Wenn ja, wie würde das aussehen? | Sie können Dateien mit der Methode ``POST`` hochladen, aber Sie müssen FormData mit der Eigenschaft ``enctype`` auf ``multipart/form-data`` setzen, damit Ihre Dateien in der Anfrage gesendet werden.
Allerdings wird die Formatierung der gesendeten Daten nicht JSON sein, sondern in dem ``enctype``, den Sie in Ihren ``FormData`` definieren, die je nach der Sprache, die Sie im Backend verwenden, eine andere Art der Interpretation dieser Daten haben werden.
* application/x-www-form-urlencoded: Dies ist der Standard-Enctype, alle Leerzeichen werden in "+" umgewandelt und Nicht-Standard-Zeichen werden in ANSII HEX-Darstellung umgewandelt;
* multipart/form-data: Es werden keine Zeichen umgewandelt, so dass die Formularwerte intakt bleiben, was für das Hochladen von Dateien erforderlich ist;
* text/plain: nur Leerzeichen werden in "+" umgewandelt;
Bei diesen Möglichkeiten handelt es sich bei der Kommunikation durch Senden von Daten an den Server nicht um JSON. Diese Daten werden serialisiert, um innerhalb des Datumsbereichs der Methode, die Sie zum Senden über HTTP(S) verwenden, in den dargestellten Formaten geliefert zu werden.
Während des Uploads können Sie (in modernen Browsern) das Upload-Fortschrittsereignis erfassen, wie im unten stehenden Beispiel.
Beispiel mit **jQuery**:
**Formular**
``<form id="formulario" method="post" enctype="multipart/form-data">
<input type="text" name="feld1" value="hallo" />
<input type="text" name="field2" value="world" />
<input name="Datei" type="Datei" />
<button>Senden</button>
</form>
```
**Javascript**
```$("#formulario").submit(function() {
var formData = new FormData(this);
$.ajax({
url: window.location.pathname,
type: 'POST',
data: formData,
success: function(data) {
alert(data)
},
cache: false,
contentType: false,
processData: false,
xhr: function() { // Benutzerdefinierte XMLHttpRequest
var myXhr = $.ajaxSettings.xhr();
if (myXhr.upload) { // Prüfen, ob die Upload-Eigenschaft unterstützt wird
myXhr.upload.addEventListener('progress', function() {
/* tut etwas während des Upload-Fortschritts */
}, false);
}
return myXhr;
}
});
});
``` | Me gustaría saber si hay una forma sencilla de subir archivos vía AJAX + JSON.
Si es así, ¿cuál sería? | Puedes subir archivos usando el método ``POST``, pero debes incluir FormData con la propiedad ``enctype`` establecida a ``multipart/form-data`` para que tus archivos sean enviados en la petición.
Sin embargo, el formato del envío no será JSON, sino el ``enctype`` que definas en tu ``FormData``, que dependiendo del lenguaje que estés utilizando en el backend tendrá una forma diferente de interpretar estos datos.
* application/x-www-form-urlencoded: este es el tipo de archivo por defecto, todos los espacios se convierten a "+" y los caracteres no estándar se convierten a la representación ANSII HEX;
* multipart/form-data: no se convierte ningún carácter, manteniendo intactos los valores del formulario, necesario para cargar archivos;
* text/plain: sólo los espacios se convierten a "+";
Siendo estas las posibilidades, lo que se está traficando no es JSON cuando nos comunicamos enviando datos al servidor. Estos datos se serializan para ser entregados dentro del intervalo de fechas del método que está utilizando para enviarlos a través de HTTP(S) en los formatos presentados.
Durante la subida se puede capturar (en navegadores modernos) el evento de progreso de subida, como en el ejemplo siguiente.
Ejemplo usando **jQuery**:
**Formulario**
```<form id="formulario" method="post" enctype="multipart/form-data">
<input type="text" name="field1" value="hola" />
<input type="text" name="field2" value="mundo" />
<input name="archivo" type="archivo" />
<button>Enviar</button>
</form>
```
**Javascript**
```$("#formulario").submit(function() {
var formData = new FormData(this);
$.ajax({
url: window.location.pathname,
tipo: 'POST
datos: formData,
éxito: function(datos) {
alert(datos)
},
caché: false,
contentType: false,
processData: false,
xhr: function() { // Petición XMLHttp personalizada
var myXhr = $.ajaxSettings.xhr();
if (myXhr.upload) { // Evalúa si la propiedad upload está soportada
myXhr.upload.addEventListener('progress', function() {
/* hace algo durante el progreso de subida */
}, false);
}
return myXhr;
}
});
});
``` | J'aimerais savoir s'il existe un moyen simple de télécharger des fichiers via AJAX + JSON.
Si c'est le cas, quel serait-il ? | Vous pouvez télécharger des fichiers en utilisant la méthode ``POST``, mais vous devez inclure des FormData avec la propriété ``enctype`` fixée à ``multipart/form-data`` pour que vos fichiers soient envoyés dans la requête.
Cependant, le formatage de l'envoi ne sera pas JSON, mais dans le ``enctype`` que vous définissez dans vos ``FormData``, qui selon le langage que vous utilisez dans le backend aura une manière différente d'interpréter ces données.
* application/x-www-form-urlencoded : c'est l'enctype par défaut, tous les espaces sont convertis en "+" et les caractères non-standard sont convertis en représentation ANSII HEX ;
* multipart/form-data : aucun caractère n'est converti, les valeurs du formulaire restent intactes, ce qui est nécessaire pour télécharger des fichiers ;
* text/plain : seuls les espaces sont convertis en "+" ;
Compte tenu de ces possibilités, ce qui est traité n'est pas JSON lorsque nous communiquons en envoyant des données au serveur. Ces données sont sérialisées pour être livrées dans la plage de dates de la méthode que vous utilisez pour les envoyer via HTTP(S) dans les formats présentés.
Pendant le téléchargement, vous pouvez capturer (dans les navigateurs modernes) l'événement de progression du téléchargement, comme dans l'exemple ci-dessous.
Exemple utilisant **jQuery** :
**Form**
```<form id="formulario" ; method="post" ; enctype="multipart/form-data"> ;
<input type="text" ; name="field1" ; value="hello" ; /> ;
<input type="text" ; name="field2" ; value="world" ; /> ;
<input name="file" ; type="file" ; /> ;
<button>Send</button> ;
</form> ;
```
**Javascript**
```$("#formulario").submit(function() {
var formData = new FormData(this) ;
$.ajax({
url : window.location.pathname,
type : 'POST',
data : formData,
success : function(data) {
alert(data)
},
cache : false,
contentType : false,
processData : false,
xhr : function() { // Demande XMLHttp personnalisée
var myXhr = $.ajaxSettings.xhr() ;
if (myXhr.upload) { // Évalue si la propriété upload est prise en charge
myXhr.upload.addEventListener('progress', function() {
/* fait quelque chose pendant la progression du téléchargement */
}, false) ;
}
return myXhr ;
}
}) ;
}) ;
``` | Vorrei sapere se esiste un modo semplice per caricare i file tramite AJAX + JSON.
Se sì, quale sarebbe? | È possibile caricare i file utilizzando il metodo ``POST``, ma è necessario includere FormData con la proprietà ``enctype`` impostata su ``multipart/form-data``, in modo che i file vengano inviati nella richiesta.
Tuttavia, la formattazione dell'invio non sarà JSON, ma l'``enctype`` che si definisce nel ``FormData``, che a seconda del linguaggio utilizzato nel backend avrà un modo diverso di interpretare questi dati.
* application/x-www-form-urlencoded: è l'enctype predefinito, tutti i valori di spazio sono convertiti in "+" e i caratteri non standard sono convertiti nella rappresentazione ANSII HEX;
* multipart/form-data: nessun carattere viene convertito, mantenendo intatti i valori del modulo, necessario per il caricamento dei file;
* text/plain: solo gli spazi vengono convertiti in "+";
Date queste possibilità, ciò che viene trafficato non è JSON quando comunichiamo inviando dati al server. Questi dati sono serializzati per essere consegnati entro l'intervallo di date del metodo utilizzato per inviarli via HTTP(S) nei formati presentati.
Durante il caricamento è possibile catturare (nei browser moderni) l'evento di avanzamento del caricamento, come nell'esempio seguente.
Esempio con **jQuery**:
**Form**
``<form id="formulario" method="post" enctype="multipart/form-data">
<input type="text" name="field1" value="hello" />
input type="text" name="field2" value="world" />
<input name="file" type="file" />
<button>Send</button>
</form>
```
**Javascript**
```$("#formulario").submit(function() {
var formData = new FormData(this);
$.ajax({
url: window.location.pathname,
tipo: 'POST',
dati: formData,
success: function(data) {
alert(dati)
},
cache: false,
contentType: false,
processData: false,
xhr: function() { // Richiesta XMLHttp personalizzata
var myXhr = $.ajaxSettings.xhr();
if (myXhr.upload) { // Valutare se la proprietà upload è supportata
myXhr.upload.addEventListener('progress', function() {
/* fa qualcosa durante l'avanzamento del caricamento */
}, false);
}
return myXhr;
}
});
});
``` |
261 | Did the ancients or other pre-industrial civilisations engage in unsustainable practices? | Most ancient agricultural practices deplete soil to some degree, but are just fine when population does not exceed certain limits. There are some examples of ancient cultures exhausting natural resources available to them - Pitcairn Island Polynesians, Ancient Puebloans (Anasazi). It's the cause of the semi-nomadic way of life of many early societies - your herds graze the grass into oblivion, you move to another patch to return back when the grass grows back in; or you deplete the soil by overplanting, you move to another spot of land and start over, and so on.
But there's an important distinction to be made. Early societies were naturally regulated just as animal population are - by food resources. When food grows scarce, hunger strikes, and humans either start fighting for what's left, reducing population to more manageable levels, or migrate to not yet depleted lands - only cases of actual extinction are from island civilizations which cannot readily move. Meanwhile, globally environment stays balanced, and depleted spots are replenished from outside - slowly healing the damage. Modern humanity has no place to move - all land is already claimed by someone, so we have to make do with what resources we have - and consequently affects the world at global scale, which earlier cultures were incapable of.
Sustainability is not about return to pre-industrial way of life - it is unsustainable at modern population levels. It is about preserving the environment in human-habitable state - both by taking less from nature and by increasing effectiveness of usage of what we do need to take. | Haben die Antike oder andere vorindustrielle Zivilisationen nicht nachhaltige Praktiken angewandt? | Die meisten alten landwirtschaftlichen Praktiken erschöpfen den Boden bis zu einem gewissen Grad, sind aber in Ordnung, wenn die Bevölkerung bestimmte Grenzen nicht überschreitet. Es gibt einige Beispiele für alte Kulturen, die die ihnen zur Verfügung stehenden natürlichen Ressourcen erschöpften - die Polynesier der Pitcairn-Insel, die alten Puebloaner (Anasazi). Das ist die Ursache für die halbnomadische Lebensweise vieler früher Gesellschaften - die Herden grasen das Gras ab, man zieht auf ein anderes Stück Land und kehrt zurück, wenn das Gras wieder nachwächst; oder man erschöpft den Boden durch Überbepflanzung, zieht auf ein anderes Stück Land und fängt von vorne an, und so weiter.
Aber man muss einen wichtigen Unterschied machen. Frühe Gesellschaften wurden auf natürliche Weise reguliert, genau wie die Populationen von Tieren - durch Nahrungsressourcen. Wenn die Nahrung knapp wird, bricht der Hunger aus, und die Menschen kämpfen entweder um das, was übrig ist, und reduzieren die Bevölkerung auf ein überschaubares Maß, oder sie wandern in ein noch nicht erschöpftes Land aus - die einzigen Fälle von tatsächlichem Aussterben sind Inselzivilisationen, die nicht einfach umziehen können. In der Zwischenzeit bleibt die Umwelt weltweit im Gleichgewicht, und die erschöpften Gebiete werden von außen aufgefüllt, wodurch der Schaden langsam behoben wird. Die moderne Menschheit hat keinen Platz, an den sie umziehen kann - alles Land wird bereits von jemandem beansprucht, also müssen wir mit den Ressourcen auskommen, die wir haben - und beeinflusst folglich die Welt auf globaler Ebene, wozu frühere Kulturen nicht in der Lage waren.
Bei der Nachhaltigkeit geht es nicht darum, zu einer vorindustriellen Lebensweise zurückzukehren - diese ist bei der heutigen Bevölkerungszahl nicht mehr tragbar. Es geht darum, die Umwelt in einem für den Menschen bewohnbaren Zustand zu erhalten - indem wir weniger von der Natur nehmen und das, was wir nehmen müssen, effektiver nutzen. | ¿Realizaban los antiguos u otras civilizaciones preindustriales prácticas insostenibles? | La mayoría de las prácticas agrícolas ancestrales agotan el suelo hasta cierto punto, pero funcionan bien cuando la población no supera ciertos límites. Hay algunos ejemplos de culturas antiguas que agotaban los recursos naturales de que disponían: los polinesios de la isla de Pitcairn, los antiguos puebloanos (Anasazi). Es la causa del modo de vida seminómada de muchas sociedades primitivas: tus rebaños pastan la hierba hasta el olvido, te mudas a otra parcela para volver cuando la hierba vuelva a crecer; o agotas el suelo plantando en exceso, te mudas a otra parcela de tierra y vuelves a empezar, y así sucesivamente.
Pero hay que hacer una distinción importante. Las sociedades primitivas se regulaban de forma natural igual que la población animal: por los recursos alimentarios. Cuando la comida escasea, el hambre ataca y los seres humanos o bien empiezan a luchar por lo que queda, reduciendo la población a niveles más manejables, o bien emigran a tierras que aún no se han agotado (los únicos casos de extinción real son los de civilizaciones insulares que no pueden desplazarse fácilmente). Mientras tanto, el medio ambiente global se mantiene equilibrado y los lugares agotados se reponen desde el exterior, curando lentamente los daños. La humanidad moderna no tiene dónde desplazarse -toda la tierra está ya reclamada por alguien, así que tenemos que arreglárnoslas con los recursos que tenemos- y, en consecuencia, afecta al mundo a escala global, algo que las culturas anteriores eran incapaces de hacer.
La sostenibilidad no consiste en volver al modo de vida preindustrial, que es insostenible con los niveles de población actuales. Se trata de preservar el medio ambiente en un estado habitable para el ser humano, tomando menos de la naturaleza y aumentando la eficacia del uso de lo que necesitamos tomar. | Les anciens ou d'autres civilisations préindustrielles ont-ils adopté des pratiques non durables ? | La plupart des pratiques agricoles anciennes épuisent le sol dans une certaine mesure, mais ne posent pas de problème lorsque la population ne dépasse pas certaines limites. Il existe quelques exemples de cultures anciennes qui épuisent les ressources naturelles à leur disposition : les Polynésiens de l'île de Pitcairn, les anciens Pueblos (Anasazi). C'est la cause du mode de vie semi-nomade de nombreuses sociétés anciennes - vos troupeaux broutent l'herbe jusqu'à l'oubli, vous vous déplacez vers une autre parcelle pour revenir lorsque l'herbe repousse ; ou vous épuisez le sol en plantant trop, vous vous déplacez vers un autre endroit de la terre et recommencez, et ainsi de suite.
Mais il y a une distinction importante à faire. Les premières sociétés étaient naturellement régulées, tout comme le sont les populations animales, par les ressources alimentaires. Lorsque la nourriture se raréfie, la faim frappe et les humains commencent à se battre pour ce qui reste, réduisant la population à des niveaux plus gérables, ou migrent vers des terres qui ne sont pas encore épuisées - les seuls cas d'extinction réelle sont ceux des civilisations insulaires qui ne peuvent pas se déplacer facilement. Pendant ce temps, l'environnement global reste équilibré et les zones épuisées sont réapprovisionnées de l'extérieur, ce qui permet de réparer lentement les dégâts. L'humanité moderne n'a pas d'endroit où se déplacer - toutes les terres sont déjà revendiquées par quelqu'un, nous devons donc nous contenter des ressources dont nous disposons - et par conséquent, elle affecte le monde à l'échelle planétaire, ce dont les cultures antérieures étaient incapables.
La durabilité ne consiste pas à revenir au mode de vie préindustriel, qui n'est pas viable aux niveaux de population actuels. Il s'agit de préserver l'environnement dans un état habitable pour l'homme, à la fois en prélevant moins sur la nature et en augmentant l'efficacité de l'utilisation de ce que nous devons prélever. | Gli antichi o altre civiltà preindustriali hanno adottato pratiche non sostenibili? | La maggior parte delle pratiche agricole antiche impoveriscono in qualche misura il suolo, ma vanno bene quando la popolazione non supera certi limiti. Ci sono alcuni esempi di culture antiche che hanno esaurito le risorse naturali a loro disposizione: i polinesiani dell'isola di Pitcairn, gli antichi Puebloan (Anasazi). È la causa dello stile di vita seminomade di molte società primitive: le mandrie brucano l'erba fino all'esaurimento, ci si sposta in un'altra zona per poi tornare quando l'erba ricresce; oppure si esaurisce il terreno con una semina eccessiva, ci si sposta in un altro punto della terra e si ricomincia da capo, e così via.
Ma c'è una distinzione importante da fare. Le prime società erano regolate naturalmente proprio come le popolazioni animali: dalle risorse alimentari. Quando il cibo scarseggia, la fame colpisce e gli esseri umani iniziano a lottare per ciò che resta, riducendo la popolazione a livelli più gestibili, oppure migrano verso terre non ancora esaurite: gli unici casi di estinzione vera e propria sono quelli di civiltà insulari che non possono spostarsi facilmente. Nel frattempo, l'ambiente globale rimane in equilibrio e i luoghi impoveriti vengono riforniti dall'esterno, curando lentamente i danni. L'umanità moderna non ha un posto dove spostarsi - tutta la terra è già rivendicata da qualcuno, quindi dobbiamo arrangiarci con le risorse che abbiamo - e di conseguenza influenza il mondo su scala globale, cosa che le culture precedenti non erano in grado di fare.
La sostenibilità non riguarda il ritorno allo stile di vita preindustriale, insostenibile ai livelli di popolazione moderni. Si tratta di preservare l'ambiente in uno stato abitabile per l'uomo, sia sottraendo meno risorse alla natura sia aumentando l'efficacia dell'uso di quelle che dobbiamo prelevare. |
262 | When reading my Bible, I've noticed Joesph's name listed in both the Old and New Testaments; is it the same person or is there more than one Joseph in the Bible? | There are 3 distinct (fairly) well-known Josephs in the Bible, firstly in the Old Testament (mainly):
* Joseph the son of Jacob/Israel (aka The Patriarch Joseph). This Joseph is actually referred to in a few select places in the New Testament: John 4:5; Acts 7:9-18; Hebrews 11:21-22 & Revelation 7:8.
However, it's more likely that a Joseph in the New Testament would be one of:
* Joseph husband of Mary and surrogate father of Jesus (aka St. Joseph).
* Joseph of Arimathea in whose tomb Jesus was laid to rest.
There's also another 9 or 10 more obscure Josephs referred to in the Bible*, 4 more in the Old Testament*:
* Father of Igal of the tribe of Issachar (cf. Numbers 13:7).
* One of the "sons of Asaph" (cf. 1 Chronicles 25:2 & 9).
* A descendant of Binnui, a contemporary of Ezra (cf. Ezra 10:38-42).
* Head of the priestly family of Shekaniah, a contemporary of Nehemiah (cf. Nehemiah 12:14).
And 5 or 6 more in the New Testament:
* One of the (half-)brothers of Jesus (often translated as "Joses" - cf. Mark 6:3).
* The son of "Mary" and brother of James (possibly/probably The Mary, if so, identical to Joseph number 8. - cf. Mark 15:40 & 47).
* The son of Mattathais (and father of Jannai) appearing in Luke's genealogy of Jesus (in which Joseph number 2. also appears - cf. Luke 3:24-25).
* The son of Jonam (and father of Judah) also appearing in Luke's genealogy of Jesus (cf. Luke 3:30).
* One of the nominees to replace Judas as an apostle, aka Barsabbas aka Justus (cf. Acts 1:23).
* A Levite from Cyprus aka Barnabas who probably deserves to be listed amongst the "well-known" Josephs except that he is almost always referred to as Barnabas instead (cf. Acts 4:36).
*That is in the Protestant Canon, there are another 3 in the Deuterocanonical books: Son of Oziel (great-grandfather of Judith - cf. Judith 8:1); Son of Zechariah (cf. 1 Maccabees 5); Brother of Judas Maccabeus (aka John - cf. 2 Maccabees 8:22). | Beim Lesen meiner Bibel ist mir aufgefallen, dass der Name Josef sowohl im Alten als auch im Neuen Testament vorkommt. | In der Bibel gibt es 3 verschiedene (ziemlich) bekannte Josephs, zunächst im Alten Testament (hauptsächlich):
* Josef, der Sohn Jakobs/Israels (auch bekannt als der Patriarch Josef). Dieser Joseph wird im Neuen Testament an einigen ausgewählten Stellen erwähnt: Johannes 4,5; Apostelgeschichte 7,9-18; Hebräer 11,21-22 & Offenbarung 7,8.
Es ist jedoch wahrscheinlicher, dass ein Joseph im Neuen Testament einer der folgenden ist:
* Josef, Ehemann von Maria und Ersatzvater von Jesus (auch bekannt als der Heilige Josef).
* Josef von Arimathäa, in dessen Grab Jesus zur Ruhe gelegt wurde.
Darüber hinaus gibt es noch 9 oder 10 weitere obskure Josefs, die in der Bibel* erwähnt werden, 4 weitere im Alten Testament*:
* Vater von Igal aus dem Stamm Issachar (vgl. Numeri 13,7).
* Einer der "Söhne Asaphs" (vgl. 1. Chronik 25,2 & 9).
* Ein Nachkomme von Binnui, einem Zeitgenossen Esras (vgl. Esra 10,38-42).
* Oberhaupt der priesterlichen Familie von Schekanja, einem Zeitgenossen von Nehemia (vgl. Nehemia 12,14).
Und 5 oder 6 weitere im Neuen Testament:
* Einer der (Halb-)Brüder von Jesus (oft mit "Joses" übersetzt - vgl. Markus 6,3).
* Der Sohn von "Maria" und Bruder von Jakobus (möglicherweise/wahrscheinlich die Maria, wenn ja, identisch mit Joseph Nummer 8. - vgl. Markus 15,40 & 47).
* Der Sohn von Mattathais (und Vater von Jannai), der in der lukanischen Genealogie von Jesus auftaucht (in der auch Joseph Nummer 2 auftaucht - vgl. Lukas 3,24-25).
* Der Sohn von Jonam (und Vater von Juda), der auch in der lukanischen Genealogie Jesu auftaucht (vgl. Lukas 3,30).
* Einer der Kandidaten, die Judas als Apostel ersetzen sollten, auch bekannt als Barsabbas oder Justus (vgl. Apostelgeschichte 1,23).
* Ein Levit aus Zypern alias Barnabas, der wahrscheinlich zu den "bekannten" Josephs gehört, außer dass er fast immer als Barnabas bezeichnet wird (vgl. Apostelgeschichte 4,36).
*Das ist im protestantischen Kanon, es gibt weitere 3 in den deuterokanonischen Büchern: Sohn des Oziel (Urgroßvater von Judith - vgl. Judith 8,1); Sohn des Zacharias (vgl. 1 Makkabäer 5); Bruder des Judas Makkabäus (alias Johannes - vgl. 2 Makkabäer 8,22). | Al leer mi Biblia, he observado que el nombre de José aparece tanto en el Antiguo como en el Nuevo Testamento; ¿se trata de la misma persona o hay más de un José en la Biblia? | En la Biblia hay 3 José distintos (bastante) conocidos, en primer lugar en el Antiguo Testamento (principalmente):
* José, hijo de Jacob/Israel (también conocido como el patriarca José). A este José se le menciona en algunos lugares del Nuevo Testamento: Juan 4:5; Hechos 7:9-18; Hebreos 11:21-22 y Apocalipsis 7:8.
Sin embargo, es más probable que un José en el Nuevo Testamento sería uno de:
* José esposo de María y padre sustituto de Jesús (también conocido como San José).
* José de Arimatea, en cuya tumba fue sepultado Jesús.
También hay otros 9 o 10 José más oscuros mencionados en la Biblia*, 4 más en el Antiguo Testamento*:
* Padre de Igal, de la tribu de Isacar (cf. Números 13:7).
* Uno de los "hijos de Asaf" (cf. 1 Crónicas 25:2 y 9).
* Descendiente de Binnui, contemporáneo de Esdras (cf. Esdras 10:38-42).
* Jefe de la familia sacerdotal de Sequías, contemporáneo de Nehemías (Nehemías 12:14).
Y 5 ó 6 más en el Nuevo Testamento:
* Uno de los (medio) hermanos de Jesús (a menudo traducido como "Josés" - cf. Marcos 6:3).
* El hijo de "María" y hermano de Santiago (posiblemente/probablemente La María, si es así, idéntico a José número 8. - cf. Marcos 15:40 y 47).
* El hijo de Mattathais (y padre de Jannai) que aparece en la genealogía de Jesús en Lucas (en la que también aparece José número 2. cf. Lucas 3:24-25).
* El hijo de Jonam (y padre de Judá) que también aparece en la genealogía de Lucas de Jesús (cf. Lucas 3:30).
* Uno de los nominados para sustituir a Judas como apóstol, alias Barrabás, alias Justo (cf. Hch 1:23).
* Un levita de Chipre, alias Bernabé, que probablemente merecería figurar entre los José "conocidos", salvo que casi siempre se hace referencia a él como Bernabé (cf. Hch 4:36).
*Ese está en el canon protestante, hay otros 3 en los libros deuterocanónicos: Hijo de Oziel (bisabuelo de Judit - cf. Judit 8:1); Hijo de Zacarías (cf. 1 Macabeos 5); Hermano de Judas Macabeo (alias Juan - cf. 2 Macabeos 8:22). | En lisant ma Bible, j'ai remarqué que le nom de Joseph figurait à la fois dans l'Ancien et le Nouveau Testament. S'agit-il de la même personne ou y a-t-il plus d'un Joseph dans la Bible ? | Il y a 3 Joseph distincts (assez) bien connus dans la Bible, d'abord dans l'Ancien Testament (principalement) :
* Joseph, fils de Jacob/Israël (alias le patriarche Joseph). Ce Joseph est en fait mentionné à quelques endroits précis du Nouveau Testament : Jean 4:5 ; Actes 7:9-18 ; Hébreux 11:21-22 et Apocalypse 7:8.
Cependant, il est plus probable que le Joseph du Nouveau Testament soit l'un des suivants :
* Joseph, époux de Marie et père de substitution de Jésus (alias Saint Joseph).
* Joseph d'Arimathie, dans le tombeau duquel Jésus a été déposé.
Il y a également 9 ou 10 autres Joseph obscurs mentionnés dans la Bible*, dont 4 dans l'Ancien Testament* :
* Père d'Igal, de la tribu d'Issachar (cf. Nombres 13:7).
* Un des "fils d'Asaph" (cf. 1 Chroniques 25:2 & 9).
* Descendant de Binnui, contemporain d'Esdras (cf. Esdras 10, 38-42).
* Chef de la famille sacerdotale de Shekaniah, contemporain de Néhémie (cf. Néhémie 12, 14).
Et 5 ou 6 autres dans le Nouveau Testament :
* Un des (demi-)frères de Jésus (souvent traduit par "Joses" - cf. Marc 6:3).
* Le fils de "Marie" et le frère de Jacques (peut-être/probablement la Marie, si c'est le cas, identique au Joseph numéro 8. - cf. Marc 15:40 & 47).
* Le fils de Mattathais (et père de Jannai) apparaissant dans la généalogie de Jésus de Luc (dans laquelle Joseph numéro 2 apparaît également - cf. Luc 3:24-25).
* Fils de Jonam (et père de Juda) figurant également dans la généalogie de Jésus selon Luc (cf. Luc 3:30).
* L'un des candidats pour remplacer Judas en tant qu'apôtre, alias Barsabbas alias Justus (cf. Actes 1:23).
* Un lévite de Chypre, alias Barnabé, qui mériterait probablement de figurer parmi les Joseph "bien connus", sauf qu'il est presque toujours appelé Barnabé (cf. Ac 4, 36).
*C'est dans le canon protestant, il y en a 3 autres dans les livres deutérocanoniques : Fils d'Oziel (arrière-grand-père de Judith - cf. Judith 8:1) ; Fils de Zacharie (cf. 1 Maccabées 5) ; Frère de Judas Maccabée (alias Jean - cf. 2 Maccabées 8:22). | Leggendo la mia Bibbia, ho notato che il nome di Giuseppe è elencato sia nell'Antico che nel Nuovo Testamento; si tratta della stessa persona o c'è più di un Giuseppe nella Bibbia? | Ci sono 3 distinti Giuseppe (abbastanza) noti nella Bibbia, in primo luogo nell'Antico Testamento (principalmente):
* Giuseppe, figlio di Giacobbe/Israele (alias il patriarca Giuseppe). Questo Giuseppe viene citato in alcuni luoghi selezionati del Nuovo Testamento: Giovanni 4,5; Atti 7,9-18; Ebrei 11,21-22 e Apocalisse 7,8.
Tuttavia, è più probabile che il Giuseppe del Nuovo Testamento sia uno dei seguenti:
* Giuseppe marito di Maria e padre surrogato di Gesù (detto anche San Giuseppe).
* Giuseppe di Arimatea, nella cui tomba fu deposto Gesù.
Ci sono anche altri 9 o 10 Giuseppe oscuri di cui si parla nella Bibbia*, altri 4 nell'Antico Testamento*:
* Padre di Igal della tribù di Issacar (cfr. Numeri 13:7).
* Uno dei "figli di Asaph" (cfr. 1 Cronache 25:2 e 9).
* Discendente di Binnui, contemporaneo di Esdra (cfr. Esdra 10, 38-42).
* Capo della famiglia sacerdotale di Scekania, contemporaneo di Neemia (cfr. Neemia 12:14).
E altri 5 o 6 nel Nuovo Testamento:
* Uno dei (fratellastri) di Gesù (spesso tradotto con "Joses" - cfr. Marco 6:3).
* Figlio di "Maria" e fratello di Giacomo (forse/probabilmente Maria, se così fosse, identico al Giuseppe numero 8). - cfr. Marco 15,40 e 47).
* Il figlio di Mattathais (e padre di Jannai) che compare nella genealogia di Gesù di Luca (in cui compare anche Giuseppe numero 2 - cfr. Luca 3, 24-25).
* Figlio di Jonam (e padre di Giuda), anch'egli presente nella genealogia di Gesù di Luca (cfr. Luca 3,30).
* Uno dei candidati a sostituire Giuda come apostolo, alias Barsabba, alias Giusto (cfr. At 1,23).
* Un levita di Cipro, detto Barnaba, che probabilmente meriterebbe di essere annoverato tra i Giuseppe "noti", se non fosse che viene quasi sempre indicato come Barnaba (cfr. At 4,36).
*Questo nel Canone protestante, altri 3 nei libri deuterocanonici: Figlio di Oziel (bisnonno di Giuditta - cfr. Giuditta 8,1); figlio di Zaccaria (cfr. 1 Maccabei 5); fratello di Giuda Maccabeo (alias Giovanni - cfr. 2 Maccabei 8,22). |
263 | Para que serve o "with" no Python? | Ele é usado para garantir finalização de recursos adquiridos.
Um arquivo, por exemplo é aberto. Quem garante que ele será fechado? Mesmo que você coloque no código de forma explícita que ele deve ser fechado, se ocorrer uma exceção, o código sai de escopo sem executar o resto do código que está em escopo, ele pula o fechamento.
Para evitar isto usamos um ```try finally```. O ```finally``` garante a finalização. Como o código fica um pouco longo e este caso é bastante frequente a linguagem providenciou uma forma simplificada com o ```with```.
Ele consegue manipular objetos que contenham os métodos ```__enter__()``` e ```__exit__()```. Eles são chamados internamente logo no início da execução do bloco criado e dentro do ```finally``` interno criado no bloco.
No exemplo citado deve ficar algo parecido com isto internamente:
```try:
__enter__()
open("my_file.txt") as file:
data = file.read()
#faça algo com "data"
finally:
__exit__()
``` | Wozu dient das "with" in Python? | Sie dient dazu, die Fertigstellung der erworbenen Mittel zu gewährleisten.
Eine Datei wird zum Beispiel geöffnet. Wer garantiert, dass sie geschlossen wird? Selbst wenn Sie im Code explizit angeben, dass sie geschlossen werden soll, geht der Code aus dem Geltungsbereich heraus, wenn eine Ausnahme auftritt, ohne dass der Rest des Codes, der im Geltungsbereich ist, ausgeführt wird.
Um dies zu vermeiden, verwenden wir ein ``try finally``. Das ``finally`` garantiert die Beendigung. Da der Code ein wenig lang wird und dies recht häufig vorkommt, hat die Sprache mit ``with`` eine vereinfachte Form bereitgestellt.
Sie kann mit Objekten umgehen, die die Methoden ``enter__()`` und ``exit__()`` enthalten. Sie werden intern zu Beginn der Ausführung des erzeugten Blocks und innerhalb des im Block erzeugten internen ``finally`` aufgerufen.
Im obigen Beispiel sollte es intern etwa so aussehen:
```Versuch:
__enter__()
open("meine_datei.txt") as file:
data = file.read()
#etwas mit "Daten"
finally:
__exit__()
``` | ¿Para qué sirve el "con" en Python? | Se utiliza para garantizar la finalización de los recursos adquiridos.
Por ejemplo, se abre un expediente. ¿Quién garantiza que se cerrará? Aunque se indique explícitamente en el código que debe cerrarse, si se produce una excepción, el código sale de ámbito sin ejecutar el resto del código que está en ámbito.
Para evitar esto usamos un ``try finally``. El ``finally`` garantiza la finalización. Como el código se hace un poco largo y esto es bastante común, el lenguaje ha proporcionado una forma simplificada con ``with``.
Puede manejar objetos que contengan los métodos ``enter__()`` y ``exit__()``. Son llamados internamente al inicio de la ejecución del bloque creado y dentro del ``finally`` interno creado en el bloque.
En el ejemplo anterior, internamente debería verse algo como esto
``intentar
__enter__()
open("mi_archivo.txt") as archivo:
data = file.read()
#hacer algo con "datos";
finalmente:
__exit__()
``` | À quoi sert le "avec" dans Python ? | Il est utilisé pour garantir la finalisation des ressources acquises.
Un dossier, par exemple, est ouvert. Qui garantit qu'il sera fermé ? Même si vous indiquez explicitement dans le code qu'il doit être fermé, si une exception se produit, le code sort du champ d'application sans exécuter le reste du code qui est dans le champ d'application.
Pour éviter cela, nous utilisons un ``try finally``. Le ``finally`` garantit la finalisation. Comme le code devient un peu long et que cela est assez courant, le langage a fourni une forme simplifiée avec ``with``.
Il peut gérer des objets qui contiennent les méthodes ``enter__()`` et ``exit__()``. Elles sont appelées en interne au début de l'exécution du bloc créé et dans le ``finally`` interne créé dans le bloc.
Dans l'exemple ci-dessus, cela devrait ressembler à quelque chose comme ceci en interne :
``try :
__enter__()
open("my_file.txt" ;) as file :
data = file.read()
#fait quelque chose avec "data" ;
finally :
__exit__()
``` | A cosa serve il "con" in Python? | Viene utilizzato per garantire la finalizzazione delle risorse acquisite.
Un file, ad esempio, viene aperto. Chi garantisce che venga chiuso? Anche se nel codice si dichiara esplicitamente che deve essere chiuso, se si verifica un'eccezione, il codice esce dallo scope senza eseguire il resto del codice che è nello scope.
Per evitare ciò, si usa un ``try finally``. Il ``finalmente'' garantisce la finalizzazione. Poiché il codice diventa un po' lungo e questo è abbastanza comune, il linguaggio ha fornito una forma semplificata con ``with``.
Può gestire oggetti che contengono i metodi ``enter__()`` e ``exit__()``. Questi vengono chiamati internamente all'inizio dell'esecuzione del blocco creato e all'interno del ``finale'' interno creato nel blocco.
Nell'esempio precedente, internamente dovrebbe essere simile a questo:
``prova:
__enter__()
open("my_file.txt") as file:
data = file.read()
#fare qualcosa con "data"
infine:
__exit__()
``` |
264 | The question bothers me since February 2022. Why (legally) are Russian combatants in Ukraine considered soldiers (thus POWs when captured) rather than terrorists?
* There is no formal declaration of war.
* They are members an organization (Russian military) that commits acts of terrors to civilian population in clear violation of international law of war. Moreover, they either directly or indirectly contribute to the mentioned acts of terror.
* Their state (Russia) explicitly claims that there is no war (thus unilaterally waiving the protection of law of war for Russian forces).
Why is that particular group of armed people acting in clear violation of Ukrainian law treated as "soldiers in war" rather than state-sponsored criminals?
Note, that waiving the protection of law of war does not waive the protection of Ukrainian law (right to due process etc.). | The third Geneva convention says in its second article (emphasis added):
> the present Convention shall apply to all cases of declared war or of any other armed conflict which may arise between two or more of the High Contracting Parties, even if the state of war is not recognized by one of them.
> The Convention shall also apply to all cases of partial or total occupation of the territory of a High Contracting Party, even if the said occupation meets with no armed resistance.
The violence in Ukraine qualifies for at least two reasons: it is an armed conflict between two high contracting parties, and it is a case of partial occupation of the territory of a high contracting party. "Members of the armed forces" of Russia who have "fallen into the power of [Ukraine]" are therefore protected by the provisions of the convention as prisoners of war as defined in the convention's fourth article.
It follows from this that the parenthetical commentary in the question's third bullet point is incorrect: refusing to call this "military action" a "war" does not in fact "unilaterally waive the protection of law of war for Russian forces."
As to the allegation in the second point, even a prisoner of war who is suspected of committing a war crime is entitled to the convention's protections. Any punishment for the war crime is to be imposed by due process of law. The fact that war crimes may have been committed by other elements of Russia's armed forces is even less of a justification to deny the convention's protections to prisoners who are not individually suspected of war crimes. | Die Frage beunruhigt mich seit Februar 2022. Warum gelten (rechtlich) russische Kämpfer in der Ukraine als Soldaten (und somit als Kriegsgefangene, wenn sie gefangen genommen werden) und nicht als Terroristen?
* Es gibt keine formelle Kriegserklärung.
* Sie sind Mitglieder einer Organisation (des russischen Militärs), die unter klarer Verletzung des Kriegsvölkerrechts Terrorakte gegen die Zivilbevölkerung verübt. Außerdem tragen sie entweder direkt oder indirekt zu den genannten Terrorakten bei.
* Ihr Staat (Russland) behauptet ausdrücklich, dass es keinen Krieg gibt (und verzichtet damit einseitig auf den Schutz des Kriegsrechts für die russischen Streitkräfte).
Warum wird diese spezielle Gruppe bewaffneter Personen, die eindeutig gegen das ukrainische Recht verstoßen, als "Soldaten im Krieg" und nicht als staatlich unterstützte Kriminelle behandelt?
Beachten Sie, dass der Verzicht auf den Schutz des Kriegsrechts nicht den Schutz des ukrainischen Rechts (Recht auf ein ordentliches Verfahren usw.) aufhebt. | Die dritte Genfer Konvention besagt in ihrem zweiten Artikel (Hervorhebung hinzugefügt):
> Diese Konvention ist auf alle Fälle eines erklärten Krieges oder eines anderen bewaffneten Konflikts zwischen zwei oder mehreren Hohen Vertragsparteien anzuwenden, auch wenn der Kriegszustand von einer dieser Parteien nicht anerkannt wird.
> Die Konvention findet ferner Anwendung auf alle Fälle teilweiser oder vollständiger Besetzung des Hoheitsgebiets einer Hohen Vertragspartei, auch wenn diese Besetzung auf keinen bewaffneten Widerstand stößt.
Die Gewalt in der Ukraine erfüllt mindestens zwei Voraussetzungen: Es handelt sich um einen bewaffneten Konflikt zwischen zwei hohen Vertragsparteien und um eine teilweise Besetzung des Hoheitsgebiets einer hohen Vertragspartei. Angehörige der russischen Streitkräfte, die in die Gewalt der [Ukraine] geraten sind, genießen daher den Schutz der Konvention als Kriegsgefangene im Sinne des vierten Artikels der Konvention.
Daraus folgt, dass der Klammerkommentar im dritten Aufzählungspunkt der Frage falsch ist: Die Weigerung, diese "Militäraktion" als "Krieg" zu bezeichnen, bedeutet in der Tat nicht "einseitiger Verzicht auf den Schutz des Kriegsrechts für die russischen Streitkräfte"
Was die Behauptung im zweiten Punkt betrifft, so hat auch ein Kriegsgefangener, der verdächtigt wird, ein Kriegsverbrechen begangen zu haben, Anspruch auf den Schutz der Konvention. Jede Bestrafung für ein Kriegsverbrechen muss in einem ordentlichen Gerichtsverfahren erfolgen. Die Tatsache, dass Kriegsverbrechen möglicherweise von anderen Teilen der russischen Streitkräfte begangen wurden, rechtfertigt noch weniger, Gefangenen, die nicht individuell eines Kriegsverbrechens verdächtigt werden, den Schutz der Konvention zu verweigern. | La pregunta me inquieta desde febrero de 2022. ¿Por qué (legalmente) los combatientes rusos en Ucrania son considerados soldados (y por tanto prisioneros de guerra cuando son capturados) en lugar de terroristas?
* No hay declaración formal de guerra.
* Son miembros de una organización (militares rusos) que comete actos de terror contra la población civil en clara violación del derecho internacional de la guerra. Además, contribuyen directa o indirectamente a los actos de terror mencionados.
* Su Estado (Rusia) afirma explícitamente que no hay guerra (renunciando así unilateralmente a la protección del derecho de guerra para las fuerzas rusas).
¿Por qué se trata a ese grupo concreto de personas armadas que actúan en clara violación de la legislación ucraniana como "soldados en guerra" en lugar de criminales patrocinados por el Estado?
Nótese que renunciar a la protección del derecho de guerra no implica renunciar a la protección del derecho ucraniano (derecho al debido proceso, etc.). | La tercera convención de Ginebra dice en su segundo artículo (énfasis añadido):
> el presente Convenio se aplicará en todos los casos de guerra declarada o de cualquier otro conflicto armado que pueda surgir entre dos o más de las Altas Partes Contratantes, aun cuando el estado de guerra no sea reconocido por una de ellas.
> El Convenio se aplicará igualmente a todos los casos de ocupación parcial o total del territorio de una Alta Parte Contratante, aunque dicha ocupación no encuentre resistencia armada.
La violencia en Ucrania cumple los requisitos por al menos dos razones: se trata de un conflicto armado entre dos altas partes contratantes, y es un caso de ocupación parcial del territorio de una alta parte contratante. Los "miembros de las fuerzas armadas" de Rusia que han "caído en poder de [Ucrania]" están, por tanto, protegidos por las disposiciones del convenio como prisioneros de guerra, tal y como se define en el artículo cuarto del convenio.
De ello se deduce que el comentario entre paréntesis del tercer punto de la pregunta es incorrecto: negarse a calificar esta "acción militar" de "guerra" no supone de hecho "renunciar unilateralmente a la protección del derecho de guerra para las fuerzas rusas"
En cuanto a la alegación del segundo punto, incluso un prisionero de guerra sospechoso de haber cometido un crimen de guerra tiene derecho a las protecciones de la convención. Cualquier castigo por el crimen de guerra debe imponerse con las debidas garantías procesales. El hecho de que los crímenes de guerra puedan haber sido cometidos por otros elementos de las fuerzas armadas rusas es una justificación aún menor para negar las protecciones de la convención a prisioneros que no son sospechosos individuales de crímenes de guerra. | La question me préoccupe depuis février 2022. Pourquoi les combattants russes en Ukraine sont-ils (légalement) considérés comme des soldats (et donc comme des prisonniers de guerre lorsqu'ils sont capturés) plutôt que comme des terroristes ?
* Il n'y a pas de déclaration de guerre formelle.
* Ils sont membres d'une organisation (l'armée russe) qui commet des actes de terreur contre la population civile en violation flagrante du droit international de la guerre. De plus, ils contribuent directement ou indirectement aux actes de terreur mentionnés.
* Leur État (la Russie) affirme explicitement qu'il n'y a pas de guerre (renonçant ainsi unilatéralement à la protection du droit de la guerre pour les forces russes).
Pourquoi ce groupe particulier de personnes armées agissant en violation flagrante de la loi ukrainienne est-il traité comme des "soldats en guerre" plutôt que comme des criminels parrainés par l'État ?
Il convient de noter que le fait de renoncer à la protection du droit de la guerre n'entraîne pas la renonciation à la protection du droit ukrainien (droit à une procédure régulière, etc.). | La troisième convention de Genève stipule dans son deuxième article (c'est nous qui soulignons) :
> La présente Convention s'appliquera à tous les cas de guerre déclarée ou de tout autre conflit armé surgissant entre deux ou plusieurs des Hautes Parties contractantes, même si l'état de guerre n'est pas reconnu par l'une d'elles.
> La Convention s'applique également à tous les cas d'occupation partielle ou totale du territoire d'une Haute Partie contractante, même si cette occupation ne rencontre pas de résistance armée.
La violence en Ukraine remplit ces conditions pour au moins deux raisons : il s'agit d'un conflit armé entre deux hautes parties contractantes et d'un cas d'occupation partielle du territoire d'une haute partie contractante. Les "membres des forces armées" de la Russie qui sont "tombés au pouvoir de [l'Ukraine]" sont donc protégés par les dispositions de la convention en tant que prisonniers de guerre au sens de l'article 4 de la convention.
Il s'ensuit que le commentaire parenthétique du troisième point de la question est incorrect : refuser de qualifier cette "action militaire"de "guerre"ne signifie pas en fait "renoncer unilatéralement à la protection du droit de la guerre pour les forces russes" ;
En ce qui concerne l'allégation du deuxième point, même un prisonnier de guerre soupçonné d'avoir commis un crime de guerre a droit aux protections de la convention. Toute sanction pour un crime de guerre doit être imposée dans le cadre d'une procédure légale régulière. Le fait que des crimes de guerre aient pu être commis par d'autres éléments des forces armées russes justifie encore moins de refuser les protections de la convention à des prisonniers qui ne sont pas individuellement soupçonnés de crimes de guerre. | La domanda mi assilla dal febbraio 2022. Perché (legalmente) i combattenti russi in Ucraina sono considerati soldati (quindi prigionieri di guerra quando catturati) piuttosto che terroristi?
* Non c'è una dichiarazione formale di guerra.
* Sono membri di un'organizzazione (l'esercito russo) che commette atti di terrore contro la popolazione civile in chiara violazione del diritto internazionale di guerra. Inoltre, contribuiscono direttamente o indirettamente agli atti di terrore citati.
* Il loro Stato (la Russia) afferma esplicitamente che non c'è alcuna guerra (rinunciando così unilateralmente alla protezione del diritto di guerra per le forze russe).
Perché quel particolare gruppo di persone armate che agisce in chiara violazione della legge ucraina viene trattato come "soldati in guerra" piuttosto che come criminali sponsorizzati dallo Stato?
Si noti che la rinuncia alla protezione della legge di guerra non rinuncia alla protezione della legge ucraina (diritto al giusto processo, ecc.). | La terza Convenzione di Ginevra recita nel suo secondo articolo (corsivo aggiunto):
> la presente Convenzione si applica a tutti i casi di guerra dichiarata o di qualsiasi altro conflitto armato che possa insorgere tra due o più Alte Parti Contraenti, anche se lo stato di guerra non è riconosciuto da una di esse.
> La Convenzione si applica anche a tutti i casi di occupazione parziale o totale del territorio di un'Alta Parte contraente, anche se tale occupazione non incontra resistenza armata.
La violenza in Ucraina si qualifica per almeno due motivi: si tratta di un conflitto armato tra due alte parti contraenti e di un caso di occupazione parziale del territorio di un'alta parte contraente. "I membri delle forze armate" della Russia che sono "caduti in potere dell'[Ucraina]" sono quindi protetti dalle disposizioni della Convenzione in quanto prigionieri di guerra, come definito nel quarto articolo della Convenzione.
Ne consegue che il commento parentetico nel terzo punto della domanda è errato: rifiutare di chiamare questa "azione militare"una "guerra"non significa infatti "rinunciare unilateralmente alla protezione del diritto di guerra per le forze russe."
Per quanto riguarda l'affermazione di cui al secondo punto, anche un prigioniero di guerra sospettato di aver commesso un crimine di guerra ha diritto alle tutele della Convenzione. Qualsiasi punizione per il crimine di guerra deve essere inflitta con un regolare processo legale. Il fatto che i crimini di guerra possano essere stati commessi da altri elementi delle forze armate russe è una giustificazione ancora minore per negare le protezioni della Convenzione ai prigionieri che non sono individualmente sospettati di crimini di guerra. |
265 | What are the major branches of philosophy? | The traditional branches of philosophy generally include
* Aesthetics
* Epistemology
* Ethics
* Logic
* Metaphysics / Ontology
We can go ahead and add a few contemporary branches on to this (more examples could certainly be adduced):
* Philosophy of Science [referring to the hard sciences] (Mathematics, Technology, etc.)
* Philosophy of Politics [referring to the social sciences] (Society, etc.)
* Philosophy of Religion [actually two things -- question related to the existence of God or gods AND questions relating to the sociological phenomenon of religion. Generally, referring to the former]
* Philosophy of Value (Axiology)
* Philosophy of Language
* Philosophy of Mind
Philosophy of language and philosophy of mind are sometimes done in ways that mirror the philosophy of the hard sciences [e.g. cognitive science] and sometimes not.
In addition, we could add many schools and movements (again, more examples could certainly be added). From the 20th century alone, there is:
* Phenomenology (Husserl)
* Schizoanalysis (Gilles Deleuze and Felix Guattari)
* Chaosophy (Felix Guattari)
* Non-philosophy (Francois Laruelle)
* Existentialism (Sartre, et al.)
* Vienna Circle/Logical Positivism
Finally, we can also consider the history of philosophy itself as constituting a series of fruitful conjunctions of cultures and eras where ideas were changing. The structure here is taken from Wikipedia's article on the History of Philosophy:
* Western philosophy
* Ancient philosophy
* Medieval philosophy
* Renaissance philosophy
* Modern philosophy
* Contemporary philosophy
* Eastern philosophy
* Indian philosophy
* Persian philosophy
* Chinese philosophy
* Japanese philosophy
* Buddhist philosophy
* Abrahamic philosophy
* Jewish philosophy
* Christian philosophy
* Islamic philosophy | Was sind die wichtigsten Zweige der Philosophie? | Zu den traditionellen Zweigen der Philosophie gehören im Allgemeinen
* Ästhetik
* Erkenntnistheorie
* Ethik
* Logik
* Metaphysik / Ontologie
Wir können diese Liste um einige zeitgenössische Zweige erweitern (weitere Beispiele könnten sicherlich angeführt werden):
* Wissenschaftstheorie [bezogen auf die Naturwissenschaften] (Mathematik, Technik, etc.)
* Philosophie der Politik [bezogen auf die Sozialwissenschaften] (Gesellschaft usw.)
* Religionsphilosophie [eigentlich zwei Dinge - Fragen in Bezug auf die Existenz von Gott oder Göttern UND Fragen in Bezug auf das soziologische Phänomen der Religion. Bezieht sich im Allgemeinen auf die ersteren]
* Philosophie der Werte (Axiologie)
* Sprachphilosophie
* Philosophie des Geistes
Sprachphilosophie und Philosophie des Geistes werden manchmal in einer Art und Weise betrieben, die die Philosophie der Naturwissenschaften widerspiegelt [z.B. Kognitionswissenschaft], manchmal nicht.
Darüber hinaus könnten wir viele Schulen und Bewegungen hinzufügen (auch hier könnten sicherlich weitere Beispiele angeführt werden). Allein aus dem 20. Jahrhundert sind zu nennen:
* Phänomenologie (Husserl)
* Schizoanalyse (Gilles Deleuze und Felix Guattari)
* Chaosophie (Felix Guattari)
* Nicht-Philosophie (Francois Laruelle)
* Existentialismus (Sartre u.a.)
* Wiener Kreis/Logischer Positivismus
Schließlich können wir auch die Geschichte der Philosophie selbst als eine Reihe von fruchtbaren Verbindungen von Kulturen und Epochen betrachten, in denen sich die Ideen veränderten. Die folgende Struktur ist dem Wikipedia-Artikel über die Geschichte der Philosophie entnommen:
* Westliche Philosophie
* Antike Philosophie
* Mittelalterliche Philosophie
* Philosophie der Renaissance
* Moderne Philosophie
* Zeitgenössische Philosophie
* Östliche Philosophie
* Indische Philosophie
* Persische Philosophie
* Chinesische Philosophie
* Japanische Philosophie
* Buddhistische Philosophie
* Abrahamitische Philosophie
* Jüdische Philosophie
* Christliche Philosophie
* Islamische Philosophie | ¿Cuáles son las principales ramas de la filosofía? | Las ramas tradicionales de la filosofía suelen incluir
* Estética
* Epistemología
* Ética
* Lógica
* Metafísica / Ontología
Podemos seguir adelante y añadir algunas ramas contemporáneas (sin duda se podrían aducir más ejemplos):
* Filosofía de la Ciencia [referida a las ciencias duras] (Matemáticas, Tecnología, etc.)
* Filosofía de la política [se refiere a las ciencias sociales] (sociedad, etc.)
* Filosofía de la religión [en realidad, dos cosas: cuestiones relacionadas con la existencia de Dios o los dioses Y cuestiones relacionadas con el fenómeno sociológico de la religión. En general, se refiere a las primeras].
* Filosofía del valor (axiología)
* Filosofía del lenguaje
* Filosofía de la mente
La filosofía del lenguaje y la filosofía de la mente se hacen a veces de manera que reflejan la filosofía de las ciencias duras [por ejemplo, la ciencia cognitiva] y a veces no.
Además, podríamos añadir muchas escuelas y movimientos (de nuevo, sin duda se podrían añadir más ejemplos). Sólo del siglo XX, hay:
* La fenomenología (Husserl)
* el esquizoanálisis (Gilles Deleuze y Félix Guattari)
* la caosofía (Félix Guattari)
* No-filosofía (François Laruelle)
* Existencialismo (Sartre y otros)
* Círculo de Viena/Positivismo lógico
Por último, también podemos considerar que la propia historia de la filosofía constituye una serie de fructíferas conjunciones de culturas y épocas en las que las ideas fueron cambiando. La estructura aquí está tomada del artículo de Wikipedia sobre la Historia de la Filosofía:
* Filosofía occidental
* Filosofía antigua
* Filosofía medieval
* Filosofía del Renacimiento
* Filosofía moderna
* Filosofía contemporánea
* Filosofía oriental
* Filosofía india
* Filosofía persa
* Filosofía china
* Filosofía japonesa
* Filosofía budista
* Filosofía abrahámica
* Filosofía judía
* Filosofía cristiana
* Filosofía islámica | Quelles sont les principales branches de la philosophie ? | Les branches traditionnelles de la philosophie comprennent généralement
* l'esthétique
* l'épistémologie
* l'éthique
* la logique
* Métaphysique / Ontologie
Nous pouvons ajouter à cela quelques branches contemporaines (d'autres exemples pourraient certainement être ajoutés) :
* Philosophie des sciences [se référant aux sciences dures] (Mathématiques, Technologie, etc.)
* Philosophie de la politique [se référant aux sciences sociales] (Société, etc.)
* Philosophie de la religion [en fait, deux choses : les questions relatives à l'existence de Dieu ou des dieux ET les questions relatives au phénomène sociologique de la religion. En général, il s'agit des premières]
* Philosophie de la valeur (axiologie)
* Philosophie du langage
* Philosophie de l'esprit
La philosophie du langage et la philosophie de l'esprit sont parfois conçues de manière à refléter la philosophie des sciences dures [par exemple, les sciences cognitives] et parfois non.
En outre, nous pourrions ajouter de nombreuses écoles et mouvements (là encore, d'autres exemples pourraient certainement être ajoutés). Rien qu'au 20e siècle, on peut citer
* la phénoménologie (Husserl)
* la schizoanalyse (Gilles Deleuze et Félix Guattari)
* la Chaosophie (Félix Guattari)
* la non-philosophie (François Laruelle)
* Existentialisme (Sartre, et al.)
* Cercle de Vienne/Positivisme logique
Enfin, on peut aussi considérer que l'histoire de la philosophie elle-même constitue une série de conjonctions fécondes de cultures et d'époques où les idées évoluent. La structure présentée ici est tirée de l'article de Wikipédia sur l'histoire de la philosophie :
* Philosophie occidentale
* Philosophie antique
* Philosophie médiévale
* Philosophie de la Renaissance
* Philosophie moderne
* Philosophie contemporaine
* Philosophie orientale
* Philosophie indienne
* Philosophie persane
* Philosophie chinoise
* Philosophie japonaise
* Philosophie bouddhiste
* Philosophie abrahamique
* Philosophie juive
* Philosophie chrétienne
* Philosophie islamique | Quali sono le principali branche della filosofia? | Le branche tradizionali della filosofia comprendono generalmente
* Estetica
* Epistemologia
* Etica
* Logica
* Metafisica / Ontologia
A queste possiamo aggiungere alcune branche contemporanee (si potrebbero certamente fare altri esempi):
* Filosofia della scienza [riferita alle scienze dure] (matematica, tecnologia, ecc.)
* Filosofia della politica [riferita alle scienze sociali] (Società, ecc.)
* Filosofia della religione [in realtà due cose: domande relative all'esistenza di Dio o degli dei e domande relative al fenomeno sociologico della religione. In generale, ci si riferisce alla prima]
* Filosofia del valore (assiologia)
* Filosofia del linguaggio
* Filosofia della mente
La filosofia del linguaggio e la filosofia della mente sono a volte realizzate in modi che rispecchiano la filosofia delle scienze dure [ad esempio, le scienze cognitive] e a volte no.
Inoltre, potremmo aggiungere molte scuole e movimenti (anche in questo caso, si potrebbero certamente aggiungere altri esempi). Solo per quanto riguarda il XX secolo, ci sono:
* Fenomenologia (Husserl)
* Schizoanalisi (Gilles Deleuze e Felix Guattari)
* Caosofia (Felix Guattari)
* Non-filosofia (Francois Laruelle)
* Esistenzialismo (Sartre, ecc.)
* Circolo di Vienna/Positivismo logico
Infine, possiamo anche considerare la storia della filosofia stessa come una serie di fruttuose congiunzioni di culture ed epoche in cui le idee cambiavano. La struttura è tratta dall'articolo di Wikipedia sulla storia della filosofia:
* Filosofia occidentale
* Filosofia antica
* Filosofia medievale
* Filosofia rinascimentale
* Filosofia moderna
* Filosofia contemporanea
* Filosofia orientale
* Filosofia indiana
* Filosofia persiana
* Filosofia cinese
* Filosofia giapponese
* filosofia buddista
* Filosofia abramitica
* Filosofia ebraica
* Filosofia cristiana
* filosofia islamica |
266 | Are there any advantages while backpacking to hike during the night and sleep during the day? | There are several reasons, though not all of them would apply for one's usual holiday trip.
1. Remaining unseen: Obviously, during night its dark and this gives you a fair bit of cover if you want to remain unseen. This reason for traveling at night is common for many hunters in the animal kingdom (and sometimes also their prey), has been used by humans in insecure or hostile territory for centuries and remains a standard technique for some military operations even today.
2. Evading the elements: Hiking throughout the night and resting in the day can be especially useful in hot, arid conditions. For example in deserts, extreme heat during the day and severe cold in the night often come together. Hiking during the night here serves the double purpose of keeping you active and warm when it is cold while allowing you to save water resources during the day.
3. Boosting morale: When conditions get worse (cold, moisture), getting up during the night and starting to hike will not only make you feel warm again, it will also boost your morale. Being active, and actively coping with a bad situation rather than staying miserable in the tent for the rest of the night will make you feel better.
4. You want to avoid tourists: No, seriously, this is a real case in point. Most people travel during the day and one of the reasons we (or at least, I) get outdoors is to enjoy some quietness in the wild. Depending where you are, hiking at night is your best bet to fulfill this dream.
5. Navigation (only very theoretical): Consider a situation where it is all cloudy during the day (so you do not see the sun), you lack a compass and currently have no sense of direction: if you are capable of navigating with the stars, you might consider waiting until dark and hope that the sky will clear up until then. | Gibt es beim Rucksackwandern Vorteile, wenn man nachts wandert und tagsüber schläft? | Dafür gibt es mehrere Gründe, die allerdings nicht alle für eine gewöhnliche Urlaubsreise zutreffen würden.
1. Unsichtbar bleiben: In der Nacht ist es natürlich dunkel, und das gibt einem ein gutes Stück Deckung, wenn man ungesehen bleiben will. Dieser Grund für Reisen in der Nacht ist für viele Jäger im Tierreich (und manchmal auch für ihre Beute) üblich, wird von Menschen in unsicheren oder feindlichen Gebieten seit Jahrhunderten genutzt und ist auch heute noch eine Standardtechnik für einige militärische Operationen.
2. Ausweichen vor den Elementen: Nachts zu wandern und sich tagsüber auszuruhen kann vor allem in heißen, trockenen Gebieten nützlich sein. In Wüsten zum Beispiel treffen oft extreme Hitze am Tag und große Kälte in der Nacht aufeinander. Eine Nachtwanderung erfüllt hier den doppelten Zweck, Sie aktiv und warm zu halten, wenn es kalt ist, und gleichzeitig Wasserressourcen für den Tag zu sparen.
3. Stärkung der Moral: Wenn sich die Bedingungen verschlechtern (Kälte, Feuchtigkeit), ist es nicht nur gut, nachts aufzustehen und eine Wanderung zu unternehmen, sondern es stärkt auch Ihre Moral. Wenn Sie aktiv sind und sich aktiv mit einer schlechten Situation auseinandersetzen, anstatt den Rest der Nacht im Zelt zu verbringen, werden Sie sich besser fühlen.
4. Sie wollen Touristen vermeiden: Nein, im Ernst, das ist ein echter Fall. Die meisten Menschen sind tagsüber unterwegs, und einer der Gründe, warum wir (oder zumindest ich) in die Natur gehen, ist, dass wir die Ruhe in der Wildnis genießen wollen. Je nachdem, wo Sie sind, ist eine Nachtwanderung die beste Möglichkeit, sich diesen Traum zu erfüllen.
5. Navigation (nur sehr theoretisch): Stellen Sie sich eine Situation vor, in der es tagsüber bewölkt ist (so dass Sie die Sonne nicht sehen), Sie keinen Kompass haben und derzeit keinen Orientierungssinn besitzen: Wenn Sie in der Lage sind, mit den Sternen zu navigieren, könnten Sie in Erwägung ziehen, bis zur Dunkelheit zu warten und zu hoffen, dass sich der Himmel bis dahin aufklärt. | ¿Hay alguna ventaja en ir de excursión durante la noche y dormir durante el día? | Hay varias razones, aunque no todas se aplicarían al viaje de vacaciones habitual.
1. Pasar desapercibido: Obviamente, durante la noche es de noche y esto te da bastante cobertura si quieres pasar desapercibido. Esta razón para viajar de noche es común a muchos cazadores del reino animal (y a veces también a sus presas), ha sido utilizada por los humanos en territorios inseguros u hostiles durante siglos y sigue siendo una técnica estándar para algunas operaciones militares incluso hoy en día.
2. Evadir los elementos: Caminar durante la noche y descansar durante el día puede ser especialmente útil en condiciones calurosas y áridas. Por ejemplo, en los desiertos, a menudo confluyen un calor extremo durante el día y un frío intenso durante la noche. En este caso, hacer senderismo durante la noche sirve al doble propósito de mantenerte activo y caliente cuando hace frío, a la vez que te permite ahorrar recursos hídricos durante el día.
3. Aumentar la moral: Cuando las condiciones empeoran (frío, humedad), levantarse durante la noche y empezar a caminar no sólo te hará sentir caliente de nuevo, sino que también te subirá la moral. Estar activo y enfrentarse activamente a una mala situación en lugar de quedarse abatido en la tienda durante el resto de la noche te hará sentir mejor.
4. Quieres evitar a los turistas: No, en serio, este es un caso real. La mayoría de la gente viaja durante el día y una de las razones por las que salimos (o al menos, yo salgo) al aire libre es para disfrutar de un poco de tranquilidad en la naturaleza. Dependiendo de dónde te encuentres, hacer senderismo de noche es tu mejor opción para cumplir este sueño.
5. Navegación (sólo muy teórica): Considera una situación en la que esté todo el día nublado (por lo que no ves el sol), carezcas de brújula y no tengas sentido de la orientación: si eres capaz de navegar con las estrellas, podrías plantearte esperar a que anochezca y confiar en que el cielo se despeje hasta entonces. | Y a-t-il des avantages à randonner pendant la nuit et à dormir pendant la journée ? | Il y a plusieurs raisons à cela, même si elles ne s'appliquent pas toutes à un voyage de vacances habituel.
1. Rester invisible : Il est évident que la nuit, il fait sombre et que cela vous donne une bonne couverture si vous voulez rester invisible. Cette raison de voyager la nuit est commune à de nombreux chasseurs du règne animal (et parfois aussi à leurs proies), a été utilisée par les humains dans des territoires peu sûrs ou hostiles pendant des siècles et reste encore aujourd'hui une technique standard pour certaines opérations militaires.
2. Éviter les éléments : Marcher toute la nuit et se reposer le jour peut être particulièrement utile dans des conditions chaudes et arides. Dans les déserts, par exemple, la chaleur extrême du jour et le froid intense de la nuit se conjuguent souvent. Dans ce cas, la randonnée nocturne permet de rester actif et de se réchauffer lorsqu'il fait froid, tout en économisant les ressources en eau pendant la journée.
3. Un coup de pouce pour le moral : Lorsque les conditions se détériorent (froid, humidité), se lever pendant la nuit et commencer à randonner vous permettra non seulement de vous réchauffer, mais aussi de retrouver le moral. Le fait d'être actif et de faire face à une mauvaise situation plutôt que de rester malheureux dans la tente pour le reste de la nuit vous aidera à vous sentir mieux.
4. Vous voulez éviter les touristes : Non, sérieusement, c'est un vrai cas d'école. La plupart des gens voyagent pendant la journée et l'une des raisons pour lesquelles nous (ou du moins, moi) sortons en plein air est de profiter d'un peu de calme dans la nature. Selon l'endroit où vous vous trouvez, la randonnée nocturne est la meilleure façon de réaliser ce rêve.
5. Navigation (très théorique) : Considérez une situation où il n'y a que des nuages pendant la journée (donc vous ne voyez pas le soleil), vous n'avez pas de boussole et vous n'avez aucun sens de l'orientation : si vous êtes capable de naviguer avec les étoiles, vous pourriez envisager d'attendre la nuit et espérer que le ciel s'éclaircisse jusqu'à ce moment-là. | Ci sono dei vantaggi nel camminare con lo zaino in spalla e dormire di giorno? | Le ragioni sono molteplici, anche se non tutte valgono per un normale viaggio di vacanza.
1. Rimanere invisibili: Ovviamente, di notte è buio e questo vi offre una discreta copertura se volete non essere visti. Questo motivo per viaggiare di notte è comune a molti cacciatori del regno animale (e a volte anche alle loro prede), è stato usato dagli uomini in territori insicuri o ostili per secoli e rimane una tecnica standard per alcune operazioni militari ancora oggi.
2. Evadere gli elementi: Camminare durante la notte e riposare di giorno può essere particolarmente utile in condizioni di caldo e aridità. Ad esempio, nei deserti, il caldo estremo durante il giorno e il freddo intenso durante la notte spesso si combinano. L'escursionismo notturno ha il duplice scopo di mantenervi attivi e caldi quando fa freddo e di risparmiare risorse idriche durante il giorno.
3. Aumentare il morale: Quando le condizioni peggiorano (freddo, umidità), alzarsi durante la notte e iniziare a camminare non solo vi farà sentire di nuovo al caldo, ma aumenterà anche il vostro morale. Essere attivi e affrontare attivamente una situazione negativa piuttosto che rimanere infelici nella tenda per il resto della notte vi farà sentire meglio.
4. Volete evitare i turisti: No, sul serio, questo è un vero e proprio caso. La maggior parte delle persone viaggia di giorno e uno dei motivi per cui noi (o almeno io) andiamo all'aria aperta è quello di goderci un po' di tranquillità nella natura. A seconda di dove vi trovate, le escursioni notturne sono la scelta migliore per realizzare questo sogno.
5. Navigazione (solo molto teorica): Considerate una situazione in cui è tutto nuvoloso durante il giorno (quindi non vedete il sole), non avete una bussola e al momento non avete senso dell'orientamento: se siete in grado di navigare con le stelle, potreste considerare di aspettare fino al buio e sperare che il cielo si schiarisca fino ad allora. |
267 | I have been cautioned against blending:
* Traditional fantasy elements
Such as magic systems and exotic, less plausible creatures (on a scientific level - magic tends to explain away these beasts)
* Traditional sci-fi elements
Such as advanced technology and civilizations amidst the stars.
I have taken it upon myself to harmonize the two in my current worldbuilding project. I know I cannot be the first. I love the creativity found in both, and it is going well so far. I have been exploring the potential for humanity with both tools at their disposal. (Magic and science, essentially)
Why do people advise to stick to one or the other? | Any sufficiently advanced technology is indistinguishable from magic.
- Arthur C Clarke
There's a reason that science fiction and fantasy are frequently shelved together - separating the two is usually a fools errand.
The Dragonriders of Pern features a preindustrial society where flying, firebreathing, teleporting, and telepathic dragons defend the skies from horrible creatures that rain down from above. They could easily be considered pure fantasy - up until the book where they discover the spacecraft that the human ancestors flew in on, and the labs where they bioengineered the dragons.
In Star Wars (arguably the most famous science fiction property of all time), the Force is really just space magic called another name. And they do all their fighting with swords.
The lists go on and on. Science fiction and fantasy are united in that they explore the impossible. Fantasy uses elements that will never be possible, while science fiction uses elements that theoretically might be possible. But the impossibility is shared.
## Science fiction and fantasy are not a single genre - they are many
Epic fantasy (eg Wheel of Time) and space opera (eg Star Wars) are more similar to each other than they are to urban fantasy or "hard" science fiction.
In some ways, it's inaccurate to call science fiction and fantasy genres at all. They're setting elements. A romance doesn't stop being a romance because it's set on a space station, and a murder mystery isn't any less mysterious because it was an elf who was murdered.
The key to mixing these elements successfully is to understand the expectations of your readers, and meeting those expectations (but in surprising ways). Genre helps define expectations.
If you're writing hard SF, readers expect to see a world that's close enough to our own that they can believe that our world could become the world of the story - magic obviously has no place here.
On the flip side, urban fantasy readers expect the author to have considered the modern world and how it might interact with the impossible. Extrapolations from science to science fiction may be natural depending on the exact nature of the setting.
If the reader has led to expect that the serial killer is a Scooby-Doo villain, then the sudden reveal that the murders were done with actual magic will violate their expectations and frustrate them (in general - there will of course be exceptions). But if the story is framed as a space cop trying to capture a vampire despite not believing that vampires are real, the readers will accept that premise as well as any other. | Ich bin vor dem Mischen gewarnt worden:
* Traditionelle Fantasy-Elemente
wie z.B. magische Systeme und exotische, weniger plausible Kreaturen (auf wissenschaftlicher Ebene - Magie neigt dazu, diese Bestien wegzuerklären)
* Traditionelle Science-Fiction-Elemente
Wie z.B. fortgeschrittene Technologie und Zivilisationen inmitten der Sterne.
Ich habe es mir zur Aufgabe gemacht, diese beiden Elemente in meinem aktuellen Weltenbauprojekt in Einklang zu bringen. Ich weiß, dass ich nicht der Erste sein kann. Ich liebe die Kreativität, die in beidem steckt, und bisher läuft es gut. Ich habe das Potenzial der Menschheit mit den beiden ihr zur Verfügung stehenden Werkzeugen erforscht. (Magie und Wissenschaft, im Wesentlichen)
Warum raten die Leute dazu, sich für das eine oder das andere zu entscheiden? | Jede ausreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden.
- Arthur C. Clarke
Es gibt einen Grund dafür, dass Science Fiction und Fantasy häufig zusammen in einem Regal stehen - eine Trennung der beiden ist in der Regel ein Irrweg.
Die Drachenreiter von Pern spielen in einer vorindustriellen Gesellschaft, in der fliegende, feuerspeiende, teleportierende und telepathische Drachen den Himmel vor schrecklichen Kreaturen verteidigen, die von oben herabregnen. Man könnte sie ohne weiteres als reine Fantasie bezeichnen - bis zu dem Buch, in dem das Raumschiff entdeckt wird, mit dem die menschlichen Vorfahren hierher geflogen sind, und die Labors, in denen sie die Drachen biotechnologisch hergestellt haben.
In Star Wars (dem wohl berühmtesten Science-Fiction-Film aller Zeiten) ist die Macht eigentlich nur Weltraummagie unter einem anderen Namen. Und sie kämpfen ausschließlich mit Schwertern.
Die Liste ließe sich beliebig fortsetzen. Science Fiction und Fantasy sind sich darin einig, dass sie das Unmögliche erforschen. Fantasy verwendet Elemente, die niemals möglich sein werden, während Science Fiction Elemente verwendet, die theoretisch möglich sein könnten. Aber die Unmöglichkeit wird geteilt.
## Science Fiction und Fantasy sind nicht ein einziges Genre - sie sind viele.
Epische Fantasy (z. B. Wheel of Time) und Space Opera (z. B. Star Wars) sind einander ähnlicher als Urban Fantasy oder "harte" Science Fiction.
In gewisser Weise ist es ungenau, Science Fiction und Fantasy überhaupt als Genres zu bezeichnen. Sie sind Elemente des Settings. Ein Liebesroman hört nicht auf, ein Liebesroman zu sein, nur weil er auf einer Raumstation spielt, und ein Krimi ist nicht weniger mysteriös, weil eine Elfe ermordet wurde.
Der Schlüssel zu einer erfolgreichen Mischung dieser Elemente liegt darin, die Erwartungen der Leser zu verstehen und diese Erwartungen zu erfüllen (allerdings auf überraschende Weise). Das Genre hilft, die Erwartungen zu definieren.
Wenn Sie harte SF schreiben, erwarten die Leser eine Welt, die unserer eigenen so nahe kommt, dass sie glauben können, dass unsere Welt die Welt der Geschichte sein könnte - Magie hat hier offensichtlich keinen Platz.
Auf der anderen Seite erwarten die Leser von Urban Fantasy, dass der Autor die moderne Welt und ihre Wechselwirkungen mit dem Unmöglichen berücksichtigt hat. Extrapolationen von der Wissenschaft zur Science Fiction können je nach der genauen Art des Settings natürlich sein.
Wenn der Leser erwartet hat, dass der Serienmörder ein Scooby-Doo-Bösewicht ist, dann wird die plötzliche Enthüllung, dass die Morde mit echter Magie begangen wurden, seine Erwartungen verletzen und ihn frustrieren (im Allgemeinen - es wird natürlich Ausnahmen geben). Aber wenn die Geschichte so aufgebaut ist, dass ein Weltraumpolizist versucht, einen Vampir zu fangen, obwohl er nicht glaubt, dass Vampire real sind, werden die Leser diese Prämisse genauso gut akzeptieren wie jede andere. | Me han advertido que no mezcle:
* Elementos tradicionales de fantasía
Como sistemas mágicos y criaturas exóticas, menos plausibles (a nivel científico - la magia tiende a explicar estas bestias)
* Elementos tradicionales de ciencia ficción
Como tecnología avanzada y civilizaciones en medio de las estrellas.
Me he propuesto armonizar ambos elementos en mi actual proyecto de construcción del mundo. Sé que no puedo ser el primero. Me encanta la creatividad que se encuentra en ambos, y de momento va bien. He estado explorando el potencial de la humanidad con ambas herramientas a su disposición. (Magia y ciencia, esencialmente)
¿Por qué la gente aconseja ceñirse a una u otra? | Cualquier tecnología suficientemente avanzada es indistinguible de la magia.
- Arthur C. Clarke
Hay una razón por la que la ciencia ficción y la fantasía suelen ir juntas en las estanterías: separarlas suele ser una tontería.
Los Dragonriders de Pern presenta una sociedad preindustrial en la que dragones voladores, escupefuegos, teletransportadores y telepáticos defienden los cielos de horribles criaturas que llueven desde lo alto. Podría considerarse pura fantasía hasta el libro en el que descubren la nave espacial en la que volaron los antepasados humanos y los laboratorios en los que crearon los dragones.
En La Guerra de las Galaxias (posiblemente la serie de ciencia ficción más famosa de todos los tiempos), la Fuerza no es más que magia espacial con otro nombre. Y luchan con espadas.
La lista es interminable. La ciencia ficción y la fantasía están unidas porque exploran lo imposible. La fantasía utiliza elementos que nunca serán posibles, mientras que la ciencia ficción utiliza elementos que teóricamente podrían ser posibles. Pero la imposibilidad es compartida.
## La ciencia ficción y la fantasía no son un único género: son muchos
La fantasía épica (por ejemplo, La Rueda del Tiempo) y la space opera (por ejemplo, La Guerra de las Galaxias) se parecen más entre sí que a la fantasía urbana o a la ciencia ficción "dura".
En cierto modo, es inexacto llamar géneros a la ciencia ficción y la fantasía. Son elementos de ambientación. Un romance no deja de serlo por estar ambientado en una estación espacial, y un asesinato misterioso no es menos misterioso por el hecho de que el asesinado sea un elfo.
La clave para mezclar estos elementos con éxito es comprender las expectativas de los lectores y satisfacerlas (pero de forma sorprendente). El género ayuda a definir las expectativas.
Si escribes ciencia ficción dura, los lectores esperan ver un mundo lo bastante parecido al nuestro como para creer que nuestro mundo podría convertirse en el mundo de la historia; obviamente, la magia no tiene cabida aquí.
Por otro lado, los lectores de fantasía urbana esperan que el autor haya tenido en cuenta el mundo moderno y cómo podría interactuar con lo imposible. Las extrapolaciones de la ciencia a la ciencia ficción pueden ser naturales dependiendo de la naturaleza exacta del escenario.
Si el lector ha sido inducido a esperar que el asesino en serie sea un villano de Scooby-Doo, entonces la repentina revelación de que los asesinatos se cometieron con magia real violará sus expectativas y le frustrará (en general; por supuesto, habrá excepciones). Pero si la historia se enmarca como un policía espacial que intenta capturar a un vampiro a pesar de no creer que los vampiros sean reales, los lectores aceptarán esa premisa tan bien como cualquier otra. | On m'a mis en garde contre les mélanges :
* des éléments traditionnels de la fantasy
tels que les systèmes magiques et les créatures exotiques, moins plausibles (d'un point de vue scientifique - la magie a tendance à expliquer ces bêtes).
* Éléments traditionnels de science-fiction
Tels que la technologie avancée et les civilisations au milieu des étoiles.
J'ai pris l'initiative d'harmoniser les deux dans mon projet actuel de construction d'un monde. Je sais que je ne peux pas être le premier. J'aime la créativité que l'on trouve dans les deux, et cela se passe bien jusqu'à présent. J'ai exploré le potentiel de l'humanité avec les deux outils à sa disposition. (La magie et la science, essentiellement)
Pourquoi les gens conseillent-ils de s'en tenir à l'un ou à l'autre ? | Toute technologie suffisamment avancée est indiscernable de la magie.
- Arthur C Clarke
Ce n'est pas pour rien que la science-fiction et le fantastique sont souvent rangés ensemble - les séparer est généralement une entreprise insensée.
Les Dragonniers de Pern mettent en scène une société préindustrielle où des dragons volants, cracheurs de feu, téléporteurs et télépathes défendent le ciel contre d'horribles créatures qui pleuvent d'en haut. On pourrait facilement les considérer comme de la pure fantaisie - jusqu'au livre où ils découvrent le vaisseau spatial à bord duquel les ancêtres humains sont arrivés, et les laboratoires où ils ont créé les dragons par bioingénierie.
Dans Star Wars (sans doute l'œuvre de science-fiction la plus célèbre de tous les temps), la Force n'est en fait que de la magie spatiale appelée d'un autre nom. Et tous les combats se font à l'épée.
La liste est encore longue. La science-fiction et le fantastique se rejoignent en ce qu'ils explorent l'impossible. Le fantastique utilise des éléments qui ne seront jamais possibles, tandis que la science-fiction utilise des éléments qui pourraient théoriquement être possibles. Mais l'impossibilité est partagée.
## La science-fiction et le fantastique ne constituent pas un seul genre, mais plusieurs.
La fantasy épique (par exemple La Roue du temps) et le space opera (par exemple Star Wars) sont plus proches l'un de l'autre qu'ils ne le sont de l'urban fantasy ou de la science-fiction "dure".
D'une certaine manière, il est inexact de qualifier la science-fiction et le fantastique de genres. Ce sont des éléments de décor. Une romance ne cesse pas d'être une romance parce qu'elle se déroule dans une station spatiale, et un meurtre mystérieux n'est pas moins mystérieux parce que c'est un elfe qui a été assassiné.
La clé d'un mélange réussi de ces éléments est de comprendre les attentes de vos lecteurs et d'y répondre (mais de manière surprenante). Le genre aide à définir les attentes.
Si vous écrivez de la hard SF, les lecteurs s'attendent à voir un monde qui est suffisamment proche du nôtre pour qu'ils puissent croire que notre monde pourrait devenir le monde de l'histoire - la magie n'a évidemment pas sa place ici.
À l'inverse, les lecteurs d'urban fantasy attendent de l'auteur qu'il ait pris en compte le monde moderne et la manière dont il pourrait interagir avec l'impossible. Les extrapolations de la science à la science-fiction peuvent être naturelles en fonction de la nature exacte du cadre.
Si le lecteur s'attend à ce que le tueur en série soit un méchant de Scooby-Doo, la révélation soudaine que les meurtres ont été perpétrés avec de la magie réelle violera ses attentes et le frustrera (en général - il y aura bien sûr des exceptions). Mais si l'histoire est présentée comme celle d'un policier de l'espace qui tente de capturer un vampire alors qu'il ne croit pas que les vampires existent, les lecteurs accepteront ce postulat aussi bien que n'importe quel autre. | Mi è stato raccomandato di non mescolare:
* Elementi fantasy tradizionali
Come i sistemi magici e le creature esotiche meno plausibili (a livello scientifico - la magia tende a spiegare queste bestie)
* Elementi di fantascienza tradizionale
Come la tecnologia avanzata e le civiltà tra le stelle.
Ho deciso di armonizzare le due cose nel mio attuale progetto di costruzione del mondo. So di non essere il primo. Mi piace la creatività che si trova in entrambi e finora sta andando bene. Ho esplorato il potenziale dell'umanità con entrambi gli strumenti a disposizione. (Magia e scienza, essenzialmente)
Perché le persone consigliano di attenersi all'uno o all'altro? | Qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalla magia.
- Arthur C Clarke
C'è una ragione per cui la fantascienza e il fantasy sono spesso accantonati insieme: separarli è di solito un'impresa folle.
I Dragonriders of Pern presentano una società preindustriale in cui draghi volanti, sputafuoco, teletrasportati e telepatici difendono i cieli da orribili creature che piovono dall'alto. Potrebbero tranquillamente essere considerati pura fantasia, fino al libro in cui scoprono l'astronave su cui sono arrivati gli antenati umani e i laboratori in cui hanno bioingegnerizzato i draghi.
In Guerre stellari (probabilmente la più famosa opera di fantascienza di tutti i tempi), la Forza è in realtà solo magia spaziale chiamata con un altro nome. E tutti i loro combattimenti avvengono con le spade.
L'elenco continua. La fantascienza e il fantasy sono accomunati dall'esplorazione dell'impossibile. Il fantasy utilizza elementi che non saranno mai possibili, mentre la fantascienza utilizza elementi che teoricamente potrebbero essere possibili. Ma l'impossibilità è condivisa.
## La fantascienza e il fantasy non sono un unico genere: sono molti.
Il fantasy epico (ad esempio La Ruota del Tempo) e la space opera (ad esempio Guerre Stellari) sono più simili tra loro di quanto non lo siano all'urban fantasy o alla fantascienza "dura".
Per certi versi, non è corretto definire la fantascienza e il fantasy come generi. Sono elementi di ambientazione. Un romanzo d'amore non smette di essere tale perché è ambientato su una stazione spaziale, e un giallo non è meno misterioso perché a essere ucciso è stato un elfo.
La chiave per mescolare con successo questi elementi è capire le aspettative dei lettori e soddisfarle (ma in modo sorprendente). Il genere aiuta a definire le aspettative.
Se scrivete hard SF, i lettori si aspettano di vedere un mondo abbastanza vicino al nostro da poter credere che il nostro mondo possa diventare il mondo della storia - la magia, ovviamente, non trova posto qui.
Al contrario, i lettori di urban fantasy si aspettano che l'autore abbia preso in considerazione il mondo moderno e il modo in cui potrebbe interagire con l'impossibile. Le estrapolazioni dalla scienza alla fantascienza possono essere naturali, a seconda dell'esatta natura dell'ambientazione.
Se il lettore è portato ad aspettarsi che il serial killer sia un cattivo di Scooby-Doo, allora l'improvvisa rivelazione che gli omicidi sono stati compiuti con la magia vera e propria violerà le sue aspettative e lo frustrerà (in generale - ci saranno ovviamente delle eccezioni). Ma se la storia è incentrata su un poliziotto spaziale che cerca di catturare un vampiro pur non credendo che i vampiri siano reali, i lettori accetteranno questa premessa come qualsiasi altra. |
268 | Why are prions in animal diets not destroyed by the digestive system? | Proteases are enzymes in your digestive system that help break down food, acting like molecular-sized scissors that cut up proteins.
Proteases have clefts, or subpockets, into which proteins fit, where the substrate (protein) gets cut.
Infectious or pathogenic prions are resistant to proteases, because of their three-dimensional shape, which hides away parts of the prion that would normally fit in proteases and which would cause the prion to be digested.
Prions that do not cause disease — normal prions — have a different three-dimensional shape that allow them to fit into proteases, and so they are not resistant to digestion:
A wealth of evidence contends that the infectious pathogen causing the prion diseases, also referred to as spongiform encephalopathies, is solely comprised of PrPSc, the pathogenic isoform of the prion protein (21-23). Both PrPSc and its normal cellular counterpart, PrPC, are encoded by a cellular gene (2, 19). Physical and molecular characterization of PrPSc and PrPC has failed to reveal any chemical differences between the two isoforms (32). However, PrPSc acquires distinctive conformational characteristics upon its conversion from PrPC. Whereas PrPC is soluble in most detergents and can be easily digested by proteases, PrPScis insoluble in detergents and maintains a protease-resistant core, designated PrP27-30, which polymerizes into amyloid (25).
Dr. Neena Singh also discovered that prions "piggyback" or attach to another protein called ferritin, as they make their way through the digestive system:
Disease-causing prions are thought to have passed into people when they ate beef from infected cattle, triggering the brain wasting condition called new-variant Creutzfeldt-Jakob disease, or vCJD. But researchers have not been sure exactly how prions enter the body.
To find out, Neena Singh and her team at Case Western Reserve University in Cleveland, Ohio, mimicked the process of eating and digesting infected meat.
They mashed up brain tissue that contained prions from patients who had a form of Creutzfeldt-Jakob disease. They then exposed it to a range of harsh digestive enzymes from the mouth, stomach and intestine, which normally break proteins into pieces.
Prions, which are known to be enormously tough, escape this attack almost unscathed, they showed, as does a second type of protein called ferritin, which stores iron and is abundant in meat. The two proteins seem to stick together, they report in the Journal of Neuroscience.
The researchers next added the digested slurry to a lab model of the human gut: a growing sheet of cells from the intestinal lining. By attaching fluorescent tags to the two proteins, they showed that they are transported through the cells hand-in-hand. "Prions probably ride piggyback" through the gut wall into the body, Singh says.
Attaching to ferritin may provide additional protection from digestion, insofar as this removes prions from the digestive system, where proteases are concentrated. | Warum werden Prionen in der Tiernahrung nicht durch das Verdauungssystem zerstört? | Proteasen sind Enzyme in Ihrem Verdauungssystem, die dazu beitragen, die Nahrung aufzuspalten, indem sie wie eine molekulargroße Schere wirken, die Proteine zerschneidet.
Proteasen haben Spalten oder Subtaschen, in die die Proteine passen und in denen das Substrat (Protein) zerschnitten wird.
Infektiöse oder pathogene Prionen sind aufgrund ihrer dreidimensionalen Form resistent gegen Proteasen, da sie Teile des Prions verbergen, die normalerweise in Proteasen passen würden und die dazu führen würden, dass das Prion verdaut wird.
Prionen, die keine Krankheit verursachen - normale Prionen - haben eine andere dreidimensionale Form, die es ihnen ermöglicht, in Proteasen zu passen, und sind daher nicht resistent gegen Verdauung:
Eine Fülle von Beweisen spricht dafür, dass der infektiöse Erreger der Prionenerkrankungen, die auch als spongiforme Enzephalopathien bezeichnet werden, ausschließlich aus PrPSc, der pathogenen Isoform des Prionenproteins, besteht (21-23). Sowohl PrPSc als auch sein normales zelluläres Gegenstück, PrPC, werden von einem zellulären Gen kodiert (2, 19). Bei der physikalischen und molekularen Charakterisierung von PrPSc und PrPC konnten keine chemischen Unterschiede zwischen den beiden Isoformen festgestellt werden (32). Allerdings weist PrPSc nach seiner Umwandlung in PrPC besondere Konformationseigenschaften auf. Während PrPC in den meisten Detergenzien löslich ist und leicht von Proteasen verdaut werden kann, ist PrPSc in Detergenzien unlöslich und behält einen proteaseresistenten Kern, der als PrP27-30 bezeichnet wird und zu Amyloid polymerisiert (25).
Dr. Neena Singh entdeckte auch, dass Prionen auf ihrem Weg durch das Verdauungssystem ein anderes Protein namens Ferritin "huckepack" nehmen oder sich daran anheften:
Es wird vermutet, dass die krankheitsverursachenden Prionen auf den Menschen übergegangen sind, als dieser Rindfleisch von infizierten Rindern aß, wodurch die neue Variante der Creutzfeldt-Jakob-Krankheit (vCJD) ausgelöst wurde. Die Forscher wussten jedoch nicht genau, wie Prionen in den Körper gelangen.
Um dies herauszufinden, ahmten Neena Singh und ihr Team von der Case Western Reserve University in Cleveland, Ohio, den Prozess des Verzehrs und der Verdauung von infiziertem Fleisch nach.
Sie zerkleinerten Hirngewebe, das Prionen von Patienten enthielt, die an einer Form der Creutzfeldt-Jakob-Krankheit litten. Anschließend setzten sie es einer Reihe von scharfen Verdauungsenzymen aus Mund, Magen und Darm aus, die normalerweise Proteine in Stücke brechen.
Prionen, die als enorm zäh bekannt sind, entkommen diesem Angriff fast unbeschadet, wie sie zeigten, ebenso wie eine zweite Art von Protein namens Ferritin, das Eisen speichert und in Fleisch reichlich vorhanden ist. Die beiden Proteine scheinen zusammenzuhalten, berichten sie im Journal of Neuroscience.
Als Nächstes fügten die Forscher die verdaute Gülle einem Labormodell des menschlichen Darms hinzu: einer wachsenden Schicht von Zellen der Darmschleimhaut. Indem sie die beiden Proteine mit fluoreszierenden Markierungen versahen, zeigten sie, dass sie Hand in Hand durch die Zellen transportiert werden.
Die Bindung an Ferritin könnte einen zusätzlichen Schutz vor der Verdauung bieten, da die Prionen so aus dem Verdauungssystem entfernt werden, wo Proteasen konzentriert sind. | ¿Por qué el sistema digestivo no destruye los priones presentes en la dieta de los animales? | Las proteasas son enzimas del aparato digestivo que ayudan a descomponer los alimentos, actuando como tijeras de tamaño molecular que cortan las proteínas.
Las proteasas tienen hendiduras, o subcavidades, en las que encajan las proteínas, donde se corta el sustrato (proteína).
Los priones infecciosos o patógenos son resistentes a las proteasas, debido a su forma tridimensional, que oculta partes del prión que normalmente encajarían en las proteasas y que provocarían la digestión del prión.
Los priones que no causan enfermedades -los priones normales- tienen una forma tridimensional diferente que les permite encajar en las proteasas, por lo que no son resistentes a la digestión:
Numerosas pruebas sostienen que el patógeno infeccioso causante de las enfermedades priónicas, también denominadas encefalopatías espongiformes, está compuesto únicamente por PrPSc, la isoforma patógena de la proteína priónica (21-23). Tanto la PrPSc como su homóloga celular normal, la PrPC, están codificadas por un gen celular (2, 19). La caracterización física y molecular de la PrPSc y la PrPC no ha revelado diferencias químicas entre ambas isoformas (32). Sin embargo, la PrPSc adquiere características conformacionales distintivas tras su conversión a partir de la PrPC. Mientras que la PrPC es soluble en la mayoría de los detergentes y puede ser fácilmente digerida por las proteasas, la PrPSc es insoluble en detergentes y mantiene un núcleo resistente a las proteasas, denominado PrP27-30, que se polimeriza en amiloide (25).
La Dra. Neena Singh también descubrió que los priones "van a cuestas" o se adhieren a otra proteína llamada ferritina, a medida que se abren camino a través del sistema digestivo:
Se cree que los priones causantes de la enfermedad pasaron a las personas cuando éstas comieron carne de vacuno infectado, desencadenando la enfermedad de Creutzfeldt-Jakob de nueva variante o vECJ. Pero los investigadores no saben con exactitud cómo penetran los priones en el organismo.
Para averiguarlo, Neena Singh y su equipo de la Universidad Case Western Reserve de Cleveland (Ohio) imitaron el proceso de comer y digerir carne infectada.
Trituraron tejido cerebral que contenía priones de pacientes que padecían una forma de la enfermedad de Creutzfeldt-Jakob. A continuación, lo expusieron a una serie de enzimas digestivas de la boca, el estómago y el intestino, que normalmente rompen las proteínas en pedazos.
Los priones, conocidos por su enorme resistencia, escapan casi indemnes a este ataque, al igual que un segundo tipo de proteína llamada ferritina, que almacena hierro y abunda en la carne. Las dos proteínas parecen adherirse entre sí, según informan en la revista Journal of Neuroscience.
A continuación, los investigadores añadieron la papilla digerida a un modelo de laboratorio del intestino humano: una lámina creciente de células del revestimiento intestinal. Al fijar etiquetas fluorescentes a las dos proteínas, demostraron que se transportan de la mano a través de las células. "Los priones probablemente viajan a caballito" a través de la pared intestinal hacia el interior del cuerpo, afirma Singh.
La unión a la ferritina puede proporcionar una protección adicional frente a la digestión, en la medida en que esto aleja a los priones del sistema digestivo, donde se concentran las proteasas. | Pourquoi les prions présents dans l'alimentation animale ne sont-ils pas détruits par le système digestif ? | Les protéases sont des enzymes du système digestif qui aident à décomposer les aliments, agissant comme des ciseaux de taille moléculaire qui découpent les protéines.
Les protéases ont des fentes, ou sous-poches, dans lesquelles les protéines s'insèrent et où le substrat (protéine) est coupé.
Les prions infectieux ou pathogènes résistent aux protéases en raison de leur forme tridimensionnelle, qui dissimule les parties du prion qui devraient normalement entrer dans les protéases et qui entraîneraient la digestion du prion.
Les prions qui ne provoquent pas de maladie - les prions normaux - ont une forme tridimensionnelle différente qui leur permet de s'insérer dans les protéases, et ils ne résistent donc pas à la digestion :
De nombreux éléments indiquent que l'agent pathogène infectieux à l'origine des maladies à prions, également appelées encéphalopathies spongiformes, est uniquement constitué de PrPSc, l'isoforme pathogène de la protéine prion (21-23). La PrPSc et sa contrepartie cellulaire normale, la PrPC, sont toutes deux codées par un gène cellulaire (2, 19). La caractérisation physique et moléculaire de la PrPSc et de la PrPC n'a pas révélé de différences chimiques entre les deux isoformes (32). Cependant, la PrPSc acquiert des caractéristiques conformationnelles distinctes lors de sa conversion à partir de la PrPC. Alors que la PrPC est soluble dans la plupart des détergents et peut être facilement digérée par les protéases, la PrPSc est insoluble dans les détergents et conserve un noyau résistant aux protéases, appelé PrP27-30, qui se polymérise en amyloïde (25).
Le Dr Neena Singh a également découvert que les prions se fixent à une autre protéine, la ferritine, lorsqu'ils traversent le système digestif :
On pense que les prions responsables de la maladie ont été transmis aux humains lorsqu'ils ont mangé du bœuf provenant de bovins infectés, ce qui a déclenché la dégénérescence cérébrale appelée nouvelle variante de la maladie de Creutzfeldt-Jakob (vMCJ). Mais les chercheurs ne savent pas exactement comment les prions pénètrent dans l'organisme.
Pour le savoir, Neena Singh et son équipe de la Case Western Reserve University de Cleveland (Ohio) ont imité le processus de consommation et de digestion de la viande infectée.
Ils ont réduit en purée des tissus cérébraux contenant des prions provenant de patients atteints d'une forme de la maladie de Creutzfeldt-Jakob. Ils l'ont ensuite exposé à une série d'enzymes digestives agressives provenant de la bouche, de l'estomac et de l'intestin, qui décomposent normalement les protéines en morceaux.
Les prions, qui sont connus pour être extrêmement résistants, échappent à cette attaque presque sans dommage, ont-ils montré, tout comme un deuxième type de protéine appelée ferritine, qui stocke le fer et qui est abondante dans la viande. Les deux protéines semblent se coller l'une à l'autre, rapportent-ils dans le Journal of Neuroscience.
Les chercheurs ont ensuite ajouté la boue digérée à un modèle de laboratoire de l'intestin humain : une feuille croissante de cellules de la paroi intestinale. En attachant des étiquettes fluorescentes aux deux protéines, ils ont montré qu'elles étaient transportées par les cellules, main dans la main. Les prions se déplacent probablement à dos de cochon" ; à travers la paroi de l'intestin vers le corps, dit Singh.
La fixation à la ferritine peut fournir une protection supplémentaire contre la digestion, dans la mesure où elle éloigne les prions du système digestif, où les protéases sont concentrées. | Perché i prioni presenti nella dieta animale non vengono distrutti dall'apparato digerente? | Le proteasi sono enzimi dell'apparato digerente che aiutano a scomporre gli alimenti, agendo come forbici di dimensioni molecolari che tagliano le proteine.
Le proteasi hanno delle fessure, o sottotasche, in cui si inseriscono le proteine, dove il substrato (proteina) viene tagliato.
I prioni infettivi o patogeni sono resistenti alle proteasi a causa della loro forma tridimensionale, che nasconde le parti del prione che normalmente si adatterebbero alle proteasi e che causerebbero la digestione del prione.
I prioni che non causano malattie - i prioni normali - hanno una forma tridimensionale diversa che permette loro di adattarsi alle proteasi e quindi non sono resistenti alla digestione:
Numerose prove dimostrano che l'agente patogeno che causa le malattie da prioni, dette anche encefalopatie spongiformi, è costituito esclusivamente dalla PrPSc, l'isoforma patogena della proteina prionica (21-23). Sia la PrPSc che la sua normale controparte cellulare, la PrPC, sono codificate da un gene cellulare (2, 19). La caratterizzazione fisica e molecolare della PrPSc e della PrPC non ha rivelato differenze chimiche tra le due isoforme (32). Tuttavia, la PrPSc acquisisce caratteristiche conformazionali distintive al momento della conversione dalla PrPC. Mentre la PrPC è solubile nella maggior parte dei detergenti e può essere facilmente digerita dalle proteasi, la PrPSc è insolubile nei detergenti e mantiene un nucleo resistente alle proteasi, denominato PrP27-30, che polimerizza in amiloide (25).
La dottoressa Neena Singh ha anche scoperto che i prioni "piggyback" o si attaccano a un'altra proteina chiamata ferritina, mentre attraversano il sistema digestivo:
Si pensa che i prioni che causano la malattia siano passati nelle persone quando hanno mangiato carne di bovini infetti, innescando la condizione di deperimento cerebrale chiamata malattia di Creutzfeldt-Jakob di nuova variante, o vCJD. Ma i ricercatori non sanno esattamente come i prioni entrino nell'organismo.
Per scoprirlo, Neena Singh e il suo team della Case Western Reserve University di Cleveland, Ohio, hanno simulato il processo di consumo e digestione di carne infetta.
Hanno triturato il tessuto cerebrale che conteneva prioni di pazienti affetti da una forma di malattia di Creutzfeldt-Jakob. Poi lo hanno esposto a una serie di enzimi digestivi aggressivi provenienti da bocca, stomaco e intestino, che normalmente spezzettano le proteine.
I prioni, notoriamente molto resistenti, sono riusciti a sfuggire quasi indenni a questo attacco, così come un secondo tipo di proteina, la ferritina, che immagazzina il ferro ed è presente in abbondanza nella carne. Le due proteine sembrano aderire l'una all'altra, riferiscono i ricercatori nel Journal of Neuroscience.
I ricercatori hanno poi aggiunto il liquame digerito a un modello di laboratorio dell'intestino umano: un foglio in crescita di cellule del rivestimento intestinale. Attaccando etichette fluorescenti alle due proteine, hanno dimostrato che esse vengono trasportate attraverso le cellule mano nella mano. "I prioni probabilmente viaggiano a cavalcioni" attraverso la parete intestinale fino al corpo, dice Singh.
Il legame con la ferritina può fornire un'ulteriore protezione dalla digestione, in quanto rimuove i prioni dall'apparato digerente, dove si concentrano le proteasi. |
269 | How does slicing in Python work? Please include references where appropriate. | The syntax is:
```
a[start:stop] # items start through stop-1
a[start:] # items start through the rest of the array
a[:stop] # items from the beginning through stop-1
a[:] # a copy of the whole array
```
There is also the `step` value, which can be used with any of the above:
```
a[start:stop:step] # start through not past stop, by step
```
The key point to remember is that the `:stop` value represents the first value that is not in the selected slice. So, the difference between `stop` and `start` is the number of elements selected (if `step` is 1, the default).
The other feature is that `start` or `stop` may be a negative number, which means it counts from the end of the array instead of the beginning. So:
```
a[-1] # last item in the array
a[-2:] # last two items in the array
a[:-2] # everything except the last two items
```
Similarly, `step` may be a negative number:
```
a[::-1] # all items in the array, reversed
a[1::-1] # the first two items, reversed
a[:-3:-1] # the last two items, reversed
a[-3::-1] # everything except the last two items, reversed
```
Python is kind to the programmer if there are fewer items than you ask for. For example, if you ask for ```a[:-2]``` and ```a``` only contains one element, you get an empty list instead of an error. Sometimes you would prefer the error, so you have to be aware that this may happen.
## Relationship with the ```slice``` object
A slice object can represent a slicing operation, i.e.:
```
a[start:stop:step]
```
is equivalent to:
```
a[slice(start, stop, step)]
```
Slice objects also behave slightly differently depending on the number of arguments, similarly to ```range()```, i.e. both ```slice(stop)``` and ```slice(start, stop[, step])``` are supported. To skip specifying a given argument, one might use ```None```, so that e.g. ```a[start:]``` is equivalent to ```a[slice(start, None)]``` or ```a[::-1]``` is equivalent to ```a[slice(None, None, -1)]```.
While the ```:```-based notation is very helpful for simple slicing, the explicit use of ```slice()``` objects simplifies the programmatic generation of slicing. | Wie funktioniert das Slicing in Python? Bitte geben Sie gegebenenfalls Referenzen an. | Die Syntax lautet:
```
a[start:stop] # Elemente beginnen bis stop-1
a[start:] # Elemente von Anfang bis zum Rest des Arrays
a[:stop] # Elemente von Anfang bis stop-1
a[:] # eine Kopie des gesamten Arrays
```
Es gibt auch den Wert `step`, der mit jedem der oben genannten Werte verwendet werden kann:
```
a[start:stop:step] # schrittweise von Anfang bis zum nächsten Stop
```
Der wichtigste Punkt ist, dass der `:stop`-Wert den ersten Wert darstellt, der nicht im ausgewählten Slice enthalten ist. Der Unterschied zwischen "stop" und "start" ist also die Anzahl der ausgewählten Elemente (wenn "step" 1 ist, der Standardwert).
Ein weiteres Merkmal ist, dass `start` oder `stop` eine negative Zahl sein kann, was bedeutet, dass vom Ende des Arrays statt vom Anfang gezählt wird. Beispiel:
```
a[-1] # letztes Element im Array
a[-2:] # letzte zwei Elemente in der Matrix
a[:-2] # alles außer den letzten beiden Einträgen
```
In ähnlicher Weise kann `step` eine negative Zahl sein:
```
a[::-1] # alle Elemente in der Matrix, invertiert
a[1::-1] # die ersten beiden Elemente, invertiert
a[:-3:-1] # die letzten beiden Elemente, umgekehrt
a[-3::-1] # alles außer den letzten beiden Einträgen, invertiert
```
Python ist freundlich zum Programmierer, wenn es weniger Elemente gibt, als Sie verlangen. Wenn Sie zum Beispiel nach ```a[:-2]``` fragen und ```a`` nur ein Element enthält, erhalten Sie eine leere Liste statt eines Fehlers. Manchmal würde man den Fehler vorziehen, also muss man sich bewusst sein, dass dies passieren kann.
## Beziehung mit dem ``Slice``-Objekt
Ein Slice-Objekt kann eine Slicing-Operation repräsentieren, d.h.:
```
a[start:stop:step]
```
ist äquivalent zu:
```
a[slice(start, stop, step)]
```
Slice-Objekte verhalten sich auch leicht unterschiedlich in Abhängigkeit von der Anzahl der Argumente, ähnlich wie bei ```range()```, d.h. sowohl ```Slice(stop)``` als auch ```Slice(start, stop[, step])``` werden unterstützt. Um die Angabe eines bestimmten Arguments zu überspringen, kann man ```None``` verwenden, so dass z.B. ```a[start: ``` äquivalent ist zu ```a[slice(start, None)]``` oder ```a[::-1]``` äquivalent ist zu ```a[slice(None, None, -1)]```.
Während die ```:``-basierte Notation für einfaches Slicing sehr hilfreich ist, vereinfacht die explizite Verwendung von ```Slice()``'-Objekten die programmatische Erzeugung von Slicing. | ¿Cómo funciona el corte en Python? Por favor, incluya referencias cuando proceda. | La sintaxis es:
```
a[inicio:parada] # los elementos empiezan por parada-1
a[inicio:] # elementos desde el inicio hasta el resto del array
a[:stop] # elementos desde el principio hasta stop-1
a[:] # una copia de todo el array
```
También existe el valor `step`, que se puede utilizar con cualquiera de los anteriores:
```
a[inicio:parada:paso] # desde el inicio hasta la parada, por pasos
```
El punto clave a recordar es que el valor `:stop` representa el primer valor que no está en la porción seleccionada. Así, la diferencia entre `stop` y `start` es el número de elementos seleccionados (si `step` es 1, el valor por defecto).
La otra característica es que `start` o `stop` puede ser un número negativo, lo que significa que cuenta desde el final del array en lugar del principio. Así
```
a[-1] # último elemento del array
a[-2:] # dos últimos elementos de la matriz
a[:-2] # todo excepto los dos últimos elementos
```
Del mismo modo, `step` puede ser un número negativo:
```
a[::-1] # todos los elementos de la matriz, invertidos
a[1::-1] # los dos primeros elementos, invertidos
a[:-3:-1] # los dos últimos elementos, invertidos
a[-3::-1] # todo excepto los dos últimos elementos, invertido
```
Python es amable con el programador si hay menos elementos de los que pides. Por ejemplo, si pides ``a[:-2]``` y ```a`` sólo contiene un elemento, obtienes una lista vacía en lugar de un error. A veces preferirás el error, así que debes tener en cuenta que esto puede ocurrir.
## Relación con el objeto ```slice``
Un objeto ``slice`` puede representar una operación de corte, es decir
```
a[inicio:parada:paso]
```
es equivalente a:
```
a[slice(inicio, parada, paso)]
```
Los objetos slice también se comportan de forma ligeramente diferente dependiendo del número de argumentos, de forma similar a ``range()``, es decir, tanto ``slice(stop)`` como ``slice(start, stop[, step])`` son compatibles. Para no especificar un argumento, se puede utilizar ```None``, de forma que, por ejemplo, ```a[inicio:]`` es equivalente a ```a[corte(inicio, Ninguno)]`` o ```a[::-1]`` es equivalente a ```a[corte(Ninguno, Ninguno, -1)]``.
Aunque la notación basada en ```:`` es muy útil para el troceado simple, el uso explícito de objetos ```slice()`` simplifica la generación programática del troceado. | Comment fonctionne le découpage en tranches en Python ? Veuillez inclure des références le cas échéant. | La syntaxe est la suivante :
```
a[start:stop] # les éléments commencent par stop-1
a[start :] # éléments du début jusqu'au reste du tableau
a[:stop] # éléments du début jusqu'à stop-1
a[ :] # une copie du tableau entier
```
Il y a aussi la valeur `step`, qui peut être utilisée avec n'importe laquelle des valeurs ci-dessus :
```
a[start:stop:step] # du début jusqu'à la fin, par étape
```
Le point clé à retenir est que la valeur `:stop` représente la première valeur qui n'est pas dans la tranche sélectionnée. Ainsi, la différence entre `stop` et `start` est le nombre d'éléments sélectionnés (si `step` est 1, par défaut).
L'autre caractéristique est que `start` ou `stop` peut être un nombre négatif, ce qui signifie qu'il compte à partir de la fin du tableau au lieu du début. Ainsi :
```
a[-1] # dernier élément du tableau
a[-2 :] # les deux derniers éléments du tableau
a[:-2] # tout sauf les deux derniers éléments
```
De même, `step` peut être un nombre négatif :
```
a[::-1] # tous les éléments du tableau, inversés
a[1::-1] # les deux premiers éléments, inversés
a[:-3:-1] # les deux derniers éléments, inversés
a[-3::-1] # tout sauf les deux derniers éléments, inversés
```
Python est gentil avec le programmeur s'il y a moins d'éléments que vous n'en demandez. Par exemple, si vous demandez ``a[:-2]`` et que ``a`` ne contient qu'un seul élément, vous obtiendrez une liste vide au lieu d'une erreur. Parfois, vous préférerez l'erreur, et vous devez donc être conscient que cela peut arriver.
## Relation avec l'objet ``slice``
Un objet slice peut représenter une opération de découpage en tranches, c'est à dire :
```
a[start:stop:step]
```
est équivalent à :
```
a[slice(start, stop, step)]
```
Les objets Slice se comportent aussi légèrement différemment selon le nombre d'arguments, de manière similaire à ``range()``, c'est-à-dire que les deux ``slice(stop)`` et ``slice(start, stop[, step])`` sont supportés. Pour ne pas spécifier un argument donné, on peut utiliser ``None``, de sorte que par exemple ``a[start :]`` est équivalent à ``a[slice(start, None)]`` ou ``a[::-1]`` est équivalent à ``a[slice(None, None, -1)]``.
Bien que la notation basée sur ``:`` soit très utile pour un découpage simple, l'utilisation explicite des objets ``slice()`` simplifie la génération programmatique du découpage. | Come funziona l'affettatura in Python? Si prega di includere i riferimenti, se appropriati. | La sintassi è:
```
a[start:stop] # gli elementi partono da stop-1
a[start:] # elementi dall'inizio al resto dell'array
a[:stop] # elementi dall'inizio fino a stop-1
a[:] # una copia dell'intero array
```
Esiste anche il valore `step`, che può essere usato con qualsiasi dei precedenti:
```
a[start:stop:step] # inizia fino a non oltre lo stop, per step
```
Il punto chiave da ricordare è che il valore `:stop` rappresenta il primo valore che non si trova nella fetta selezionata. Quindi, la differenza tra `stop` e `start` è il numero di elementi selezionati (se `step` è 1, il valore predefinito).
L'altra caratteristica è che `start` o `stop` può essere un numero negativo, il che significa che conta dalla fine dell'array invece che dall'inizio. Quindi:
```
a[-1] # ultimo elemento dell'array
a[-2:] # ultimi due elementi dell'array
a[:-2] # tutto tranne gli ultimi due elementi
```
Analogamente, `step` può essere un numero negativo:
```
a[::-1] # tutti gli elementi dell'array, invertiti
a[1::-1] # i primi due elementi, invertiti
a[:-3:-1] # gli ultimi due elementi, invertiti
a[-3::-1] # tutto tranne gli ultimi due elementi, invertito
```
Python è gentile con il programmatore se ci sono meno elementi di quelli richiesti. Per esempio, se si chiede ```a[:-2]``` e ```a`` contiene solo un elemento, si ottiene un elenco vuoto invece di un errore. A volte si preferisce l'errore, quindi bisogna essere consapevoli che questo può accadere.
## Relazione con l'oggetto ```slice``
Un oggetto slice può rappresentare un'operazione di affettamento, ovvero
```
a[start:stop:step]
```
è equivalente a:
```
a[slice(start, stop, step)]
```
Anche gli oggetti slice si comportano in modo leggermente diverso a seconda del numero di argomenti, in modo simile a ``range()```, cioè sono supportati sia ``slice(stop)`` che ```slice(start, stop[, step])``. Per non specificare un dato argomento, si può usare ```None``, in modo che, ad esempio, ```a[start:]`` equivale a ```a[slice(start, None)]`` o ```a[::-1]``` equivale a ```a[slice(None, None, -1)]``.
Sebbene la notazione basata su ```:`` sia molto utile per affettare in modo semplice, l'uso esplicito degli oggetti ```slice()`` semplifica la generazione programmatica di affettamenti. |
270 | I am writing a story where a species undergoes devolution. Is there any scientific or plausible way to do this? The process can be instantaneous or may take ages, I do not mind which as I need to weigh my options at this stage.
To be clear, the devolution I am thinking of is like taking a human being then devolving him/her to the primate stage, so lets say about as far back as Orrorin tugenensis or Paranthropus where they are in the midst of evolving from primates to Homo erectus. Please note I used human beings as an example to give context but the species undergoing devolution may not necessarily be human.
Based on the answers, "devolution" does not exist so had the word in quotes to reflect this. | Devolution doesn't really ever occur, organisms simply adapt to best suit their environment over time. A good example is cave dwelling Troglodyte type species that have lost the ability to see. They haven't actually devolved to not have eyes, they simply did not need them and evolved to save valuable energy and nutrients by not growing a sight organ that would be useless in their environment. It isn't devolution, it's still evolution since they are changing to better suit their environment. So, at least as far as natural processes go, a species would need to become stuck in an environment for a few hundred thousand years that heavily discourages intellect, sociability, communication skills, culture, and inventiveness. That's a tough one to come up with since such traits are usually the most powerful ones for surviving something.
So here's the environment and scenario I'm thinking of. Your smart guy race is in the stone age, its pretty much on par with homo sapiens and where they were at about 10,000-15,000 years ago. But something catastrophic doesn't happen. The world slowly becomes a perfect Eden with very few predators, a perfect climate, and vast endless fields of grain and forests of fruit bearing trees. No ice age, no super-predators like we saw in said ice age. No famines or depredation, no rabid competition between several human subspecies for the same resources. The planet (Henceforth known as paradise) is literally perfect. Too perfect. Why would a species that has as close as possible to absolutely nothing to worry about need to even develop the ability to worry? Those big craniums and complex brains waste space and make childbirth more dangerous than necessary. There is absolutely nothing gained by possessing speech, abstract thought, or cooperative culture when all a species needs to do to be successful is to wander around placidly in small familial groups grazing mindlessly on the limitless amounts of food. Shelter is utterly not necessary since you have a perfect climate, nor is clothing, and food is so ludicrously plentiful there is no need to make tools. Within another 100,000 years your species that was formerly well on their way to developing things like agriculture, warfare, and tribal societies has reverted back to dumb grazers that simply live to eat and reproduce. | Ich schreibe eine Geschichte, in der sich eine Spezies weiterentwickelt. Gibt es eine wissenschaftliche oder plausible Möglichkeit, dies zu tun? Der Prozess kann augenblicklich ablaufen oder eine Ewigkeit dauern, das ist mir egal, da ich in diesem Stadium meine Optionen abwägen muss.
Um das klarzustellen: Die Evolution, an die ich denke, ist so, als würde man einen Menschen nehmen und ihn auf die Primatenstufe zurückentwickeln, also etwa so weit zurück wie Orrorin tugenensis oder Paranthropus, wo sie gerade dabei sind, sich von Primaten zu Homo erectus zu entwickeln. Bitte beachten Sie, dass ich den Menschen als Beispiel verwendet habe, um den Kontext zu verdeutlichen, aber die Arten, die sich weiterentwickeln, müssen nicht unbedingt Menschen sein.
Nach den Antworten zu urteilen, gibt es "Evolution" nicht, daher habe ich das Wort in Anführungszeichen gesetzt, um dies zu verdeutlichen. | Devolution findet eigentlich nie statt, Organismen passen sich im Laufe der Zeit einfach an ihre Umgebung an. Ein gutes Beispiel sind die in Höhlen lebenden Troglodyten, die die Fähigkeit zu sehen verloren haben. Sie haben sich nicht dahingehend entwickelt, dass sie keine Augen mehr haben, sondern sie brauchten sie einfach nicht mehr und haben sich so entwickelt, dass sie wertvolle Energie und Nährstoffe sparen, indem sie kein Sehorgan wachsen lassen, das in ihrer Umgebung nutzlos wäre. Das ist keine Entwicklung, sondern immer noch Evolution, da sie sich verändern, um sich besser an ihre Umwelt anzupassen. Zumindest was die natürlichen Prozesse angeht, müsste eine Spezies also einige hunderttausend Jahre lang in einer Umgebung festsitzen, die Intellekt, Geselligkeit, Kommunikationsfähigkeit, Kultur und Erfindungsreichtum stark einschränkt. Das ist ein schwieriges Unterfangen, da diese Eigenschaften normalerweise die stärksten sind, um etwas zu überleben.
Hier ist also die Umgebung und das Szenario, an das ich denke. Deine kluge Rasse befindet sich in der Steinzeit, sie ist so ziemlich gleichauf mit dem Homo sapiens und dort, wo sie vor etwa 10.000-15.000 Jahren war. Aber etwas Katastrophales passiert nicht. Die Welt entwickelt sich langsam zu einem perfekten Garten Eden mit sehr wenigen Raubtieren, einem perfekten Klima und riesigen, endlosen Getreidefeldern und Wäldern mit fruchttragenden Bäumen. Keine Eiszeit, keine Super-Raubtiere, wie wir sie in der Eiszeit gesehen haben. Keine Hungersnöte oder Plünderungen, kein rasender Wettbewerb zwischen verschiedenen menschlichen Unterarten um dieselben Ressourcen. Der Planet (von nun an als Paradies bekannt) ist buchstäblich perfekt. Zu perfekt. Warum sollte eine Spezies, die so gut wie gar nichts zu befürchten hat, überhaupt die Fähigkeit entwickeln, sich Sorgen zu machen? Diese großen Schädel und komplexen Gehirne verschwenden Platz und machen die Geburt gefährlicher als nötig. Sprache, abstraktes Denken oder eine kooperative Kultur bringen absolut nichts, wenn alles, was eine Spezies tun muss, um erfolgreich zu sein, darin besteht, friedlich in kleinen familiären Gruppen umherzuwandern und gedankenlos die unbegrenzten Mengen an Nahrung abzugrasen. Ein Unterschlupf ist überhaupt nicht notwendig, da Sie ein perfektes Klima haben, ebenso wenig wie Kleidung, und Nahrung ist so lächerlich reichlich vorhanden, dass es nicht nötig ist, Werkzeuge herzustellen. Innerhalb von weiteren 100.000 Jahren ist Ihre Spezies, die einst auf dem besten Weg war, Dinge wie Ackerbau, Kriegsführung und Stammesgesellschaften zu entwickeln, wieder zu dummen Weidegängern geworden, die einfach nur leben, um zu essen und sich fortzupflanzen. | Estoy escribiendo una historia en la que una especie sufre una involución. ¿Hay alguna forma científica o plausible de hacerlo? El proceso puede ser instantáneo o durar años, no me importa cuál de las dos cosas, ya que necesito sopesar mis opciones en esta fase.
Para que quede claro, la evolución en la que estoy pensando es como si tomara a un ser humano y lo hiciera evolucionar hasta la etapa de primate, digamos que hasta Orrorin tugenensis o Paranthropus, donde se encuentran en medio de la evolución de primates a Homo erectus. Tenga en cuenta que he utilizado a los seres humanos como ejemplo para contextualizar, pero las especies en proceso de evolución no tienen por qué ser necesariamente humanas.
Basándome en las respuestas, la "evolución" no existe, así que puse la palabra entre comillas para reflejarlo. | En realidad, la evolución no se produce nunca, los organismos simplemente se adaptan a su entorno a lo largo del tiempo. Un buen ejemplo son las especies trogloditas cavernícolas que han perdido la capacidad de ver. En realidad no han evolucionado para no tener ojos, simplemente no los necesitaban y evolucionaron para ahorrar energía y nutrientes valiosos al no desarrollar un órgano de la vista que sería inútil en su entorno. No es involución, sigue siendo evolución, ya que están cambiando para adaptarse mejor a su entorno. Así que, al menos en lo que respecta a los procesos naturales, una especie necesitaría quedarse atrapada en un entorno durante unos cientos de miles de años que desalentara fuertemente el intelecto, la sociabilidad, las habilidades de comunicación, la cultura y la inventiva. Es difícil de imaginar, ya que esos rasgos suelen ser los más poderosos para sobrevivir a algo.
Así que este es el entorno y el escenario en el que estoy pensando. Tu raza de tipos inteligentes está en la edad de piedra, más o menos a la par con el homo sapiens y donde estaban hace unos 10.000-15.000 años. Pero algo catastrófico no sucede. El mundo se convierte poco a poco en un edén perfecto con muy pocos depredadores, un clima perfecto y vastos campos interminables de cereales y bosques de árboles frutales. No hay edad de hielo, ni superdepredadores como los que vimos en dicha edad de hielo. Sin hambrunas ni depredación, ni competencia rabiosa entre varias subespecies humanas por los mismos recursos. El planeta (en adelante, el paraíso) es literalmente perfecto. Demasiado perfecto. ¿Por qué una especie que no tiene nada de qué preocuparse necesitaría desarrollar la capacidad de preocuparse? Esos grandes cráneos y complejos cerebros desperdician espacio y hacen que el parto sea más peligroso de lo necesario. No se gana absolutamente nada con poseer el habla, el pensamiento abstracto o la cultura cooperativa cuando todo lo que una especie necesita para tener éxito es deambular plácidamente en pequeños grupos familiares pastando sin sentido sobre las cantidades ilimitadas de alimentos. El refugio no es en absoluto necesario, ya que el clima es perfecto, como tampoco lo es la ropa, y la comida es tan ridículamente abundante que no hay necesidad de fabricar herramientas. Dentro de otros 100.000 años, su especie, que antes estaba en camino de desarrollar cosas como la agricultura, la guerra y las sociedades tribales, ha vuelto a ser una muda herbívora que simplemente vive para comer y reproducirse. | J'écris une histoire dans laquelle une espèce subit une dévolution. Existe-t-il un moyen scientifique ou plausible d'y parvenir ? Le processus peut être instantané ou prendre des années, peu importe, car j'ai besoin de peser mes options à ce stade.
Pour être clair, la dévolution à laquelle je pense revient à prendre un être humain et à le faire évoluer jusqu'au stade du primate, c'est-à-dire jusqu'à Orrorin tugenensis ou Paranthropus, où ils sont en train d'évoluer des primates à l'Homo erectus. Veuillez noter que j'ai utilisé l'être humain comme exemple pour donner un contexte, mais que l'espèce en cours d'évolution n'est pas nécessairement l'être humain.
D'après les réponses, le terme "évolution" n'existe pas, c'est pourquoi j'ai mis le mot entre guillemets. | La dévolution ne se produit jamais vraiment, les organismes s'adaptent simplement pour mieux convenir à leur environnement au fil du temps. Un bon exemple est celui des espèces troglodytes vivant dans les cavernes qui ont perdu la capacité de voir. Elles n'ont pas réellement évolué vers l'absence d'yeux, elles n'en avaient simplement pas besoin et ont évolué pour économiser de l'énergie et des nutriments précieux en évitant de faire pousser un organe visuel qui serait inutile dans leur environnement. Il ne s'agit pas d'une dévolution, mais bien d'une évolution puisqu'ils changent pour mieux s'adapter à leur environnement. Ainsi, du moins en ce qui concerne les processus naturels, il faudrait qu'une espèce reste bloquée pendant quelques centaines de milliers d'années dans un environnement qui décourage fortement l'intellect, la sociabilité, les capacités de communication, la culture et l'inventivité. Ce n'est pas évident, car ces caractéristiques sont généralement celles qui permettent le mieux de survivre à quelque chose.
Voici donc l'environnement et le scénario auxquels je pense. Votre race intelligente est à l'âge de pierre, à peu près au même niveau que l'homo sapiens et là où il était il y a environ 10 000 à 15 000 ans. Mais une catastrophe ne se produit pas. Le monde devient lentement un Eden parfait, avec très peu de prédateurs, un climat parfait, de vastes champs de céréales sans fin et des forêts d'arbres fruitiers. Pas de période glaciaire, pas de super-prédateurs comme ceux que nous avons vus pendant cette période glaciaire. Pas de famines ou de déprédations, pas de compétition enragée entre plusieurs sous-espèces humaines pour les mêmes ressources. La planète (désormais appelée paradis) est littéralement parfaite. Trop parfaite. Pourquoi une espèce qui n'a pratiquement aucune raison de s'inquiéter aurait-elle besoin de développer la capacité de s'inquiéter ? Ces gros crânes et ces cerveaux complexes gaspillent de l'espace et rendent l'accouchement plus dangereux que nécessaire. Il n'y a absolument rien à gagner à posséder la parole, la pensée abstraite ou une culture coopérative lorsque tout ce dont une espèce a besoin pour réussir est d'errer placidement en petits groupes familiaux en broutant sans réfléchir des quantités illimitées de nourriture. Un abri n'est absolument pas nécessaire puisque le climat est parfait, pas plus que les vêtements, et la nourriture est si abondante qu'il n'est pas nécessaire de fabriquer des outils. D'ici 100 000 ans, votre espèce, qui était sur le point de développer des choses comme l'agriculture, la guerre et les sociétés tribales, est redevenue une espèce d'herbivores stupides qui vivent simplement pour manger et se reproduire. | Sto scrivendo una storia in cui una specie subisce una devoluzione. Esiste un modo scientifico o plausibile per farlo? Il processo può essere istantaneo o può durare secoli, non mi interessa quale, perché in questa fase ho bisogno di soppesare le mie opzioni.
Per essere chiari, la devoluzione a cui sto pensando è come prendere un essere umano e farlo evolvere fino allo stadio di primate, quindi diciamo all'incirca fino a Orrorin tugenensis o Paranthropus, dove sono nel mezzo dell'evoluzione da primati a Homo erectus. Si noti che ho usato gli esseri umani come esempio per dare un contesto, ma la specie in fase di devoluzione potrebbe non essere necessariamente umana.
In base alle risposte, la "devoluzione" non esiste, quindi ho messo la parola tra virgolette per riflettere questo fatto. | La devoluzione non avviene mai, gli organismi si adattano semplicemente al meglio al loro ambiente nel corso del tempo. Un buon esempio sono le specie troglodite che vivono nelle caverne e che hanno perso la capacità di vedere. In realtà non si sono evoluti per non avere gli occhi, semplicemente non ne avevano bisogno e si sono evoluti per risparmiare energia e nutrienti preziosi evitando di far crescere un organo della vista che sarebbe stato inutile nel loro ambiente. Non si tratta di devoluzione, ma di evoluzione, poiché stanno cambiando per adattarsi meglio al loro ambiente. Quindi, almeno per quanto riguarda i processi naturali, una specie dovrebbe rimanere bloccata per qualche centinaio di migliaia di anni in un ambiente che scoraggia fortemente l'intelletto, la socievolezza, le capacità di comunicazione, la cultura e l'inventiva. Si tratta di un'ipotesi difficile da realizzare, dato che questi tratti sono di solito i più potenti per sopravvivere a qualcosa.
Ecco l'ambiente e lo scenario a cui sto pensando. La vostra razza di intelligentoni si trova nell'età della pietra, più o meno allo stesso livello dell'homo sapiens e di dove si trovava circa 10.000-15.000 anni fa. Ma non accade qualcosa di catastrofico. Il mondo diventa lentamente un Eden perfetto, con pochissimi predatori, un clima perfetto e vasti campi infiniti di grano e foreste di alberi da frutto. Nessuna era glaciale, nessun super-predatore come quello che abbiamo visto durante l'era glaciale. Nessuna carestia o depredazione, nessuna competizione rabbiosa tra diverse sottospecie umane per le stesse risorse. Il pianeta (d'ora in poi noto come paradiso) è letteralmente perfetto. Troppo perfetto. Perché una specie che non ha assolutamente nulla di cui preoccuparsi dovrebbe sviluppare la capacità di preoccuparsi? Quei grandi crani e quei cervelli complessi sprecano spazio e rendono il parto più pericoloso del necessario. Non c'è assolutamente nulla da guadagnare nel possedere la parola, il pensiero astratto o la cultura cooperativa quando tutto ciò che una specie deve fare per avere successo è vagare placidamente in piccoli gruppi familiari pascolando senza pensieri su quantità illimitate di cibo. Il riparo non è assolutamente necessario, dato che il clima è perfetto, così come l'abbigliamento, e il cibo è così ridicolmente abbondante che non c'è bisogno di costruire utensili. Nel giro di altri 100.000 anni la vostra specie, che prima era sulla buona strada per sviluppare cose come l'agricoltura, la guerra e le società tribali, è tornata a essere una stupida pascolatrice che vive semplicemente per mangiare e riprodursi. |
271 | I've used GEDCOM to transfer data between desktop software and websites, but it all seems a bit old hat. Is there anything better that will mangle* my data less.
* For example, GEDCOM can lose some data where the two ends of the system understand a concept which GEDCOM does not have a field for. | GEDCOM is the defacto standard for exchanging genealogical data. There are some problems with GEDCOM.
* It is not rich enough to hold all the types of information that different vendor systems manage internally. So exporting GEDCOM from one system may lose information that that system actually holds. Though see point 4 below.
* There is enough ambiguity in the definition of GEDCOM that different vendors have interpreted a few parts of the format inconsistently. Though they support the same tags, they can't consistently share data that uses those tags.
* Some systems don't implement all parts of the GEDCOM format. So, when they import GEDCOM data that includes those parts, they lose that information.
* GEDCOM has facilities that allow different vendors to extend it by adding new tags that allow them to add new types of data to GEDCOM. Others systems that do not use the same set of extensions looe that information on import.
There have been a few attempts to create new standards and formats for exchanging genealogical data. An older one that is often mentioned is the GenTech model. Recently there have been two efforts underway, Better GEDCOM and GEDCOM-X. Better GEDCOM is now inactive. However, the currently developing FHISO effort evolved from it. GEDCOM-X is an effort of Family Search (an organ of the LDS) and is currently a work in progress.
A number of individuals have also offered up new formats for archiving and tranferring genealogical data. None of these have generated enough traction to attract critical mass of interest. | Ich habe GEDCOM verwendet, um Daten zwischen Desktop-Software und Websites zu übertragen, aber das scheint ein alter Hut zu sein. Gibt es etwas Besseres, das meine Daten weniger verfälscht*.
* Zum Beispiel kann GEDCOM einige Daten verlieren, wenn die beiden Enden des Systems ein Konzept verstehen, für das GEDCOM kein Feld hat. | GEDCOM ist der defacto-Standard für den Austausch genealogischer Daten. Es gibt einige Probleme mit GEDCOM.
* Es ist nicht umfangreich genug, um alle Arten von Informationen zu speichern, die von verschiedenen Anbietersystemen intern verwaltet werden. Beim Exportieren von GEDCOM aus einem System können also Informationen verloren gehen, die in diesem System tatsächlich vorhanden sind. Siehe aber auch Punkt 4 unten.
* Die Definition von GEDCOM ist so unklar, dass verschiedene Anbieter einige Teile des Formats uneinheitlich interpretiert haben. Obwohl sie dieselben Tags unterstützen, können sie Daten, die diese Tags verwenden, nicht einheitlich austauschen.
* Einige Systeme implementieren nicht alle Teile des GEDCOM-Formats. Wenn sie also GEDCOM-Daten importieren, die diese Teile enthalten, verlieren sie diese Informationen.
* GEDCOM verfügt über Einrichtungen, die es verschiedenen Anbietern ermöglichen, es durch Hinzufügen neuer Tags zu erweitern, die es ihnen ermöglichen, neue Datentypen zu GEDCOM hinzuzufügen. Andere Systeme, die nicht die gleichen Erweiterungen verwenden, verlieren diese Informationen beim Import.
Es hat einige Versuche gegeben, neue Standards und Formate für den Austausch genealogischer Daten zu schaffen. Ein älterer Standard, der oft erwähnt wird, ist das GenTech-Modell. In letzter Zeit gab es zwei Bemühungen, Better GEDCOM und GEDCOM-X. Better GEDCOM ist inzwischen inaktiv. Das sich derzeit entwickelnde FHISO-Projekt hat sich jedoch aus ihm entwickelt. GEDCOM-X ist ein Projekt von Family Search (einem Organ der LDS) und befindet sich derzeit noch in der Entwicklung.
Eine Reihe von Personen hat ebenfalls neue Formate für die Archivierung und Übertragung genealogischer Daten vorgeschlagen. Keines dieser Formate hat genügend Anklang gefunden, um eine kritische Masse an Interesse zu wecken. | He utilizado GEDCOM para transferir datos entre programas de escritorio y sitios web, pero todo parece un poco anticuado. ¿Hay algo mejor que manipule* menos mis datos?
* Por ejemplo, GEDCOM puede perder algunos datos cuando los dos extremos del sistema entienden un concepto para el que GEDCOM no tiene un campo. | GEDCOM es el estándar de facto para el intercambio de datos genealógicos. GEDCOM plantea algunos problemas.
* No es lo suficientemente rico como para contener todos los tipos de información que los diferentes sistemas de proveedores gestionan internamente. Por lo tanto, al exportar GEDCOM desde un sistema se puede perder información que ese sistema realmente contiene. Aunque véase el punto 4 más abajo.
* Existe suficiente ambigüedad en la definición de GEDCOM como para que los distintos proveedores hayan interpretado algunas partes del formato de forma incoherente. Aunque soportan las mismas etiquetas, no pueden compartir de forma consistente los datos que utilizan esas etiquetas.
* Algunos sistemas no implementan todas las partes del formato GEDCOM. Así, cuando importan datos GEDCOM que incluyen esas partes, pierden esa información.
* GEDCOM tiene facilidades que permiten a diferentes proveedores ampliarlo añadiendo nuevas etiquetas que les permiten añadir nuevos tipos de datos a GEDCOM. Otros sistemas que no utilizan el mismo conjunto de extensiones pierden esa información en la importación.
Ha habido algunos intentos de crear nuevos estándares y formatos para el intercambio de datos genealógicos. Uno de los más antiguos que se menciona a menudo es el modelo GenTech. Recientemente ha habido dos esfuerzos en marcha, Better GEDCOM y GEDCOM-X. Better GEDCOM está ahora inactivo. Sin embargo, el proyecto FHISO, actualmente en desarrollo, surgió a partir de él. GEDCOM-X es un esfuerzo de Family Search (un órgano de la Iglesia de los Santos de los Últimos Días) y actualmente es un trabajo en curso.
Algunas personas también han propuesto nuevos formatos para archivar y transferir datos genealógicos. Ninguno de ellos ha generado suficiente tracción como para atraer una masa crítica de interés. | J'ai utilisé GEDCOM pour transférer des données entre des logiciels de bureau et des sites web, mais cela semble un peu dépassé. Existe-t-il un logiciel plus performant qui manipulera moins mes données ?
* Par exemple, GEDCOM peut perdre des données lorsque les deux extrémités du système comprennent un concept pour lequel GEDCOM n'a pas de champ. | GEDCOM est la norme de facto pour l'échange de données généalogiques. Le GEDCOM pose quelques problèmes.
* Il n'est pas assez riche pour contenir tous les types d'informations que les différents systèmes des fournisseurs gèrent en interne. L'exportation de GEDCOM à partir d'un système peut donc entraîner la perte d'informations que ce système détient en réalité. Voir cependant le point 4 ci-dessous.
* La définition de GEDCOM est suffisamment ambiguë pour que différents fournisseurs interprètent certaines parties du format de manière incohérente. Bien qu'ils prennent en charge les mêmes balises, ils ne peuvent pas partager de manière cohérente les données qui utilisent ces balises.
* Certains systèmes n'implémentent pas toutes les parties du format GEDCOM. Ainsi, lorsqu'ils importent des données GEDCOM qui incluent ces parties, ils perdent ces informations.
* Le GEDCOM dispose d'installations qui permettent à différents fournisseurs de l'étendre en ajoutant de nouvelles balises qui leur permettent d'ajouter de nouveaux types de données au GEDCOM. D'autres systèmes qui n'utilisent pas le même ensemble d'extensions perdent ces informations lors de l'importation.
Quelques tentatives ont été faites pour créer de nouvelles normes et de nouveaux formats pour l'échange de données généalogiques. L'une des plus anciennes, souvent mentionnée, est le modèle GenTech. Récemment, deux initiatives ont été lancées, Better GEDCOM et GEDCOM-X. Better GEDCOM est désormais inactif. Cependant, le projet FHISO, actuellement en cours de développement, en est issu. GEDCOM-X est une initiative de Family Search (un organe de la LDS) et est actuellement en cours de réalisation.
Un certain nombre de personnes ont également proposé de nouveaux formats pour l'archivage et le transfert de données généalogiques. Aucun d'entre eux n'a suscité suffisamment d'intérêt pour attirer une masse critique de personnes intéressées. | Ho usato GEDCOM per trasferire i dati tra software desktop e siti web, ma sembra un po' vecchiotto. C'è qualcosa di meglio che possa ridurre la manipolazione dei miei dati?
* Ad esempio, GEDCOM può perdere alcuni dati quando le due estremità del sistema comprendono un concetto per il quale GEDCOM non dispone di un campo. | GEDCOM è lo standard definitivo per lo scambio di dati genealogici. GEDCOM presenta alcuni problemi.
* Non è abbastanza ricco da contenere tutti i tipi di informazioni che i diversi sistemi dei fornitori gestiscono internamente. Pertanto, l'esportazione di GEDCOM da un sistema può perdere le informazioni in esso contenute. Si veda tuttavia il punto 4.
* C'è abbastanza ambiguità nella definizione di GEDCOM che diversi fornitori hanno interpretato alcune parti del formato in modo incoerente. Pur supportando gli stessi tag, non possono condividere in modo coerente i dati che li utilizzano.
* Alcuni sistemi non implementano tutte le parti del formato GEDCOM. Pertanto, quando importano dati GEDCOM che includono tali parti, perdono tali informazioni.
* GEDCOM dispone di strutture che consentono a diversi fornitori di estenderlo aggiungendo nuovi tag che permettono di aggiungere nuovi tipi di dati a GEDCOM. Altri sistemi che non utilizzano la stessa serie di estensioni perdono queste informazioni al momento dell'importazione.
Ci sono stati alcuni tentativi di creare nuovi standard e formati per lo scambio di dati genealogici. Un vecchio standard che viene spesso citato è il modello GenTech. Recentemente sono stati avviati due tentativi, Better GEDCOM e GEDCOM-X. Better GEDCOM è ora inattivo. Tuttavia, l'iniziativa FHISO, attualmente in fase di sviluppo, si è evoluta da essa. GEDCOM-X è un'iniziativa di Family Search (un organo dell'LDS) ed è attualmente un lavoro in corso.
Diverse persone hanno proposto nuovi formati per l'archiviazione e il trasferimento dei dati genealogici. Nessuno di questi ha generato una trazione sufficiente ad attirare una massa critica di interesse. |
272 | Is it ever possible that ```(a== 1 && a ==2 && a==3)``` could evaluate to true in JavaScript? | If you take advantage of how == works, you could simply create an object with a custom ```toString``` (or ```valueOf```) function that changes what it returns each time it is used such that it satisfies all three conditions.
```
const a = {
i: 1,
toString: function () {
return a.i++;
}
}
if(a == 1 && a == 2 && a == 3) {
console.log('Hello World!');
}
```
The reason this works is due to the use of the loose equality operator. When using loose equality, if one of the operands is of a different type than the other, the engine will attempt to convert one to the other. In the case of an object on the left and a number on the right, it will attempt to convert the object to a number by first calling ```valueOf``` if it is callable, and failing that, it will call ```toString```. I used ```toString``` in this case simply because it's what came to mind, ```valueOf``` would make more sense. If I instead returned a string from ```toString```, the engine would have then attempted to convert the string to a number giving us the same end result, though with a slightly longer path. | Ist es überhaupt möglich, dass ``(a== 1 && a ==2 && a==3)`` in JavaScript als wahr ausgewertet werden kann? | Wenn Sie sich die Funktionsweise von == zunutze machen, können Sie einfach ein Objekt mit einer eigenen ``Zeichenfolge`` (oder ``Wertvon``) Funktion erstellen, die bei jeder Verwendung den Rückgabewert so ändert, dass alle drei Bedingungen erfüllt werden.
```
const a = {
i: 1,
toString: function () {
return a.i++;
}
}
if(a == 1 && a == 2 && a == 3) {
console.log('Hallo Welt!');
}
```
Der Grund dafür, dass dies funktioniert, liegt in der Verwendung des losen Gleichheitsoperators. Wenn bei der Verwendung von loser Gleichheit einer der Operanden von einem anderen Typ ist als der andere, versucht die Engine, den einen in den anderen umzuwandeln. Im Fall eines Objekts auf der linken Seite und einer Zahl auf der rechten Seite wird versucht, das Objekt in eine Zahl umzuwandeln, indem zuerst ```valueOf`` aufgerufen wird, wenn es aufrufbar ist, und wenn das nicht möglich ist, wird ```toString`` aufgerufen. Ich habe ```toString`` in diesem Fall verwendet, weil es mir einfach in den Sinn kam, ```valueOf`` würde mehr Sinn machen. Wenn ich stattdessen eine Zeichenkette von ```toString`` zurückgegeben hätte, hätte die Engine dann versucht, die Zeichenkette in eine Zahl umzuwandeln, was zum gleichen Ergebnis geführt hätte, allerdings mit einem etwas längeren Weg. | ¿Es posible que ```(a== 1 && a ==2 && a==3)`` se evalúe como verdadero en JavaScript? | Si aprovechas cómo funciona ==, podrías simplemente crear un objeto con una función ``toString`` (o ```valueOf``) personalizada que cambie lo que devuelve cada vez que se utiliza de forma que satisfaga las tres condiciones.
```
const a = {
i: 1,
toString: function () {
return a.i++;
}
}
if(a == 1 && a == 2 && a == 3) {
console.log('¡Hola Mundo!');
}
```
La razón de que esto funcione es el uso del operador de igualdad libre. Cuando se utiliza la igualdad suelta, si uno de los operandos es de un tipo diferente que el otro, el motor intentará convertir uno en el otro. En el caso de un objeto a la izquierda y un número a la derecha, intentará convertir el objeto en un número llamando primero a ```valueOf`` si se puede llamar, y si no, llamará a ```toString``. He usado ``toString`` en este caso simplemente porque es lo que me ha venido a la cabeza, ```valueOf`` tendría más sentido. Si en vez de eso hubiera devuelto una cadena desde ```toString``, el motor habría intentado convertir la cadena en un número dándonos el mismo resultado final, aunque con un camino un poco más largo. | Est-il possible que ``(a== 1 && a ==2 && a==3)`` évalue à true en JavaScript ? | Si vous tirez parti de la façon dont == fonctionne, vous pouvez simplement créer un objet avec une fonction personnalisée ``toString`` (ou ``valueOf``) qui modifie ce qu'elle renvoie à chaque fois qu'elle est utilisée, de façon à ce qu'elle remplisse les trois conditions.
```
const a = {
i : 1,
toString : function () {
return a.i++ ;
}
}
if(a == 1 && a == 2 && a == 3) {
console.log('Hello World!') ;
}
```
La raison pour laquelle cela fonctionne est due à l'utilisation de l'opérateur d'égalité libre. Lors de l'utilisation de l'égalité libre, si l'un des opérandes est d'un type différent de l'autre, le moteur tentera de convertir l'un en l'autre. Dans le cas d'un objet à gauche et d'un nombre à droite, il va essayer de convertir l'objet en nombre en appelant d'abord ``valueOf`` s'il peut être appelé, et à défaut, il appellera ``toString``. J'ai utilisé ``toString`` dans ce cas simplement parce que c'est ce qui m'est venu à l'esprit, ``valueOf`` aurait été plus logique. Si j'avais renvoyé une chaîne de caractères à partir de ``toString``, le moteur aurait alors essayé de convertir la chaîne en un nombre, ce qui aurait donné le même résultat final, mais avec un chemin légèrement plus long. | È mai possibile che ```(a==1 && a ==2 && a==3)``` possa essere valutato vero in JavaScript? | Se si sfrutta il funzionamento di ==, si può semplicemente creare un oggetto con una funzione ```toString`` (o ```valueOf``) personalizzata che cambia ciò che restituisce ogni volta che viene utilizzata, in modo da soddisfare tutte e tre le condizioni.
```
const a = {
i: 1,
toString: function () {
return a.i++;
}
}
if(a == 1 && a == 2 && a == 3) {
console.log('Hello World!');
}
```
Il motivo per cui funziona è l'uso dell'operatore di uguaglianza libera. Quando si usa l'uguaglianza libera, se uno degli operandi è di tipo diverso dall'altro, il motore cercherà di convertire l'uno nell'altro. Nel caso di un oggetto a sinistra e di un numero a destra, il motore cercherà di convertire l'oggetto in un numero chiamando prima ``valueOf`` se è richiamabile e, in caso contrario, chiamando ``toString``. Ho usato ```toString`` in questo caso semplicemente perché è quello che mi è venuto in mente, ```valueOf`` avrebbe avuto più senso. Se invece avessi restituito una stringa da ```toString``, il motore avrebbe tentato di convertire la stringa in un numero, ottenendo lo stesso risultato finale, anche se con un percorso leggermente più lungo. |
273 | Gostaria de saber qual é a real diferença entre o ```String``` (s maiúsculo) e o ```string``` (s minúsculo).
Aparentemente os dois têm os mesmos objetivos, porém qual é "melhor" para ser utilizado? | Já foi dito que ```string``` é apenas um alias para o tipo ```String```.
Para deixar claro, não há diferença em performance ou forma como o código é gerado. Há exatamente zero diferença no tratamento de ambas. Elas podem fazer as mesmas coisas, e todos os membros estão disponíveis em qualquer um deles, afinal assim se comporta um alias.
Diferenças úteis na utilização e escolha:
* ```string``` é apenas uma forma mais simples de usar o tipo ```String``` no C#, ou seja, ```string``` é a forma de "tipar" uma cadeia de caracteres no C# e ```String``` é um tipo do CLR. No C#, dependendo do contexto, é melhor usar uma ou outra forma. O tipo ```String``` presente no namespace ```System``` pode ser usado em qualquer linguagem que se utilize do CLR.
* ```string``` não pode ser usado com reflexão. ```String``` deve ser usado no lugar.
* ```String``` pode ser usado para criar outros aliases:
``` using str = System.String;
//...
str s = "Foi usado outro alias para string.";
// a variável 's' é do tipo System.String que é o mesmo que ser string
```
Mas esse é apenas um exemplo, não há necessidade e não é recomendado usar em código real. Existe sim casos que um alias pode ser útil, mas esse apenas dificulta a leitura para quem não está acostumado com isso, sem trazer nenhum benefício.
* Há alguns locais que ocorre o oposto e criar um alias pode trazer mais legibilidade ao código.
* Em outros casos pode ser apenas estranho usar um ou outro e dificultar a leitura.
* Na verdade o tipo ```String``` deve ser usado como ```System.String``` ou onde exista um ```using System```, enquanto que ```string``` pode ser usado em qualquer código que o compilador já entenderá.
* ```String``` pode ser usado como identificador válido. ```string``` é uma palavra reservada e não pode ser um identificador.
* Há uma diferença na forma como o syntax highlight apresenta ambos. Pois uma forma é tipo e a outra é palavra chave.
* Apesar da recomendação geral em usar ```string``` sempre que possível enquanto está programando em C#, há controvérsias no seu uso. Alguns alegam que ```String``` é preferencial para deixar claro, através do Pascal Case, que você está usando um tipo de referência(en).
Mas não faz muito sentido porque ```Int32``` é tipo de valor(en) e também usa PascalCase (ou lowerCamelCase). E ainda ele, apesar de ser tipo de referência, tem semântica de valor. Então mesmo que usasse a lógica de Pascal Case para tipo de referência, e Camel Case (ou (UpperCamelCase) para tipo de valor, pela semântica, que é o que importa, ele deveria ser Camel Case, ou seja, deveria começar com minúsculo mesmo.
No CLR o estilo de case é usado para ajudar determinar outras características do identificador.
* É possível substituir o tipo oficial por outro seu com mesmo nome se fizer tudo corretamente. O *alias *apontará para esse novo tipo que tem o mesmo nome e é colocado da mesma forma. Se ele não for exatamente o mesmo nome (incluindo o namespace) aí ele só pode ser usado opcionalmente o que quase inviabiliza o uso real.
Importante lembrar que ele é um tipo como outro qualquer por referência com semântica por valor e algumas facilidades que o compilador dá. O mesmo vale se usar ```String```.
Também vale lembrar que não existe tipo primitivo em C# (outra referência). Isso existe só como conceito do CLR, mesmo assim não como algo fundamental.
Importante notar que tudo isso é válido para o C#, outras linguagens como Java, ou até mesmo VB.NET podem ter mais diferenças.
* Documentação oficial do ```string``` dizendo que é um alias.
* FAQ reafirmando sobre aliases de tipos.
* ```System.String```.
Coloquei no GitHub para referência futura. | Ich würde gerne wissen, was der wirkliche Unterschied zwischen ``String`` (großes s) und ``string`` (kleines s) ist.
Offensichtlich erfüllen beide den gleichen Zweck, aber welcher ist "besser" zu verwenden? | Es wurde bereits gesagt, dass ``String`` nur ein Alias für den Typ ``String`` ist.
Um das klarzustellen, es gibt keinen Unterschied in der Leistung oder in der Art, wie der Code generiert wird. Es gibt genau null Unterschied in der Art und Weise, wie die beiden gehandhabt werden. Sie können die gleichen Dinge tun, und alle Mitglieder sind in beiden Typen verfügbar, denn so verhalten sich Aliase.
Nützliche Unterschiede in der Nutzung und Auswahl:
* ```String`` ist nur eine einfachere Art, den ``String``-Typ in C# zu verwenden, d.h. ```String`` ist der Weg, einen String in C# zu "typisieren" und ``String`` ist ein CLR-Typ. In C# ist es je nach Kontext besser, die eine oder die andere Form zu verwenden. Der ``String``-Typ im ``System``-Namensraum kann in jeder Sprache verwendet werden, die die CLR nutzt.
* ``String`` kann nicht mit Reflection verwendet werden, stattdessen muss ``String`` verwendet werden.
* ``String`` kann verwendet werden, um andere Aliase zu erzeugen:
``` using str = System.String;
//...
str s = "Ein anderer Alias für string wurde verwendet.";
// die Variable 's' ist vom Typ System.String, was dasselbe ist wie ein String
```
Aber dies ist nur ein Beispiel, es besteht keine Notwendigkeit und es wird nicht empfohlen, es in echtem Code zu verwenden. Es gibt Fälle, in denen ein Alias nützlich sein kann, aber das macht es für diejenigen, die es nicht gewohnt sind, nur schwieriger zu lesen, ohne irgendeinen Nutzen zu bringen.
* Es gibt einige Stellen, an denen das Gegenteil der Fall ist und die Erstellung eines Alias die Lesbarkeit des Codes verbessern kann.
* In anderen Fällen kann es einfach umständlich sein, das eine oder das andere zu verwenden, was die Lesbarkeit erschwert.
* In der Tat sollte der ``String``-Typ als ``System.String`` verwendet werden oder dort, wo es ein ``benutzendes System`` gibt, während ``string`` in jedem Code verwendet werden kann, den der Compiler bereits verstehen wird.
* ``String`` kann als gültiger Bezeichner verwendet werden. ``String`` ist ein reserviertes Wort und kann kein Bezeichner sein.
* Es gibt einen Unterschied in der Art und Weise, wie die Syntaxhervorhebung beide darstellt. Die eine Form ist ein Typ und die andere ein Schlüsselwort.
* Trotz der allgemeinen Empfehlung, wann immer möglich ``String`` bei der Programmierung in C# zu verwenden, gibt es eine Kontroverse über seine Verwendung. Einige behaupten, dass ``String`` vorzuziehen sei, um durch den Pascal Case deutlich zu machen, dass man einen Referenztyp(en) verwendet.
Aber das macht nicht viel Sinn, denn ``Int32`` ist ein Wertetyp (en) und verwendet ebenfalls PascalCase (oder lowerCamelCase). Und obwohl es ein Referenztyp ist, hat es eine Wertsemantik. Selbst wenn es also die Logik von PascalCase für den Referenztyp und CamelCase (oder UpperCamelCase) für den Werttyp verwendet, sollte es nach der Semantik, auf die es ankommt, CamelCase sein, d. h. es sollte mit Kleinbuchstaben beginnen.
In der CLR wird die Groß-/Kleinschreibung verwendet, um andere Merkmale des Bezeichners zu bestimmen.
* Sie können den offiziellen Typ durch einen eigenen mit demselben Namen ersetzen, wenn Sie alles richtig machen. Der *Alias * wird auf diesen neuen Typ verweisen, der denselben Namen hat und auf dieselbe Weise platziert ist. Wenn er nicht genau den gleichen Namen hat (einschließlich des Namensraums), kann er nur optional verwendet werden, was seine Verwendung fast unmöglich macht.
Es ist wichtig, sich daran zu erinnern, dass es ein Typ wie jeder andere ist, mit einer Semantik nach Wert und einigen Möglichkeiten, die der Compiler zur Verfügung stellt. Das gleiche gilt für die Verwendung von ``String``.
Es lohnt sich auch daran zu denken, dass es in C# keinen primitiven Typ gibt (eine weitere Referenz). Dieser existiert nur als Konzept in der CLR, aber nicht als etwas Grundlegendes.
Es ist wichtig zu beachten, dass all dies für C# gilt; andere Sprachen wie Java oder sogar VB.NET können mehr Unterschiede aufweisen.
* Offizielle ``string`` Dokumentation, die besagt, dass es ein Alias ist.
* FAQ, die das Typ-Aliasing bekräftigt.
* ``System.String``.
Ich habe es auf GitHub für zukünftige Referenzen abgelegt. | Me gustaría saber cuál es la diferencia real entre ``String`` (s mayúscula) y ``string`` (s minúscula).
Aparentemente ambos sirven para lo mismo, pero ¿cuál es "mejor" usar? | Ya se ha dicho que ``string`` es sólo un alias para el tipo ``String``.
Para ser claros, no hay ninguna diferencia en el rendimiento o la forma en que se genera el código. Hay exactamente cero diferencia en la forma en que los dos se manejan. Pueden hacer las mismas cosas, y todos los miembros están disponibles en cualquiera de ellos, después de todo, así es como se comportan los alias.
Diferencias útiles en la utilización y la elección:
* ```string`` es sólo una forma más sencilla de utilizar el tipo ``String`` en C#, es decir, ```string`` es la forma de "type" una cadena en C# y ``String`` es un tipo CLR. En C#, dependiendo del contexto, es mejor utilizar una forma u otra. El tipo ``String`` en el espacio de nombres ``System`` se puede utilizar en cualquier lenguaje que utilice el CLR.
* No se puede utilizar ``string`` con reflection. En su lugar se debe utilizar ``String``.
* Se puede usar ``String`` para crear otros alias:
``` using str = System.String;
//...
str s = "Se utilizó otro alias para string.";
// la variable 's' es de tipo System.String que es lo mismo que ser una cadena
```
Pero esto es sólo un ejemplo, no es necesario y no se recomienda usarlo en código real. Hay casos en los que un alias puede ser útil, pero esto sólo lo hace más difícil de leer para los que no están acostumbrados, sin aportar ningún beneficio.
* Hay algunos lugares donde ocurre lo contrario y crear un alias puede hacer el código más legible.
* En otros casos puede resultar incómodo usar uno u otro y dificultar la lectura.
* De hecho el tipo ``String`` debería usarse como ``System.String`` o donde haya un ``using System``, mientras que ``string`` puede usarse en cualquier código que el compilador ya entienda.
* ``String`` puede usarse como un identificador válido. ``String`` es una palabra reservada y no puede ser un identificador.
* Hay una diferencia en la forma en que el resaltado de sintaxis presenta a ambos. Una forma es un tipo y la otra es una palabra clave.
* A pesar de la recomendación general de utilizar ``string`` siempre que sea posible al programar en C#, existe controversia sobre su uso. Algunos afirman que ``String`` es preferible para dejar claro, a través del Caso Pascal, que estás usando un tipo de referencia(en).
Pero esto no tiene mucho sentido porque ``Int32`` es un tipo de valor(en) y también utiliza PascalCase (o lowerCamelCase). Y aunque es un tipo de referencia, tiene semántica de valor. Así que aunque usara la lógica de Pascal Case para tipo referencia, y Camel Case (o UpperCamelCase) para tipo valor, por semántica, que es lo que importa, debería ser Camel Case, es decir, debería empezar por minúscula.
En el CLR, el estilo case se utiliza para ayudar a determinar otras características del identificador.
*Puedes sustituir el tipo oficial por uno propio con el mismo nombre si lo haces todo correctamente. El *alias *apuntará a este nuevo tipo que tiene el mismo nombre y se coloca de la misma manera. Si no tiene exactamente el mismo nombre (incluyendo el espacio de nombres) entonces sólo se puede utilizar opcionalmente, lo que hace casi imposible su uso.
Es importante recordar que es un tipo como cualquier otro por referencia con semántica por valor y algunas facilidades que proporciona el compilador. Lo mismo ocurre con el uso de ``String``.
También vale la pena recordar que no existe un tipo primitivo en C# (otra referencia). Esto existe sólo como un concepto en el CLR, pero no como algo fundamental.
Es importante tener en cuenta que todo esto se aplica a C#; otros lenguajes como Java o incluso VB.NET pueden tener más diferencias.
* Documentación oficial de ``string`` afirmando que es un alias.
* FAQ reafirmando el tipo aliasing.
* ``System.String``.
Lo he puesto en GitHub para futuras referencias. | J'aimerais savoir quelle est la vraie différence entre ``String`` (s majuscule) et ``string`` (s minuscule).
Apparemment, ils servent tous les deux le même but, mais lequel est "meilleur" à utiliser ? | Il a déjà été dit que ``string`` est juste un alias pour le type ``String``.
Pour être clair, il n'y a aucune différence de performance ou de génération de code. Il n'y a exactement aucune différence dans la façon dont les deux types sont gérés. Ils peuvent faire les mêmes choses, et tous les membres sont disponibles dans l'un ou l'autre, après tout, c'est ainsi que les alias se comportent.
Des différences utiles en termes d'utilisation et de choix :
* ``string`` est juste une façon plus simple d'utiliser le type ``String`` en C#, c'est-à-dire que ``string`` est la façon de "taper" ; une chaîne en C# et ``String`` est un type CLR. En C#, selon le contexte, il est préférable d'utiliser l'une ou l'autre forme. Le type ``String`` de l'espace de noms ``System`` peut être utilisé dans n'importe quel langage utilisant le CLR.
* Le type ``string`` ne peut pas être utilisé avec reflection, il faut utiliser ``String`` à la place.
* ``String`` peut être utilisé pour créer d'autres alias :
```` using str = System.String ;
//...
str s = "Un autre alias pour string a été utilisé." ;
// la variable "s" est de type System.String, ce qui revient à dire qu'il s'agit d'une chaîne de caractères.
```
Mais ce n'est qu'un exemple, il n'est pas nécessaire et il n'est pas recommandé de l'utiliser dans le code réel. Il y a des cas où un alias peut être utile, mais cela ne fait que rendre le code plus difficile à lire pour ceux qui n'en ont pas l'habitude, sans apporter aucun avantage.
* Il y a des endroits où le contraire est vrai et où la création d'un alias peut rendre le code plus lisible.
* Dans d'autres cas, il peut être gênant d'utiliser l'un ou l'autre et de rendre le code plus difficile à lire.
* En fait, le type ``String`` devrait être utilisé comme ``System.String`` ou là où il y a un ``utilisateur System``, alors que ``string`` peut être utilisé dans n'importe quel code que le compilateur comprendra déjà.
* ``String`` peut être utilisé comme un identifiant valide. ``String`` est un mot réservé et ne peut pas être un identifiant.
* Il y a une différence dans la façon dont la coloration syntaxique présente les deux. Une forme est un type et l'autre est un mot-clé.
* Malgré la recommandation générale d'utiliser ``string`` chaque fois que possible lors de la programmation en C#, il y a une controverse sur son utilisation. Certains prétendent que ``String`` est préférable pour indiquer clairement, à travers le cas Pascal, que vous utilisez un type de référence (en).
Mais cela n'a pas beaucoup de sens car `Int32`` est un type valeur (en) et utilise aussi PascalCase (ou lowerCamelCase). Et même si c'est un type de référence, il a une sémantique de valeur. Donc, même s'il utilisait la logique de Pascal Case pour le type de référence, et Camel Case (ou UpperCamelCase) pour le type de valeur, selon la sémantique, qui est ce qui compte, il devrait être Camel Case, c'est-à-dire qu'il devrait commencer par une minuscule.
Dans le CLR, le style de casse est utilisé pour aider à déterminer d'autres caractéristiques de l'identifiant.
* Vous pouvez remplacer le type officiel par un type propre portant le même nom si vous faites tout correctement. L'*alias *pointera vers ce nouveau type qui porte le même nom et est placé de la même manière. Si le nom n'est pas exactement le même (y compris l'espace de noms), il ne peut être utilisé que de manière facultative, ce qui rend son utilisation presque impossible.
Il est important de se rappeler que c'est un type comme un autre par référence avec une sémantique par valeur et quelques facilités que le compilateur fournit. Il en va de même pour l'utilisation de ``String``.
Il faut aussi se rappeler qu'il n'y a pas de type primitif en C# (une autre référence). Cela n'existe que comme concept dans le CLR, mais pas comme quelque chose de fondamental.
Il est important de noter que tout ceci s'applique à C# ; d'autres langages tels que Java ou même VB.NET peuvent présenter plus de différences.
* La documentation officielle de ``string`` indique qu'il s'agit d'un alias.
* FAQ réaffirmant l'alias de type.
* ``System.String``.
Je l'ai mis sur GitHub pour référence future. | Vorrei sapere qual è la vera differenza tra ``Stringa'' (s maiuscola) e ``stringa'' (s minuscola).
Apparentemente entrambi servono allo stesso scopo, ma quale dei due è "migliore" da usare? | È già stato detto che ``stringa`` è solo un alias del tipo ``String``.
Per essere chiari, non c'è alcuna differenza nelle prestazioni o nel modo in cui viene generato il codice. C'è esattamente zero differenza nel modo in cui i due tipi vengono gestiti. Possono fare le stesse cose e tutti i membri sono disponibili in entrambi, dopo tutto è così che si comportano gli alias.
Differenze utili nell'utilizzo e nella scelta:
* ```stringa`` è solo un modo più semplice di usare il tipo ``String`` in C#, cioè ```stringa`` è il modo per "digitare" una stringa in C# e ``String`` è un tipo CLR. In C#, a seconda del contesto, è meglio usare una forma o l'altra. Il tipo ``String`` nello spazio dei nomi ``System`` può essere usato in qualsiasi linguaggio che utilizzi il CLR.
* ```stringa`` non può essere usata con reflection, al suo posto deve essere usata ```Stringa``.
* ``Stringa`` può essere usata per creare altri alias:
```` using str = System.String;
//...
str s = "È stato usato un altro alias per stringa.";
// la variabile 's' è di tipo System.String, che è la stessa cosa di una stringa
```
Ma questo è solo un esempio, non è necessario e non è consigliato usarlo nel codice reale. Ci sono casi in cui un alias può essere utile, ma questo rende solo più difficile la lettura per chi non è abituato, senza apportare alcun beneficio.
* Ci sono alcuni casi in cui è vero il contrario e la creazione di un alias può rendere il codice più leggibile.
* In altri casi può essere scomodo usare l'uno o l'altro e rendere più difficile la lettura.
* In effetti, il tipo ``Stringa'' dovrebbe essere usato come ``System.String`` o dove c'è un ``utilizzo di System``, mentre ``stringa`` può essere usato in qualsiasi codice che il compilatore capirà già.
* ``Stringa`` può essere usata come identificatore valido. ``Stringa`` è una parola riservata e non può essere un identificatore.
* C'è una differenza nel modo in cui l'evidenziazione della sintassi presenta entrambi. Una forma è un tipo e l'altra è una parola chiave.
* Nonostante la raccomandazione generale di usare ``stringa'' ogni volta che è possibile programmare in C#, c'è una controversia sul suo uso. Alcuni sostengono che ``String`` sia preferibile per chiarire, attraverso il caso Pascal, che si sta usando un tipo di riferimento.
Ma questo non ha molto senso, perché ``Int32`` è un tipo di valore (en) e usa anche PascalCase (o lowerCamelCase). E anche se è un tipo di riferimento, ha una semantica di valore. Quindi, anche se usasse la logica del Pascal Case per il tipo di riferimento e del Camel Case (o UpperCamelCase) per il tipo di valore, per la semantica, che è quella che conta, dovrebbe essere Camel Case, cioè dovrebbe iniziare con la minuscola.
Nel CLR, lo stile delle maiuscole viene utilizzato per aiutare a determinare altre caratteristiche dell'identificatore.
* È possibile sostituire il tipo ufficiale con uno proprio con lo stesso nome, se si esegue tutto correttamente. L'*alias *punta a questo nuovo tipo, che ha lo stesso nome ed è posizionato nello stesso modo. Se non ha esattamente lo stesso nome (compreso lo spazio dei nomi), può essere usato solo opzionalmente, il che rende quasi impossibile usarlo.
È importante ricordare che si tratta di un tipo come un altro per riferimento, con una semantica per valore e alcune facilitazioni fornite dal compilatore. Lo stesso vale per l'uso di ``Stringa''.
Vale anche la pena ricordare che in C# non esiste un tipo primitivo (un altro riferimento). Questo esiste solo come concetto nel CLR, ma non come qualcosa di fondamentale.
È importante notare che tutto questo si applica a C#; altri linguaggi, come Java o VB.NET, possono presentare maggiori differenze.
* Documentazione ufficiale di ``stringa'' che afferma che si tratta di un alias.
* FAQ che ribadiscono l'alias di tipo.
* ``System.String``.
L'ho messo su GitHub per riferimento futuro. |
274 | I'm working on a project solo and have to maintain my own code. Usually code review is done not by the code author, so the reviewer can look at the code with the fresh eyes — however, I don't have such luxury. What practices can I employ to more effectively review my own code? | First of all, make use of tools to check as much as you can. Tests (backed up with some reasonable code coverage) will give you some confidence of the correctness of the code. Static analysis tools can catch a lot of best practice things. There will always be issues that you need human eyes on to determine though and you will never do as good a job reviewing your own stuff as someone else, there are some things you can do to help however
* Check tests exist and pass (possibly have a target test coverage, though you may need to break this in certain cases, but you should be able to justify why)
* Check Static analysis passes (there will also be false negatives here but that is fine as long as you can justify why then its fine to suppress them)
* Maintain a check list of further things to check in review (ideally add this as new static analysis rules if possible) make sure you check anything the SA can't check, e.g., are comments still valid, are things named appropriately (naming things is of course, one of the 2 hard problems known to computer science)
* If a fault is identified check if the cause is systemic and look at why it wasn't found in earlier tests or reviews
This of course is useful when you are reviewing others code as well | Ich arbeite alleine an einem Projekt und muss meinen eigenen Code pflegen. Normalerweise wird die Überprüfung des Codes nicht vom Autor des Codes durchgeführt, so dass der Prüfer den Code mit frischen Augen betrachten kann - diesen Luxus habe ich jedoch nicht. Welche Praktiken kann ich anwenden, um meinen eigenen Code effektiver zu überprüfen? | Nutzen Sie vor allem Tools, um so viel wie möglich zu überprüfen. Tests (unterstützt durch eine vernünftige Codeabdeckung) geben Ihnen ein gewisses Vertrauen in die Korrektheit des Codes. Statische Analysewerkzeuge können viele Best-Practice-Fragen aufdecken. Es wird immer Probleme geben, die man mit den Augen eines Menschen erkennen muss, und Sie werden Ihre eigenen Sachen nie so gut überprüfen können wie jemand anderes.
* Überprüfen Sie, ob Tests vorhanden sind und bestehen (möglicherweise haben Sie eine Ziel-Testabdeckung, obwohl Sie diese in bestimmten Fällen brechen müssen, aber Sie sollten in der Lage sein zu begründen, warum)
* Prüfen Sie, ob die statische Analyse funktioniert (auch hier wird es falsch-negative Ergebnisse geben, aber das ist in Ordnung, solange Sie begründen können, warum sie unterdrückt werden können).
* Stellen Sie sicher, dass Sie alles prüfen, was die statische Analyse nicht prüfen kann, z.B. ob Kommentare noch gültig sind, ob die Dinge richtig benannt sind (die Benennung von Dingen ist natürlich eines der zwei schwierigsten Probleme der Informatik).
* Wenn ein Fehler identifiziert wird, prüfen Sie, ob die Ursache systemisch ist, und untersuchen Sie, warum er bei früheren Tests oder Überprüfungen nicht gefunden wurde.
Dies ist natürlich auch nützlich, wenn Sie den Code anderer überprüfen. | Estoy trabajando en un proyecto en solitario y tengo que mantener mi propio código. Normalmente, la revisión del código no la realiza el autor del código, por lo que el revisor puede mirar el código con ojos nuevos; sin embargo, yo no puedo permitirme ese lujo. ¿Qué prácticas puedo emplear para revisar más eficazmente mi propio código? | En primer lugar, utiliza herramientas para comprobar todo lo que puedas. Las pruebas (respaldadas por una cobertura de código razonable) te darán cierta seguridad sobre la corrección del código. Las herramientas de análisis estático pueden detectar muchas de las mejores prácticas. Sin embargo, siempre habrá problemas que necesitarás ojos humanos para determinar y nunca harás un trabajo tan bueno revisando tu propio material como el de otra persona, aunque hay algunas cosas que puedes hacer para ayudar
* Comprobar que las pruebas existen y pasan (posiblemente tener un objetivo de cobertura de pruebas, aunque puede que necesites romperlo en ciertos casos, pero deberías ser capaz de justificar por qué).
* Comprobar que el análisis estático pasa (también habrá falsos negativos aquí, pero eso está bien, siempre y cuando puedas justificar por qué, entonces está bien suprimirlos).
* Mantenga una lista de comprobación de otras cosas a comprobar en la revisión (idealmente añada esto como nuevas reglas de análisis estático si es posible) asegúrese de comprobar cualquier cosa que el SA no pueda comprobar, por ejemplo, si los comentarios siguen siendo válidos, si las cosas se nombran apropiadamente (nombrar las cosas es, por supuesto, uno de los 2 problemas más difíciles conocidos por las ciencias de la computación).
* Si se identifica un fallo, compruebe si la causa es sistémica y por qué no se encontró en pruebas o revisiones anteriores.
Por supuesto, esto también es útil cuando se revisa el código de otros. | Je travaille sur un projet en solo et je dois maintenir mon propre code. Habituellement, la révision du code n'est pas effectuée par l'auteur du code, de sorte que le réviseur peut regarder le code avec un œil neuf - cependant, je n'ai pas ce luxe. Quelles pratiques puis-je employer pour réviser plus efficacement mon propre code ? | Tout d'abord, utilisez des outils pour vérifier autant que possible. Les tests (soutenus par une couverture raisonnable du code) vous donneront une certaine assurance quant à l'exactitude du code. Les outils d'analyse statique peuvent détecter un grand nombre de bonnes pratiques. Il y aura toujours des problèmes que vous aurez besoin d'un œil humain pour déterminer et vous ne ferez jamais un aussi bon travail de révision que quelqu'un d'autre, mais il y a certaines choses que vous pouvez faire pour vous aider
* Vérifier que les tests existent et réussissent (éventuellement avoir une couverture de test cible, bien que vous puissiez avoir besoin de l'enfreindre dans certains cas, mais vous devriez être en mesure de justifier pourquoi).
* Vérifier que l'analyse statique est réussie (il y aura aussi des faux négatifs, mais cela ne pose pas de problème tant que vous pouvez en justifier la raison).
* Maintenir une liste de contrôle des éléments supplémentaires à vérifier lors de la révision (idéalement, ajoutez-les en tant que nouvelles règles d'analyse statique si possible) assurez-vous de vérifier tout ce que l'AS ne peut pas vérifier, par exemple, les commentaires sont-ils toujours valides, les choses sont-elles nommées de manière appropriée (nommer les choses est bien sûr l'un des deux problèmes les plus difficiles que connaisse l'informatique).
* Si un défaut est identifié, vérifiez si la cause est systémique et cherchez à savoir pourquoi elle n'a pas été trouvée lors de tests ou d'examens antérieurs.
Ceci est bien sûr utile lorsque vous révisez le code d'autres personnes. | Sto lavorando a un progetto da solo e devo mantenere il mio codice. Di solito la revisione del codice non viene fatta dall'autore del codice, in modo che il revisore possa guardare il codice con occhi nuovi, ma io non ho questo lusso. Quali pratiche posso adottare per rivedere in modo più efficace il mio codice? | Prima di tutto, utilizzate gli strumenti per verificare quanto più possibile. I test (supportati da una ragionevole copertura del codice) vi daranno una certa sicurezza sulla correttezza del codice. Gli strumenti di analisi statica possono individuare molte delle migliori pratiche. Tuttavia, ci saranno sempre problemi che dovranno essere risolti da occhi umani e non riuscirete mai a fare un buon lavoro di revisione del vostro materiale come quello di qualcun altro.
* Controllare che i test esistano e passino (possibilmente avere un obiettivo di copertura dei test, anche se in alcuni casi potrebbe essere necessario infrangerlo, ma dovreste essere in grado di giustificarne il motivo).
* Controllare che l'analisi statica passi (anche in questo caso ci saranno dei falsi negativi, ma va bene, purché se ne possa giustificare il motivo, allora va bene sopprimerli).
* Mantenere una check list di ulteriori cose da controllare in fase di revisione (idealmente aggiungerla come nuove regole di analisi statica, se possibile) assicurarsi di controllare tutto ciò che la SA non può controllare, ad esempio se i commenti sono ancora validi, se le cose sono denominate in modo appropriato (la denominazione delle cose è, ovviamente, uno dei 2 problemi più difficili conosciuti dall'informatica).
* Se viene identificato un errore, verificare se la causa è sistemica e capire perché non è stata trovata nei test o nelle revisioni precedenti.
Questo ovviamente è utile anche quando si revisiona il codice di altri. |
275 | Assume an environment with a puppet-managed cluster of different servers - various hardware, software, operating systems, virtual/dedicated, etc.
Would you choose meaningful hostnames (mysqlmaster01..99, mysqlslave001..999, vpnprimary, vpnbackup, etc.) or would you prefer meaningless hostnames such as characters from a book or movie?
The problem I see with meaningful hostnames is that names usually represent a single service and if a server has more than one purpose it gets really messy (especially if server roles change often).
Isn't mapping a service name to an IP address and maintaining that mapping what DNS is supposed to do?
What are the advantages and drawbacks of both approaches and what actual problems have you had to tackle with the approach you chose? | This largely comes down to whether your servers are ```pets``` or ```livestock```.
Pets get individual names. They're distinct from each other, and we care about those differences. When one gets sick, we usually try to nurse it back to health. Traditionally, servers have been pets.
Livestock get numbers. They're mostly identical, and what differences there are, we don't care about and usually try to minimize. When one gets sick, we put it down and get another one. Fully virtualized servers, especially IaaS servers such as AWS, are livestock.
In most complex environments, you have a mix. Your web backends, for instance, are almost certainly livestock. If you need more, you spin up a few more with the standard config; if you don't need as many you turn some off. Your database servers, in some configurations, are pets. There may be a lot of special setup on each; you may even be running them on bare metal instead of virtualization.
Of course, in either environment, you can name SERVICES and address those directly. This is a best practice in any case; your developers shouldn't need to know or care what the actual hostname of a service is. The hostname should be a purely operational detail. Think, then, of encoding information that is useful to your ops staff in the hostnames - for instance, it's often helpful to denote which datacenter a server is in. | Nehmen wir eine Umgebung mit einem von Puppet verwalteten Cluster aus verschiedenen Servern an - verschiedene Hardware, Software, Betriebssysteme, virtuell/dediziert usw.
Würden Sie sinnvolle Hostnamen wählen (mysqlmaster01..99, mysqlslave001..999, vpnprimary, vpnbackup, etc.) oder würden Sie bedeutungslose Hostnamen bevorzugen, wie z.B. Figuren aus einem Buch oder Film?
Das Problem, das ich bei aussagekräftigen Hostnamen sehe, ist, dass die Namen in der Regel für einen einzigen Dienst stehen, und wenn ein Server mehr als einen Zweck hat, wird es sehr unübersichtlich (vor allem, wenn die Serverrollen häufig wechseln).
Ist es nicht die Aufgabe von DNS, einen Dienstnamen einer IP-Adresse zuzuordnen und diese Zuordnung beizubehalten?
Was sind die Vor- und Nachteile beider Ansätze und welche konkreten Probleme hatten Sie mit dem von Ihnen gewählten Ansatz zu bewältigen? | Dies hängt weitgehend davon ab, ob es sich bei Ihren Servern um ``Haustiere`` oder um ``Lebewesen`` handelt.
Haustiere bekommen individuelle Namen. Sie unterscheiden sich voneinander, und diese Unterschiede sind uns wichtig. Wenn ein Tier krank wird, versuchen wir normalerweise, es wieder gesund zu pflegen. Traditionell waren Diener Haustiere.
Nutztiere bekommen Nummern. Sie sind größtenteils identisch, und die Unterschiede, die es gibt, sind uns egal und wir versuchen, sie zu minimieren. Wenn einer krank wird, wird er eingeschläfert und ein neuer angeschafft. Vollständig virtualisierte Server, insbesondere IaaS-Server wie AWS, sind Nutztiere.
In den meisten komplexen Umgebungen haben Sie eine Mischung. Ihre Web-Backends zum Beispiel sind mit ziemlicher Sicherheit Nutztiere. Wenn Sie mehr benötigen, schalten Sie mit der Standardkonfiguration ein paar mehr auf; wenn Sie nicht so viele benötigen, schalten Sie einige aus. Ihre Datenbankserver sind in manchen Konfigurationen Haustiere. Es kann sein, dass es auf jedem eine Menge spezieller Einstellungen gibt; vielleicht betreiben Sie sie sogar auf Bare Metal statt auf Virtualisierung.
Natürlich können Sie in beiden Umgebungen SERVICES benennen und diese direkt ansprechen. Dies ist in jedem Fall eine bewährte Vorgehensweise; Ihre Entwickler sollten nicht wissen oder sich darum kümmern müssen, wie der tatsächliche Hostname eines Dienstes lautet. Der Hostname sollte ein rein operatives Detail sein. Denken Sie also daran, Informationen, die für Ihr Betriebspersonal nützlich sind, in den Hostnamen zu kodieren - zum Beispiel ist es oft hilfreich, anzugeben, in welchem Rechenzentrum sich ein Server befindet. | Supongamos un entorno con un clúster gestionado por títeres de diferentes servidores - varios hardware, software, sistemas operativos, virtuales/dedicados, etc.
¿Escogerías nombres de host con sentido (mysqlmaster01..99, mysqlslave001..999, vpnprimary, vpnbackup, etc.) o preferirías nombres de host sin sentido como personajes de un libro o película?
El problema que veo con los nombres de host significativos es que los nombres normalmente representan un único servicio y si un servidor tiene más de un propósito se vuelve realmente complicado (especialmente si los roles del servidor cambian a menudo).
¿No es el mapeo de un nombre de servicio a una dirección IP y el mantenimiento de ese mapeo lo que se supone que debe hacer DNS?
¿Cuáles son las ventajas y los inconvenientes de ambos enfoques y qué problemas reales has tenido que abordar con el enfoque que elegiste? | Esto depende en gran medida de si sus servidores son ``mascotas`` o ``ganado``.
Las mascotas tienen nombres individuales. Son distintas entre sí, y nos preocupamos por esas diferencias. Cuando una enferma, intentamos cuidarla para que se recupere. Tradicionalmente, los servidores han sido animales de compañía.
El ganado tiene números. Son casi idénticos, y las diferencias que hay no nos importan y normalmente intentamos minimizarlas. Cuando uno enferma, lo sacrificamos y compramos otro. Los servidores totalmente virtualizados, especialmente los servidores IaaS como AWS, son ganado.
En la mayoría de los entornos complejos, hay una mezcla. Sus backends web, por ejemplo, son casi con toda seguridad ganado. Si se necesitan más, se ponen en marcha algunos más con la configuración estándar; si no se necesitan tantos, se desactivan algunos. Tus servidores de bases de datos, en algunas configuraciones, son mascotas. Puede que haya una gran cantidad de configuración especial en cada uno; incluso puede que los estés ejecutando en metal desnudo en lugar de virtualización.
Por supuesto, en cualquier entorno, puedes nombrar los SERVICIOS y tratarlos directamente. Esta es la mejor práctica en cualquier caso; tus desarrolladores no deberían necesitar saber o preocuparse por el nombre real del host de un servicio. El nombre de host debería ser un detalle puramente operativo. Piensa, entonces, en codificar información que sea útil para tu personal de operaciones en los nombres de host - por ejemplo, a menudo es útil denotar en qué centro de datos se encuentra un servidor. | Supposons un environnement avec une grappe de serveurs différents gérés par Puppet - divers matériels, logiciels, systèmes d'exploitation, virtuels/dédiés, etc.
Choisiriez-vous des noms d'hôtes significatifs (mysqlmaster01..99, mysqlslave001..999, vpnprimary, vpnbackup, etc.) ou préféreriez-vous des noms d'hôtes sans signification comme les personnages d'un livre ou d'un film ?
Le problème que je vois avec les noms d'hôtes significatifs est que les noms représentent généralement un seul service et si un serveur a plus d'un but, cela devient vraiment désordonné (surtout si les rôles des serveurs changent souvent).
Le mappage d'un nom de service à une adresse IP et le maintien de ce mappage n'est-il pas ce que le DNS est censé faire ?
Quels sont les avantages et les inconvénients des deux approches et quels sont les problèmes réels auxquels vous avez dû faire face avec l'approche que vous avez choisie ? | La question est de savoir si vos serveurs sont des "animaux de compagnie" ou du "bétail".
Les animaux ont des noms individuels. Ils sont différents les uns des autres, et nous nous soucions de ces différences. Lorsque l'un d'entre eux tombe malade, nous essayons généralement de le soigner. Traditionnellement, les serveurs sont des animaux de compagnie.
Les animaux d'élevage sont numérotés. Ils sont pour la plupart identiques, et les différences qu'ils présentent ne nous intéressent pas et nous essayons généralement de les minimiser. Lorsque l'un d'entre eux tombe malade, nous l'abattons et en achetons un autre. Les serveurs entièrement virtualisés, en particulier les serveurs IaaS tels qu'AWS, sont des animaux de rente.
Dans la plupart des environnements complexes, vous avez un mélange. Vos backends web, par exemple, sont presque certainement du bétail. Si vous en avez besoin de plus, vous en mettez quelques uns de plus avec la configuration standard ; si vous n'en avez pas besoin d'autant, vous en désactivez certains. Vos serveurs de base de données, dans certaines configurations, sont des animaux de compagnie. Chacun d'entre eux peut faire l'objet d'une configuration particulière ; il se peut même que vous les fassiez tourner sur du métal nu au lieu de les virtualiser.
Bien entendu, dans l'un ou l'autre environnement, vous pouvez nommer les SERVICES et vous y attaquer directement. C'est une bonne pratique dans tous les cas ; vos développeurs ne devraient pas avoir besoin de connaître ou de se soucier du nom d'hôte réel d'un service. Le nom d'hôte doit être un détail purement opérationnel. Pensez donc à encoder les informations utiles à votre personnel d'exploitation dans les noms d'hôtes - par exemple, il est souvent utile d'indiquer dans quel centre de données se trouve un serveur. | Si ipotizzi un ambiente con un cluster gestito da puppet di diversi server - vari hardware, software, sistemi operativi, virtuali/dedicati, ecc.
Scegliereste nomi di host significativi (mysqlmaster01..99, mysqlslave001..999, vpnprimary, vpnbackup, ecc.) o preferireste nomi di host senza significato, come i personaggi di un libro o di un film?
Il problema che vedo con i nomi di host significativi è che i nomi di solito rappresentano un singolo servizio e se un server ha più di uno scopo diventa davvero disordinato (specialmente se i ruoli dei server cambiano spesso).
Il mappaggio di un nome di servizio a un indirizzo IP e il mantenimento di tale mappaggio non sono forse il compito del DNS?
Quali sono i vantaggi e gli svantaggi di entrambi gli approcci e quali problemi reali avete dovuto affrontare con l'approccio che avete scelto? | Questo dipende in gran parte dal fatto che i vostri server siano ``animali domestici`` o ``animali da reddito``.
Gli animali domestici hanno nomi individuali. Sono distinti l'uno dall'altro e noi ci teniamo a queste differenze. Quando uno di loro si ammala, di solito cerchiamo di curarlo per farlo tornare in salute. Tradizionalmente, i server sono stati animali domestici.
Il bestiame ha un numero. Sono per lo più identici e le differenze che ci sono non ci interessano e di solito cerchiamo di ridurle al minimo. Quando uno si ammala, lo abbattiamo e ne prendiamo un altro. I server completamente virtualizzati, soprattutto quelli IaaS come AWS, sono bestiame.
Nella maggior parte degli ambienti complessi, c'è un mix. I backend web, ad esempio, sono quasi certamente bestiame. Se ne servono di più, se ne avviano altri con la configurazione standard; se non ne servono altrettanti, se ne spengono alcuni. I server di database, in alcune configurazioni, sono animali domestici. Potrebbero esserci molte configurazioni speciali su ognuno di essi; potrebbero anche essere eseguiti su metallo nudo invece che su virtualizzazione.
Naturalmente, in entrambi gli ambienti, è possibile nominare i SERVIZI e affrontarli direttamente. Questa è una buona pratica in ogni caso; gli sviluppatori non dovrebbero avere bisogno di sapere o preoccuparsi di quale sia l'effettivo nome dell'host di un servizio. Il nome dell'host dovrebbe essere un dettaglio puramente operativo. Pensate quindi di codificare nei nomi di host le informazioni utili per il personale operativo: ad esempio, è spesso utile indicare in quale datacenter si trova un server. |
276 | Best way to start investing, for a young person just starting their career? | First off, I highly recommend the book Get a Financial Life. The basics of personal finance and money management are pretty straightforward, and this book does a great job with it. It is very light reading, and it really geared for the young person starting their career.
Now, with that out of the way, there's really two kinds of "investing" to think about:
1. Retirement (401k, IRA, SIMPLE, etc)
2. Non-Retirement (Brokerage account, investing in individual stocks, day trading, etc)
For most individuals, it is best to take care of #1 first. Most people shouldn't even think about #2 until they have fully funded their retirement accounts, established an emergency fund, and gotten their debt under control.
There are lots of financial incentives for retirement investing, both from your employer, and the government. All the more reason to take care of #1 before #2!
Your employer probably offers some kind of 401k (or equivalent, like a 403b) with a company-provided match. This is a potential 100% return on your investment after the vesting period. No investment you make on your own will ever match that. Additionally, there are tax advantages to contributing to the 401k. (The money you contribute doesn't count as taxable income.)
***The best way to start investing is to learn about your employer's retirement plan, and contribute enough to fully utilize the employer matching.***
Beyond this, there are also Individual Retirement Accounts (IRAs) you can open to contribute money to on your own. You should open one of these and start contributing, but only after you have fully utilized the employer matching with the 401k. The IRA won't give you that 100% ROI that the 401k will.
Keep in mind that retirement investments are pretty much "walled off" from your day-to-day financial life. Money that goes into a retirement account generally can't be touched until retirement age, unless you want to pay lots of taxes and penalties. You generally don't want to put the money for your house down payment into a retirement account.
One other thing to note: Your 401K and your IRA is an account that you put money into. Just because the money is sitting in the account doesn't necessarily mean it is invested. You put the money into this account, and then you use this money for investments. How you invest the retirement money is a topic unto itself. Here is a good starting point. | Was ist der beste Einstieg in die Geldanlage für einen jungen Menschen, der gerade seine Karriere beginnt? | Zunächst einmal kann ich das Buch Get a Financial Life sehr empfehlen. Die Grundlagen der persönlichen Finanzen und des Geldmanagements sind ziemlich einfach, und dieses Buch leistet dabei gute Arbeit. Es ist eine sehr leichte Lektüre und richtet sich wirklich an junge Menschen, die ihre Karriere beginnen.
Nun, nachdem das geklärt ist, gibt es zwei Arten von "Investitionen", über die man nachdenken sollte:
1. Ruhestand (401k, IRA, SIMPLE, usw.)
2. Nicht-Ruhestand (Maklerkonto, Investitionen in einzelne Aktien, Daytrading usw.)
Für die meisten Menschen ist es am besten, sich zuerst um Nr. 1 zu kümmern. Die meisten Menschen sollten erst dann über Nr. 2 nachdenken, wenn sie ihre Rentenkonten vollständig gefüllt, einen Notfallfonds eingerichtet und ihre Schulden unter Kontrolle gebracht haben.
Es gibt viele finanzielle Anreize für Investitionen in die Altersvorsorge, sowohl von Ihrem Arbeitgeber als auch von der Regierung. Ein Grund mehr, sich um die Nummer 1 vor der Nummer 2 zu kümmern!
Ihr Arbeitgeber bietet wahrscheinlich eine Art von 401k (oder ein Äquivalent, wie z. B. ein 403b) mit einem vom Unternehmen bereitgestellten Zuschuss an. Dies bedeutet eine potenzielle 100 %ige Rendite auf Ihre Investition nach Ablauf der Sperrfrist. Keine Investition, die Sie aus eigener Kraft tätigen, wird das jemals erreichen. Darüber hinaus haben Sie steuerliche Vorteile, wenn Sie in die 401k einzahlen (das Geld, das Sie einzahlen, zählt nicht als steuerpflichtiges Einkommen).
***Der beste Weg, um mit dem Investieren zu beginnen, ist, sich über den Rentenplan Ihres Arbeitgebers zu informieren und so viel einzuzahlen, dass Sie die vom Arbeitgeber gezahlten Beiträge voll ausschöpfen können.***
Darüber hinaus gibt es auch individuelle Rentenkonten (Individual Retirement Accounts, IRA), in die Sie selbst Geld einzahlen können. Sie sollten eines dieser Konten eröffnen und mit den Beiträgen beginnen, aber erst, wenn Sie die Arbeitgeberbeiträge für den 401k-Plan vollständig ausgeschöpft haben. Die IRA bietet Ihnen nicht die 100 %ige Rendite, die die 401k bietet.
Denken Sie daran, dass Investitionen in die Altersvorsorge von Ihrem täglichen Finanzleben ziemlich abgeschottet sind. Geld, das auf ein Rentenkonto eingezahlt wird, kann im Allgemeinen bis zum Rentenalter nicht angefasst werden, es sei denn, Sie wollen viele Steuern und Strafen zahlen. Im Allgemeinen sollten Sie das Geld für die Anzahlung auf Ihr Haus nicht auf ein Rentenkonto einzahlen.
Und noch etwas: Ihre 401K und Ihre IRA sind Konten, auf die Sie Geld einzahlen. Nur weil das Geld auf dem Konto liegt, bedeutet das nicht unbedingt, dass es investiert ist. Sie zahlen das Geld auf dieses Konto ein und verwenden es dann für Investitionen. Wie Sie das Geld für den Ruhestand anlegen, ist ein Thema für sich. Hier ist ein guter Ansatzpunkt. | ¿Cuál es la mejor manera de empezar a invertir para un joven que empieza su carrera? | En primer lugar, recomiendo encarecidamente el libro Get a Financial Life. Los fundamentos de las finanzas personales y la gestión del dinero son bastante sencillos, y este libro hace un gran trabajo al respecto. Es una lectura muy ligera y está realmente dirigido a los jóvenes que empiezan su carrera profesional.
Una vez aclarado esto, hay que pensar en dos tipos de "inversión":
1. 1. Jubilación (401k, IRA, SIMPLE, etc.)
2. 2. No jubilación (cuenta de corretaje, inversión en acciones individuales, day trading, etc.).
Para la mayoría de las personas, lo mejor es ocuparse primero de la primera opción. La mayoría de las personas ni siquiera deberían pensar en el nº 2 hasta que hayan financiado completamente sus cuentas de jubilación, establecido un fondo de emergencia y controlado su deuda.
Hay muchos incentivos financieros para invertir en la jubilación, tanto por parte de la empresa como del gobierno. Razón de más para ocuparse del nº 1 antes que del nº 2.
Es probable que tu empresa ofrezca algún tipo de plan 401k (o equivalente, como un 403b) con una aportación de la empresa. Se trata de un rendimiento potencial del 100% de tu inversión una vez transcurrido el periodo de carencia. Ninguna inversión que hagas por tu cuenta podrá igualarlo. Además, contribuir al 401k tiene ventajas fiscales (el dinero que aportes no cuenta como renta imponible).
***La mejor manera de empezar a invertir es informarse sobre el plan de jubilación de su empresa y contribuir lo suficiente para aprovechar al máximo la aportación del empleador.
Además, existen cuentas individuales de jubilación (IRA) que puede abrir para aportar dinero por su cuenta. Debería abrir una de estas cuentas y empezar a contribuir, pero sólo después de haber utilizado completamente la aportación del empleador con el 401k. La cuenta IRA no le proporcionará el 100% de rentabilidad que le ofrece el 401k.
Tenga en cuenta que las inversiones para la jubilación están prácticamente "aisladas" de su vida financiera diaria. Por lo general, el dinero que se ingresa en una cuenta de jubilación no se puede tocar hasta la edad de jubilación, a menos que quieras pagar muchos impuestos y penalizaciones. Por lo general, no es aconsejable depositar el dinero para el pago inicial de la casa en una cuenta de jubilación.
Otra cosa a tener en cuenta: Su 401K y su IRA es una cuenta en la que usted pone dinero. El hecho de que el dinero esté en la cuenta no significa necesariamente que esté invertido. Usted ingresa el dinero en la cuenta y luego lo utiliza para invertir. Cómo invertir el dinero de la jubilación es un tema aparte. He aquí un buen punto de partida. | Quelle est la meilleure façon de commencer à investir pour un jeune qui débute sa carrière ? | Tout d'abord, je recommande vivement le livre Get a Financial Life. Les bases des finances personnelles et de la gestion de l'argent sont assez simples, et ce livre fait un excellent travail à cet égard. Il s'agit d'une lecture très légère, destinée aux jeunes qui débutent leur carrière.
Ceci étant dit, il y a deux types d'"investissements" à considérer :
1. La retraite (401k, IRA, SIMPLE, etc.)
2. Hors retraite (compte de courtage, investissement dans des actions individuelles, day trading, etc.)
Pour la plupart des individus, il est préférable de s'occuper d'abord de la première étape. La plupart des gens ne devraient même pas penser à la deuxième étape tant qu'ils n'ont pas entièrement financé leurs comptes de retraite, constitué un fonds d'urgence et maîtrisé leurs dettes.
Il existe de nombreuses incitations financières à investir dans la retraite, tant de la part de votre employeur que de l'État. Raison de plus pour s'occuper du n° 1 avant le n° 2 !
Votre employeur propose probablement une sorte de 401k (ou équivalent, comme un 403b) avec une contrepartie fournie par l'entreprise. Il s'agit d'un retour potentiel de 100 % sur votre investissement après la période d'acquisition des droits. Aucun investissement que vous réalisez seul ne pourra jamais égaler cette somme. En outre, il y a des avantages fiscaux à contribuer au 401k (l'argent que vous contribuez n'est pas considéré comme un revenu imposable).
***La meilleure façon de commencer à investir est de se renseigner sur le plan de retraite de votre employeur et de cotiser suffisamment pour utiliser pleinement l'abondement de l'employeur.
En outre, il existe des comptes de retraite individuels (IRA) que vous pouvez ouvrir pour y verser de l'argent à titre personnel. Vous devriez ouvrir l'un de ces comptes et commencer à cotiser, mais seulement après avoir pleinement utilisé l'abondement de l'employeur avec le 401k. L'IRA ne vous donnera pas ce retour sur investissement de 100% que le 401k vous donnera.
Gardez à l'esprit que les investissements de retraite sont pratiquement "isolés" de votre vie financière quotidienne. L'argent placé sur un compte de retraite ne peut généralement pas être touché avant l'âge de la retraite, à moins que vous ne souhaitiez payer beaucoup d'impôts et de pénalités. En règle générale, il n'est pas souhaitable de placer l'argent du versement initial de votre maison sur un compte de retraite.
Une autre chose à noter : votre 401K et votre IRA sont des comptes sur lesquels vous placez de l'argent. Ce n'est pas parce que l'argent se trouve sur le compte qu'il est nécessairement investi. Vous placez l'argent sur ce compte, puis vous l'utilisez pour des investissements. La manière dont vous investissez l'argent de la retraite est un sujet à part entière. Voici un bon point de départ. | Il modo migliore per iniziare a investire, per un giovane che ha appena iniziato la sua carriera? | Innanzitutto, consiglio vivamente il libro Get a Financial Life. Le basi della finanza personale e della gestione del denaro sono piuttosto semplici e questo libro fa un ottimo lavoro. È una lettura molto leggera e si rivolge soprattutto ai giovani che iniziano la loro carriera.
Ora, tolto questo, ci sono due tipi di "investimenti" a cui pensare:
1. Pensionamento (401k, IRA, SIMPLE, ecc.)
2. Non pensionistici (conti di intermediazione, investimenti in singole azioni, day trading, ecc.)
Per la maggior parte delle persone, è meglio occuparsi prima di tutto del punto 1. La maggior parte delle persone non dovrebbe nemmeno pensare al n. 2 prima di aver alimentato completamente i propri conti pensionistici, aver creato un fondo di emergenza e aver messo sotto controllo il proprio debito.
Ci sono molti incentivi finanziari per investire nella pensione, sia da parte del datore di lavoro che del governo. Un motivo in più per occuparsi del punto 1 prima del punto 2!
Il vostro datore di lavoro probabilmente offre un qualche tipo di 401k (o un equivalente, come un 403b) con un'integrazione da parte dell'azienda. Si tratta di un potenziale ritorno del 100% sul vostro investimento dopo il periodo di maturazione. Nessun investimento fatto da soli potrà mai eguagliare questo valore. Inoltre, i contributi al 401k presentano dei vantaggi fiscali (il denaro versato non viene considerato come reddito imponibile).
***Il modo migliore per iniziare a investire è informarsi sul piano pensionistico del proprio datore di lavoro e versare un contributo sufficiente per sfruttare appieno il contributo del datore di lavoro.
Oltre a questo, esistono anche conti pensionistici individuali (IRA) che si possono aprire per contribuire autonomamente. Dovreste aprirne uno e iniziare a contribuire, ma solo dopo aver utilizzato completamente il contributo del datore di lavoro con il 401k. L'IRA non vi darà il 100% di ROI come il 401k.
Tenete presente che gli investimenti previdenziali sono praticamente "separati" dalla vostra vita finanziaria quotidiana. Il denaro versato su un conto pensionistico non può essere toccato fino all'età della pensione, a meno che non si vogliano pagare molte tasse e penali. In genere non conviene mettere i soldi per l'acconto della casa in un conto pensione.
Un'altra cosa da notare: il 401K e l'IRA sono conti in cui si deposita il denaro. Il fatto che il denaro sia depositato sul conto non significa necessariamente che sia investito. Il denaro viene versato su questo conto e poi viene utilizzato per gli investimenti. Come investire il denaro della pensione è un argomento a sé stante. Ecco un buon punto di partenza. |
277 | Quantum state teleportation is the quantum information protocol where a qubit is transferred between two parties using an initial shared entangled state, Bell measurement, classical communication and local rotation. Apparently, there is also something called quantum gate teleportation.
What is quantum gate teleportation and what is it used for?
I am particularly interested in possible applications in simulating quantum circuits. | Quantum gate teleportation is the act of being able to apply a quantum gate on the unknown state while it is being teleported. This is one of the ways in which measurement-based computation can be described using graph states.
Usually, teleportation works by having an unknown quantum state $|\psi\rangle$ held by Alice, and two qubits in the Bell state $|\Psi\rangle=(|00\rangle+|11\rangle)/\sqrt{2}$ shared between Alice and Bob. Alice performs a Bell state measurement, getting one of 4 possible answers and Bob holds on his qubit, depending on the measurement result of Alice, one of the 4 states $|\psi\rangle,X|\psi\rangle,Z|\psi\rangle,ZX|\psi\rangle.$ So, once Bob learns what result Alice got, he can compensate by applying the appropriate Paulis.
Let $U$ be a 1-qubit unitary. Assume Alice and Bob share $(\mathbb{I}\otimes U)|\Psi\rangle$ instead of $|\Psi\rangle$. If they repeat the teleportation protocol, Bob now has one of $U|\psi\rangle,UX|\psi\rangle,UZ|\psi\rangle,UZX|\psi\rangle$, which we can rewrite as $U|\psi\rangle,(UXU^\dagger)U|\psi\rangle,(UZU^\dagger)U|\psi\rangle,(UZXU^\dagger)U|\psi\rangle.$ The compensations that Bob has to make for a given measurement result are given by the bracketed terms. Often, these are no worse than the compensations you would have to make for normal teleportation (i.e. just the Pauli rotations). For example, if $U$ is the Hadamard rotation, then the corrections are just $(\mathbb{I},Z,X,XZ)$ respectively. So, you can apply the Hadamard during teleportation just be changing the state that you teleport through (There is a strong connection here to the Choi-Jamiołkowski isomorphism). You can do the same for Pauli gates, and the phase gate $\sqrt{Z}=S$. Moreover, if you repeat this protocol to build up a more complicated computation, it is often sufficient to keep a record of what these corrections are, and to apply them later.
Even if you don't only need the Pauli gates (as is the case for $T=\sqrt{S}$), the compensations may be easier than implementing the gate directly. This is the basis of the construction of the fault-tolerant T gate.
In fact, you can do something similar to apply a controlled-NOT between a pair of qubits as well. This time, the state you need is $|\Psi\rangle_{A_1B_1}|\Psi\rangle_{A_1B_1}$, and a controlled-NOT applied between $B_1$ and $B_2$. This time, there are 16 possible compensating rotations, but all of them are just about how Pauli operations propagate through the action of a controlled-NOT and, again, that just gives Pauli operations out. | Die Teleportation von Quantenzuständen ist ein Quanteninformationsprotokoll, bei dem ein Qubit zwischen zwei Parteien unter Verwendung eines gemeinsamen verschränkten Ausgangszustands, einer Bell-Messung, klassischer Kommunikation und lokaler Rotation übertragen wird. Offenbar gibt es auch etwas, das Quantengatter-Teleportation genannt wird.
Was ist Quanten-Tor-Teleportation und wofür wird sie verwendet?
Ich interessiere mich besonders für mögliche Anwendungen bei der Simulation von Quantenschaltungen. | Quantengatter-Teleportation bedeutet, dass ein Quantengatter auf den unbekannten Zustand angewendet werden kann, während er teleportiert wird. Dies ist eine der Möglichkeiten, wie die auf Messungen basierende Berechnung mit Hilfe von Graphzuständen beschrieben werden kann.
Normalerweise funktioniert die Teleportation so, dass ein unbekannter Quantenzustand $|\psi\rangle$ von Alice gehalten wird und zwei Qubits im Bell-Zustand $|\Psi\rangle=(|00\rangle+|11\rangle)/\sqrt{2}$ zwischen Alice und Bob geteilt werden. Alice führt eine Messung des Bell-Zustands durch und erhält eine von 4 möglichen Antworten, und Bob hält auf seinem Qubit, je nach dem Messergebnis von Alice, einen der 4 Zustände $|\psi\rangle,X|\psi\rangle,Z|\psi\rangle,ZX|\psi\rangle.$ Sobald Bob also erfährt, welches Ergebnis Alice erhalten hat, kann er dies durch Anwendung der entsprechenden Paulis kompensieren.
Sei $U$ eine 1-Qubit-Unitarität. Nehmen wir an, Alice und Bob teilen sich $(\mathbb{I}\mal U)|\Psi\rangle$ anstelle von $|\Psi\rangle$. Wenn sie das Teleportationsprotokoll wiederholen, hat Bob nun einen von $U|\psi\rangle,UX|\psi\rangle,UZ|\psi\rangle,UZX|\psi\rangle$, den wir umschreiben können als $U|\psi\rangle,(UXU^\dagger)U|\psi\rangle,(UZU^\dagger)U|\psi\rangle,(UZXU^\dagger)U|\psi\rangle.Die Kompensationen, die Bob für ein bestimmtes Messergebnis vornehmen muss, werden durch die eingeklammerten Terme angegeben. Oft sind diese nicht schlimmer als die Kompensationen, die man für eine normale Teleportation (d.h. nur die Pauli-Drehungen) machen muss. Wenn zum Beispiel $U$ die Hadamard-Rotation ist, dann sind die Korrekturen nur $(\mathbb{I},Z,X,XZ)$. Man kann also die Hadamard-Korrektur während der Teleportation anwenden, indem man einfach den Zustand ändert, durch den man teleportiert (hier gibt es eine enge Verbindung zum Choi-Jamiołkowski-Isomorphismus). Das Gleiche gilt für Pauli-Tore und das Phasentor $\sqrt{Z}=S$. Wenn man dieses Protokoll wiederholt, um eine kompliziertere Berechnung aufzubauen, reicht es oft aus, diese Korrekturen zu notieren, um sie später anwenden zu können.
Selbst wenn man nicht nur die Pauli-Gatter braucht (wie im Fall von $T=\sqrt{S}$), können die Kompensationen einfacher sein als die direkte Implementierung des Gatters. Dies ist die Grundlage für die Konstruktion des fehlertoleranten T-Gatters.
In der Tat kann man etwas Ähnliches tun, um ein kontrolliertes NICHT zwischen einem Paar Qubits anzuwenden. Diesmal ist der benötigte Zustand $|\Psi\rangle_{A_1B_1}|\Psi\rangle_{A_1B_1}$, und zwischen $B_1$ und $B_2$ wird ein kontrolliertes NICHT angewendet. Diesmal gibt es 16 mögliche kompensierende Drehungen, aber alle haben nur damit zu tun, wie sich Pauli-Operationen durch die Wirkung eines kontrollierten NOTs ausbreiten, und das gibt wiederum nur Pauli-Operationen heraus. | El teletransporte de estados cuánticos es el protocolo de información cuántica en el que un qubit se transfiere entre dos partes utilizando un estado entrelazado inicial compartido, la medición de Bell, la comunicación clásica y la rotación local. Aparentemente, también existe algo llamado teletransporte de puerta cuántica.
¿Qué es el teletransporte cuántico y para qué sirve?
Me interesan especialmente las posibles aplicaciones en la simulación de circuitos cuánticos. | El teletransporte por puerta cuántica consiste en poder aplicar una puerta cuántica al estado desconocido mientras se teletransporta. Esta es una de las formas en que la computación basada en mediciones puede describirse utilizando estados gráficos.
Normalmente, el teletransporte funciona teniendo un estado cuántico desconocido $|\psi\rangle$ en poder de Alice, y dos qubits en el estado Bell $|\Psi\rangle=(|00\rangle+|11\rangle)/\sqrt{2}$ compartidos entre Alice y Bob. Alice realiza una medida del estado de Bell, obteniendo una de las 4 respuestas posibles y Bob mantiene en su qubit, dependiendo del resultado de la medida de Alice, uno de los 4 estados $|\psi\rangle,X|\psi\rangle,Z|\psi\rangle,ZX|\psi\rangle.$ Así, una vez que Bob conoce el resultado que obtuvo Alice, puede compensarlo aplicando el Paulis adecuado.
Sea $U$ un unitario de 1 qubit. Supongamos que Alice y Bob comparten $(\mathbb{I}\otimes U)||\psi\rangle$ en lugar de $|\psi\rangle$. Si repiten el protocolo de teletransporte, Bob tiene ahora uno de $U|\psi\rangle,UX|\psi\rangle,UZ|\psi\rangle,UZX|\psi\rangle$, que podemos reescribir como $U|\psi\rangle,(UXU^daga)U|\psi\rangle,(UZU^daga)U|\psi\rangle,(UZXU^daga)U|\psi\rangle.Las compensaciones que Bob tiene que hacer para un resultado de medición dado están dadas por los términos entre corchetes. A menudo, estas no son peores que las compensaciones que tendría que hacer para el teletransporte normal (es decir, sólo las rotaciones de Pauli). Por ejemplo, si $U$ es la rotación de Hadamard, entonces las correcciones son sólo $(\mathbb{I},Z,X,XZ)$ respectivamente. Por lo tanto, se puede aplicar el Hadamard durante el teletransporte con sólo cambiar el estado a través del cual se teletransporta (hay una fuerte conexión aquí con el isomorfismo de Choi-Jamiołkowski). Se puede hacer lo mismo con las puertas de Pauli y la puerta de fase $\sqrt{Z}=S$. Además, si se repite este protocolo para construir un cálculo más complicado, a menudo es suficiente para mantener un registro de lo que estas correcciones son, y aplicarlas más tarde.
Incluso si no sólo se necesitan las puertas de Pauli (como es el caso de $T=\sqrt{S}$), las compensaciones pueden ser más fáciles que implementar la puerta directamente. Esta es la base de la construcción de la puerta T tolerante a fallos.
De hecho, también se puede hacer algo parecido para aplicar un NOT controlado entre un par de qubits. Esta vez, el estado que se necesita es $||\Psi\rangle_{A_1B_1}||\Psi\rangle_{A_1B_1}$, y se aplica una NOT controlada entre $B_1$ y $B_2$. Esta vez, hay 16 posibles rotaciones de compensación, pero todos ellos son sólo acerca de cómo las operaciones de Pauli se propagan a través de la acción de un controlado-NOT y, de nuevo, que sólo da las operaciones de Pauli a cabo. | La téléportation d'états quantiques est un protocole d'information quantique dans lequel un qubit est transféré entre deux parties à l'aide d'un état intriqué initial partagé, d'une mesure de Bell, d'une communication classique et d'une rotation locale. Apparemment, il existe aussi une technique appelée téléportation par porte quantique.
Qu'est-ce que la téléportation par porte quantique et à quoi sert-elle ?
Je suis particulièrement intéressé par les applications possibles dans la simulation de circuits quantiques. | La téléportation par porte quantique est le fait de pouvoir appliquer une porte quantique sur l'état inconnu pendant qu'il est téléporté. C'est l'une des façons dont le calcul basé sur les mesures peut être décrit à l'aide de graphes d'états.
En général, la téléportation fonctionne avec un état quantique inconnu $|\psi\rangle$ détenu par Alice, et deux qubits dans l'état de Bell $|\Psi\rangle=(|00\rangle+|11\rangle)/\sqrt{2}$ partagés entre Alice et Bob. Alice effectue une mesure de l'état de Bell, obtenant l'une des 4 réponses possibles, et Bob conserve sur son qubit, en fonction du résultat de la mesure d'Alice, l'un des 4 états $|\psi\rangle,X|\psi\rangle,Z|\psi\rangle,ZX|\psi\rangle.$ Ainsi, dès que Bob apprend quel résultat Alice a obtenu, il peut compenser en appliquant le Paulis approprié.
Soit $U$ un unitaire de 1 qubit. Supposons qu'Alice et Bob partagent $(\mathbb{I}\otimes U)|\Psi\rangle$ au lieu de $|\Psi\rangle$. S'ils répètent le protocole de téléportation, Bob a maintenant l'un des $U|\psi\rangle,UX|\psi\rangle,UZ|\psi\rangle,UZX|\psi\rangle$, que nous pouvons réécrire comme $U|\psi\rangle,(UXU^\dagger)U|\psi\rangle,(UZU^\dagger)U|\psi\rangle,(UZXU^\dagger)U|\psi\rangle.Les compensations que Bob doit effectuer pour un résultat de mesure donné sont données par les termes entre crochets. Souvent, ces compensations ne sont pas pires que celles que vous auriez à faire pour une téléportation normale (c'est-à-dire juste les rotations de Pauli). Par exemple, si $U$ est la rotation de Hadamard, alors les corrections sont juste $(\mathbb{I},Z,X,XZ)$ respectivement. On peut donc appliquer la correction de Hadamard pendant la téléportation en changeant simplement l'état à travers lequel on se téléporte (il y a ici un lien étroit avec l'isomorphisme de Choi-Jamiołkowski). On peut faire la même chose pour les portes de Pauli et la porte de phase $\sqrt{Z}=S$. De plus, si vous répétez ce protocole pour construire un calcul plus compliqué, il est souvent suffisant de garder une trace de ces corrections, et de les appliquer plus tard.
Même si vous n'avez pas seulement besoin des portes de Pauli (comme c'est le cas pour $T=\sqrt{S}$), les compensations peuvent être plus faciles que l'implémentation directe de la porte. C'est la base de la construction de la porte T tolérante aux fautes.
En fait, vous pouvez faire quelque chose de similaire pour appliquer un NOT contrôlé entre une paire de qubits. Cette fois, l'état dont vous avez besoin est $|\Psi\rangle_{A_1B_1}|\Psi\rangle_{A_1B_1}$, et un NO contrôlé est appliqué entre $B_1$ et $B_2$. Cette fois, il y a 16 rotations compensatoires possibles, mais toutes ne concernent que la façon dont les opérations de Pauli se propagent à travers l'action d'un NOT contrôlé et, encore une fois, cela ne fait que donner des opérations de Pauli. | Il teletrasporto di stati quantistici è un protocollo di informazione quantistica in cui un qubit viene trasferito tra due parti utilizzando uno stato entangled iniziale condiviso, una misura di Bell, una comunicazione classica e una rotazione locale. A quanto pare, esiste anche qualcosa chiamato teletrasporto di gate quantistici.
Che cos'è il teletrasporto quantistico e a che cosa serve?
Sono particolarmente interessato alle possibili applicazioni nella simulazione dei circuiti quantistici. | Il teletrasporto con gate quantistico è l'atto di poter applicare un gate quantistico allo stato sconosciuto mentre viene teletrasportato. Questo è uno dei modi in cui la computazione basata sulla misurazione può essere descritta utilizzando gli stati del grafo.
Di solito, il teletrasporto funziona con uno stato quantico sconosciuto $|psi\rangle$ detenuto da Alice, e due qubit nello stato di Bell $|Psi\rangle=(|00\rangle+|11\rangle)/\sqrt{2}$ condivisi tra Alice e Bob. Alice esegue una misura dello stato di Bell, ottenendo una delle 4 possibili risposte e Bob tiene sul suo qubit, a seconda del risultato della misura di Alice, uno dei 4 stati $|psi\rangle,X|psi\rangle,Z|psi\rangle,ZX|psi\rangle.$ Quindi, una volta che Bob viene a conoscenza del risultato ottenuto da Alice, può compensare applicando l'appropriato Paulis.
Sia $U$ un unitario a 1 qubit. Supponiamo che Alice e Bob condividano $(\mathbb{I}\otimes U)|\Psi\rangle$ invece di $|Psi\rangle$. Se ripetono il protocollo di teletrasporto, Bob ha ora uno di $U|psi\rangolo,UX|psi\rangolo,UZ|psi\rangolo,UZX|psi\rangolo$, che possiamo riscrivere come $U|psi\rangolo,(UXU^ pugnale)U|psi\rangolo,(UZU^ pugnale)U|psi\rangolo,(UZXU^ pugnale)U|psi\rangolo.Le compensazioni che Bob deve fare per un dato risultato di misurazione sono date dai termini tra parentesi. Spesso, queste non sono peggiori delle compensazioni che si dovrebbero fare per il normale teletrasporto (cioè solo per le rotazioni di Pauli). Per esempio, se $U$ è la rotazione di Hadamard, allora le correzioni sono solo $(\mathbb{I},Z,X,XZ)$ rispettivamente. Quindi, è possibile applicare l'Hadamard durante il teletrasporto semplicemente cambiando lo stato in cui ci si teletrasporta (c'è una forte connessione con l'isomorfismo di Choi-Jamiołkowski). È possibile fare la stessa cosa per le porte di Pauli e per la porta di fase $\sqrt{Z}=S$. Inoltre, se si ripete questo protocollo per costruire un calcolo più complicato, spesso è sufficiente registrare le correzioni e applicarle in seguito.
Anche se non sono necessarie solo le porte di Pauli (come nel caso di $T=\sqrt{S}$), le compensazioni possono essere più semplici dell'implementazione diretta della porta. Questa è la base della costruzione della porta T a tolleranza di errore.
In realtà, si può fare qualcosa di simile anche per applicare un NOT controllato tra una coppia di qubit. Questa volta, lo stato necessario è $|\Psi\rangle_{A_1B_1}|\Psi\rangle_{A_1B_1}$, e un NOT controllato applicato tra $B_1$ e $B_2$. Questa volta ci sono 16 possibili rotazioni di compensazione, ma tutte riguardano solo il modo in cui le operazioni di Pauli si propagano attraverso l'azione di un NOT controllato e, ancora una volta, questo non fa altro che dare le operazioni di Pauli. |
278 | What does it mean for an album to be remastered? | Mastering is a separate art from recording or mixing. According to the Wikipedia article, the principle processes of mastering are:
* Editing minor flaws.
* Applying noise reduction to eliminate clicks, dropouts, hum and hiss.
* Adjusting stereo width.
* Adding ambience.
* Equalize audio across tracks for the purpose of optimized frequency distribution.
* Adjust volume.
* Dynamic range compression or expansion.
* Peak limit.
* Dither.
The common thread between these processes is that they can be performed on the complete mixed recording, not just on individual tracks of a recording. Because of this, mastering can be performed at any time on any audio source.
As for the reason why so many works are remastered, the most likely reason is to keep up with new home theater audio formats. If you have a massive 7.2 surround system, it would be a shame if there wasn't a professionally mastered 7.2 format of "Dark Side of the Moon" to utilize that power. Every time new audio encoding formats become widespread (48kHz at 16bits, 92kHz at 24bits, etc.), your favorite audio source will need to be remastered to sound good in that format. | Was bedeutet es, wenn ein Album neu gemastert wird? | Das Mastering ist eine von der Aufnahme oder Abmischung getrennte Kunst. Laut dem Wikipedia-Artikel sind die wichtigsten Prozesse des Masterings folgende:
* Bearbeitung kleinerer Fehler.
* Rauschunterdrückung zur Beseitigung von Klicks, Aussetzern, Brummen und Rauschen.
* Anpassen der Stereobreite.
* Hinzufügen von Raumklang.
* Audio über Spuren hinweg ausgleichen, um eine optimale Frequenzverteilung zu erreichen.
* Lautstärke anpassen.
* Komprimierung oder Erweiterung des Dynamikbereichs.
* Spitzenwertbegrenzung.
* Dithern.
Die Gemeinsamkeit dieser Prozesse besteht darin, dass sie an der gesamten gemischten Aufnahme durchgeführt werden können, nicht nur an einzelnen Spuren einer Aufnahme. Aus diesem Grund kann das Mastering jederzeit an jeder Audioquelle durchgeführt werden.
Der Grund, warum so viele Werke neu gemastert werden, ist höchstwahrscheinlich die Anpassung an neue Heimkino-Audioformate. Wenn Sie ein massives 7.2-Surround-System haben, wäre es eine Schande, wenn es kein professionell gemastertes 7.2-Format von "Dark Side of the Moon" gäbe, um diese Leistung zu nutzen. Jedes Mal, wenn sich neue Audiocodierformate durchsetzen (48kHz bei 16bits, 92kHz bei 24bits usw.), muss Ihre Lieblingsaudioquelle neu gemastert werden, damit sie in diesem Format gut klingt. | ¿Qué significa remasterizar un álbum? | La masterización es un arte distinto de la grabación o la mezcla. Según el artículo de Wikipedia, los principales procesos de masterización son:
* Edición de pequeños defectos.
* Aplicar reducción de ruido para eliminar chasquidos, pérdidas, zumbidos y silbidos.
* Ajustar la amplitud estéreo.
* Añadir ambiente.
* Ecualizar el audio de las pistas para optimizar la distribución de frecuencias.
* Ajustar el volumen.
* Compresión o expansión del rango dinámico.
* Límite de picos.
* Dither.
El denominador común de estos procesos es que pueden realizarse en la grabación mezclada completa, no sólo en pistas individuales de una grabación. Por ello, la masterización puede realizarse en cualquier momento y en cualquier fuente de audio.
En cuanto a la razón por la que se remasterizan tantas obras, lo más probable es que sea para mantenerse al día con los nuevos formatos de audio de cine en casa. Si tienes un enorme sistema de sonido envolvente 7.2, sería una pena que no hubiera un formato 7.2 masterizado profesionalmente de "Dark Side of the Moon" para utilizar esa potencia. Cada vez que se generalizan los nuevos formatos de codificación de audio (48 kHz a 16 bits, 92 kHz a 24 bits, etc.), tu fuente de audio favorita tendrá que ser remasterizada para que suene bien en ese formato. | Qu'est-ce que cela signifie pour un album d'être remastérisé ? | Le mastering est un art distinct de l'enregistrement ou du mixage. Selon l'article de Wikipédia, les principaux processus de masterisation sont les suivants :
* L'édition des défauts mineurs.
* L'application de la réduction du bruit pour éliminer les clics, les pertes, les ronflements et les sifflements.
* Ajustement de la largeur stéréo.
* Ajouter de l'ambiance.
* Égaliser l'audio entre les pistes afin d'optimiser la distribution des fréquences.
* Ajuster le volume.
* Compression ou extension de la plage dynamique.
* Limitation des crêtes.
* Dither.
Le point commun entre ces processus est qu'ils peuvent être effectués sur l'ensemble de l'enregistrement mixé, et pas seulement sur les pistes individuelles d'un enregistrement. De ce fait, le mastering peut être effectué à tout moment sur n'importe quelle source audio.
Quant à la raison pour laquelle tant d'œuvres sont remastérisées, la plus probable est qu'il s'agit de rester en phase avec les nouveaux formats audio pour le home cinéma. Si vous disposez d'un énorme système surround 7.2, il serait dommage qu'il n'y ait pas de format 7.2 professionnellement maîtrisé de "Dark Side of the Moon" pour utiliser cette puissance. Chaque fois que de nouveaux formats d'encodage audio se répandent (48kHz à 16bits, 92kHz à 24bits, etc.), votre source audio préférée devra être remasterisée pour sonner correctement dans ce format. | Cosa significa rimasterizzare un album? | Il mastering è un'arte separata dalla registrazione o dal missaggio. Secondo l'articolo di Wikipedia, i principali processi di masterizzazione sono:
* Modifica dei difetti minori.
* Applicazione della riduzione del rumore per eliminare click, dropout, ronzio e sibilo.
* Regolazione dell'ampiezza stereo.
* Aggiungere l'atmosfera.
* Equalizzare l'audio tra le tracce per ottimizzare la distribuzione delle frequenze.
* Regolazione del volume.
* Compressione o espansione della gamma dinamica.
* Limitazione dei picchi.
* Dither.
Il filo conduttore tra questi processi è che possono essere eseguiti sull'intera registrazione mixata, non solo sulle singole tracce di una registrazione. Per questo motivo, il mastering può essere eseguito in qualsiasi momento su qualsiasi sorgente audio.
Per quanto riguarda il motivo per cui così tante opere vengono rimasterizzate, la ragione più probabile è quella di tenere il passo con i nuovi formati audio per l'home theater. Se si dispone di un imponente sistema surround 7.2, sarebbe un peccato se non ci fosse un formato 7.2 masterizzato professionalmente di "Dark Side of the Moon" per sfruttarne la potenza. Ogni volta che si diffondono nuovi formati di codifica audio (48kHz a 16 bit, 92kHz a 24 bit, ecc.), la vostra sorgente audio preferita dovrà essere rimasterizzata per suonare bene in quel formato. |
279 | What's the best way to iterate over the items in a ```HashMap```? | Extracted from the reference How to Iterate Over a Map in Java:
There are several ways of iterating over a ```Map``` in Java. Let's go over the most common methods and review their advantages and disadvantages. Since all maps in Java implement the Map interface, the following techniques will work for any map implementation (```HashMap```, ```TreeMap```, ```LinkedHashMap```, ```Hashtable```, etc.)
Method #1: Iterating over entries using a For-Each loop.
This is the most common method and is preferable in most cases. It should be used if you need both map keys and values in the loop.
```Map map = new HashMap();
for (Map.Entry entry : map.entrySet()) {
System.out.println("Key = " + entry.getKey() + ", Value = " + entry.getValue());
}
```
Note that the For-Each loop was introduced in Java 5, so this method is working only in newer versions of the language. Also a For-Each loop will throw ```NullPointerException``` if you try to iterate over a map that is null, so before iterating you should always check for null references.
Method #2: Iterating over keys or values using a For-Each loop.
If you need only keys or values from the map, you can iterate over keySet or values instead of entrySet.
```Map map = new HashMap();
// Iterating over keys only
for (Integer key : map.keySet()) {
System.out.println("Key = " + key);
}
// Iterating over values only
for (Integer value : map.values()) {
System.out.println("Value = " + value);
}
```
This method gives a slight performance advantage over ```entrySet``` iteration (about 10% faster) and is more clean.
Method #3: Iterating using Iterator.
Using Generics:
```Map map = new HashMap();
Iterator> entries = map.entrySet().iterator();
while (entries.hasNext()) {
Map.Entry entry = entries.next();
System.out.println("Key = " + entry.getKey() + ", Value = " + entry.getValue());
}
```
Without Generics:
```Map map = new HashMap();
Iterator entries = map.entrySet().iterator();
while (entries.hasNext()) {
Map.Entry entry = (Map.Entry) entries.next();
Integer key = (Integer)entry.getKey();
Integer value = (Integer)entry.getValue();
System.out.println("Key = " + key + ", Value = " + value);
}
```
You can also use same technique to iterate over ```keySet``` or values.
This method might look redundant, but it has its own advantages. First of all, it is the only way to iterate over a map in older versions of Java. The other important feature is that it is the only method that allows you to remove entries from the map during iteration by calling ```iterator.remove()```. If you try to do this during For-Each iteration you will get "unpredictable results" according to Javadoc.
From a performance point of view this method is equal to a For-Each iteration.
Method #4: Iterating over keys and searching for values (inefficient).
```Map map = new HashMap();
for (Integer key : map.keySet()) {
Integer value = map.get(key);
System.out.println("Key = " + key + ", Value = " + value);
}
```
This might look like a cleaner alternative for method #1, but in practice it is pretty slow and inefficient as getting values by a key might be time-consuming (this method in different Map implementations is 20%-200% slower than method #1). If you have FindBugs installed, it will detect this and warn you about inefficient iteration. This method should be avoided.
Conclusion:
If you need only keys or values from the map, use method #2. If you are stuck with older version of Java (less than 5) or planning to remove entries during iteration, you have to use method #3. Otherwise use method #1. | Was ist der beste Weg, um über die Elemente einer ```HashMap`` zu iterieren? | Entnommen aus der Referenz How to Iterate Over a Map in Java:
Es gibt mehrere Möglichkeiten, über eine ```Map`` in Java zu iterieren. Lassen Sie uns die gebräuchlichsten Methoden durchgehen und ihre Vor- und Nachteile besprechen. Da alle Maps in Java die Map-Schnittstelle implementieren, funktionieren die folgenden Techniken für jede Map-Implementierung (```HashMap``, ```TreeMap``, ```LinkedHashMap``, ```Hashtable``, usw.)
Methode Nr. 1: Iteration über Einträge mit einer For-Each-Schleife.
Dies ist die gebräuchlichste Methode und ist in den meisten Fällen vorzuziehen. Sie sollte verwendet werden, wenn Sie sowohl Map-Schlüssel als auch Werte in der Schleife benötigen.
```Map map = new HashMap();
for (Map.Entry Eintrag : map.entrySet()) {
System.out.println("Key = " + entry.getKey() + ", Value = " + entry.getValue());
}
```
Beachten Sie, dass die For-Each-Schleife erst in Java 5 eingeführt wurde, so dass diese Methode nur in neueren Versionen der Sprache funktioniert. Außerdem löst eine For-Each-Schleife eine ```NullPointerException`` aus, wenn Sie versuchen, über eine Map zu iterieren, die null ist. Daher sollten Sie vor der Iteration immer auf null-Referenzen prüfen.
Methode #2: Iteration über Schlüssel oder Werte mit einer For-Each-Schleife.
Wenn Sie nur Schlüssel oder Werte aus der Map benötigen, können Sie über keySet oder values anstelle von entrySet iterieren.
```Map map = new HashMap();
// Iteration nur über Schlüssel
for (Integer Schlüssel : map.keySet()) {
System.out.println("Schlüssel = " + Schlüssel);
}
// Nur über Werte iterieren
for (Integer Wert : map.values()) {
System.out.println("Wert = " + Wert);
}
```
Diese Methode bietet einen leichten Leistungsvorteil gegenüber der ```EntrySet``-Iteration (etwa 10% schneller) und ist sauberer.
Methode #3: Iteration mit Iterator.
Verwendung von Generics:
```Map map = new HashMap();
Iterator> Einträge = map.entrySet().iterator();
while (einträge.hasNext()) {
Map.Entry entry = entries.next();
System.out.println("Schlüssel = " + entry.getKey() + ", Wert = " + entry.getValue());
}
```
Ohne Generics:
```Map map = new HashMap();
Iterator entries = map.entrySet().iterator();
while (entries.hasNext()) {
Map.Entry entry = (Map.Entry) entries.next();
Integer key = (Integer)entry.getKey();
Integer value = (Integer)entry.getValue();
System.out.println("Schlüssel = " + Schlüssel + ", Wert = " + Wert);
}
```
Sie können die gleiche Technik auch verwenden, um über ```SchlüsselSet`` oder Werte zu iterieren.
Diese Methode mag redundant erscheinen, aber sie hat ihre eigenen Vorteile. Zunächst einmal ist es die einzige Möglichkeit, in älteren Java-Versionen über eine Map zu iterieren. Die andere wichtige Eigenschaft ist, dass es die einzige Methode ist, die es erlaubt, während der Iteration Einträge aus der Map zu entfernen, indem man ```iterator.remove()``` aufruft. Wenn Sie dies während einer For-Each-Iteration versuchen, erhalten Sie laut Javadoc "unvorhersehbare Ergebnisse".
Aus Sicht der Performance ist diese Methode gleichwertig mit einer For-Each-Iteration.
Methode #4: Iteration über Schlüssel und Suche nach Werten (ineffizient).
```Map map = new HashMap();
for (Integer Schlüssel : map.keySet()) {
Integer Wert = map.get(Schlüssel);
System.out.println("Schlüssel = " + Schlüssel + ", Wert = " + Wert);
}
```
Dies mag wie eine sauberere Alternative zu Methode #1 aussehen, aber in der Praxis ist es ziemlich langsam und ineffizient, da das Abrufen von Werten nach einem Schlüssel zeitaufwendig sein kann (diese Methode ist in verschiedenen Map-Implementierungen 20%-200% langsamer als Methode #1). Wenn Sie FindBugs installiert haben, wird es dies erkennen und Sie vor ineffizienter Iteration warnen. Diese Methode sollte vermieden werden.
Schlussfolgerung:
Wenn Sie nur Schlüssel oder Werte aus der Map benötigen, verwenden Sie Methode #2. Wenn Sie mit einer älteren Java-Version (kleiner als 5) arbeiten oder planen, Einträge während der Iteration zu entfernen, müssen Sie Methode #3 verwenden. Ansonsten verwenden Sie Methode #1. | ¿Cuál es la mejor manera de iterar sobre los elementos de un ``HashMap``? | Extraído de la referencia How to Iterate Over a Map in Java:
Existen varias formas de iterar sobre un ```Mapa`` en Java. Repasemos los métodos más comunes y sus ventajas e inconvenientes. Dado que todos los mapas en Java implementan la interfaz Map, las siguientes técnicas funcionarán para cualquier implementación de mapa (``HashMap``, ``TreeMap``, ``LinkedHashMap``, ``Hashtable``, etc.)
Método #1: Iterar sobre las entradas usando un bucle For-Each.
Este es el método más común y es preferible en la mayoría de los casos. Se debe utilizar si necesitas tanto las claves como los valores del mapa en el bucle.
```Map map = new HashMap();
for (Map.Entry entry : map.entrySet()) {
System.out.println("Clave = " + entry.getKey() + ", Valor = " + entry.getValue());
}
```
Tenga en cuenta que el bucle For-Each se introdujo en Java 5, por lo que este método sólo funciona en versiones más recientes del lenguaje. Además, un bucle For-Each lanzará una ```NullPointerException`` si intentas iterar sobre un mapa que es nulo, por lo que antes de iterar siempre debes comprobar si hay referencias nulas.
Método #2: Iterar sobre claves o valores usando un bucle For-Each.
Si sólo necesitas claves o valores del mapa, puedes iterar sobre keySet o values en lugar de entrySet.
```Map map = new HashMap();
// Iterar sólo sobre las claves
for (Integer key : map.keySet()) {
System.out.println("Clave = " + clave);
}
// Iterar sólo sobre valores
for (Integer value : map.values()) {
System.out.println("Valor = " + valor);
}
```
Este método ofrece una ligera ventaja de rendimiento sobre la iteración ``entrySet`` (alrededor de un 10% más rápido) y es más limpio.
Método #3: Iterando usando Iterator.
Usando Generics:
```Mapa map = new HashMap();
Iterator> entries = map.entrySet().iterator();
while (entries.hasNext()) {
Map.Entry entry = entries.next();
System.out.println("Clave = " + entrada.getClave() + ", Valor = " + entrada.getValor());
}
```
Sin Generics:
```Mapa map = new HashMap();
Iterator entradas = map.entrySet().iterator();
while (entries.hasNext()) {
Map.Entry entrada = (Map.Entry) entradas.siguiente();
Integer key = (Integer)entry.getKey();
Valor entero = (entero)entrada.getValor();
System.out.println("Clave = " + clave + ", Valor = " + valor);
}
```
También puedes utilizar la misma técnica para iterar sobre ```keySet`` o valores.
Este método puede parecer redundante, pero tiene sus propias ventajas. En primer lugar, es la única manera de iterar sobre un mapa en versiones antiguas de Java. La otra característica importante es que es el único método que te permite eliminar entradas del mapa durante la iteración llamando a ``iterator.remove()``. Si intentas hacer esto durante la iteración For-Each obtendrás "resultados impredecibles" según Javadoc.
Desde el punto de vista del rendimiento, este método es igual a una iteración For-Each.
Método #4: Iterar sobre claves y buscar valores (ineficiente).
```Map map = new HashMap();
for (Integer key : map.keySet()) {
Integer value = map.get(key);
System.out.println("Clave = " + clave + ", Valor = " + valor);
}
```
Esto podría parecer una alternativa más limpia para el método #1, pero en la práctica es bastante lento e ineficiente ya que obtener valores por una clave puede llevar mucho tiempo (este método en diferentes implementaciones de Map es 20%-200% más lento que el método #1). Si tienes FindBugs instalado, detectará esto y te advertirá sobre la iteración ineficiente. Este método debería evitarse.
Conclusión:
Si sólo necesita claves o valores del mapa, use el método #2. Si estás atascado con una versión antigua de Java (menos de 5) o planeas eliminar entradas durante la iteración, tienes que usar el método #3. Si no, usa el método #1. | Quelle est la meilleure façon d'itérer sur les éléments d'une ``HashMap`` ? | Extrait de la référence How to Iterate Over a Map in Java :
Il existe plusieurs façons d'itérer sur une ``Map`` en Java. Passons en revue les méthodes les plus courantes et examinons leurs avantages et leurs inconvénients. Puisque toutes les cartes en Java implémentent l'interface Map, les techniques suivantes fonctionneront pour n'importe quelle implémentation de carte (``HashMap``, ``TreeMap``, ``LinkedHashMap``, ``Hashtable``, etc.)
Méthode #1 : Itérer sur les entrées en utilisant une boucle For-Each.
C'est la méthode la plus courante et elle est préférable dans la plupart des cas. Elle doit être utilisée si vous avez besoin des clés et des valeurs de la carte dans la boucle.
```Map map = new HashMap() ;
for (Map.Entry entry : map.entrySet()) {
System.out.println("Clé = " + entry.getKey() + ", Valeur = " + entry.getValue()) ;
}
```
Notez que la boucle For-Each a été introduite en Java 5, et que cette méthode ne fonctionne donc que dans les versions plus récentes du langage. De plus, une boucle For-Each lèvera une ``NullPointerException`` si vous essayez d'itérer sur une map qui est nulle, donc avant d'itérer vous devriez toujours vérifier les références nulles.
Méthode #2 : Itérer sur des clés ou des valeurs en utilisant une boucle For-Each.
Si vous n'avez besoin que des clés ou des valeurs de la carte, vous pouvez itérer sur keySet ou values au lieu de entrySet.
```Map map = new HashMap() ;
// Itération sur les clés uniquement
for (Integer key : map.keySet()) {
System.out.println("Clé = " + clé) ;
}
// Itération sur les valeurs uniquement
for (Integer value : map.values()) {
System.out.println("Valeur = " + valeur) ;
}
```
Cette méthode donne un léger avantage de performance par rapport à l'itération ``entrySet`` (environ 10% plus rapide) et est plus propre.
Méthode #3 : Itérer en utilisant Iterator.
Utilisation de la méthode générique :
``Map map = new HashMap() ;
Iterator> entries = map.entrySet().iterator() ;
while (entries.hasNext()) {
Map.Entry entry = entries.next() ;
System.out.println("Clé = " + entry.getKey() + ", Valeur = " + entry.getValue()) ;
}
```
Sans Generics :
```Map map = new HashMap() ;
Iterator entries = map.entrySet().iterator() ;
while (entries.hasNext()) {
Map.Entry entry = (Map.Entry) entries.next() ;
Integer key = (Integer)entry.getKey() ;
Integer value = (Integer)entry.getValue() ;
System.out.println("Clé = " + clé + ", Valeur = " + valeur) ;
}
```
Vous pouvez également utiliser la même technique pour itérer sur les ``keySet`` ou les valeurs.
Cette méthode peut sembler redondante, mais elle a ses propres avantages. Tout d'abord, c'est la seule façon d'itérer sur une carte dans les anciennes versions de Java. L'autre caractéristique importante est que c'est la seule méthode qui vous permet de supprimer des entrées de la carte pendant l'itération en appelant ``iterator.remove()``. Si vous essayez de le faire pendant l'itération For-Each, vous obtiendrez des "résultats imprévisibles" selon la Javadoc.
Du point de vue des performances, cette méthode est équivalente à une itération For-Each.
Méthode #4 : Itération sur les clés et recherche des valeurs (inefficace).
```Map map = new HashMap() ;
for (Integer key : map.keySet()) {
Integer value = map.get(key) ;
System.out.println("Clé = " + clé + ", Valeur = " + valeur) ;
}
```
Cela peut sembler être une alternative plus propre à la méthode #1, mais en pratique c'est assez lent et inefficace car obtenir des valeurs par une clé peut prendre du temps (cette méthode dans différentes implémentations de Map est de 20% à 200% plus lente que la méthode #1). Si vous avez installé FindBugs, il détectera cela et vous avertira de l'inefficacité de l'itération. Cette méthode doit être évitée.
Conclusion :
Si vous n'avez besoin que des clés ou des valeurs de la carte, utilisez la méthode #2. Si vous êtes coincé avec une ancienne version de Java (moins de 5) ou si vous prévoyez de supprimer des entrées pendant l'itération, vous devez utiliser la méthode #3. Sinon, utilisez la méthode n° 1. | Qual è il modo migliore per iterare sugli elementi di una ```HashMap``? | Estratto dal riferimento Come iterare su una mappa in Java:
Esistono diversi modi per iterare su una ```Mappa'' in Java. Esaminiamo i metodi più comuni e passiamo in rassegna i loro vantaggi e svantaggi. Poiché tutte le mappe in Java implementano l'interfaccia Map, le seguenti tecniche funzionano per qualsiasi implementazione di mappa (```HashMap``, ```TreeMap``, ```LinkedHashMap``, ```Hashtable``, ecc.)
Metodo #1: Iterazione delle voci con un ciclo For-Each.
Questo è il metodo più comune ed è preferibile nella maggior parte dei casi. Va usato se si ha bisogno di entrambe le chiavi e i valori della mappa nel ciclo.
```Map map = new HashMap();
for (Map.Entry entry : map.entrySet()) {
System.out.println("Key = " + entry.getKey() + ", Value = " + entry.getValue());
}
```
Si noti che il ciclo For-Each è stato introdotto in Java 5, quindi questo metodo funziona solo nelle versioni più recenti del linguaggio. Inoltre, un ciclo For-Each lancia la ```NullPointerException`` se si tenta di iterare su una mappa che è nulla, quindi prima di iterare si dovrebbe sempre verificare la presenza di riferimenti nulli.
Metodo #2: Iterare su chiavi o valori usando un ciclo For-Each.
Se si ha bisogno solo delle chiavi o dei valori della mappa, si può iterare su keySet o values invece che su entrySet.
```Map map = new HashMap();
// Iterazione solo sulle chiavi
for (Integer key : map.keySet()) {
System.out.println("Chiave = " + chiave);
}
// Iterazione solo sui valori
for (Integer value : map.values()) {
System.out.println("Valore = " + valore);
}
```
Questo metodo offre un leggero vantaggio in termini di prestazioni rispetto all'iterazione di ``entrySet`` (circa il 10% più veloce) ed è più pulito.
Metodo #3: Iterazione con Iterator.
Usando i generici:
```Map map = new HashMap();
Iterator> entries = map.entrySet().iterator();
while (entries.hasNext()) {
Map.Entry entry = entries.next();
System.out.println("Key = " + entry.getKey() + ", Value = " + entry.getValue());
}
```
Senza generici:
```Map map = new HashMap();
Iteratore entries = map.entrySet().iterator();
while (entries.hasNext()) {
Map.Entry entry = (Map.Entry) entries.next();
Integer key = (Integer)entry.getKey();
Integer value = (Integer)entry.getValue();
System.out.println("Key = " + key + ", Value = " + value);
}
```
Si può usare la stessa tecnica anche per iterare su ```keySet`` o sui valori.
Questo metodo potrebbe sembrare ridondante, ma ha i suoi vantaggi. Innanzitutto, è l'unico modo per iterare su una mappa nelle vecchie versioni di Java. L'altra caratteristica importante è che è l'unico metodo che consente di rimuovere voci dalla mappa durante l'iterazione, chiamando ```iterator.remove()```. Se si cerca di farlo durante l'iterazione For-Each, si otterranno "risultati imprevedibili", secondo il Javadoc.
Dal punto di vista delle prestazioni, questo metodo è uguale a un'iterazione For-Each.
Metodo #4: Iterazione sulle chiavi e ricerca dei valori (inefficiente).
```Map map = new HashMap();
for (Integer key : map.keySet()) {
Integer value = map.get(key);
System.out.println("Chiave = " + chiave + ", Valore = " + valore);
}
```
Questa potrebbe sembrare un'alternativa più pulita al metodo #1, ma in pratica è piuttosto lenta e inefficiente, poiché ottenere i valori in base a una chiave potrebbe richiedere molto tempo (questo metodo in diverse implementazioni di Map è più lento del 20%-200% rispetto al metodo #1). Se si ha installato FindBugs, questo rileverà questo problema e avviserà l'utente dell'iterazione inefficiente. Questo metodo dovrebbe essere evitato.
Conclusione:
Se si ha bisogno solo di chiavi o valori della mappa, utilizzare il metodo #2. Se si ha a che fare con una vecchia versione di Java (inferiore alla 5) o si intende rimuovere le voci durante l'iterazione, è necessario utilizzare il metodo #3. Altrimenti, utilizzare il metodo #1. |
280 | Why did people start using CO2 (instead of e.g. oxygen) for carbonated drinks? | CO2 tastes good! Carbonated water is actually a weak carbonic acid solution; this is what you taste. It's like "salt and pepper", but for water.
Slightly acidic water is usually popular, hence lemon juice is sometimes used to taint a jug of water in times when no carbonated water is available.
Carbonated water releases CO2 bubbles for many minutes after pressure is released (dissolved carbonic acid reforming), which is an important presentation effect that other gases do not generally have.
In many countries the local water supply is slightly alkaline (due to limestone rock being very common), and this can leave a bad after-taste, and make food in your mouth taste soapy. The addition of weak acids to water helps with neutralising this effect.
Around the world, some lucky towns have natural springs with effervescent water (carbonated water), and man-made carbonated water is just imitating this. In history people have often travelled great distances to try effervescent water, so its popularity is well recorded.
Nitrogen is used for water pressurisation in brewing and cooking as it leaves little or no taste, and generally does not form other chemical compounds. It's used mainly when bubbles are required, but not an acidic taste.
Oxygen is unsuitable for water pressurisation as very little can be dissolved at normal soda pressures, and it has no taste, but may readily form unwanted chemical compounds.
In the 18th century, Joseph Priestley was the first person to document this manufacturing discovery. He noted precisely that it tasted good, and that it was similar to the German Selters water. He was discovering "airs" (gases), and uniquely identified quite a few different gases. CO2 was the only one he listed as tasting good. His cheap source of CO2 was the fermenting grains from the nearby brewery. | Warum hat man begonnen, CO2 (anstelle von z. B. Sauerstoff) für kohlensäurehaltige Getränke zu verwenden? | CO2 schmeckt gut! Kohlensäurehaltiges Wasser ist eigentlich eine schwache Kohlensäurelösung; das ist es, was man schmeckt. Es ist wie "Salz und Pfeffer", aber für Wasser.
Leicht saures Wasser ist in der Regel beliebt, daher wird manchmal Zitronensaft verwendet, um einen Krug Wasser zu verdünnen, wenn kein kohlensäurehaltiges Wasser verfügbar ist.
Kohlensäurehaltiges Wasser setzt nach dem Ablassen des Drucks noch viele Minuten lang CO2-Blasen frei (Reformierung der gelösten Kohlensäure), was ein wichtiger Präsentationseffekt ist, den andere Gase im Allgemeinen nicht haben.
In vielen Ländern ist das örtliche Wasser leicht alkalisch (aufgrund des häufig vorkommenden Kalkgesteins), was einen schlechten Nachgeschmack hinterlassen und die Speisen im Mund seifig schmecken lassen kann. Der Zusatz von schwachen Säuren zum Wasser hilft, diesen Effekt zu neutralisieren.
In einigen glücklichen Städten der Welt gibt es natürliche Quellen mit sprudelndem Wasser (kohlensäurehaltiges Wasser), und das künstlich hergestellte kohlensäurehaltige Wasser ahmt dies nur nach. In der Geschichte sind die Menschen oft weite Strecken gereist, um sprudelndes Wasser zu probieren, seine Beliebtheit ist also gut dokumentiert.
Stickstoff wird zur Druckbeaufschlagung von Wasser beim Brauen und Kochen verwendet, da er wenig oder keinen Geschmack hinterlässt und im Allgemeinen keine anderen chemischen Verbindungen bildet. Er wird vor allem dann verwendet, wenn Sprudel benötigt wird, aber kein saurer Geschmack.
Sauerstoff ist für die Druckbeaufschlagung von Wasser ungeeignet, da bei normalem Sodadruck nur sehr wenig gelöst werden kann, und er hat keinen Geschmack, kann aber leicht unerwünschte chemische Verbindungen bilden.
Im 18. Jahrhundert war Joseph Priestley der erste, der diese Herstellungsentdeckung dokumentierte. Er stellte fest, dass es gut schmeckte und dem deutschen Selterswasser ähnlich war. Er entdeckte "Lüfte" (Gase) und identifizierte eine ganze Reihe verschiedener Gase. CO2 war das einzige, das er als wohlschmeckend bezeichnete. Seine billige CO2-Quelle war der gärende Treber aus der nahe gelegenen Brauerei. | ¿Por qué se empezó a utilizar CO2 (en lugar de, por ejemplo, oxígeno) para las bebidas carbonatadas? | ¡El CO2 sabe bien! El agua carbonatada es en realidad una solución débil de ácido carbónico; esto es lo que se saborea. Es como "sal y pimienta", pero para el agua.
El agua ligeramente ácida suele gustar, de ahí que a veces se utilice zumo de limón para empañar una jarra de agua cuando no se dispone de agua carbonatada.
El agua carbonatada libera burbujas de CO2 durante muchos minutos después de liberar la presión (reformación del ácido carbónico disuelto), lo que constituye un importante efecto de presentación que otros gases no suelen tener.
En muchos países, el suministro local de agua es ligeramente alcalino (debido a que la roca caliza es muy común), y esto puede dejar un mal regusto, y hacer que la comida en la boca sepa a jabón. La adición de ácidos débiles al agua ayuda a neutralizar este efecto.
En todo el mundo, algunas ciudades afortunadas tienen manantiales naturales con agua efervescente (agua carbonatada), y el agua carbonatada fabricada por el hombre no es más que una imitación. A lo largo de la historia, la gente ha recorrido grandes distancias para probar el agua efervescente, por lo que su popularidad está bien documentada.
El nitrógeno se utiliza para presurizar el agua en la elaboración de cerveza y la cocina, ya que apenas deja sabor y, por lo general, no forma otros compuestos químicos. Se utiliza sobre todo cuando se necesitan burbujas, pero no un sabor ácido.
El oxígeno no es adecuado para la presurización del agua, ya que puede disolverse muy poco a presiones normales de la sosa, y no tiene sabor, pero puede formar fácilmente compuestos químicos no deseados.
En el siglo XVIII, Joseph Priestley fue la primera persona que documentó este descubrimiento de fabricación. Observó precisamente que tenía buen sabor y que era similar al agua de Selters alemana. Estaba descubriendo "aires" (gases), e identificó de forma única bastantes gases diferentes. El CO2 fue el único que catalogó como de buen sabor. Su fuente barata de CO2 eran los granos en fermentación de la cervecería cercana. | Pourquoi a-t-on commencé à utiliser le CO2 (au lieu de l'oxygène, par exemple) pour les boissons gazeuses ? | Le CO2 a bon goût ! L'eau gazeuse est en fait une solution d'acide carbonique faible ; c'est ce que vous goûtez. C'est comme le sel et le poivre, mais pour l'eau.
L'eau légèrement acide est généralement appréciée, c'est pourquoi le jus de citron est parfois utilisé pour ternir une carafe d'eau lorsqu'il n'y a pas d'eau gazeuse disponible.
L'eau gazeuse libère des bulles de CO2 pendant de nombreuses minutes après que la pression a été relâchée (reformage de l'acide carbonique dissous), ce qui constitue un effet de présentation important que les autres gaz n'ont généralement pas.
Dans de nombreux pays, l'eau locale est légèrement alcaline (en raison de la présence fréquente de roches calcaires), ce qui peut laisser un arrière-goût désagréable et donner un goût savonneux aux aliments en bouche. L'ajout d'acides faibles à l'eau permet de neutraliser cet effet.
Dans le monde entier, certaines villes chanceuses possèdent des sources naturelles d'eau effervescente (eau gazeuse), que l'eau gazeuse fabriquée par l'homme ne fait qu'imiter. Dans l'histoire, les gens ont souvent parcouru de grandes distances pour goûter à l'eau effervescente, de sorte que sa popularité est bien documentée.
L'azote est utilisé pour la pressurisation de l'eau dans la brasserie et la cuisine, car il ne laisse que peu ou pas de goût et ne forme généralement pas d'autres composés chimiques. Il est utilisé principalement lorsque des bulles sont nécessaires, mais sans goût acide.
L'oxygène n'est pas adapté à la pressurisation de l'eau car il ne peut en dissoudre que très peu aux pressions normales de la soude, et il n'a pas de goût, mais peut facilement former des composés chimiques indésirables.
Au XVIIIe siècle, Joseph Priestley a été le premier à documenter cette découverte industrielle. Il nota précisément qu'elle avait bon goût et qu'elle était similaire à l'eau de Selters allemande. Il découvrait les "airs" (gaz) et a identifié de manière unique un certain nombre de gaz différents. Le CO2 est le seul qu'il ait cité comme ayant bon goût. Sa source de CO2 bon marché était les grains en fermentation de la brasserie voisine. | Perché si è iniziato a usare la CO2 (invece dell'ossigeno) per le bevande gassate? | La CO2 ha un buon sapore! L'acqua gassata è in realtà una soluzione debole di acido carbonico; è questo il suo sapore. È come "sale e pepe", ma per l'acqua.
L'acqua leggermente acida è di solito molto apprezzata, per cui a volte si usa il succo di limone per contaminare una brocca d'acqua quando non è disponibile l'acqua gassata.
L'acqua gassata rilascia bolle di CO2 per molti minuti dopo il rilascio della pressione (riformazione dell'acido carbonico disciolto), un importante effetto di presentazione che altri gas generalmente non hanno.
In molti Paesi l'acqua locale è leggermente alcalina (a causa delle rocce calcaree molto diffuse) e questo può lasciare un cattivo retrogusto e rendere saporito il cibo in bocca. L'aggiunta di acidi deboli all'acqua aiuta a neutralizzare questo effetto.
In tutto il mondo, alcune città fortunate hanno sorgenti naturali con acqua effervescente (acqua gassata), e l'acqua gassata prodotta dall'uomo non fa che imitarla. Nella storia le persone hanno spesso percorso grandi distanze per provare l'acqua effervescente, quindi la sua popolarità è ben documentata.
L'azoto viene utilizzato per la pressurizzazione dell'acqua nella produzione di birra e in cucina, in quanto lascia poco o nessun sapore e in genere non forma altri composti chimici. Viene utilizzato soprattutto quando sono richieste bollicine, ma non un sapore acido.
L'ossigeno non è adatto per la pressurizzazione dell'acqua, poiché può essere disciolto molto poco alle normali pressioni di soda, non ha sapore, ma può formare facilmente composti chimici indesiderati.
Nel XVIII secolo, Joseph Priestley fu il primo a documentare questa scoperta produttiva. Notò precisamente che aveva un buon sapore e che era simile all'acqua tedesca Selters. Egli stava scoprendo le "arie" (gas) e identificò in modo univoco diversi gas. La CO2 era l'unica che aveva indicato come di buon sapore. La sua fonte economica di CO2 era costituita dai cereali in fermentazione della vicina fabbrica di birra. |
281 | Say I have a file ```/templates/apple``` and I want to
* put it in two different places and then
* remove the original.
So, ```/templates/apple``` will be copied to ```/templates/used``` AND ```/templates/inuse```
and then after that I’d like to remove the original.
Is ```cp``` the best way to do this, followed by ```rm```? Or is there a better way?
I want to do it all in one line so I’m thinking it would look something like:
```cp /templates/apple /templates/used | cp /templates/apple /templates/inuse | rm /templates/apple
```
Is this the correct syntax? | You are using ```|``` (pipe) to direct the output of a command into another command. What you are looking for is ```&&``` operator to execute the next command only if the previous one succeeded:
```cp /templates/apple /templates/used && cp /templates/apple /templates/inuse && rm /templates/apple
```
Or
```cp /templates/apple /templates/used && mv /templates/apple /templates/inuse
```
To summarize (non-exhaustively) bash's command operators/separators:
* ```|``` pipes (pipelines) the standard output (```stdout```) of one command into the standard input of another one. Note that ```stderr``` still goes into its default destination, whatever that happen to be.
* ```|&```pipes both ```stdout``` and ```stderr``` of one command into the standard input of another one. Very useful, available in bash version 4 and above.
* ```&&``` executes the right-hand command of ```&&``` only if the previous one succeeded.
* ```||``` executes the right-hand command of ```||``` only it the previous one failed.
* ```;``` executes the right-hand command of ```;``` always regardless whether the previous command succeeded or failed. Unless ```set -e``` was previously invoked, which causes ```bash``` to fail on an error.
| Angenommen, ich habe eine Datei ```/templates/apple``` und möchte
* an zwei verschiedenen Orten ablegen und dann
* das Original entfernen.
Also, ```/templates/apple`` wird nach ```/templates/used`` UND ```/templates/inuse`` kopiert
und danach würde ich gerne das Original entfernen.
Ist ```cp`` der beste Weg, um dies zu tun, gefolgt von ```rm``? Oder gibt es einen besseren Weg?
Ich möchte alles in einer Zeile machen, also denke ich, dass es in etwa so aussehen würde:
```cp /templates/apple /templates/used | cp /templates/apple /templates/inuse | rm /templates/apple
```
Ist das die richtige Syntax? | Sie verwenden ```|``` (pipe), um die Ausgabe eines Befehls in einen anderen Befehl zu leiten. Was Sie suchen, ist der Operator ```&&``, um den nächsten Befehl nur dann auszuführen, wenn der vorherige Befehl erfolgreich war:
```cp /templates/apple /templates/used && cp /templates/apple /templates/inuse && rm /templates/apple
```
Oder
```cp /templates/apple /templates/used && mv /templates/apple /templates/inuse
```
Um die Befehlsoperatoren/Separatoren der Bash zusammenzufassen (ohne Anspruch auf Vollständigkeit):
* ```|``` leitet die Standardausgabe (```stdout``) eines Befehls in die Standardeingabe eines anderen Befehls um (pipelines). Beachten Sie, dass ```stderr`` immer noch in sein Standardziel geht, was auch immer das sein mag.
* ```|&``` leitet sowohl ```stdout`` als auch ```stderr`` eines Befehls in die Standardeingabe eines anderen Befehls. Sehr nützlich, verfügbar in Bash Version 4 und höher.
* ```&&``` führt den rechten Befehl von ```&&``` nur dann aus, wenn der vorherige Befehl erfolgreich war.
* ```||``` führt den rechten Befehl von ```||``` nur dann aus, wenn der vorherige Befehl fehlgeschlagen ist.
* ```;```` führt den rechten Befehl von ```;```` immer aus, unabhängig davon, ob der vorherige Befehl erfolgreich war oder nicht. Es sei denn, ```set -e`` wurde vorher aufgerufen, was dazu führt, dass ```bash`` bei einem Fehler fehlschlägt.
| Digamos que tengo un archivo ```/templates/apple`` y quiero
* ponerlo en dos lugares diferentes y luego
* eliminar el original.
Así, ``/templates/apple`` se copiará a ```/templates/used`` Y ```/templates/inuse``
y después de eso me gustaría eliminar el original.
¿Es ``cp`` la mejor manera de hacer esto, seguido de ```rm``? ¿O hay alguna forma mejor?
Quiero hacerlo todo en una sola línea así que estoy pensando que sería algo como:
```cp /templates/apple /templates/used | cp /templates/apple /templates/inuse | rm /templates/apple
```
¿Es esta la sintaxis correcta? | Estás usando ```|`` (pipe) para dirigir la salida de un comando a otro comando. Lo que estás buscando es el operador ```&&`` para ejecutar el siguiente comando sólo si el anterior tuvo éxito:
```cp /templates/apple /templates/used && cp /templates/apple /templates/inuse && rm /templates/apple
```
O
```cp /plantillas/manzana /plantillas/usadas && mv /plantillas/manzana /plantillas/enuso
```
Para resumir (de forma no exhaustiva) los operadores/separadores de comandos de bash:
* ```|`` canaliza (pipelines) la salida estándar (```stdout``) de un comando a la entrada estándar de otro. Ten en cuenta que ```stderr``` sigue yendo a su destino por defecto, sea cual sea.
* ```|&``` pasa tanto ```stdout`` como ```stderr`` de un comando a la entrada estándar de otro. Muy útil, disponible en bash versión 4 y superiores.
* ```&&`` ejecuta el comando de la derecha de ```&&`` sólo si el anterior tuvo éxito.
* ejecuta el comando a la derecha de ```||`` sólo si el anterior falló.
* ```;``` ejecuta la orden de la derecha de ```;``` siempre independientemente de si la orden anterior tuvo éxito o falló. A menos que ```set -e``` haya sido invocado previamente, lo que hace que ```bash`` falle por error.
| Disons que j'ai un fichier ``/templates/apple`` et que je veux
* le placer à deux endroits différents et ensuite
* supprimer l'original.
Donc, ``/templates/apple`` sera copié dans ``/templates/used`` ET ``/templates/inuse``
et j'aimerais ensuite supprimer l'original.
Est-ce que ``cp`` est la meilleure façon de faire cela, suivi de ``rm`` ? Ou existe-t-il une meilleure méthode ?
Je veux le faire en une seule ligne, donc je pense que cela ressemblerait à quelque chose comme :
``cp /templates/apple /templates/used | cp /templates/apple /templates/inuse | rm /templates/apple
```
Est-ce la bonne syntaxe ? | Vous utilisez ``|`` (pipe) pour diriger la sortie d'une commande vers une autre commande. Ce que vous recherchez, c'est l'opérateur ``&&`` pour exécuter la commande suivante seulement si la précédente a réussi :
```cp /templates/apple /templates/used && cp /templates/apple /templates/inuse && rm /templates/apple
```
Ou bien
```cp /templates/apple /templates/used && mv /templates/apple /templates/inuse
```
Pour résumer (de manière non exhaustive) les opérateurs/séparateurs de commandes de bash :
* ```|``` achemine (pipelines) la sortie standard (``stdout``) d'une commande dans l'entrée standard d'une autre commande. Notez que ``stderr`` va toujours dans sa destination par défaut, quelle qu'elle soit.
* ```|&``` envoie à la fois ``stdout`` et ``stderr``` d'une commande dans l'entrée standard d'une autre. Très utile, disponible dans la version 4 de bash et plus.
* ``&&`` exécute la commande de droite de ``&&``` seulement si la précédente a réussi.
* ```||``` exécute la commande de droite de ``||``` seulement si la précédente a échoué.
* ```;`` exécute la commande de droite de ``;`` toujours indépendamment du fait que la commande précédente ait réussi ou échoué. Sauf si ``set -e`` a été invoqué précédemment, ce qui fait échouer ``bash`` en cas d'erreur.
| Supponiamo di avere un file ```/templates/apple`` e di volere
* metterlo in due posti diversi e poi
* rimuovere l'originale.
Quindi, ```/templates/apple`` verrà copiato in ```/templates/used`` e ```/templates/inuse``.
e poi vorrei rimuovere l'originale.
Il modo migliore per farlo è ```cp```, seguito da ```rm``? O c'è un modo migliore?
Voglio fare tutto in un'unica riga, quindi penso che il procedimento sia qualcosa di simile a:
```cp /templates/apple /templates/used | cp /templates/apple /templates/inuse | rm /templates/apple
```
È questa la sintassi corretta? | Si sta usando ```|``` (pipe) per dirigere l'output di un comando in un altro comando. Quello che si cerca è l'operatore ```&&``` per eseguire il comando successivo solo se il precedente ha avuto successo:
```cp /templates/apple /templates/used && cp /templates/apple /templates/inuse && rm /templates/apple
```
Oppure
```cp /templates/apple /templates/used && mv /templates/apple /templates/inuse
```
Per riassumere (in modo non esaustivo) gli operatori/separatori di comando di bash:
* ```|```` convoglia (pipeline) lo standard output (```stdout``) di un comando nello standard input di un altro. Si noti che ``stderr``` va comunque nella sua destinazione predefinita, qualunque essa sia.
* ```|&````pipa sia ```stdout`` che ```stderr``` di un comando nello standard input di un altro. Molto utile, disponibile in bash versione 4 e successive.
* ```&&``` esegue il comando di destra di ```&&``` solo se il precedente ha avuto successo.
* ```||``` esegue il comando di destra di ```||``` solo se il precedente è fallito.
* ```;``` esegue il comando di destra di ```;`` sempre, indipendentemente dal fatto che il comando precedente sia riuscito o meno. A meno che non sia stato invocato in precedenza ```set -e``, il che fa sì che ```bash`` fallisca in caso di errore.
|
282 | When are Decision Diagrams the right way to model and solve a problem? | Decision diagrams (DDs) are most effective when they can compactly represent a large (perhaps exponential) set of solutions. This is done by merging equivalent states in each layer. To make decision diagrams scalable, we can use relaxed decision diagrams which allow merging nodes that are not necessarily equivalent. Relaxed decision diagrams provide dual bounds on the objective function -- a larger width can produce a stronger bound.
The relationship between the size of the decision diagram and the underlying combinatorial structure of the problem is well studied in the computer science literature; see for example the textbook by Wegener. The most important feature that influences the size is the variable ordering. We can use this to come up with some general guidelines on when a DD may be successful for combinatorial optimization:
* The problem has a sequential structure, and decisions for stage $i$ depend only on the decisions made in stages $i-k$ through $i-1$, for small $k$.
* The induced width of the constraint graph of the problem is small.
* For a MIP model, the constraint matrix has a small bandwidth.
* For knapsack-like problems, the maximum `budget' is relatively small.
Note that in some of the above cases, precise characterization of 'small' may yield (pseudo-)polynomial bounds on the size of the exact DD. In practice, relaxed DDs will always have polynomial size.
There are several areas of combinatorial optimization in which decision diagrams have been successfully applied:
* Sequencing and routing problems. For example, single machine scheduling with setup times, time windows, and/or precedence constraints, which can also be applied to constrained traveling salesperson problems. A similar decision diagram representation was used by Grubhub to solve pickup-and-delivery problems.
* Decomposition and embedding in MIP models. Decision diagrams have been used to represent subproblems in MIP models that are otherwise difficult to linearize. For example, to represent nonlinear objective functions, constrained employee schedules, or nonlinear circuit design. DDs have also been used in column generation.
* Graph-theoretic problems. Examples include set covering, maximum independent set, and maximum cut.
* Constraint programming. Constraint propagation based on (relaxed) decision diagrams can be much more effective than propagating domains of individual variables. This was first demonstrated on overlapping alldifferent constraints. | Wann sind Entscheidungsdiagramme die richtige Methode zur Modellierung und Lösung eines Problems? | Entscheidungsdiagramme (DDs) sind am effektivsten, wenn sie eine große (vielleicht exponentielle) Menge von Lösungen kompakt darstellen können. Dies geschieht durch die Zusammenführung gleichwertiger Zustände in jeder Schicht. Um Entscheidungsdiagramme skalierbar zu machen, können wir entspannte Entscheidungsdiagramme verwenden, die das Zusammenführen von Knoten erlauben, die nicht unbedingt gleichwertig sind. Entspannte Entscheidungsdiagramme bieten duale Schranken für die Zielfunktion - eine größere Breite kann eine stärkere Schranke erzeugen.
Die Beziehung zwischen der Größe des Entscheidungsdiagramms und der zugrundeliegenden kombinatorischen Struktur des Problems ist in der Informatikliteratur gut untersucht; siehe zum Beispiel das Lehrbuch von Wegener. Das wichtigste Merkmal, das die Größe beeinflusst, ist die Reihenfolge der Variablen. Wir können dies nutzen, um einige allgemeine Richtlinien dafür aufzustellen, wann eine DD für die kombinatorische Optimierung erfolgreich sein kann:
* Das Problem hat eine sequentielle Struktur, und die Entscheidungen für Stufe $i$ hängen nur von den Entscheidungen in den Stufen $i-k$ bis $i-1$ ab, für kleine $k$.
* Die induzierte Breite des Constraint-Graphen des Problems ist klein.
* Für ein MIP-Modell hat die Constraint-Matrix eine kleine Bandbreite.
* Bei knapsackähnlichen Problemen ist das maximale "Budget" relativ klein.
Es ist zu beachten, dass in einigen der oben genannten Fälle eine genaue Charakterisierung von "klein" zu (pseudo-)polynomialen Schranken für die Größe der exakten DD führen kann. In der Praxis werden entspannte DDs immer eine polynomielle Größe haben.
Es gibt mehrere Bereiche der kombinatorischen Optimierung, in denen Entscheidungsdiagramme erfolgreich eingesetzt wurden:
* Sequenzierungs- und Routing-Probleme. Zum Beispiel die Planung von Einzelmaschinen mit Rüstzeiten, Zeitfenstern und/oder Vorrangbeschränkungen, die auch auf eingeschränkte Probleme mit reisenden Verkäufern angewendet werden können. Eine ähnliche Entscheidungsdiagramm-Darstellung wurde von Grubhub zur Lösung von Abhol- und Auslieferungsproblemen verwendet.
* Zerlegung und Einbettung in MIP-Modelle. Entscheidungsdiagramme wurden zur Darstellung von Teilproblemen in MIP-Modellen verwendet, die ansonsten schwer zu linearisieren sind. Zum Beispiel zur Darstellung nichtlinearer Zielfunktionen, eingeschränkter Mitarbeiterpläne oder nichtlinearer Schaltkreisentwürfe. DDs wurden auch bei der Spaltengenerierung verwendet.
* Graphentheoretische Probleme. Beispiele hierfür sind die Überdeckung von Mengen, die maximale unabhängige Menge und der maximale Schnitt.
* Constraint-Programmierung. Die Fortpflanzung von Beschränkungen auf der Grundlage von (entspannten) Entscheidungsdiagrammen kann viel effektiver sein als die Fortpflanzung von Bereichen einzelner Variablen. Dies wurde zum ersten Mal bei überlappenden alldifferenten Bedingungen demonstriert. | ¿Cuándo son los diagramas de decisión la forma correcta de modelar y resolver un problema? | Los diagramas de decisión (DD) son más eficaces cuando pueden representar de forma compacta un conjunto amplio (quizá exponencial) de soluciones. Esto se consigue fusionando estados equivalentes en cada capa. Para que los diagramas de decisión sean escalables, podemos utilizar diagramas de decisión relajados que permiten fusionar nodos que no son necesariamente equivalentes. Los diagramas de decisión relajados proporcionan límites duales en la función objetivo: una anchura mayor puede producir un límite más fuerte.
La relación entre el tamaño del diagrama de decisión y la estructura combinatoria subyacente del problema está bien estudiada en la literatura informática; véase, por ejemplo, el libro de texto de Wegener. La característica más importante que influye en el tamaño es el orden de las variables. Podemos utilizar esto para elaborar algunas directrices generales sobre cuándo un DD puede tener éxito para la optimización combinatoria:
* El problema tiene una estructura secuencial, y las decisiones para la etapa $i$ dependen sólo de las decisiones tomadas en las etapas $i-k$ hasta $i-1$, para $k$ pequeños.
* La anchura inducida del grafo de restricciones del problema es pequeña.
* Para un modelo MIP, la matriz de restricciones tiene un ancho de banda pequeño.
* En los problemas tipo knapsack, el "presupuesto" máximo es relativamente pequeño.
Obsérvese que en algunos de los casos anteriores, una caracterización precisa de "pequeño" puede dar lugar a límites (pseudo)polinómicos del tamaño del DD exacto. En la práctica, los DD relajados siempre tendrán un tamaño polinómico.
Existen varias áreas de optimización combinatoria en las que los diagramas de decisión se han aplicado con éxito:
* Problemas de secuenciación y enrutamiento. Por ejemplo, programación de una sola máquina con tiempos de preparación, ventanas de tiempo y/o restricciones de precedencia, que también pueden aplicarse a problemas de vendedor itinerante con restricciones. Grubhub utilizó una representación de diagrama de decisión similar para resolver problemas de recogida y entrega.
* Descomposición e incrustación en modelos PIM. Los diagramas de decisión se han utilizado para representar subproblemas en modelos MIP que de otro modo serían difíciles de linealizar. Por ejemplo, para representar funciones objetivo no lineales, horarios de empleados con restricciones o diseño de circuitos no lineales. Los DD también se han utilizado en la generación de columnas.
* Problemas de teoría de grafos. Algunos ejemplos son la cobertura de conjuntos, el conjunto independiente máximo y el corte máximo.
* Programación con restricciones. La propagación de restricciones basada en diagramas de decisión (relajados) puede ser mucho más eficaz que la propagación de dominios de variables individuales. Esto se demostró por primera vez con restricciones superpuestas alldiferentes. | Quand les diagrammes de décision sont-ils le bon moyen de modéliser et de résoudre un problème ? | Les diagrammes de décision (DD) sont plus efficaces lorsqu'ils peuvent représenter de manière compacte un ensemble important (voire exponentiel) de solutions. Pour ce faire, ils fusionnent les états équivalents dans chaque couche. Pour rendre les diagrammes de décision évolutifs, nous pouvons utiliser des diagrammes de décision détendus qui permettent de fusionner des nœuds qui ne sont pas nécessairement équivalents. Les diagrammes de décision détendus fournissent des limites duales sur la fonction objective - une largeur plus importante peut produire une limite plus forte.
La relation entre la taille du diagramme de décision et la structure combinatoire sous-jacente du problème est bien étudiée dans la littérature informatique ; voir par exemple le manuel de Wegener. La caractéristique la plus importante qui influence la taille est l'ordre des variables. Nous pouvons nous en servir pour formuler quelques lignes directrices générales sur le moment où un DD peut s'avérer efficace pour l'optimisation combinatoire :
* Le problème a une structure séquentielle et les décisions prises à l'étape $i$ ne dépendent que des décisions prises aux étapes $i-k$ à $i-1$, pour un petit $k$.
* La largeur induite du graphe de contraintes du problème est faible.
* Pour un modèle MIP, la matrice des contraintes a une faible largeur de bande.
* Pour les problèmes de type "knapsack", le "budget" maximal est relativement faible.
Il convient de noter que dans certains des cas susmentionnés, une caractérisation précise de "petit" peut donner des limites (pseudo-)polynomiales sur la taille du DD exact. Dans la pratique, les DD détendus auront toujours une taille polynomiale.
Les diagrammes de décision ont été utilisés avec succès dans plusieurs domaines de l'optimisation combinatoire :
* Problèmes de séquencement et de routage. Par exemple, l'ordonnancement d'une seule machine avec des temps de préparation, des fenêtres temporelles et/ou des contraintes de priorité, qui peut également être appliqué à des problèmes de vendeurs itinérants sous contrainte. Une représentation similaire des diagrammes de décision a été utilisée par Grubhub pour résoudre les problèmes de ramassage et de livraison.
* Décomposition et intégration dans les modèles MIP. Les diagrammes de décision ont été utilisés pour représenter des sous-problèmes dans des modèles MIP difficiles à linéariser. Par exemple, pour représenter des fonctions objectives non linéaires, des horaires d'employés contraints ou la conception de circuits non linéaires. Les DD ont également été utilisés pour la génération de colonnes.
* Problèmes de théorie des graphes. Les exemples incluent la couverture d'un ensemble, l'ensemble indépendant maximal et la coupe maximale.
* Programmation par contraintes. La propagation des contraintes basée sur des diagrammes de décision (détendus) peut être beaucoup plus efficace que la propagation des domaines de variables individuelles. Cela a été démontré pour la première fois sur des contraintes alldifférentes qui se chevauchent. | Quando i diagrammi decisionali sono il modo giusto per modellare e risolvere un problema? | I diagrammi decisionali (DD) sono più efficaci quando possono rappresentare in modo compatto un ampio (forse esponenziale) insieme di soluzioni. Ciò avviene unendo stati equivalenti in ogni livello. Per rendere i diagrammi decisionali scalabili, possiamo utilizzare diagrammi decisionali rilassati che consentono di unire nodi non necessariamente equivalenti. I diagrammi decisionali rilassati forniscono limiti duali alla funzione obiettivo: un'ampiezza maggiore può produrre un limite più forte.
La relazione tra la dimensione del diagramma decisionale e la struttura combinatoria del problema è ben studiata nella letteratura informatica; si veda per esempio il libro di testo di Wegener. La caratteristica più importante che influenza le dimensioni è l'ordinamento delle variabili. Possiamo usare questo dato per ricavare alcune linee guida generali su quando un DD può avere successo per l'ottimizzazione combinatoria:
* Il problema ha una struttura sequenziale e le decisioni per lo stadio $i$ dipendono solo dalle decisioni prese negli stadi da $i-k$ a $i-1$, per piccoli $k$.
* L'ampiezza indotta del grafo dei vincoli del problema è piccola.
* Per un modello MIP, la matrice dei vincoli ha una larghezza di banda ridotta.
* Per i problemi di tipo knapsack, il `budget' massimo è relativamente piccolo.
Si noti che in alcuni dei casi sopra descritti, una precisa caratterizzazione di "piccolo" può produrre limiti (pseudo-)polinomiali sulla dimensione della DD esatta. In pratica, le DD rilassate avranno sempre dimensioni polinomiali.
Esistono diversi settori dell'ottimizzazione combinatoria in cui i diagrammi decisionali sono stati applicati con successo:
* Problemi di sequenziamento e instradamento. Ad esempio, la programmazione di una singola macchina con tempi di allestimento, finestre temporali e/o vincoli di precedenza, che possono essere applicati anche a problemi vincolati di commesso viaggiatore. Una rappresentazione simile del diagramma decisionale è stata utilizzata da Grubhub per risolvere problemi di ritiro e consegna.
* Decomposizione e incorporazione nei modelli MIP. I diagrammi decisionali sono stati utilizzati per rappresentare sottoproblemi in modelli MIP altrimenti difficili da linearizzare. Ad esempio, per rappresentare funzioni obiettivo non lineari, programmi vincolati per i dipendenti o progettazione di circuiti non lineari. I DD sono stati utilizzati anche nella generazione di colonne.
* Problemi grafo-teorici. Esempi sono la copertura degli insiemi, il massimo insieme indipendente e il massimo taglio.
* Programmazione a vincoli. La propagazione dei vincoli basata sui diagrammi decisionali (rilassati) può essere molto più efficace della propagazione dei domini delle singole variabili. Questo è stato dimostrato per la prima volta su vincoli sovrapposti e diversi. |
283 | Essentially, I have a protagonist who I set up as a 'main' good guy in one of my series. However, in my final series, I intend to make him turn to the dark side and oppose my other protagonists (from my other series). It's clear in his series that the protagonist-turned-antagonist is very devious, and he has had hostile intentions previously towards the protagonists of the other series.
My question:
Should I avoid turning my protagonist into an antagonist? Are there any foreseeable problems with this? Will this be a problem for readers? Any tips or tricks to handle this? | Sounds like a great idea!
Seriously though: the antagonist is the single most important character to any plot. The very best antagonists have motivations and feelings that readers can understand and empathize with. A former protagonist as an antagonist sounds really good. Both the reader and the author should be in for a fun ride, because it is very likely you will see your character grow in ways you didn't expect when you had them boxed in as a "good guy".
Think about people you know in real life. If you really observe people, you come to understand that nobody is a "good guy". Sure there are people who are generally good and generally do good things, but nobody is perfect, and even the best people have thoughts and motivations you may not approve of. Even more interesting is the fact that two people can be absolutely opposed to one another without either one being objectively "wrong" or "evil". They might just have goals and motivations that are diametrically opposed.
Imagine a city council wants more tax money to build a park. A local business wants to pay less tax money so they can afford to give Christmas bonuses. The business owner isn't "evil", in fact, he wants to give Christmas bonuses! The city council isn't "evil" either, they just want a park for the kids. Sometimes goals just conflict in an irreconcilable way. That's the real world. That kind of plot provides a lot more food for thought than a two dimensional "good versus evil" morning cartoon romp. | Im Wesentlichen habe ich einen Protagonisten, den ich in einer meiner Serien als "Haupt"-Gutmenschen einsetze. In meiner letzten Serie möchte ich jedoch, dass er sich der dunklen Seite zuwendet und sich gegen meine anderen Protagonisten (aus meinen anderen Serien) stellt. In seiner Serie ist klar, dass der Protagonist, der zum Antagonisten wurde, sehr hinterhältig ist, und er hatte zuvor feindliche Absichten gegenüber den Protagonisten der anderen Serien.
Meine Frage:
Sollte ich es vermeiden, meinen Protagonisten in einen Antagonisten zu verwandeln? Gibt es dabei irgendwelche vorhersehbaren Probleme? Wird dies ein Problem für die Leser sein? Gibt es Tipps oder Tricks, wie man damit umgehen kann? | Das klingt nach einer großartigen Idee!
Aber im Ernst: Der Antagonist ist die wichtigste Figur in jeder Handlung. Die allerbesten Antagonisten haben Motivationen und Gefühle, die die Leser verstehen und nachempfinden können. Ein ehemaliger Protagonist als Antagonist klingt wirklich gut. Sowohl der Leser als auch der Autor können sich auf einen unterhaltsamen Ritt freuen, denn es ist sehr wahrscheinlich, dass sich Ihre Figur auf eine Art und Weise entwickelt, die Sie nicht erwartet haben, als Sie sie als "guten Kerl" eingepackt hatten.
Denken Sie an Menschen, die Sie im wirklichen Leben kennen. Wenn Sie die Menschen wirklich beobachten, werden Sie feststellen, dass niemand ein "guter Kerl" ist. Sicherlich gibt es Menschen, die im Allgemeinen gut sind und im Allgemeinen gute Dinge tun, aber niemand ist perfekt, und selbst die besten Menschen haben Gedanken und Beweggründe, die Sie vielleicht nicht gutheißen. Noch interessanter ist die Tatsache, dass zwei Menschen absolut gegensätzlich sein können, ohne dass einer von ihnen objektiv "falsch" oder "böse" ist. Sie haben vielleicht nur Ziele und Motivationen, die diametral entgegengesetzt sind.
Stellen Sie sich vor, ein Stadtrat möchte mehr Steuergelder für den Bau eines Parks. Ein örtliches Unternehmen möchte weniger Steuern zahlen, damit es sich Weihnachtsgeld leisten kann. Der Geschäftsinhaber ist nicht "böse", er möchte sogar Weihnachtsgeld zahlen! Der Stadtrat ist auch nicht "böse", er will nur einen Park für die Kinder. Manchmal kollidieren Ziele einfach auf unüberbrückbare Weise. Das ist die reale Welt. Diese Art von Handlung regt viel mehr zum Nachdenken an als ein zweidimensionales "Gut gegen Böse"-Zeichentrickspiel am Morgen. | Esencialmente, tengo un protagonista que establezco como "principal" bueno en una de mis series. Sin embargo, en mi serie final, pretendo que se pase al lado oscuro y se oponga a mis otros protagonistas (de mis otras series). En su serie está claro que el protagonista convertido en antagonista es muy taimado, y ha tenido intenciones hostiles anteriormente hacia los protagonistas de las otras series.
Mi pregunta:
¿Debería evitar convertir a mi protagonista en antagonista? ¿Hay algún problema previsible con esto? ¿Supondrá un problema para los lectores? ¿Algún consejo o truco para solucionarlo? | Me parece una idea estupenda.
En serio: el antagonista es el personaje más importante de la trama. Los mejores antagonistas tienen motivaciones y sentimientos que los lectores pueden entender y con los que pueden empatizar. Un antiguo protagonista como antagonista suena muy bien. Tanto el lector como el autor se divertirán, porque es muy probable que veas crecer a tu personaje de una forma que no esperabas cuando lo tenías encasillado como un "buen chico".
Piensa en la gente que conoces en la vida real. Si realmente observas a la gente, llegas a comprender que nadie es un "buen tipo". Claro que hay personas que son buenas en general y que hacen cosas buenas en general, pero nadie es perfecto, e incluso las mejores personas tienen pensamientos y motivaciones que puede que no apruebes. Aún más interesante es el hecho de que dos personas pueden ser absolutamente opuestas sin que ninguna de ellas esté objetivamente "equivocada" o sea "mala". Puede que sólo tengan objetivos y motivaciones diametralmente opuestos.
Imaginemos que un ayuntamiento quiere más impuestos para construir un parque. Una empresa local quiere pagar menos impuestos para poder pagar la paga extra de Navidad. El propietario de la empresa no es "malvado", de hecho, ¡quiere dar aguinaldos! El ayuntamiento tampoco es "malvado", sólo quiere un parque para los niños. A veces los objetivos entran en conflicto de forma irreconciliable. Así es el mundo real. Este tipo de trama da mucho más que pensar que un dibujo animado matinal bidimensional de "el bien contra el mal". | En gros, j'ai un protagoniste que j'ai mis en place en tant que gentil "principal" dans une de mes séries. Cependant, dans ma dernière série, j'ai l'intention de le faire basculer du côté obscur et de l'opposer à mes autres protagonistes (de mes autres séries). Il est clair dans sa série que le protagoniste devenu antagoniste est très sournois, et qu'il a déjà eu des intentions hostiles envers les protagonistes des autres séries.
Ma question :
Dois-je éviter de transformer mon protagoniste en antagoniste ? Y a-t-il des problèmes prévisibles ? Cela posera-t-il un problème aux lecteurs ? Y a-t-il des conseils ou des astuces pour y remédier ? | C'est une excellente idée !
Plus sérieusement, l'antagoniste est le personnage le plus important de toute intrigue. Les meilleurs antagonistes ont des motivations et des sentiments que les lecteurs peuvent comprendre et pour lesquels ils peuvent éprouver de l'empathie. Un ancien protagoniste en tant qu'antagoniste, c'est une très bonne idée. Le lecteur et l'auteur devraient s'amuser, car il est très probable que vous verrez votre personnage évoluer d'une manière que vous n'attendiez pas lorsqu'il était cantonné au rôle de "gentil".
Pensez aux personnes que vous connaissez dans la vie réelle. Si vous observez vraiment les gens, vous finirez par comprendre que personne n'est un "bon gars". Bien sûr, il y a des gens qui sont généralement bons et qui font généralement de bonnes choses, mais personne n'est parfait, et même les meilleures personnes ont des pensées et des motivations que vous n'approuvez peut-être pas. Ce qui est encore plus intéressant, c'est que deux personnes peuvent être absolument opposées l'une à l'autre sans que l'une ou l'autre soit objectivement "mauvaise" ou "méchante". Elles peuvent simplement avoir des objectifs et des motivations diamétralement opposés.
Imaginons qu'un conseil municipal veuille augmenter les impôts pour construire un parc. Une entreprise locale veut payer moins d'impôts pour pouvoir se permettre d'offrir des primes de Noël. Le propriétaire de l'entreprise n'est pas "méchant", en fait, il veut donner des primes de Noël ! Le conseil municipal n'est pas "méchant" non plus, il veut juste un parc pour les enfants. Parfois, les objectifs s'opposent de manière irréconciliable. C'est le monde réel. Ce genre d'intrigue donne beaucoup plus à réfléchir qu'un dessin animé matinal bidimensionnel du type "le bien contre le mal". | In sostanza, ho un protagonista che ho impostato come un buono "principale" in una delle mie serie. Tuttavia, nella mia serie finale, intendo farlo passare al lato oscuro e opporsi agli altri protagonisti (delle altre serie). Nella sua serie è chiaro che il protagonista-antagonista è molto subdolo, e in precedenza ha avuto intenzioni ostili nei confronti dei protagonisti delle altre serie.
La mia domanda:
Dovrei evitare di trasformare il mio protagonista in un antagonista? Ci sono problemi prevedibili? Sarà un problema per i lettori? Ci sono consigli o trucchi per gestire questa situazione? | Sembra un'ottima idea!
Scherzi a parte, l'antagonista è il personaggio più importante di ogni trama. I migliori antagonisti hanno motivazioni e sentimenti che i lettori possono comprendere ed empatizzare. Un ex protagonista come antagonista suona davvero bene. Sia il lettore che l'autore dovrebbero divertirsi, perché è molto probabile che vedrete il vostro personaggio crescere in modi che non vi aspettavate quando lo avete incasellato come "buono".
Pensate alle persone che conoscete nella vita reale. Se osservate davvero le persone, vi rendete conto che nessuno è un "bravo ragazzo". Certo, ci sono persone che in genere sono buone e in genere fanno cose buone, ma nessuno è perfetto e anche le persone migliori hanno pensieri e motivazioni che non si possono approvare. Ancora più interessante è il fatto che due persone possono essere assolutamente opposte l'una all'altra senza che nessuna delle due sia oggettivamente "sbagliata" o "cattiva". Potrebbero semplicemente avere obiettivi e motivazioni diametralmente opposti.
Immaginiamo che il consiglio comunale voglia più soldi per costruire un parco. Un'azienda locale vuole pagare meno tasse per potersi permettere di dare gratifiche natalizie. Il proprietario dell'azienda non è "malvagio", anzi, vuole dare le gratifiche natalizie! Anche il consiglio comunale non è "malvagio", vuole solo un parco per i bambini. A volte gli obiettivi sono in conflitto in modo inconciliabile. Questo è il mondo reale. Questo tipo di trama offre molti più spunti di riflessione di un cartone animato mattutino bidimensionale "bene contro male". |
284 | I'd never heard of anycast until a few seconds ago when I read "What are some cool or useful server/networking tricks?".
The wikipedia "Anycast" article on it is quite formal and doesn't really evoke a mental picture of how it would be used.
Can someone explain in a few informal sentences what "anycast" is, how you configure it (just in a general sense), and what its benefits are (what does it make easier)? | Anycast is networking technique where the same IP prefix is advertised from multiple locations. The network then decides which location to route a user request to, based on routing protocol costs and possibly the 'health' of the advertising servers.
There are several benefits to anycast. First, in steady state, users of an anycast service (DNS is an excellent example) will always connect to the 'closest' (from a routing protocol perspective) DNS server. This reduces latency, as well as providing a level of load-balancing (assuming that your consumers are evenly distributed around your network).
Another advantage is ease of configuration management. Rather than having to configure different DNS servers depending on where a server/workstation is deployed (Asia, America, Europe), you have one IP address that is configured in every location.
Depending on how anycast is implemented, it can also provide a level of high availability. If the advertisement of the anycast route is conditional on some sort of health check (e.g. a DNS query for a well known domain, in this example), then as soon as a server fails its route can be removed. Once the network reconverges, user requests will be seamlessly forwarded to the next closest instance of DNS, without the need for any manual intervention or reconfiguration.
A final advantage is that of horizontal scaling; if you find that one server is being overly loaded, simply deploy another one in a location that would allow it to take some proportion of the overloaded server's requests. Again, as no client configuration is required, this can be done very quickly. | Ich hatte noch nie von Anycast gehört, bis ich vor ein paar Sekunden las: "Was sind coole oder nützliche Server-/Netzwerk-Tricks?".
Der Wikipedia-Artikel über "Anycast" ist ziemlich formell und vermittelt nicht wirklich ein Bild davon, wie es verwendet wird.
Kann mir jemand in ein paar lockeren Sätzen erklären, was "Anycast" ist, wie man es konfiguriert (nur ganz allgemein) und welche Vorteile es hat (was es einfacher macht)? | Anycast ist eine Netzwerktechnik, bei der derselbe IP-Präfix von mehreren Standorten aus beworben wird. Das Netz entscheidet dann auf der Grundlage der Kosten des Routing-Protokolls und möglicherweise der "Gesundheit" der Werbeserver, an welchen Standort eine Benutzeranfrage weitergeleitet werden soll.
Anycast bietet mehrere Vorteile. Erstens werden die Nutzer eines Anycast-Dienstes (DNS ist ein hervorragendes Beispiel) im stabilen Zustand immer mit dem (aus Sicht des Routing-Protokolls) "nächstgelegenen" DNS-Server verbunden. Dies verringert die Latenzzeit und sorgt für einen gewissen Lastausgleich (unter der Annahme, dass Ihre Kunden gleichmäßig über Ihr Netzwerk verteilt sind).
Ein weiterer Vorteil ist die einfache Verwaltung der Konfiguration. Anstatt verschiedene DNS-Server zu konfigurieren, je nachdem, wo ein Server/Arbeitsplatz eingesetzt wird (Asien, Amerika, Europa), haben Sie eine IP-Adresse, die an jedem Standort konfiguriert ist.
Je nachdem, wie Anycast implementiert ist, kann es auch ein gewisses Maß an Hochverfügbarkeit bieten. Wenn die Bekanntgabe der Anycast-Route von einer Art Gesundheitsprüfung abhängt (in diesem Beispiel z. B. einer DNS-Abfrage für eine bekannte Domäne), dann kann die Route entfernt werden, sobald ein Server ausfällt. Sobald das Netz wieder funktioniert, werden die Benutzeranfragen nahtlos an die nächstgelegene DNS-Instanz weitergeleitet, ohne dass ein manueller Eingriff oder eine Neukonfiguration erforderlich ist.
Ein letzter Vorteil ist die horizontale Skalierung: Wenn Sie feststellen, dass ein Server übermäßig belastet wird, stellen Sie einfach einen weiteren Server an einer Stelle auf, die es ihm ermöglicht, einen Teil der Anfragen des überlasteten Servers zu übernehmen. Da auch hier keine Client-Konfiguration erforderlich ist, kann dies sehr schnell geschehen. | Nunca había oído hablar de anycast hasta hace unos segundos, cuando leí "¿Cuáles son algunos trucos de servidor/redes interesantes o útiles?".
El artículo de wikipedia "Anycast" sobre ello es bastante formal y no evoca realmente una imagen mental de cómo se usaría.
¿Puede alguien explicar en unas pocas frases informales qué es "anycast", cómo se configura (sólo en un sentido general) y cuáles son sus ventajas (qué facilita)? | Anycast es una técnica de red en la que el mismo prefijo IP se anuncia desde varias ubicaciones. A continuación, la red decide a qué ubicación dirigir la solicitud de un usuario en función de los costes del protocolo de enrutamiento y, posiblemente, de la "salud" de los servidores anunciantes.
El anycast tiene varias ventajas. En primer lugar, en estado estacionario, los usuarios de un servicio anycast (DNS es un ejemplo excelente) siempre se conectarán al servidor DNS "más cercano" (desde la perspectiva del protocolo de enrutamiento). Así se reduce la latencia y se equilibra la carga (suponiendo que los usuarios estén distribuidos uniformemente por la red).
Otra ventaja es la facilidad de gestión de la configuración. En lugar de tener que configurar diferentes servidores DNS en función de dónde esté desplegado un servidor o puesto de trabajo (Asia, América, Europa), se dispone de una dirección IP configurada en cada ubicación.
Dependiendo de cómo se implemente anycast, también puede proporcionar un nivel de alta disponibilidad. Si el anuncio de la ruta anycast está condicionado a algún tipo de comprobación de salud (por ejemplo, una consulta DNS para un dominio bien conocido, en este ejemplo), tan pronto como un servidor falle su ruta puede ser eliminada. Una vez que la red se reconvierta, las peticiones de los usuarios se reenviarán sin problemas a la siguiente instancia de DNS más cercana, sin necesidad de intervención manual ni reconfiguración.
Una última ventaja es el escalado horizontal: si un servidor está sobrecargado, basta con desplegar otro en una ubicación que le permita recibir una parte de las peticiones del servidor sobrecargado. Una vez más, como no es necesario configurar el cliente, esto puede hacerse muy rápidamente. | Je n'avais jamais entendu parler d'anycast jusqu'à il y a quelques secondes lorsque j'ai lu "What are some cool or useful server/networking tricks ?".
L'article "Anycast" de wikipedia est assez formel et n'évoque pas vraiment une image mentale de la façon dont il serait utilisé.
Quelqu'un pourrait-il expliquer en quelques phrases informelles ce qu'est "anycast", comment on le configure (d'une manière générale), et quels sont ses avantages (qu'est-ce qu'il facilite) ? | L'Anycast est une technique de réseau dans laquelle le même préfixe IP est annoncé à partir de plusieurs endroits. Le réseau décide alors à quel endroit acheminer la demande de l'utilisateur, en fonction des coûts du protocole de routage et éventuellement de la "santé" des serveurs de publicité.
La diffusion aléatoire présente plusieurs avantages. Tout d'abord, en régime permanent, les utilisateurs d'un service anycast (le DNS en est un excellent exemple) se connecteront toujours au serveur DNS le plus "proche" (du point de vue du protocole de routage). Cela permet de réduire la latence et d'assurer un certain niveau d'équilibrage de la charge (en supposant que les utilisateurs soient répartis uniformément sur le réseau).
Un autre avantage est la facilité de gestion de la configuration. Plutôt que de devoir configurer différents serveurs DNS en fonction de l'endroit où un serveur/poste de travail est déployé (Asie, Amérique, Europe), vous disposez d'une adresse IP qui est configurée à chaque endroit.
En fonction de la manière dont la fonction anycast est mise en œuvre, elle peut également fournir un niveau de haute disponibilité. Si l'annonce de la route anycast est conditionnée par une sorte de contrôle de santé (par exemple, une requête DNS pour un domaine bien connu, dans cet exemple), alors dès qu'un serveur tombe en panne, sa route peut être supprimée. Une fois le réseau reconverti, les demandes des utilisateurs seront transmises de manière transparente à l'instance DNS la plus proche, sans qu'il soit nécessaire de procéder à une intervention manuelle ou à une reconfiguration.
Si vous constatez qu'un serveur est trop sollicité, il suffit d'en déployer un autre à un endroit qui lui permettra de prendre en charge une partie des requêtes du serveur surchargé. Là encore, comme aucune configuration du client n'est requise, cette opération peut être réalisée très rapidement. | Non avevo mai sentito parlare di anycast fino a pochi secondi fa, quando ho letto "Quali sono alcuni trucchi di server/networking interessanti o utili?".
L'articolo di wikipedia "Anycast" è piuttosto formale e non evoca un'immagine mentale di come potrebbe essere utilizzato.
Qualcuno può spiegare in poche frasi informali cos'è "anycast", come si configura (in senso generale) e quali sono i suoi vantaggi (cosa rende più facile)? | Anycast è una tecnica di rete in cui lo stesso prefisso IP viene pubblicizzato da più postazioni. La rete decide quindi a quale località indirizzare una richiesta dell'utente, in base ai costi del protocollo di routing ed eventualmente alla "salute" dei server pubblicitari.
L'anycast presenta diversi vantaggi. In primo luogo, in stato stazionario, gli utenti di un servizio anycast (il DNS è un esempio eccellente) si collegheranno sempre al server DNS più "vicino" (dal punto di vista del protocollo di routing). Questo riduce la latenza e fornisce un livello di bilanciamento del carico (supponendo che gli utenti siano distribuiti uniformemente sulla rete).
Un altro vantaggio è la facilità di gestione della configurazione. Invece di dover configurare server DNS diversi a seconda del luogo in cui si trova un server/una workstation (Asia, America, Europa), si dispone di un indirizzo IP configurato in ogni luogo.
A seconda di come viene implementato, anycast può anche fornire un livello di alta disponibilità. Se l'annuncio del percorso anycast è subordinato a una sorta di verifica dello stato di salute (ad esempio, una query DNS per un dominio noto, in questo esempio), non appena un server si guasta il suo percorso può essere rimosso. Una volta che la rete si è riconvertita, le richieste degli utenti verranno inoltrate senza problemi all'istanza DNS più vicina, senza bisogno di interventi manuali o di riconfigurazioni.
Un ultimo vantaggio è quello della scalabilità orizzontale: se si scopre che un server è eccessivamente carico, è sufficiente distribuirne un altro in una posizione che gli consenta di ricevere una parte delle richieste del server sovraccarico. Anche in questo caso, non essendo necessaria alcuna configurazione del client, l'operazione può essere eseguita molto rapidamente. |
285 | $A$ and $B$ are $n \times n$ matrices and $v$ is a vector with $n$ elements. $Av$ has $\approx 2n^2$ flops and $A+B$ has $n^2$ flops. Following this logic, $(A+B)v$ should be faster than $Av+Bv$.
Yet, when I run the following code in matlab
```A = rand(2000,2000);
B = rand(2000,2000);
v = rand(2000,1);
tic
D=zeros(size(A));
D = A;
for i =1:100
D = A + B;
(D)*v;
end
toc
tic
for i =1:100
(A*v+B*v);
end
toc
```
The opposite is true. Av+Bv is over twice as fast. Any explanations? | Except for code which does a significant number of floating-point operations on data that are held in cache, most floating-point intensive code is performance limited by memory bandwidth and cache capacity rather than by flops.
$v$ and the products $Av$ and $Bv$ are all vectors of length 2000 (16K bytes in double precision), which will easily fit into a level 1 cache. The matrices $A$ and $B$ are 2000 by 2000 or about 32 megabytes in size. Your level 3 cache might be large enough to store one of these matrices if you've got a really good processor.
Computing $Av$ requires reading 32 megabytes (for $A$) in from memory, reading in 16K bytes (for $v$) storing intermediate results in the L1 cache and eventually writing 16K bytes out to memory. Multiplying $Bv$ takes the same amount of work. Adding the two intermediate results to get the final result requires a trivial amount of work. That's a total of roughly 64 megabytes of reads and an insignificant number of writes.
Computing $(A+B)$ requires reading 32 megabytes (for A) plus 32 megabytes (for B) from memory and writing 32 megabytes (for A+B) out. Then you have to do a single matrix-vector multiplication as above which involves reading 32 megabytes from memory (if you've got a big L3 cache, then perhaps this 32 megabytes is in that L3 cache.) That's a total of 96 megabytes of reads and 32 megabytes of writes.
Thus there's twice as much memory traffic involved in computing this as $(A+B)v$ instead of $Av+Bv$.
Note that if you have to do many of these multiplications with different vectors $v$ but the same $A$ and $B$, then it will become more efficient to compute $A+B$ once and reuse that matrix for the matrix-vector multiplications. | $A$ und $B$ sind $n \mal n$ Matrizen und $v$ ist ein Vektor mit $n$ Elementen. $Av$ hat $\approx 2n^2$ Flops und $A+B$ hat $n^2$ Flops. Dieser Logik folgend sollte $(A+B)v$ schneller sein als $Av+Bv$.
Wenn ich jedoch den folgenden Code in Matlab ausführe
```A = rand(2000,2000);
B = rand(2000,2000);
v = rand(2000,1);
tic
D=zeros(size(A));
D = A;
für i =1:100
D = A + B;
(D)*v;
Ende
toc
tic
für i =1:100
(A*v+B*v);
Ende
toc
```
Das Gegenteil ist der Fall. Av+Bv ist mehr als doppelt so schnell. Irgendwelche Erklärungen? | Mit Ausnahme von Code, der eine beträchtliche Anzahl von Gleitkommaoperationen auf Daten ausführt, die im Cache gespeichert sind, wird die Leistung der meisten gleitkommaintensiven Codes durch die Speicherbandbreite und die Cachekapazität und nicht durch Flops begrenzt.
$v$ und die Produkte $Av$ und $Bv$ sind alle Vektoren der Länge 2000 (16K Bytes in doppelter Genauigkeit), die leicht in einen Level-1-Cache passen. Die Matrizen $A$ und $B$ sind 2000 mal 2000 oder etwa 32 Megabyte groß. Ihr Level-3-Cache könnte groß genug sein, um eine dieser Matrizen zu speichern, wenn Sie einen wirklich guten Prozessor haben.
Die Berechnung von $Av$ erfordert das Einlesen von 32 Megabyte (für $A$) aus dem Speicher, das Einlesen von 16K Byte (für $v$), das Speichern von Zwischenergebnissen im L1-Cache und schließlich das Schreiben von 16K Byte in den Speicher. Die Multiplikation von $Bv$ erfordert den gleichen Arbeitsaufwand. Das Addieren der beiden Zwischenergebnisse, um das Endergebnis zu erhalten, erfordert eine triviale Menge an Arbeit. Das sind insgesamt etwa 64 Megabyte an Lesevorgängen und eine unbedeutende Anzahl an Schreibvorgängen.
Die Berechnung von $(A+B)$ erfordert das Lesen von 32 Megabyte (für A) plus 32 Megabyte (für B) aus dem Speicher und das Schreiben von 32 Megabyte (für A+B). Dann müssen Sie eine einzelne Matrix-Vektor-Multiplikation wie oben durchführen, was das Lesen von 32 Megabyte aus dem Speicher erfordert (wenn Sie einen großen L3-Cache haben, dann sind diese 32 Megabyte vielleicht in diesem L3-Cache). Das sind insgesamt 96 Megabyte an Lese- und 32 Megabyte an Schreibvorgängen.
Es ist also doppelt so viel Speicherverkehr an der Berechnung beteiligt wie bei $(A+B)v$ anstelle von $Av+Bv$.
Wenn man viele dieser Multiplikationen mit verschiedenen Vektoren $v$, aber denselben $A$ und $B$ durchführen muss, ist es effizienter, $A+B$ einmal zu berechnen und diese Matrix für die Matrix-Vektor-Multiplikationen wiederzuverwenden. | $A$ y $B$ son matrices $n veces n$ y $v$ es un vector con $n$ elementos. $Av$ tiene $\aprox 2n^2$ flops y $A+B$ tiene $n^2$ flops. Siguiendo esta lógica, $(A+B)v$ debería ser más rápido que $Av+Bv$.
Sin embargo, cuando ejecuto el siguiente código en matlab
```A = rand(2000,2000);
B = rand(2000,2000);
v = rand(2000,1);
tic
D=zeros(tamaño(A));
D = A;
para i =1:100
D = A + B
(D)*v;
fin
toc
tic
para i =1:100
(A*v+B*v);
fin
toc
```
Lo contrario es cierto. Av+Bv es más del doble de rápido. ¿Alguna explicación? | Excepto el código que realiza un número significativo de operaciones en coma flotante sobre datos que se guardan en la caché, la mayoría del código intensivo en coma flotante está limitado en su rendimiento por el ancho de banda de la memoria y la capacidad de la caché más que por los flops.
$v$ y los productos $Av$ y $Bv$ son todos vectores de longitud 2000 (16K bytes en doble precisión), que caben fácilmente en una caché de nivel 1. Las matrices $A$ y $Bv$ son todos vectores de longitud 2000 (16K bytes en doble precisión), que caben fácilmente en una caché de nivel 1. Las matrices $A$ y $B$ tienen un tamaño de 2000 por 2000 o unos 32 megabytes. Tu caché de nivel 3 podría ser lo suficientemente grande como para almacenar una de estas matrices si tienes un procesador realmente bueno.
Calcular $Av$ requiere leer 32 megabytes (para $A$) de la memoria, leer 16K bytes (para $v$), almacenar los resultados intermedios en la caché L1 y, finalmente, escribir 16K bytes en la memoria. Multiplicar $Bv$ requiere la misma cantidad de trabajo. Sumar los dos resultados intermedios para obtener el resultado final requiere una cantidad trivial de trabajo. Es un total de aproximadamente 64 megabytes de lecturas y un número insignificante de escrituras.
Calcular $(A+B)$ requiere leer 32 megabytes (para A) más 32 megabytes (para B) de la memoria y escribir 32 megabytes (para A+B). Luego tienes que hacer una sola multiplicación matriz-vector como arriba que implica leer 32 megabytes de la memoria (si tienes una gran caché L3, entonces quizás estos 32 megabytes estén en esa caché L3). Eso es un total de 96 megabytes de lectura y 32 megabytes de escritura.
Por tanto, hay el doble de tráfico de memoria involucrado en calcular esto como $(A+B)v$ en lugar de $Av+Bv$.
Tenga en cuenta que si tiene que hacer muchas de estas multiplicaciones con diferentes vectores $v$ pero los mismos $A$ y $B$, entonces será más eficiente calcular $A+B$ una vez y reutilizar esa matriz para las multiplicaciones matriz-vector. | $A$ et $B$ sont des matrices $n fois n$ et $v$ est un vecteur à $n$ éléments. $Av$ a $\approx 2n^2$ flops et $A+B$ a $n^2$ flops. En suivant cette logique, $(A+B)v$ devrait être plus rapide que $Av+Bv$.
Pourtant, lorsque j'exécute le code suivant dans Matlab
```A = rand(2000,2000) ;
B = rand(2000,2000) ;
v = rand(2000,1) ;
tic
D=zeros(size(A)) ;
D = A ;
pour i =1:100
D = A + B ;
(D)*v ;
fin
toc
tic
pour i =1:100
(A*v+B*v) ;
fin
toc
```
L'inverse est vrai. Av+Bv est plus de deux fois plus rapide. Des explications ? | À l'exception du code qui effectue un nombre important d'opérations en virgule flottante sur des données conservées dans la mémoire cache, la plupart des codes à forte intensité de virgule flottante voient leurs performances limitées par la largeur de bande de la mémoire et la capacité de la mémoire cache plutôt que par le nombre de flops.
$v$ et les produits $Av$ et $Bv$ sont tous des vecteurs de longueur 2000 (16K octets en double précision), qui s'intègrent facilement dans un cache de niveau 1. Les matrices $A$ et $B$ ont une taille de 2000 par 2000, soit environ 32 mégaoctets. Votre cache de niveau 3 peut être suffisamment grand pour stocker l'une de ces matrices si vous disposez d'un très bon processeur.
Le calcul de $Av$ nécessite la lecture de 32 mégaoctets (pour $A$) dans la mémoire, la lecture de 16K octets (pour $v$), le stockage des résultats intermédiaires dans le cache L1 et enfin l'écriture de 16K octets dans la mémoire. La multiplication de $Bv$ nécessite la même quantité de travail. L'addition des deux résultats intermédiaires pour obtenir le résultat final nécessite une quantité de travail insignifiante. Cela représente un total d'environ 64 mégaoctets de lecture et un nombre insignifiant d'écritures.
Le calcul de $(A+B)$ nécessite la lecture de 32 mégaoctets (pour A) plus 32 mégaoctets (pour B) de la mémoire et l'écriture de 32 mégaoctets (pour A+B). Ensuite, vous devez effectuer une seule multiplication matrice-vecteur comme ci-dessus, ce qui implique la lecture de 32 mégaoctets de la mémoire (si vous avez une grande mémoire cache L3, ces 32 mégaoctets se trouvent peut-être dans cette mémoire cache L3). Cela fait un total de 96 mégaoctets de lecture et 32 mégaoctets d'écriture.
Il y a donc deux fois plus de trafic mémoire impliqué dans le calcul de $(A+B)v$ au lieu de $Av+Bv$.
Notez que si vous devez effectuer plusieurs de ces multiplications avec des vecteurs différents $v$ mais les mêmes $A$ et $B$, il sera plus efficace de calculer $A+B$ une fois et de réutiliser cette matrice pour les multiplications matrice-vecteur. | $A$ e $B$ sono matrici di $n \ volte n$ e $v$ è un vettore con $n$ elementi. $Av$ ha $circa 2n^2$ flops e $A+B$ ha $n^2$ flops. Seguendo questa logica, $(A+B)v$ dovrebbe essere più veloce di $Av+Bv$.
Tuttavia, quando eseguo il seguente codice in matlab
```A = rand(2000,2000);
B = rand(2000,2000);
v = rand(2000,1);
tic
D=zeros(size(A));
D = A;
per i =1:100
D = A + B;
(D)*v;
fine
toc
tic
per i =1:100
(A*v+B*v);
fine
toc
```
È vero il contrario. Av+Bv è più del doppio più veloce. Qualche spiegazione? | Ad eccezione del codice che esegue un numero significativo di operazioni in virgola mobile su dati conservati nella cache, la maggior parte del codice ad alta intensità di operazioni in virgola mobile è limitato dalle prestazioni della larghezza di banda della memoria e dalla capacità della cache piuttosto che dai flop.
$v$ e i prodotti $Av$ e $Bv$ sono tutti vettori di lunghezza pari a 2000 (16K byte in doppia precisione), che possono essere facilmente inseriti in una cache di livello 1. Le matrici $A$ e $Bv$ sono vettori di lunghezza pari a 2000 (16K byte in doppia precisione). Le matrici $A$ e $B$ hanno una dimensione di 2000 per 2000 o circa 32 megabyte. La cache di livello 3 potrebbe essere abbastanza grande per memorizzare una di queste matrici, se si dispone di un processore molto buono.
Il calcolo di $Av$ richiede la lettura di 32 megabyte (per $A$) dalla memoria, la lettura di 16K byte (per $v$), la memorizzazione dei risultati intermedi nella cache L1 e infine la scrittura di 16K byte in memoria. La moltiplicazione di $Bv$ richiede la stessa quantità di lavoro. L'addizione dei due risultati intermedi per ottenere il risultato finale richiede una quantità di lavoro banale. Si tratta di un totale di circa 64 megabyte di letture e un numero insignificante di scritture.
Il calcolo di $(A+B)$ richiede la lettura di 32 megabyte (per A) più 32 megabyte (per B) dalla memoria e la scrittura di 32 megabyte (per A+B). Poi bisogna fare una singola moltiplicazione matrice-vettore come sopra, che comporta la lettura di 32 megabyte dalla memoria (se avete una grande cache L3, forse questi 32 megabyte sono nella cache L3). Si tratta di un totale di 96 megabyte di lettura e 32 megabyte di scrittura.
Quindi il traffico di memoria coinvolto nel calcolo è doppio rispetto a $(A+B)v$ invece di $Av+Bv$.
Si noti che se si devono eseguire molte di queste moltiplicazioni con vettori $v$ diversi ma con gli stessi $A$ e $B$, diventa più efficiente calcolare $A+B$ una sola volta e riutilizzare quella matrice per le moltiplicazioni matrice-vettore. |
286 | I came across a piece of code ```void *p = &&abc;```. What is the significance of ```&&``` here?
I know about rvalue references but I think ```&&``` used in this context is different. What does ```&&``` indicate in ```void *p = &&abc;``` ? | ## How to find it out
That's the address of a label and it's a feature specific to GCC.
```int main(void) {
void* startp;
s:
startp = &&s;
printf("the assignment above starts at address %p\n", startp);
return 0;
}
```
You could have figured it out yourself by testing:
```int main(void) {
void* startp;
int a;
startp = &&a;
printf("startp=%p\n", startp);
return 0;
}
```
In which case GCC says:
> error: label ‘a’ used but not defined
## Under the hood - assembly
You need to know assembler to really understand this, but I'll try to explain you what an address of a label means.
After the OS loads the .exe file from the disk, a component of the operating system called "the loader" (windows has the "PE Loader", linux has "ELF loader" or maybe even others, if they're compiled in the kernel), it does a "virtualization" of that program, turning it into a process.
This process thinks it is the only one in RAM and it has access to the entire RAM (that is, 0x00000000-0xFFFFFFFF on a 32-bit machine).
(the above is just a short overwiew of what's happenning, you really need to learn assembly to understand it fully, so bear with me)
Now, the label in a source code is basically an address. "goto label;" does nothing else than a jump to that address (think about the instruction pointer in assembly). This label stores this RAM address, and that's how you can find out that address.
After you've learned ASM, you'll realize that that address points to a instruction within the ```.text``` section of the executable. The ```.text``` section is the one which holds you program's (binary) code to be executed.
You can inspect this with:
```
objdump -x a.out
``` | Ich bin auf ein Stück Code gestoßen ```void *p = &&abc;```. Was ist die Bedeutung von ```&&``` hier?
Ich weiß über rvalue-Referenzen Bescheid, aber ich denke, dass ```&&``` in diesem Zusammenhang anders ist. Was bedeutet ```&&``` in ```void *p = &&abc;```? | ## Wie man es herausfindet
Das ist die Adresse eines Labels und eine Besonderheit des GCC.
```int main(void) {
void* startp;
s:
startp = &&s;
printf("die obige Zuweisung beginnt an der Adresse %p\n", startp);
return 0;
}
```
Du haettest es selbst herausfinden koennen, indem du testest:
```int main(void) {
void* startp;
int a;
startp = &&a;
printf("startp=%p\n", startp);
return 0;
}
```
In diesem Fall sagt GCC:
> Fehler: Label 'a' verwendet, aber nicht definiert
## Unter der Haube - Assembler
Sie müssen Assembler beherrschen, um dies wirklich zu verstehen, aber ich werde versuchen, Ihnen zu erklären, was eine Adresse eines Labels bedeutet.
Nachdem das Betriebssystem die .exe-Datei von der Festplatte geladen hat, macht eine Komponente des Betriebssystems, die "Loader" genannt wird (Windows hat den "PE Loader", Linux hat "ELF Loader" oder vielleicht sogar andere, wenn sie in den Kernel kompiliert sind), eine "Virtualisierung" dieses Programms und verwandelt es in einen Prozess.
Dieser Prozess denkt, er sei der einzige im RAM und hat Zugriff auf das gesamte RAM (d.h. 0x00000000-0xFFFFFFFF auf einer 32-Bit-Maschine).
(dies ist nur ein kurzer Überblick über das, was passiert, man muss wirklich Assembler lernen, um es vollständig zu verstehen, also haben Sie Geduld mit mir)
Das Label in einem Quellcode ist im Grunde eine Adresse. "goto label;" macht nichts anderes als einen Sprung zu dieser Adresse (man denke an den Befehlszeiger in Assembler). Dieses Label speichert diese RAM-Adresse, und so können Sie diese Adresse herausfinden.
Nachdem Sie ASM gelernt haben, werden Sie erkennen, dass diese Adresse auf eine Anweisung innerhalb des ```.text``-Abschnitts der ausführbaren Datei zeigt. Der Abschnitt ```.text`` ist derjenige, der den auszuführenden (binären) Code Ihres Programms enthält.
Sie können dies mit überprüfen:
```
objdump -x a.out
``` | Me he encontrado con un trozo de código ```void *p = &&abc;```. ¿Qué significa ``&&`` aquí?
Conozco las referencias rvalue pero creo que ```&&`` usado en este contexto es diferente. ¿Qué indica ```&&`` en ```void *p = &&abc;```? | ## Cómo averiguarlo
Es la dirección de una etiqueta y es una característica específica de GCC.
```int main(void) {
void* startp;
s:
startp = &&s;
printf("la asignación anterior comienza en la dirección %p\n", startp);
return 0;
}
```
Podrías haberlo descubierto tú mismo probando:
```int main(void) {
void* startp;
int a;
startp = &&a;
printf("startp=%p\n", startp);
return 0;
}
```
En cuyo caso GCC dice:
> error: etiqueta 'a' usada pero no definida
## Bajo el capó - ensamblado
Necesitas saber ensamblador para entender realmente esto, pero intentaré explicarte lo que significa una dirección de una etiqueta.
Después de que el SO carga el archivo .exe desde el disco, un componente del sistema operativo llamado "el cargador" (windows tiene el "PE Loader", linux tiene el "ELF loader" o quizás incluso otros, si están compilados en el kernel), hace una "virtualización" de ese programa, convirtiéndolo en un proceso.
Este proceso piensa que es el único en la RAM y tiene acceso a toda la RAM (es decir, 0x00000000-0xFFFFFFFF en una máquina de 32 bits).
(lo anterior es sólo un breve resumen de lo que está sucediendo, realmente necesitas aprender ensamblador para entenderlo completamente, así que ten paciencia conmigo)
Ahora, la etiqueta en un código fuente es básicamente una dirección. "goto etiqueta;" no hace otra cosa que un salto a esa dirección (piense en el puntero de instrucción en ensamblador). Esta etiqueta almacena esta dirección RAM, y así es como puedes averiguar esa dirección.
Después de que hayas aprendido ASM, te darás cuenta de que esa dirección apunta a una instrucción dentro de la sección ``.text`` del ejecutable. La sección ``.text`` es la que contiene el código (binario) de tu programa para ser ejecutado.
Puedes inspeccionar esto con:
```
objdump -x a.out
``` | Je suis tombé sur un morceau de code ``void *p = &&abc;```. Quelle est la signification de ``&&`` ici ?
Je connais les références rvalue mais je pense que ``&&`` utilisé dans ce contexte est différent. Que signifie ``&&`` dans ``void *p = &&abc;`` ? | ## Comment le trouver
C'est l'adresse d'un label et c'est une fonctionnalité spécifique à GCC.
```int main(void) {
void* startp ;
s :
startp = &&s ;
printf("l'affectation ci-dessus commence à l'adresse %p\n" ;, startp) ;
return 0 ;
}
```
Vous auriez pu le découvrir vous-même en testant :
```int main(void) {
void* startp ;
int a ;
startp = &&a ;
printf("startp=%p\n" ;, startp) ;
return 0 ;
}
```
Dans ce cas, GCC dit :
> erreur : label 'a' utilisé mais non défini
## Sous le capot - assemblage
Vous devez connaître l'assembleur pour vraiment comprendre, mais je vais essayer de vous expliquer ce que signifie l'adresse d'un label.
Après que le système d'exploitation ait chargé le fichier .exe depuis le disque, un composant du système d'exploitation appelé "le chargeur" ; (Windows a le "PE Loader" ; linux a le "ELF loader" ; ou peut-être même d'autres, s'ils sont compilés dans le noyau), il fait une "virtualisation" ; de ce programme, le transformant en un processus.
Ce processus pense qu'il est le seul dans la RAM et qu'il a accès à toute la RAM (c'est-à-dire 0x00000000-0xFFFFFFFF sur une machine 32 bits).
(ce qui précède n'est qu'une brève vue d'ensemble de ce qui se passe, il faut vraiment apprendre l'assemblage pour le comprendre pleinement, alors soyez indulgent).
Maintenant, le label dans un code source est essentiellement une adresse. "goto label;" ; ne fait rien d'autre qu'un saut à cette adresse (pensez au pointeur d'instruction en assembleur). Cette étiquette stocke cette adresse RAM, et c'est ainsi que vous pouvez trouver cette adresse.
Après avoir appris l'ASM, vous réaliserez que cette adresse pointe vers une instruction dans la section ``.text`` de l'exécutable. La section ``.text`` est celle qui contient le code (binaire) de votre programme à exécuter.
Vous pouvez l'inspecter avec :
```
objdump -x a.out
``` | Mi sono imbattuto in un pezzo di codice ```void *p = &&abc;```. Qual è il significato di ```&&``` qui?
Conosco i riferimenti rvalue, ma credo che ```&&``` usato in questo contesto sia diverso. Cosa indica ```&&``` in ```void *p = &&abc;```? | ## Come scoprirlo
Questo è l'indirizzo di un'etichetta ed è una caratteristica specifica di GCC.
```int main(void) {
void* startp;
s:
startp = &&s;
printf("l'assegnazione di cui sopra inizia all'indirizzo %p\n", startp);
restituire 0;
}
```
Avreste potuto capirlo da soli facendo dei test:
```int main(void) {
void* startp;
int a;
startp = &&a;
printf("startp=%p\n", startp);
restituire 0;
}
```
In questo caso GCC dice:
> errore: etichetta 'a' usata ma non definita
## Sotto il cofano - assemblaggio
È necessario conoscere l'assembler per capirlo davvero, ma cercherò di spiegare cosa significa un indirizzo di un'etichetta.
Dopo che il sistema operativo ha caricato il file .exe dal disco, un componente del sistema operativo chiamato "loader" (windows ha il "PE Loader", linux ha "ELF loader" o forse anche altri, se sono compilati nel kernel), fa una "virtualizzazione" di quel programma, trasformandolo in un processo.
Questo processo pensa di essere l'unico nella RAM e di avere accesso all'intera RAM (cioè 0x00000000-0xFFFFFF su una macchina a 32 bit).
(quanto sopra è solo una breve panoramica di ciò che accade, per capirlo appieno è necessario imparare l'assembly, quindi abbiate pazienza).
Ora, l'etichetta in un codice sorgente è fondamentalmente un indirizzo. "goto label;" non fa altro che un salto a quell'indirizzo (pensate al puntatore di istruzioni in assembly). L'etichetta memorizza l'indirizzo della RAM ed è così che si può scoprire l'indirizzo.
Dopo aver imparato l'ASM, si capirà che quell'indirizzo punta a un'istruzione all'interno della sezione ```.text``` dell'eseguibile. La sezione ```.text`` è quella che contiene il codice (binario) del programma da eseguire.
È possibile ispezionarla con:
```
objdump -x a.out
``` |
287 | When I execute "```python```" from the terminal with no arguments it brings up the Python interactive shell.
When I execute "```cat | python```" from the terminal it doesn't launch the interactive mode. Somehow, without getting any input, it has detected that it is connected to a pipe.
How would I do a similar detection in C or C++ or Qt? | You can use ```isatty```:
```
#include <stdio.h>
#include <io.h>
...
if (isatty(fileno(stdin)))
printf( "stdin is a terminal\n" );
else
printf( "stdin is a file or a pipe\n");
```
On windows they're prefixed with underscores: ```_isatty```, ```_fileno```. | Wenn ich "```python```" vom Terminal aus ohne Argumente ausführe, wird die interaktive Python-Shell gestartet.
Wenn ich "```cat | python```" vom Terminal aus ausführe, startet es nicht den interaktiven Modus. Irgendwie hat es, ohne eine Eingabe zu erhalten, erkannt, dass es mit einer Pipe verbunden ist.
Wie würde ich eine ähnliche Erkennung in C oder C++ oder Qt durchführen? | Sie können ```isatty`` verwenden:
```
#include <stdio.h>
#include <io.h>
...
if (isatty(fileno(stdin)))
printf( "stdin ist ein Terminal\n" );
sonst
printf( "stdin ist eine Datei oder eine Pipe\n");
```
Unter Windows werden sie mit Unterstrichen vorangestellt: ```_isatty```, ```_fileno``''. | Cuando ejecuto "```python``" desde el terminal sin argumentos aparece el shell interactivo de Python.
Cuando ejecuto "``cat | python``" desde el terminal no lanza el modo interactivo. De alguna manera, sin recibir ninguna entrada, ha detectado que está conectado a una tubería.
¿Cómo podría hacer una detección similar en C o C++ o Qt? | Puedes usar ``isatty``:
```
#include <stdio.h>
#include <io.h>
...
if (isatty(fileno(stdin)))
printf( "stdin es un terminal\n" );
si no
printf( "stdin es un archivo o una tubería\n");
```
En windows se prefijan con guiones bajos: ``_isatty``, ``_fileno``. | Lorsque j'exécute "``python```" depuis le terminal sans arguments, le shell interactif Python s'affiche.
Lorsque j'exécute "``cat | python``" depuis le terminal, il ne lance pas le mode interactif. D'une manière ou d'une autre, sans recevoir d'entrée, il a détecté qu'il était connecté à un tuyau.
Comment puis-je faire une détection similaire en C, C++ ou Qt ? | Vous pouvez utiliser ``isatty`` :
```
#include <stdio.h>
#include <io.h>
...
if (isatty(fileno(stdin)))
printf("stdin est un terminal" ) ;
else
printf("stdin est un fichier ou un tuyau") ;
```
Sous Windows, ils sont préfixés par des traits de soulignement : ``_isatty``, ``_fileno``. | Quando eseguo "```python``" dal terminale senza argomenti, viene visualizzata la shell interattiva di Python.
Quando eseguo "```cat | python```" dal terminale, non viene avviata la modalità interattiva. In qualche modo, senza ricevere alcun input, ha rilevato di essere connesso a una pipe.
Come potrei fare un rilevamento simile in C, C++ o Qt? | È possibile utilizzare ```isatty``:
```
#include <stdio.h>
#includere <io.h>
...
se (isatty(fileno(stdin)))
printf( "stdin è un terminale" );
altrimenti
printf( "stdin è un file o una pipe\n");
```
Su Windows sono preceduti da trattini bassi: ```_isatty``, ```_fileno``. |
288 | "The video of Pythom Space's first rocket test has raised a few eyebrows
The video prompted hundreds of replies on Twitter, including some from rather horrified rocket scientists. "We knew better as untrained college students," said Jordan Noone, the co-founder of Relativity Space.
Pythom “Micro jump”
What exactly did they get wrong with this test?
Note: The Pythom Space CEO did eventually respond to the original Ars Technica story linked above. It does offer their own take on some of the issues raised there and elsewhere (including some of the points in the answer below)" | The easy-to-spot stuff:
* (assumed) Improper transportation of hazardous materials. Both white fuming nitric acid and furfuryl alcohol are considered hazardous materials; none of the vehicles in the video appears to have a hazmat placard, the rocket is not an approved hazmat container, and the fuel containers seen in other videos are emphatically not approved.
* No personal protective gear. Nitric acid and furfurly alcohol are both toxic, and heavy loads are being lifted. Nobody is seen wearing any sort of protective gear, not even hard hats or safety glasses.
* Insecure rigging when lifting the test object upright. A strap, particularly one being pulled at a sharp angle, is far less safe than a proper lifting point.
* Bad angle when lifting the test object upright. This puts excess loads on things, increasing the risk of a fall or failure.
* Using unbraced legs as a pivot point when lifting the test object upright. You can see they're on the verge of buckling.
* (assumed) Lifting the test object while already fueled. In the event of a fall, this ensures an explosion if the tanks rupture, as the fuels are hypergolic.
* Having people stand under a suspended load. If the test object falls, this will cause serious injury or death to at least two people.
* Using a truck to pull the lifting cable. This provides far less control than a proper winch.
* Having personnel in the blast area of the test object. In the event of an failure, this makes it highly likely that they will be engulfed in the fireball, struck by debris, or poisoned by fuel vapors.
* Having personnel in the exhaust area of the test object. Even during normal operation, they will be exposed to nitric acid, furfuryl alcohol, and assorted nitrogen oxides, all of which are highly toxic.
* Having unnecessary equipment in the test area. In the event of a failure, this can become additional flying debris.
* Not properly securing the test object. In the event of higher-than-expected performance, this will become self-propelled debris; in the event of a premature shutdown, the resulting hop-and-crash will rupture the fuel tanks and cause an explosion.
* Not providing a flight termination system. In the event that the test object becomes airborne, they have no way of keeping it from leaving the test area.
* (assumed) Insufficient fire-extinguishing equipment on site. None of the area views show a pumper truck or other equipment capable of dealing with a brush fire ignited by 15+ kg of hypergolic fuels.
* Improper fire-extinguishing equipment. At one point, you can see what appears to be an ordinary dry-chemical fire extinguisher. This should not be used when dealing with nitric acid.
* Oxidizer-rich shutdown. You can see see the reddish cloud of nitric-acid byproducts at the end of the burn; this is likely the result of the oxidizer reacting with the engine.
* (assumed) No post-burn decontamination of the area. The celebratory post-burn shot shows no sign of cleanup. Combined with the oxidizer-rich shutdown, this means they're likely walking through an area contaminated with nitric acid. | "Das Video des ersten Raketentests von Pythom Space hat einige Augenbrauen aufgeworfen
Das Video löste Hunderte von Antworten auf Twitter aus, darunter auch einige von ziemlich entsetzten Raketenwissenschaftlern. "Wir wussten es besser als unausgebildete College-Studenten, " sagte Jordan Noone, der Mitbegründer von Relativity Space.
Pythom "Mikrosprung"
Was genau haben sie bei diesem Test falsch gemacht?
Anmerkung: Der CEO von Pythom Space hat schließlich auf die oben verlinkte Originalgeschichte von Ars Technica geantwortet. Er nimmt selbst Stellung zu einigen der dort und anderswo aufgeworfenen Fragen (einschließlich einiger der Punkte in der unten stehenden Antwort). | Das leicht zu erkennende Zeug:
* (angenommen) Unsachgemäßer Transport von Gefahrgut. Sowohl weiß rauchende Salpetersäure als auch Furfurylalkohol gelten als Gefahrgut; keines der Fahrzeuge im Video scheint eine Gefahrgutplakette zu haben, die Rakete ist kein zugelassener Gefahrgutbehälter, und die in anderen Videos zu sehenden Kraftstoffbehälter sind ausdrücklich nicht zugelassen.
* Keine persönliche Schutzausrüstung. Salpetersäure und Furfurylalkohol sind beide giftig, und es werden schwere Lasten gehoben. Niemand trägt irgendeine Art von Schutzausrüstung, nicht einmal Schutzhelme oder Schutzbrillen.
* Unsichere Befestigung beim Anheben des Prüfobjekts in aufrechter Position. Ein Gurt, insbesondere wenn er in einem spitzen Winkel gezogen wird, ist weit weniger sicher als ein richtiger Anschlagpunkt.
* Schlechter Winkel beim Anheben des Prüfobjekts in aufrechter Position. Dies führt zu einer übermäßigen Belastung und erhöht das Risiko eines Sturzes oder Versagens.
* Verwendung unverspannter Beine als Drehpunkt beim aufrechten Anheben des Prüfobjekts. Man kann sehen, dass sie kurz vor dem Ausknicken sind.
* (angenommen) Anheben des Prüfobjekts, während es bereits betankt ist. Im Falle eines Sturzes kann es zu einer Explosion kommen, wenn die Tanks bersten, da die Treibstoffe hypergolisch sind.
* Personen unter einer aufgehängten Last stehen zu lassen. Wenn das Prüfobjekt herunterfällt, werden mindestens zwei Personen schwer verletzt oder getötet.
* Verwendung eines Lastwagens zum Ziehen des Hubseils. Dies bietet weit weniger Kontrolle als eine richtige Winde.
* Aufenthalt von Personen im Explosionsbereich des Prüfobjekts. Im Falle eines Versagens ist es sehr wahrscheinlich, dass sie von der Feuerkugel verschlungen, von Trümmern getroffen oder von Treibstoffdämpfen vergiftet werden.
* Personal im Abgasbereich des Prüfobjekts aufhalten. Selbst bei normalem Betrieb sind sie Salpetersäure, Furfurylalkohol und verschiedenen Stickoxiden ausgesetzt, die alle hochgiftig sind.
* Unnötige Geräte im Prüfbereich zu haben. Im Falle eines Versagens kann dies zu zusätzlichem Trümmerflug führen.
* Nicht ordnungsgemäße Sicherung des Prüfobjekts. Im Falle einer unerwartet hohen Leistung werden diese zu selbstfliegenden Trümmern; im Falle einer vorzeitigen Abschaltung kann der daraus resultierende Hop-and-Crash die Treibstofftanks zum Bersten bringen und eine Explosion verursachen.
* Kein Flugabbruchsystem vorgesehen. Sollte das Testobjekt in die Luft gehen, gibt es keine Möglichkeit, es am Verlassen des Testgeländes zu hindern.
* (angenommen) Unzureichende Feuerlöschausrüstung vor Ort. Auf keiner der Ansichten des Geländes ist ein Spritzenwagen oder eine andere Ausrüstung zu sehen, die in der Lage wäre, einen Buschbrand zu bekämpfen, der durch mehr als 15 kg hypergole Brennstoffe ausgelöst wurde.
* Ungeeignete Feuerlöschgeräte. An einer Stelle sieht man etwas, das wie ein gewöhnlicher trockener chemischer Feuerlöscher aussieht. Dieser sollte beim Umgang mit Salpetersäure nicht verwendet werden.
* Oxidationsmittelreiche Abschaltung. Sie können die rötliche Wolke aus Salpetersäure-Nebenprodukten am Ende der Verbrennung sehen; dies ist wahrscheinlich das Ergebnis der Reaktion des Oxidationsmittels mit dem Motor.
* (angenommen) Keine Dekontamination des Bereichs nach dem Brand. Die feierliche Aufnahme nach der Verbrennung zeigt keine Anzeichen von Aufräumarbeiten. In Verbindung mit der oxidationsmittelreichen Abschaltung bedeutet dies, dass sie wahrscheinlich durch einen mit Salpetersäure kontaminierten Bereich laufen. | "El vídeo de la primera prueba de cohete de Pythom Space ha levantado ampollas
El vídeo suscitó cientos de respuestas en Twitter, entre ellas algunas de científicos de cohetes bastante horrorizados. "Lo sabíamos mejor como estudiantes universitarios sin formación," dijo Jordan Noone, cofundador de Relativity Space.
Pythom "Micro salto"
¿En qué se equivocaron exactamente en esta prueba?
Nota: El CEO de Pythom Space respondió finalmente a la historia original de Ars Technica vinculada anteriormente. Ofrece su propia opinión sobre algunas de las cuestiones planteadas allí y en otros lugares (incluidos algunos de los puntos de la respuesta a continuación)" | Las cosas fáciles de detectar:
* Transporte inadecuado de materiales peligrosos. Tanto el ácido nítrico blanco fumante como el alcohol furfurílico se consideran materiales peligrosos; ninguno de los vehículos del vídeo parece tener un rótulo de materiales peligrosos, el cohete no es un contenedor aprobado para materiales peligrosos y los contenedores de combustible que se ven en otros vídeos no están aprobados.
* No hay equipo de protección personal. Tanto el ácido nítrico como el alcohol furfurílico son tóxicos, y se están levantando cargas pesadas. No se ve a nadie con ningún tipo de equipo de protección, ni siquiera cascos o gafas de seguridad.
* Aparejo inseguro al levantar el objeto de prueba en posición vertical. Una correa, especialmente si se tira de ella en un ángulo agudo, es mucho menos segura que un punto de elevación adecuado.
* Mal ángulo al levantar el objeto de prueba en posición vertical. Esto sobrecarga las cosas, aumentando el riesgo de caída o avería.
* Usar patas no arriostradas como punto de pivote al levantar el objeto de prueba en posición vertical. Se ve que están a punto de doblarse.
* (supuesto) Levantar el objeto de prueba cuando ya está cargado de combustible. En caso de caída, esto garantiza una explosión si se rompen los tanques, ya que los combustibles son hipergólicos.
* Colocación de personas bajo una carga suspendida. Si el objeto de prueba cae, causará lesiones graves o la muerte de al menos dos personas.
* Utilizar un camión para tirar del cable de elevación. Esto proporciona mucho menos control que un cabrestante adecuado.
* Tener personal en la zona de explosión del objeto de prueba. En caso de fallo, es muy probable que se vean envueltos en la bola de fuego, golpeados por los escombros o envenenados por los vapores del combustible.
* Tener personal en la zona de escape del objeto de prueba. Incluso durante el funcionamiento normal, estarán expuestos a ácido nítrico, alcohol furfurílico y diversos óxidos de nitrógeno, todos ellos altamente tóxicos.
* Tener equipos innecesarios en la zona de pruebas. En caso de fallo, pueden convertirse en restos volantes adicionales.
* No asegurar correctamente el objeto de prueba. En caso de un rendimiento superior al esperado, se convertirá en restos autopropulsados; en caso de una parada prematura, el salto y colisión resultante romperá los depósitos de combustible y provocará una explosión.
* No disponer de un sistema de terminación del vuelo. En caso de que el objeto de prueba se eleve por los aires, no tienen forma de evitar que abandone la zona de pruebas.
* (supuesto) Insuficiente equipo de extinción de incendios in situ. Ninguna de las vistas de la zona muestra un camión de bomberos u otro equipo capaz de hacer frente a un incendio de maleza provocado por más de 15 kg de combustibles hipergólicos.
* Equipo de extinción inadecuado. En un punto, se puede ver lo que parece ser un extintor químico seco ordinario. Esto no debe utilizarse cuando se trata de ácido nítrico.
* Apagado rico en oxidantes. Se puede ver la nube rojiza de subproductos de ácido nítrico al final de la combustión; es probable que sea el resultado de la reacción del oxidante con el motor.
* (se supone) No hubo descontaminación de la zona tras la combustión. La toma de celebración posterior a la combustión no muestra signos de limpieza. Combinado con el apagado rico en oxidante, esto significa que probablemente están caminando por una zona contaminada con ácido nítrico. | "La vidéo du premier essai de la fusée de Pythom Space a suscité quelques réactions.
La vidéo a suscité des centaines de réponses sur Twitter, dont certaines émanant de spécialistes des fusées plutôt horrifiés. "Nous savions mieux faire en tant qu'étudiants non formés,"a déclaré Jordan Noone, cofondateur de Relativity Space.
Le "micro-saut" de Pythom
Qu'ont-ils fait de mal lors de ce test ?
Remarque : le PDG de Pythom Space a fini par répondre à l'article original d'Ars Technica dont le lien figure ci-dessus. Il propose son propre point de vue sur certaines des questions soulevées dans l'article et ailleurs (y compris certains points de la réponse ci-dessous). | Les éléments faciles à repérer :
* (supposé) Transport inapproprié de matières dangereuses. L'acide nitrique fumant blanc et l'alcool furfurylique sont tous deux considérés comme des matières dangereuses ; aucun des véhicules de la vidéo ne semble porter de plaque de matières dangereuses, la fusée n'est pas un conteneur de matières dangereuses approuvé, et les conteneurs de carburant vus dans d'autres vidéos ne sont absolument pas approuvés.
* Pas d'équipement de protection individuelle. L'acide nitrique et l'alcool furfurylique sont tous deux toxiques, et de lourdes charges sont soulevées. Personne ne porte d'équipement de protection, pas même de casque ou de lunettes de sécurité.
* Un gréement mal fixé lors du levage de l'objet testé en position verticale. Une sangle, en particulier une sangle tirée à un angle aigu, est beaucoup moins sûre qu'un point de levage approprié.
* Mauvais angle lors du levage de l'objet testé à la verticale. Un mauvais angle lors du levage de l'objet testé à la verticale entraîne des charges excessives sur les objets, ce qui augmente le risque de chute ou de défaillance.
* L'utilisation de jambes non entravées comme point de pivot lors du levage de l'objet testé à la verticale. Vous pouvez voir qu'ils sont sur le point de se déformer.
* Soulever l'objet du test alors qu'il est déjà rempli de carburant. En cas de chute, cela garantit une explosion si les réservoirs se rompent, car les carburants sont hypergoliques.
* Des personnes se tiennent sous une charge suspendue. La chute de l'objet testé entraînera des blessures graves ou la mort d'au moins deux personnes.
* L'utilisation d'un camion pour tirer le câble de levage. Cette méthode offre beaucoup moins de contrôle qu'un treuil approprié.
* La présence de personnel dans la zone d'explosion de l'objet testé. En cas de défaillance, il est très probable qu'ils soient engloutis dans la boule de feu, frappés par des débris ou empoisonnés par les vapeurs de carburant.
* La présence de personnel dans la zone d'échappement de l'objet testé. Même en fonctionnement normal, ils seront exposés à l'acide nitrique, à l'alcool furfurylique et à divers oxydes d'azote, qui sont tous hautement toxiques.
* Disposer d'équipements inutiles dans la zone d'essai. En cas de défaillance, ces équipements peuvent se transformer en débris volants supplémentaires.
* Ne pas fixer correctement l'objet à tester. En cas de performances supérieures aux prévisions, l'objet se transformera en débris autopropulsés ; en cas d'arrêt prématuré, le saut et le choc qui en résulteront entraîneront la rupture des réservoirs de carburant et provoqueront une explosion.
* Ne pas prévoir de système d'interruption de vol. Dans le cas où l'objet testé s'envole, il n'y a aucun moyen de l'empêcher de quitter la zone d'essai.
* L'insuffisance (supposée) des équipements d'extinction d'incendie sur le site. Aucune des vues de la zone ne montre de camion pompe ou d'autres équipements capables de faire face à un feu de broussailles allumé par plus de 15 kg de combustibles hypergoliques.
* Matériel d'extinction d'incendie inadéquat. À un moment donné, on peut voir ce qui semble être un extincteur à poudre ordinaire. Ce type d'extincteur ne devrait pas être utilisé avec de l'acide nitrique.
* Arrêt riche en oxydants. Vous pouvez voir le nuage rougeâtre des sous-produits de l'acide nitrique à la fin de la combustion ; c'est probablement le résultat de la réaction de l'oxydant avec le moteur.
* Pas de décontamination de la zone après la combustion. La photo de célébration après la combustion ne montre aucun signe de nettoyage. Si l'on ajoute à cela l'arrêt de l'appareil riche en oxydant, cela signifie qu'ils ont probablement traversé une zone contaminée par de l'acide nitrique. | "Il video del primo test del razzo di Pythom Space ha sollevato qualche sopracciglio
Il video ha suscitato centinaia di risposte su Twitter, tra cui alcune da parte di scienziati missilistici piuttosto inorriditi. "Sapevamo bene che come studenti universitari non addestrati, " ha detto Jordan Noone, il co-fondatore di Relativity Space.
Il "micro salto" di Pythom
Cosa hanno sbagliato esattamente in questo test?
Nota: l'amministratore delegato di Pythom Space ha risposto alla storia originale di Ars Technica, linkata sopra. Offre il proprio punto di vista su alcuni dei problemi sollevati in quella sede e altrove (compresi alcuni dei punti della risposta qui sotto)". | Le cose facili da individuare:
* (presunto) Trasporto improprio di materiali pericolosi. Sia l'acido nitrico fumante bianco che l'alcol furfurilico sono considerati materiali pericolosi; nessuno dei veicoli nel video sembra avere una targa Hazmat, il razzo non è un contenitore Hazmat approvato e i contenitori di carburante visti in altri video non sono assolutamente approvati.
* Non ci sono dispositivi di protezione personale. L'acido nitrico e l'alcol furfuraceo sono entrambi tossici e si stanno sollevando carichi pesanti. Non si vede nessuno indossare alcun tipo di equipaggiamento protettivo, nemmeno elmetti o occhiali di sicurezza.
* Sospensione insicura quando si solleva l'oggetto di prova in posizione verticale. Una cinghia, soprattutto se tirata ad angolo acuto, è molto meno sicura di un punto di sollevamento adeguato.
* Angolazione errata quando si solleva l'oggetto di prova in posizione verticale. Questo comporta un carico eccessivo sugli oggetti, aumentando il rischio di caduta o di cedimento.
* Utilizzo di gambe non rinforzate come punto di rotazione quando si solleva l'oggetto di prova in posizione verticale. Si vede che sono sul punto di deformarsi.
* Sollevare l'oggetto di prova mentre è già stato rifornito di carburante. In caso di caduta, questo assicura un'esplosione se i serbatoi si rompono, poiché i carburanti sono ipergolici.
* Far stare le persone sotto un carico sospeso. Se l'oggetto di prova cade, si causano lesioni gravi o morte ad almeno due persone.
* Usare un camion per tirare il cavo di sollevamento. In questo modo si ottiene un controllo di gran lunga inferiore a quello di un argano adeguato.
* presenza di personale nell'area di esplosione dell'oggetto di prova. In caso di guasto, è molto probabile che venga inghiottito dalla palla di fuoco, colpito dai detriti o avvelenato dai vapori del carburante.
* Avere personale nell'area di scarico dell'oggetto di prova. Anche durante il normale funzionamento, sarà esposto ad acido nitrico, alcol furfurilico e ossidi di azoto assortiti, tutti altamente tossici.
* Avere attrezzature non necessarie nell'area di prova. In caso di guasto, possono diventare ulteriori detriti volanti.
* Non fissare adeguatamente l'oggetto del test. In caso di prestazioni superiori al previsto, questo si trasformerà in detriti semoventi; in caso di spegnimento prematuro, il conseguente hop-and-crash provocherà la rottura dei serbatoi di carburante e un'esplosione.
* Non è previsto un sistema di terminazione del volo. Nell'eventualità che l'oggetto di prova venga trasportato in aria, non c'è modo di impedirgli di lasciare l'area di prova.
* (si presume) Insufficiente attrezzatura antincendio in loco. Nessuna delle viste dell'area mostra un'autopompa o altre attrezzature in grado di affrontare un incendio di sterpaglie innescato da 15+ kg di combustibile ipergolico.
* Attrezzature antincendio inadeguate. In un punto si vede quello che sembra essere un normale estintore chimico a secco. Questo non dovrebbe essere usato quando si ha a che fare con l'acido nitrico.
* Spegnimento ricco di ossidanti. Si può vedere la nuvola rossastra di sottoprodotti dell'acido nitrico alla fine della combustione; questo è probabilmente il risultato della reazione dell'ossidante con il motore.
* (si presume) Nessuna decontaminazione dell'area dopo la combustione. La foto celebrativa del dopo-combustione non mostra alcun segno di pulizia. In combinazione con lo spegnimento ricco di ossidanti, questo significa che probabilmente stanno attraversando un'area contaminata da acido nitrico. |
289 | When should I use wp_register_script() with wp_enqueue_script() vs just wp_enqueue_script()? | The ```wp_register_script()``` Codex page literally says:
A safe way of registering javascripts in WordPress for later use with ```wp_enqueue_script()```.
This means, if you want to register your scripts, but not directly load them in your pages, you can register the files once, and then load them when you need them.
For example:
You have a switch statement wich loads some functionality, but two of three cases needs a particular javascript file, and one doesn't. You can enqueue the script every time, wich costs more resources, or just enqueue the script when you need it:
```...
wp_register_script( 'my-handy-javascript', ... );
...
switch( $somevar ) {
case 'value':
wp_enqueue_script( 'my-handy-javascript' ); // needs the file
...
break;
case 'value2':
wp_enqueue_script( 'my-handy-javascript' ); // needs the file
...
break;
default:
case 'value3': // doesn't needs the file
...
break;
}
```
It is not necessary to register a script and then enqueue them, but it can provide some logic in your code if you register all the scripts you need somewhere in your ```functions.php``` instead of everywhere in your code.
The Codex also tells the following:
Use the ```wp_enqueue_scripts``` action to call this function, or ```admin_enqueue_scripts``` to call it on the admin side.
This means that if you want to enqueue your script on the frond-end and in the back-end, you can register a script once, and then load it on the front-end with ```wp_enqueue_script``` and in the back-end with ```admin_enqueue_script```.
This way you won't have the same enqueue recourse twice in one theme, plugin, widget or whatever. | Wann sollte ich wp_register_script() mit wp_enqueue_script() verwenden und wann nur wp_enqueue_script()? | Die Codex-Seite ``wp_register_script()```` sagt wörtlich:
Ein sicherer Weg, Javascripts in WordPress zu registrieren und später mit ```wp_enqueue_script()``` zu verwenden.
Das heißt, wenn Sie Ihre Skripte registrieren, aber nicht direkt in Ihre Seiten laden wollen, können Sie die Dateien einmal registrieren und dann laden, wenn Sie sie brauchen.
Ein Beispiel:
Sie haben eine switch-Anweisung, die einige Funktionen lädt, aber zwei von drei Fällen benötigen eine bestimmte Javascript-Datei, und einer nicht. Sie können das Skript jedes Mal einreihen, was mehr Ressourcen kostet, oder das Skript nur einreihen, wenn Sie es brauchen:
```...
wp_register_script( 'my-handy-javascript', ... );
...
switch( $somevar ) {
Fall 'Wert':
wp_enqueue_script( 'my-handy-javascript' ); // benötigt die Datei
...
break;
case 'wert2':
wp_enqueue_script( 'my-handy-javascript' ); // benötigt die Datei
...
break;
default:
case 'value3': // Benötigt die Datei nicht
...
break;
}
```
Es ist nicht notwendig, ein Skript zu registrieren und dann in die Warteschlange zu stellen, aber es kann etwas Logik in Ihren Code bringen, wenn Sie alle Skripte, die Sie benötigen, irgendwo in Ihrer ````functions.php`` registrieren, anstatt überall in Ihrem Code.
Der Codex sagt auch das Folgende:
Verwenden Sie die Aktion ```wp_enqueue_scripts``, um diese Funktion aufzurufen, oder ```admin_enqueue_scripts``, um sie auf der Admin-Seite aufzurufen.
Das bedeutet, wenn Sie Ihr Skript im Frontend und im Backend einreihen wollen, können Sie ein Skript einmal registrieren, und es dann im Frontend mit ```wp_enqueue_script`` und im Backend mit ```admin_enqueue_script`` laden.
Auf diese Weise haben Sie nicht zweimal denselben Enqueue-Recourse in einem Theme, Plugin, Widget oder was auch immer. | ¿Cuándo debo utilizar wp_register_script() con wp_enqueue_script() frente a sólo wp_enqueue_script()? | La página del códice ```wp_register_script()`` dice literalmente:
Una forma segura de registrar javascripts en WordPress para su uso posterior con ```wp_enqueue_script()``.
Esto significa, que si quieres registrar tus scripts, pero no cargarlos directamente en tus páginas, puedes registrar los archivos una vez, y luego cargarlos cuando los necesites.
Por ejemplo:
Usted tiene una sentencia switch que carga alguna funcionalidad, pero dos de los tres casos necesita un archivo javascript en particular, y uno no. Puedes poner en cola el script cada vez, lo que cuesta más recursos, o sólo poner en cola el script cuando lo necesites:
```...
wp_register_script( 'my-handy-javascript', ... );
...
switch( $somevar ) {
case 'valor':
wp_enqueue_script( 'my-handy-javascript' ); // necesita el archivo
...
break;
case 'valor2':
wp_enqueue_script( 'my-handy-javascript' ); // necesita el archivo
...
break;
por defecto:
case 'value3': // no necesita el archivo
...
break;
}
```
No es necesario registrar un script y luego ponerlos en cola, pero puede proporcionar cierta lógica en tu código si registras todos los scripts que necesitas en algún lugar de tu ```functions.php`` en lugar de en todas partes de tu código.
El Codex también dice lo siguiente:
Usa la acción ```wp_enqueue_scripts`` para llamar a esta función, o ```admin_enqueue_scripts`` para llamarla desde el lado del administrador.
Esto significa que si quieres poner en cola tu script en el front-end y en el back-end, puedes registrar un script una vez, y luego cargarlo en el front-end con ```wp_enqueue_script`` y en el back-end con ```admin_enqueue_script``.
De esta manera no tendrás el mismo recurso enqueue dos veces en un tema, plugin, widget o lo que sea. | Quand dois-je utiliser wp_register_script() avec wp_enqueue_script() ou simplement wp_enqueue_script() ? | La page du Codex ``wp_register_script()`` dit littéralement :
Un moyen sûr d'enregistrer des javascripts dans WordPress pour une utilisation ultérieure avec ``wp_enqueue_script()``.
Cela signifie que si vous voulez enregistrer vos scripts, mais ne pas les charger directement dans vos pages, vous pouvez enregistrer les fichiers une fois, et les charger ensuite quand vous en avez besoin.
Par exemple :
Vous avez une instruction switch qui charge une fonctionnalité, mais deux des trois cas ont besoin d'un fichier javascript particulier, et l'autre non. Vous pouvez mettre le script en file d'attente à chaque fois, ce qui coûte plus de ressources, ou simplement mettre le script en file d'attente quand vous en avez besoin :
```...
wp_register_script( 'my-handy-javascript', ... ) ;
...
switch( $somevar ) {
case 'value' :
wp_enqueue_script( 'my-handy-javascript' ) ; // nécessite le fichier
...
break ;
case 'value2' :
wp_enqueue_script( 'my-handy-javascript' ) ; // nécessite le fichier
...
break ;
par défaut :
case 'value3' : // n'a pas besoin du fichier
...
break ;
}
```
Il n'est pas nécessaire d'enregistrer un script et de le mettre en file d'attente, mais cela peut apporter une certaine logique dans votre code si vous enregistrez tous les scripts dont vous avez besoin quelque part dans votre ``functions.php`` au lieu de les mettre partout dans votre code.
Le Codex indique également ce qui suit :
Utilisez l'action ``wp_enqueue_scripts`` pour appeler cette fonction, ou ``admin_enqueue_scripts`` pour l'appeler du côté administrateur.
Cela signifie que si vous voulez mettre votre script en file d'attente sur le front-end et dans le back-end, vous pouvez enregistrer un script une fois, puis le charger sur le front-end avec ``wp_enqueue_script`` et dans le back-end avec ``admin_enqueue_script``.
De cette façon, vous n'aurez pas le même recours à l'enqueue deux fois dans un thème, un plugin, un widget ou quoi que ce soit d'autre. | Quando dovrei usare wp_register_script() con wp_enqueue_script() rispetto a wp_enqueue_script()? | La pagina del Codex ``wp_register_script()`` dice letteralmente:
Un modo sicuro di registrare i javascript in WordPress per utilizzarli successivamente con ``wp_enqueue_script()``.
Ciò significa che se si desidera registrare gli script, ma non caricarli direttamente nelle pagine, è possibile registrare i file una volta e poi caricarli quando se ne ha bisogno.
Per esempio:
Si ha un'istruzione switch che carica alcune funzionalità, ma due dei tre casi hanno bisogno di un particolare file javascript e uno no. Si può richiedere lo script ogni volta, il che costa più risorse, oppure richiederlo solo quando serve:
```...
wp_register_script( 'my-handy-javascript', ... );
...
switch( $somevar ) {
caso 'valore':
wp_enqueue_script( 'my-handy-javascript' ); // ha bisogno del file
...
break;
caso 'valore2':
wp_enqueue_script( 'my-handy-javascript' ); // necessita del file
...
break;
default:
case 'value3': // non ha bisogno del file
...
break;
}
```
Non è necessario registrare uno script e poi metterlo in coda, ma può fornire una certa logica nel codice se si registrano tutti gli script necessari da qualche parte nel file ```functions.php`` invece che ovunque nel codice.
Il Codex dice anche quanto segue:
Utilizzare l'azione ``wp_enqueue_scripts`` per richiamare questa funzione, oppure ```admin_enqueue_scripts`` per richiamarla dal lato dell'amministratore.
Questo significa che se si vuole mettere in coda il proprio script nel front-end e nel back-end, si può registrare uno script una volta e poi caricarlo nel front-end con ``wp_enqueue_script`` e nel back-end con ```admin_enqueue_script``.
In questo modo non si avrà lo stesso ricorso all'enqueue due volte in un tema, un plugin, un widget o altro. |
290 | When encoding a logic into a proof assistant such as Coq or Isabelle, a choice needs to be made between using a shallow and a deep embedding. In a shallow embedding logical formulas are written directly in the logic of the theorem prover, whereas in a deep embedding logical formulas are represented as a datatype.
* What are the advantages and
limitations of the various
approaches?
* Are there any guidelines available for determining which to use?
* Is it possible to switch between the two representations in any systematic fashion?
As motivation, I would like to encode various security related logics into Coq and am wondering what the pros and cons of the different approaches are. | > What are the advantages and limitations of the various approaches?
* Pros of deep embeddings : You can prove and define things by induction on formulas' structure. Examples of interests are the size of a formula.
* Cons of deep embeddings: You have do deal explicitly with binding of variables. That's usually very laborious.
> Are there any guidelines available for determining which to use ?
Shallow embeddings are very useful to import result proved in the object logic. For instance, if you have prove something in a small logic (e.g. separation logic) shallow embeddings can be a tool of choice to import your result in Coq.
On the other side, deep embedding are almost mandatory when you want to prove meta-theorems about the object logic (like cut-elimination for instance).
> Is it possible to switch between the two representations in any systematic fashion?
The idea behind the shallow embedding is really to work directly in a model of the object formulas. Usually people will maps an object formula P directly (using notations or by doing the translation by hand) to an inhabitant of Prop. Of course, there are inhabitants of Prop which cannot be obtained by embedding a formula of the object logic. Therefore you lose some kind of completeness.
So it is possible to send every result obtained in a deep embedding setting through an interpretation function.
Here is a little coq example:
```
Inductive formula : Set :=
Ftrue : formula
| Ffalse : formula
| Fand : formula -> formula -> formula
| For : formula -> formula -> formula.
Fixpoint interpret (F : formula) : Prop := match F with
Ftrue => True
| Ffalse => False
| Fand a b => (interpret a) /\ (interpret b)
| For a b => (interpret a) \/ (interpret b)
end.
Inductive derivable : formula -> Prop :=
deep_axiom : derivable Ftrue
| deep_and : forall a b, derivable a -> derivable b -> derivable (Fand a b)
| deep_or1 : forall a b, derivable a -> derivable (For a b)
| deep_or2 : forall a b, derivable b -> derivable (For a b).
Inductive sderivable : Prop -> Prop :=
shallow_axiom : sderivable True
| shallow_and : forall a b, sderivable a -> sderivable b -> sderivable (a /\ b)
| shallow_or1 : forall a b, sderivable a -> sderivable (a \/ b)
| shallow_or2 : forall a b, sderivable b -> sderivable (a \/ b).
(* You can prove the following lemma: *)
Lemma shallow_deep :
forall F, derivable F -> sderivable (interpret F).
(* You can NOT prove the following lemma :*)
Lemma t :
forall P, sderivable P -> exists F, interpret F = P.
``` | Bei der Kodierung einer Logik in einem Beweisassistenten wie Coq oder Isabelle muss zwischen einer flachen und einer tiefen Einbettung gewählt werden. Bei einer flachen Einbettung werden die logischen Formeln direkt in der Logik des Theorembeweisers geschrieben, während bei einer tiefen Einbettung die logischen Formeln als Datentyp dargestellt werden.
* Was sind die Vorteile und
Grenzen der verschiedenen
Ansätze?
* Gibt es Leitlinien für die Entscheidung, welche Methode zu verwenden ist?
* Ist es möglich, systematisch zwischen den beiden Darstellungen zu wechseln?
Als Motivation möchte ich verschiedene sicherheitsbezogene Logiken in Coq kodieren und frage mich, was die Vor- und Nachteile der verschiedenen Ansätze sind. | > Was sind die Vorteile und Grenzen der verschiedenen Ansätze?
* Vorteile von tiefen Einbettungen: Man kann Dinge durch Induktion auf die Struktur von Formeln beweisen und definieren. Beispiele für Interessen sind die Größe einer Formel.
* Nachteile von tiefen Einbettungen: Man muss sich explizit mit der Bindung von Variablen beschäftigen. Das ist normalerweise sehr mühsam.
> Gibt es irgendwelche Richtlinien, um zu entscheiden, welche man verwenden sollte?
Shallow Embeddings sind sehr nützlich, um in der Objektlogik bewiesene Ergebnisse zu importieren. Wenn Sie z.B. etwas in einer kleinen Logik (z.B. Trennungslogik) bewiesen haben, können flache Einbettungen ein Werkzeug der Wahl sein, um Ihr Ergebnis in Coq zu importieren.
Auf der anderen Seite sind tiefe Einbettungen fast zwingend notwendig, wenn man Metatheoreme über die Objektlogik beweisen will (wie z.B. die Cut-Elimination).
> Ist es möglich, zwischen den beiden Darstellungen systematisch zu wechseln?
Die Idee hinter der flachen Einbettung ist eigentlich, direkt in einem Modell der Objektformeln zu arbeiten. Normalerweise wird eine Objektformel P direkt (mit Hilfe von Notationen oder durch manuelle Übersetzung) auf einen Bewohner von Prop abgebildet. Natürlich gibt es Bewohner von Prop, die nicht durch die Einbettung einer Formel der Objektlogik erhalten werden können. Daher verliert man eine Art von Vollständigkeit.
Es ist also möglich, jedes Ergebnis, das man in einer tiefen Einbettung erhält, durch eine Interpretationsfunktion zu schicken.
Hier ist ein kleines Coq-Beispiel:
```
Induktive Formel : Menge :=
Ftrue : Formel
| Ffalsch : Formel
| Fand : Formel -> Formel -> Formel
| For : Formel -> Formel -> Formel.
Fixpunkt interpretieren (F : formula) : Prop := match F mit
Fwahr => Wahr
| Ffalse => Falsch
| Fund a b => (interpret a) /\ (interpret b)
| Für a b => (interpret a) \/ (interpret b)
Ende.
Induktiv ableitbar : Formel -> Prop :=
deep_axiom : ableitbar Ftrue
| deep_and : forall a b, ableitbar a -> ableitbar b -> ableitbar (Fand a b)
| deep_or1 : forall a b, ableitbar a -> ableitbar (For a b)
| deep_or2 : forall a b, ableitbar b -> ableitbar (Für a b).
Induktiv ableitbar : Prop -> Prop :=
shallow_axiom : sderivable Wahr
| shallow_and : forall a b, sderivable a -> sderivable b -> sderivable (a /\ b)
| shallow_or1 : füralle a b, sderivable a -> sderivable (a \/ b)
| shallow_or2 : forall a b, sderivable b -> sderivable (a \/ b).
(* Sie können das folgende Lemma beweisen: *)
Lemma shallow_deep :
forall F, ableitbar F -> ableitbar (interpretiere F).
(* Das folgende Lemma kann NICHT bewiesen werden: *)
Lemma t :
forall P, ableitbar P -> existiert F, interpretiere F = P.
``` | Cuando se codifica una lógica en un asistente de demostración como Coq o Isabelle, hay que elegir entre utilizar una incrustación superficial o profunda. En una incrustación superficial, las fórmulas lógicas se escriben directamente en la lógica del demostrador teórico, mientras que en una incrustación profunda, las fórmulas lógicas se representan como un tipo de datos.
* ¿Cuáles son las ventajas y
limitaciones de los distintos
enfoques?
* ¿Existen directrices para determinar cuál utilizar?
* ¿Es posible pasar de una representación a otra de forma sistemática?
Como motivación, me gustaría codificar varias lógicas relacionadas con la seguridad en Coq y me pregunto cuáles son los pros y los contras de los distintos enfoques. | > ¿Cuáles son las ventajas y limitaciones de los distintos enfoques?
* Ventajas de las incrustaciones profundas : Se pueden demostrar y definir cosas por inducción sobre la estructura de las fórmulas. Ejemplos de interés son el tamaño de una fórmula.
* Contras de las incrustaciones profundas: Tienes que tratar explícitamente con la vinculación de variables. Eso suele ser muy laborioso.
> ¿Existen directrices para determinar cuál utilizar?
Las incrustaciones superficiales son muy útiles para importar resultados probados en la lógica de objetos. Por ejemplo, si has probado algo en una lógica pequeña (por ejemplo, la lógica de separación) las incrustaciones superficiales pueden ser una herramienta de elección para importar tu resultado en Coq.
Por otro lado, las incrustaciones profundas son casi obligatorias cuando quieres demostrar metateoremas sobre la lógica de objetos (como la eliminación de cortes, por ejemplo).
> ¿Es posible cambiar entre las dos representaciones de forma sistemática?
La idea detrás de la incrustación superficial es realmente trabajar directamente en un modelo de las fórmulas objeto. Normalmente la gente mapea una fórmula de objeto P directamente (usando notaciones o haciendo la traducción a mano) a un habitante de Prop. Por supuesto, hay habitantes de Prop que no se pueden obtener incrustando una fórmula de la lógica de objetos. Por lo tanto se pierde algún tipo de completitud.
Así que es posible enviar cada resultado obtenido en un entorno de incrustación profunda a través de una función de interpretación.
He aquí un pequeño ejemplo coq:
```
Fórmula inductiva : Conjunto :=
Ftrue : fórmula
| Ffalse : fórmula
| Fand : fórmula -> fórmula -> fórmula
| Para : fórmula -> fórmula -> fórmula.
Fixpoint interpretar (F : fórmula) : Prop := coincide F con
Ftrue => Verdadero
| Ffalse => False
| Fy a b => (interpretar a) /\ (interpretar b)
| Para a b => (interpretar a) \/ (interpretar b)
fin.
Inductivo derivable : fórmula -> Prop :=
axioma_profundo : derivable Ftrue
| deep_and : para todo a b, derivable a -> derivable b -> derivable (Fand a b)
| deep_or1 : para todo a b, derivable a -> derivable (Para a b)
| deep_or2 : para todo a b, derivable b -> derivable (Para a b).
Inductivo sderivable : Prop -> Prop :=
axioma_superficial : sderivable Verdadero
| shallow_and : forall a b, sderivable a -> sderivable b -> sderivable (a /\ b)
| superficial_o1 : para todo a b, sderivable a -> sderivable (a \/ b)
| shallow_or2 : forall a b, sderivable b -> sderivable (a \/ b).
(* Se puede demostrar el siguiente lema: *)
Lemma superficial_profundo :
para todo F, derivable F -> sderivable (interpretar F).
(* NO se puede demostrar el siguiente lema :*)
Lemma t :
para todo P, derivable P -> existe F, interpretar F = P.
``` | Lors de l'encodage d'une logique dans un assistant de preuve tel que Coq ou Isabelle, un choix doit être fait entre l'utilisation d'un encastrement superficiel et d'un encastrement profond. Dans un encodage superficiel, les formules logiques sont écrites directement dans la logique du prouveur de théorèmes, alors que dans un encodage profond, les formules logiques sont représentées sous la forme d'un type de données.
* Quels sont les avantages et les
limites des différentes
approches ?
* Existe-t-il des lignes directrices pour déterminer laquelle utiliser ?
* Est-il possible de passer d'une représentation à l'autre de manière systématique ?
En guise de motivation, j'aimerais encoder diverses logiques liées à la sécurité dans Coq et je me demande quels sont les avantages et les inconvénients des différentes approches. | > Quels sont les avantages et les limites des différentes approches ?
* Avantages des deep embeddings : Vous pouvez prouver et définir des choses par induction sur la structure des formules. La taille d'une formule est un exemple d'intérêt.
* Inconvénients des deep embeddings : Vous devez traiter explicitement la liaison des variables. C'est généralement très laborieux.
> Existe-t-il des lignes directrices pour déterminer ce qu'il convient d'utiliser ?
Les incorporations superficielles sont très utiles pour importer les résultats prouvés dans la logique de l'objet. Par exemple, si vous avez prouvé quelque chose dans une petite logique (par exemple, une logique de séparation), les embeddings peu profonds peuvent être un outil de choix pour importer votre résultat dans Coq.
D'un autre côté, les embeddings profonds sont presque obligatoires lorsque vous voulez prouver des méta-théorèmes sur la logique objet (comme l'élimination des coupes par exemple).
> Est-il possible de passer d'une représentation à l'autre de manière systématique ?
L'idée derrière le shallow embedding est vraiment de travailler directement dans un modèle de formules d'objets. Habituellement, les gens font correspondre une formule objet P directement (en utilisant des notations ou en faisant la traduction à la main) à un habitant de Prop. Bien sûr, il y a des habitants de Prop qui ne peuvent pas être obtenus en incorporant une formule de la logique objet. On perd donc une certaine forme de complétude.
Il est donc possible d'envoyer chaque résultat obtenu dans le cadre d'un deep embedding à travers une fonction d'interprétation.
Voici un petit exemple en coq :
```
Formule inductive : Ensemble :=
Ftrue : formule
| Ffalse : formule
| Fand : formule -> formule -> formule
| Pour : formule -> formule -> formule.
Interprétation du point fixe (F : formule) : Prop := correspondre à F avec
Ftrue => Vrai
| Ffalse => False
| Fand a b => (interpret a) /\N(interpret b)
| Pour a b => (interpréter a) \N/ (interpréter b)
fin.
Inductive derivable : formula -> Prop :=
deep_axiom : derivable Ftrue
| deep_and : forall a b, derivable a -> derivable b -> derivable (Fand a b)
| deep_or1 : pour tout a b, dérivable a -> dérivable (For a b)
| deep_or2 : forall a b, derivable b -> derivable (For a b).
Inductif sderivable : Prop -> Prop :=
shallow_axiom : sderivable True
| shallow_and : forall a b, sderivable a -> sderivable b -> sderivable (a /\ b)
| Le système de gestion de l'information est un système de gestion de l'information qui permet de gérer l'information de manière efficace.
| shallow_or2 : forall a b, sderivable b -> sderivable (a \/ b).
(* Vous pouvez prouver le lemme suivant : *)
Lemma shallow_deep :
pour tout F, dérivable F -> dérivable (interpréter F).
(* Vous ne pouvez PAS prouver le lemme suivant :*)
Lemma t :
pour tout P, P dérivable -> existe F, interprète F = P.
``` | Quando si codifica una logica in un assistente di dimostrazione come Coq o Isabelle, è necessario scegliere tra un incorporamento superficiale e uno profondo. In un embedding superficiale le formule logiche sono scritte direttamente nella logica del theorem prover, mentre in un embedding profondo le formule logiche sono rappresentate come un tipo di dato.
* Quali sono i vantaggi e le
limiti dei vari approcci?
approcci?
* Esistono linee guida per determinare quale utilizzare?
* È possibile passare da una rappresentazione all'altra in modo sistematico?
Come motivazione, vorrei codificare varie logiche di sicurezza in Coq e mi chiedo quali siano i pro e i contro dei diversi approcci. | > Quali sono i vantaggi e i limiti dei vari approcci?
* Pro delle incorporazioni profonde: è possibile dimostrare e definire le cose per induzione sulla struttura delle formule. Esempi di interesse sono le dimensioni di una formula.
* Contro delle incorporazioni profonde: Bisogna trattare esplicitamente il legame delle variabili. Di solito è molto laborioso.
> Esistono linee guida per determinare quale utilizzare?
Le incorporazioni poco profonde sono molto utili per importare i risultati dimostrati nella logica dell'oggetto. Per esempio, se avete dimostrato qualcosa in una logica piccola (per esempio una logica di separazione) gli embedding poco profondi possono essere uno strumento di scelta per importare i risultati in Coq.
D'altra parte, le incorporazioni profonde sono quasi obbligatorie quando si vogliono dimostrare meta-teoremi sulla logica dell'oggetto (come ad esempio l'eliminazione dei tagli).
> È possibile passare da una rappresentazione all'altra in modo sistematico?
L'idea alla base dello shallow embedding è proprio quella di lavorare direttamente in un modello di formule oggetto. Di solito si mappa una formula oggetto P direttamente (usando notazioni o facendo la traduzione a mano) in un abitante di Prop. Naturalmente, ci sono abitanti di Prop che non possono essere ottenuti incorporando una formula della logica oggetto. Pertanto si perde una sorta di completezza.
È quindi possibile inviare ogni risultato ottenuto in un contesto di deep embedding attraverso una funzione di interpretazione.
Ecco un piccolo esempio in coq:
```
Formula induttiva : Set :=
Ftrue : formula
| Ffalso : formula
| Fand : formula -> formula -> formula
| For : formula -> formula -> formula.
Interpretazione del punto fisso (F : formula) : Prop := corrisponde a F con
Ftrue => Vero
| Ffalse => Falso
| Fe a b => (interpretare a) /\ (interpretare b)
| Per a b => (interpretare a) / (interpretare b)
fine.
Derivabile induttivo : formula -> Prop :=
deep_axiom : derivabile Ftrue
| deep_and : forall a b, derivabile a -> derivabile b -> derivabile (Fand a b)
| deep_or1 : per tutti gli a b, derivabile a -> derivabile (For a b)
| deep_or2 : forall a b, derivabile b -> derivabile (Per a b).
Induttivo sderivabile : Prop -> Prop :=
shallow_axiom : sderivable True
| shallow_and : forall a b, sderivable a -> sderivable b -> sderivable (a / b)
| shallow_or1 : per tutti gli a b, sderivable a -> sderivable (a \/ b)
| shallow_or2 : per tutti gli a b, sderivable b -> sderivable (a \/ b).
(* È possibile dimostrare il seguente lemma: *)
Lemma shallow_deep :
forall F, derivabile F -> sderivabile (interpretare F).
(* Non è possibile dimostrare il seguente lemma :*)
Lemma t :
per tutti i P, sderivabili P -> esiste F, interpretare F = P.
``` |
291 | Prove that the union of countably many countable sets is countable. | Let's start with a quick review of "countable". A set is countable if we can set up a 1-1 correspondence between the set and the natural numbers. As an example, let's take $\mathbb{Z}$, which consists of all the integers. Is $\mathbb Z$ countable?
It may seem uncountable if you pick a naive correspondence, say $1 \mapsto 1$, $2 \mapsto 2 ...$, which leaves all of the negative numbers unmapped. But if we organize the integers like this:
$$0$$
$$1, -1$$
$$2, -2$$
$$3, -3$$
$$...$$
We quickly see that there is a map that works. Map 1 to 0, 2 to 1, 3 to -1, 4 to 2, 5 to -2, etc. So given an element $x$ in $\mathbb Z$, we either have that $1 \mapsto x$ if $x=0$, $2x \mapsto x$ if $x > 0$, or $2|x|+1 \mapsto x$ if $x . So the integers are countable.
We proved this by finding a map between the integers and the natural numbers. So to show that the union of countably many sets is countable, we need to find a similar mapping. First, let's unpack "the union of countably many countable sets is countable":
1. "countable sets" pretty simple. If $S$ is in our set of sets, there's a 1-1 correspondence between elements of $S$ and $\mathbb N$.
2. "countably many countable sets" we have a 1-1 correspondence between $\mathbb N$ and the sets themselves. In other words, we can write the sets as $S_1$, $S_2$, $S_3$... Let's call the set of sets $\{S_n\}, n \in \mathbb N$.
3. "union of countably many countable sets is countable". There is a 1-1 mapping between the elements in $\mathbb N$ and the elements in $S_1 \cup S_2 \cup S_3 ...$
So how do we prove this? We need to find a correspondence, of course. Fortunately, there's a simple way to do this. Let $s_{nm}$ be the $mth$ element of $S_n$. We can do this because $S_n$ is by definition of the problem countable. We can write the elements of ALL the sets like this:
$$s_{11}, s_{12}, s_{13} ...$$
$$s_{21}, s_{22}, s_{23} ...$$
$$s_{31}, s_{32}, s_{33} ...$$
$$...$$
Now let $1 \mapsto s_{11}$, $2 \mapsto s_{12}$, $3 \mapsto s_{21}$, $4 \mapsto s_{13}$, etc. You might notice that if we cross out every element that we've mapped, we're crossing them out in diagonal lines. With $1$ we cross out the first diagonal, $2-3$ we cross out the second diagonal, $4-6$ the third diagonal, $7-10$ the fourth diagonal, etc. The $nth$ diagonal requires us to map $n$ elements to cross it out. Since we never "run out" of elements in $\mathbb N$, eventually given any diagonal we'll create a map to every element in it. Since obviously every element in $S_1 \cup S_2 \cup S_3 ...$ is in one of the diagonals, we've created a 1-1 map between $\mathbb N$ and the set of sets.
Let's extend this one step further. What if we made $s_{11} = 1/1$, $s_{12} = 1/2$, $s_{21} = 2/1$, etc? Then $S_1 \cup S_2 \cup S_3 ... = \mathbb Q^+$! This is how you prove that the rationals are countable. Well, the positive rationals anyway. Can you extend these proofs to show that the rationals are countable? | Beweisen Sie, dass die Vereinigung von abzählbar vielen abzählbaren Mengen abzählbar ist. | Beginnen wir mit einem kurzen Überblick über den Begriff "abzählbar". Eine Menge ist abzählbar, wenn wir eine 1-1-Korrespondenz zwischen der Menge und den natürlichen Zahlen aufstellen können. Nehmen wir als Beispiel die Menge $\mathbb{Z}$, die aus allen ganzen Zahlen besteht. Ist $\mathbb Z$ abzählbar?
Sie mag nicht abzählbar erscheinen, wenn man eine naive Entsprechung wählt, z.B. $1 \mapsto 1$, $2 \mapsto 2 ...$, wodurch alle negativen Zahlen nicht abgebildet werden. Aber wenn wir die ganzen Zahlen wie folgt organisieren:
$$0$$
$$1, -1$$
$$2, -2$$
$$3, -3$$
$$...$$
Wir sehen schnell, dass es eine Karte gibt, die funktioniert. Abbildung 1 auf 0, 2 auf 1, 3 auf -1, 4 auf 2, 5 auf -2, usw. Für ein Element $x$ in $\mathbb Z$ gilt also entweder, dass $1 \mapsto x$, wenn $x=0$, $2x \mapsto x$, wenn $x > 0$, oder $2|x|+1 \mapsto x$, wenn $x . Die ganzen Zahlen sind also abzählbar.
Wir haben dies bewiesen, indem wir eine Abbildung zwischen den ganzen Zahlen und den natürlichen Zahlen gefunden haben. Um also zu zeigen, dass die Vereinigung abzählbar vieler Mengen abzählbar ist, müssen wir eine ähnliche Abbildung finden. Zunächst wollen wir die Aussage "die Vereinigung abzählbar vieler abzählbarer Mengen ist abzählbar" auspacken:
1. "Abzählbare Mengen" ist ziemlich einfach. Wenn $S$ in unserer Menge von Mengen ist, gibt es eine 1-1 Korrespondenz zwischen Elementen von $S$ und $\mathbb N$.
2. Bei "abzählbar vielen abzählbaren Mengen" gibt es eine 1-1-Korrespondenz zwischen $\mathbb N$ und den Mengen selbst. Mit anderen Worten, wir können die Mengen als $S_1$, $S_2$, $S_3$... schreiben. Nennen wir die Menge der Mengen $\{S_n\}, n \in \mathbb N$.
3. "Die Vereinigung von abzählbar vielen abzählbaren Mengen ist abzählbar". Es gibt eine 1-1-Abbildung zwischen den Elementen in $\mathbb N$ und den Elementen in $S_1 \cup S_2 \cup S_3 ...$
Wie können wir das beweisen? Wir müssen natürlich eine Entsprechung finden. Glücklicherweise gibt es einen einfachen Weg, dies zu tun. Sei $s_{nm}$ das $m-te$ Element von $S_n$. Wir können dies tun, weil $S_n$ per Definition des Problems abzählbar ist. Wir können die Elemente ALLER Mengen wie folgt schreiben:
$$s_{11}, s_{12}, s_{13} ...$$
$$s_{21}, s_{22}, s_{23} ...$$
$$s_{31}, s_{32}, s_{33} ...$$
$$...$$
Nun sei $1 \mapsto s_{11}$, $2 \mapsto s_{12}$, $3 \mapsto s_{21}$, $4 \mapsto s_{13}$, usw. Sie werden feststellen, dass wir jedes Element, das wir gemappt haben, in diagonalen Linien durchstreichen. Bei $1$ streichen wir die erste Diagonale, bei $2-3$ die zweite Diagonale, bei $4-6$ die dritte Diagonale, bei $7-10$ die vierte Diagonale, usw. Bei der $n-ten$ Diagonale müssen wir $n$ Elemente abbilden, um sie zu streichen. Da uns die Elemente in $\mathbb N$ nie "ausgehen", werden wir irgendwann für jede Diagonale eine Abbildung auf jedes Element darin erstellen. Da offensichtlich jedes Element in $S_1 \cup S_2 \cup S_3 ...$ in einer der Diagonalen liegt, haben wir eine 1-1-Abbildung zwischen $\mathbb N$ und der Menge der Mengen erstellt.
Erweitern wir dies noch einen Schritt weiter. Was wäre, wenn wir $s_{11} = 1/1$, $s_{12} = 1/2$, $s_{21} = 2/1$ usw. setzen würden? Dann ist $S_1 \cup S_2 \cup S_3 ... = \mathbb Q^+$! So beweist man, dass die rationalen Zahlen abzählbar sind. Nun, jedenfalls die positiven Rationalen. Können Sie diese Beweise erweitern, um zu zeigen, dass die rationalen Zahlen abzählbar sind? | Demostrar que la unión de un número contable de conjuntos contables es contable. | Empecemos con un repaso rápido de "contable". Un conjunto es contable si podemos establecer una correspondencia 1-1 entre el conjunto y los números naturales. Como ejemplo, tomemos $\mathbb{Z}$, que consiste en todos los números enteros. ¿Es $\mathbb Z$ contable?
Puede parecer incontable si se elige una correspondencia ingenua, por ejemplo, $ 1 \mapsto 1$, $ 2 \mapsto 2 ...$, lo que deja todos los números negativos sin mapear. Pero si organizamos los números enteros así:
$$0$$
$$1, -1$$
$$2, -2$$
$$3, -3$$
$$...$$
Rápidamente vemos que hay un mapa que funciona. Mapa 1 a 0, 2 a 1, 3 a -1, 4 a 2, 5 a -2, etc. Así que dado un elemento $x$ en $\mathbb Z$, tenemos que $1 \mapa a x$ si $x=0$, $2x \mapa a x$ si $x > 0$, o $2|x|+1 \mapa a x$ si $x . Por tanto, los números enteros son contables.
Lo demostramos encontrando un mapa entre los números enteros y los números naturales. Así que para demostrar que la unión de conjuntos contables es contable, tenemos que encontrar un mapa similar. En primer lugar, vamos a desempacar "la unión de contablemente muchos conjuntos contables es contable":
1. "conjuntos contables" bastante sencillo. Si $S$ está en nuestro conjunto de conjuntos, hay una correspondencia 1-1 entre los elementos de $S$ y $\mathbb N$.
2. 2. "Contablemente muchos conjuntos contables" tenemos una correspondencia 1-1 entre $\mathbb N$ y los propios conjuntos. En otras palabras, podemos escribir los conjuntos como $S_1$, $S_2$, $S_3$... Llamemos al conjunto de conjuntos $\{S_n\}, n \en \mathbb N$.
3. "La unión de contablemente muchos conjuntos contables es contable". Existe una correspondencia 1-1 entre los elementos de $\mathbb N$ y los elementos de $S_1 \cup S_2 \cup S_3 ...$.
Entonces, ¿cómo podemos demostrar esto? Tenemos que encontrar una correspondencia, por supuesto. Afortunadamente, hay una manera sencilla de hacerlo. Sea $s_{nm}$ el elemento $mth$ de $S_n$. Podemos hacer esto porque $S_n$ es por definición del problema contable. Podemos escribir los elementos de TODOS los conjuntos así:
$$s_{11}, s_{12}, s_{13} ...$$
$$s_{21}, s_{22}, s_{23} ...$$
$$s_{31}, s_{32}, s_{33} ...$$
$$...$$
Ahora dejemos que $1 \mapsto s_{11}$, $2 \mapsto s_{12}$, $3 \mapsto s_{21}$, $4 \mapsto s_{13}$, etc. Usted puede notar que si tachamos cada elemento que hemos mapeado, estamos cruzando a cabo en líneas diagonales. Con $1$ tachamos la primera diagonal, $2-3$ tachamos la segunda diagonal, $4-6$ la tercera diagonal, $7-10$ la cuarta diagonal, etc. La enésima diagonal requiere que tracemos $n$ elementos para tacharla. Puesto que nunca "se acaban" los elementos en $\mathbb N$, eventualmente dada cualquier diagonal crearemos un mapa a cada elemento en ella. Como obviamente cada elemento de $S_1 \cup S_2 \cup S_3 ...$ está en una de las diagonales, hemos creado un mapa 1-1 entre $\mathbb N$ y el conjunto de conjuntos.
Vamos a extender esto un paso más allá. ¿Y si hiciéramos $s_{11} = 1/1$, $s_{12} = 1/2$, $s_{21} = 2/1$, etc? Entonces $S_1 \cup S_2 \cup S_3 ... = \mathbb Q^+$! Así es como se demuestra que los racionales son contables. Bueno, los racionales positivos de todos modos. ¿Puedes extender estas pruebas para demostrar que los racionales son contables? | Prouver que l'union d'un nombre dénombrable d'ensembles dénombrables est dénombrable. | Commençons par un bref rappel du terme "dénombrable". Un ensemble est dénombrable si l'on peut établir une correspondance 1-1 entre l'ensemble et les entiers naturels. Prenons par exemple $\mathbb{Z}$, qui est constitué de tous les entiers. Est-ce que $\mathbb Z$ est dénombrable ?
Il peut sembler indénombrable si l'on choisit une correspondance naïve, par exemple $1 \mapsto 1$, $2 \mapsto 2 ...$, qui laisse tous les nombres négatifs sans correspondance. Mais si nous organisons les nombres entiers comme suit :
$$0$$
$$1, -1$$
$$2, -2$$
$$3, -3$$
$$...$$
Nous constatons rapidement qu'il existe une carte qui fonctionne. Il s'agit d'associer 1 à 0, 2 à 1, 3 à -1, 4 à 2, 5 à -2, etc. Ainsi, étant donné un élément $x$ dans $\mathbb Z$, nous avons soit que $1 \mapsto x$ si $x=0$, $2x \mapsto x$ si $x > 0$, ou $2|x|+1 \mapsto x$ si $x . Les entiers sont donc dénombrables.
Nous l'avons prouvé en trouvant une carte entre les entiers et les entiers naturels. Ainsi, pour montrer que l'union d'un nombre dénombrable d'ensembles est dénombrable, nous devons trouver une correspondance similaire. Tout d'abord, décortiquons "l'union d'ensembles dénombrables est dénombrable" :
1. L'expression "ensembles dénombrables" est assez simple. Si $S$ fait partie de notre ensemble d'ensembles, il existe une correspondance 1-1 entre les éléments de $S$ et $\mathbb N$.
2. Pour les "ensembles dénombrables", nous avons une correspondance 1-1 entre $\mathbb N$ et les ensembles eux-mêmes. En d'autres termes, nous pouvons écrire les ensembles sous la forme $S_1$, $S_2$, $S_3$... Appelons l'ensemble des ensembles $\{S_n\}, n \in \mathbb N$.
3. "L'union d'un nombre dénombrable d'ensembles dénombrables est dénombrable. Il existe une correspondance 1-1 entre les éléments de $\mathbb N$ et les éléments de $S_1 \cup S_2 \cup S_3 ...$
Comment le prouver ? Nous devons trouver une correspondance, bien sûr. Heureusement, il existe un moyen simple de le faire. Soit $s_{nm}$ le $mième$ élément de $S_n$. Nous pouvons le faire parce que $S_n$ est, par définition du problème, dénombrable. Nous pouvons écrire les éléments de TOUS les ensembles comme suit :
$$s_{11}, s_{12}, s_{13} ...$$
$$s_{21}, s_{22}, s_{23} ...$$
$$s_{31}, s_{32}, s_{33} ...$$
$$...$$
Maintenant, laissons $1 \mapsto s_{11}$, $2 \mapsto s_{12}$, $3 \mapsto s_{21}$, $4 \mapsto s_{13}$, etc. Vous remarquerez que si nous barrons chaque élément que nous avons cartographié, nous le faisons en diagonale. Avec $1$, nous barrons la première diagonale, $2-3$ la deuxième diagonale, $4-6$ la troisième diagonale, $7-10$ la quatrième diagonale, etc. La $nth$ diagonale exige que nous mappions $n$ éléments pour la barrer. Puisque nous ne manquons jamais d'éléments dans $\mathbb N$, nous créerons une carte pour chaque élément de chaque diagonale. Puisque chaque élément de $S_1 \cup S_2 \cup S_3 ...$ se trouve dans l'une des diagonales, nous avons créé une carte 1-1 entre $\mathbb N$ et l'ensemble des ensembles.
Étendons cela un peu plus loin. Et si nous faisions $s_{11} = 1/1$, $s_{12} = 1/2$, $s_{21} = 2/1$, etc ? Alors $S_1 \cup S_2 \cup S_3 ... = \mathbb Q^+$ ! C'est ainsi que l'on prouve que les rationnels sont dénombrables. En tout cas, les rationnels positifs. Pouvez-vous étendre ces preuves pour démontrer que les rationnels sont dénombrables ? | Dimostrare che l'unione di molti insiemi contestabili è contestabile. | Cominciamo con un rapido ripasso del termine "contabilità". Un insieme è countable se possiamo stabilire una corrispondenza 1-1 tra l'insieme e i numeri naturali. Per esempio, prendiamo $Mathbb{Z}$, che consiste in tutti i numeri interi. $Mathbb Z$ è contabilissimo?
Può sembrare non numerabile se si sceglie una corrispondenza ingenua, ad esempio $1 ´mappato a 1$, $2 ´mappato a 2 ...$, che lascia tutti i numeri negativi non mappati. Ma se organizziamo gli interi in questo modo:
$$0$$
$$1, -1$$
$$2, -2$$
$$3, -3$$
$$...$$
Vediamo subito che esiste una mappa che funziona. Mappa 1 a 0, 2 a 1, 3 a -1, 4 a 2, 5 a -2, ecc. Quindi, dato un elemento $x$ in $mathbb Z$, si ha che $1 ´mappa a x$ se $x=0$, $2x ´mappa a x$ se $x > 0$, o $2|x|+1 ´mappa a x$ se $x . Quindi i numeri interi sono contati.
Lo abbiamo dimostrato trovando una mappa tra gli interi e i numeri naturali. Per dimostrare che l'unione di molti insiemi contabilmente numerosi è contabilissima, dobbiamo trovare una mappa simile. Per prima cosa, spieghiamo come "l'unione di molti insiemi numerabili è numerabile":
1. "Insiemi contabilmente molti" è abbastanza semplice. Se $S$ è nel nostro insieme di insiemi, c'è una corrispondenza 1-1 tra gli elementi di $S$ e di $Mathbb N$.
2. "Se $S$ è nel nostro insieme di insiemi, c'è una corrispondenza 1-1 tra gli elementi di $S$ e $\mathbb N$. In altre parole, possiamo scrivere gli insiemi come $S_1$, $S_2$, $S_3$... Chiamiamo l'insieme degli insiemi ${S_n\}, n \ in \mathbb N$.
3. "L'unione di molti insiemi numerabili è numerabile". Esiste una mappatura 1-1 tra gli elementi in $mathbb N$ e gli elementi in $S_1 \cup S_2 \cup S_3 ...$
Come lo dimostriamo? Dobbiamo trovare una corrispondenza, ovviamente. Fortunatamente esiste un modo semplice per farlo. Sia $s_{nm}$ l'ennesimo elemento di $S_n$. Possiamo farlo perché $S_n$ è, per definizione del problema, countable. Possiamo scrivere gli elementi di TUTTI gli insiemi in questo modo:
$$s_{11}, s_{12}, s_{13} ...$$
$$s_{21}, s_{22}, s_{23} ...$$
$$s_{31}, s_{32}, s_{33} ...$$
$$...$$
Ora lasciamo che $1 ´mappa a s_{11}$, $2 ´mappa a s_{12}$, $3 ´mappa a s_{21}$, $4 ´mappa a s_{13}$, ecc. Si può notare che se cancelliamo tutti gli elementi che abbiamo mappato, li cancelliamo in diagonale. Con $1$ cancelliamo la prima diagonale, con $2-3$ cancelliamo la seconda diagonale, con $4-6$ la terza diagonale, con $7-10$ la quarta diagonale, ecc. L'$ennesima$ diagonale richiede la mappatura di $n$ elementi per essere cancellata. Poiché non "esauriamo" mai gli elementi in $Mathbb N$, alla fine, data una qualsiasi diagonale, creeremo una mappa per ogni elemento in essa contenuto. Poiché ovviamente ogni elemento di $S_1 \cup S_2 \cup S_3 ...$ si trova in una delle diagonali, abbiamo creato una mappa 1-1 tra $mathbb N$ e l'insieme degli insiemi.
Facciamo un ulteriore passo avanti. E se facessimo $s_{11} = 1/1$, $s_{12} = 1/2$, $s_{21} = 2/1$, ecc? Allora $S_1 \cup S_2 \cup S_3 ... = \mathbb Q^+$! Questo è il modo in cui si dimostra che i razionali sono conteggiabili. Beh, comunque i razionali positivi. È possibile estendere queste prove per dimostrare che i razionali sono conteggiabili? |
292 | Você encontra na internet a afirmação que Singletons são ruins. Isto é verdade? Por quê?
O problema seria generalizado para quaisquer objetos com instância única? Ou para qualquer coisa que tenha estado global?
Se é tão ruim, pra que foi inventado? Ou seja, que problema ele queria resolver?
Quais os problemas que terei se usá-lo?
Existe alternativa viável? | Muito da polêmica ocorre pela falta de uma contextualização. Não vejo nada que desabone o padrão Sigleton quando usado no contexto correto. Sim, ele pode causar muito mal, assim como qualquer padrão de projeto aplicado indevidamente sem análise do impacto e dos efeitos colaterais.
###Porque não usar
* Acoplamento. Ao usar um Singleton você está acoplando o código a uma implementação estática e específica. Isso torna o seu código dependente dessa classe e impede, por exemplo, criar mocks em testes unitários. Desse ponto de vista a consequência é basicamente a mesma de fazer diretamente um ```new MeuObjetoImportante()```, pois é uma dependência direta da classe.
* Escopo. O padrão Singleton aplicado conforme a definição também elimina o conceito de escopo. Isso significa que se você por alguma razão decidir que para determinados componentes da aplicação você precisa de outra implementação terá que alterar manualmente todas as classes.
* Não garantia de uma instância única. Em certos casos o padrão pode levar à falsa segurança de que existirá apenas uma instância. Vamos supor que você projete um sistema web e quer dar acesso a um arquivo ou recurso exclusivo. Um Singleton parece uma boa prática, não é? Mas e se amanhã você fizer o deploy da aplicação em um cluster com N servidores.
No caso de Java isso também é bem complicado, pois não existe isso de uma classe por JVM. O conceito correto é uma classe por ```ClassLoader```, de forma que num mesmo servidor JEE duas aplicações diferentes podem ter, cada uma, sua própria versão de uma mesma classe. As variáveis estáticas não são compartilhadas entre essas versões da mesma classe, portanto o escopo do Singleton em Java é por ```ClassLoader``` e não por programa.
###Porque usar
Em algumas situações você sabe que vai ter só uma instância da classe. Em uma aplicação Desktop, por exemplo, não há porque ter "frescuras" adicionais para obter uma conexão com o banco de dados.
Também não vejo problemas em um objeto encapsulando alguns atributos de configuração globais. Simplesmente não valeria o esforço de implementar algum mecanismo muito elaborado para algo tão simples.
###Como usar
Quando pensamos em Singleton, logo a implementação clássica do Gang of Four nos vêm à mente. Os tópicos anteriores desta resposta consideraram isso. Porém, com a ascensão do uso de frameworks de Inversão de Controle (IoC) e Injeção de Dependência (DI), existe hoje uma forma muito mais "segura" e flexível de implementar o padrão: deixe o framework cuidar disso para você!
###Como evitar o Singleton
Apesar de implementações mais simples poderem usar o padrão Singleton da forma "clássica" sem problemas, em geral seria melhor aplicar a Inversão de Controle simplesmente deixar a instância de suas dependências serem injetadas. Dessa forma, caso amanhã os requisitos mudem e você preciso injetar diferentes instâncias, ou mesmo queira criar mocks de teste, basta configurar seu container ou framework para tal, sem alterar as implementações existentes. | Im Internet findet man Behauptungen, dass Singletons schlecht sind. Stimmt das? Und warum?
Lässt sich das Problem auf alle Objekte mit einer einzigen Instanz verallgemeinern? Oder auf alles, was einen globalen Zustand hat?
Wenn es so schlecht ist, wozu wurde es dann erfunden? Mit anderen Worten, welches Problem wollte man damit lösen?
Welche Probleme werde ich haben, wenn ich es verwende?
Gibt es eine brauchbare Alternative? | Ein Großteil der Kontroverse ist auf einen Mangel an Kontextualisierung zurückzuführen. Ich sehe nichts, was gegen den Sigleton-Standard spricht, wenn er im richtigen Kontext angewendet wird. Ja, er kann viel Schaden anrichten, wie jede Designnorm, die unsachgemäß angewandt wird, ohne die Auswirkungen und Nebeneffekte zu analysieren.
###Warum nicht verwenden
* Kopplung. Durch die Verwendung eines Singletons koppeln Sie den Code an eine statische und spezifische Implementierung. Dies macht Ihren Code von dieser Klasse abhängig und verhindert z. B. die Erstellung von Mocks in Unit-Tests. Aus dieser Sicht ist die Konsequenz im Grunde die gleiche wie ein ``new MyImportantObject()`` direkt zu erstellen, da es eine direkte Abhängigkeit von der Klasse ist.
* Umfang. Das Singleton-Muster, das wie definiert angewendet wird, eliminiert auch das Konzept des Geltungsbereichs. Das bedeutet, wenn Sie aus irgendeinem Grund entscheiden, dass Sie für bestimmte Komponenten der Anwendung eine andere Implementierung benötigen, müssen Sie alle Klassen manuell ändern.
* Keine Garantie für eine einzige Instanz. In bestimmten Fällen kann das Muster zu der falschen Gewissheit führen, dass es nur eine Instanz geben wird. Nehmen wir an, Sie entwerfen ein Websystem und wollen den Zugriff auf eine bestimmte Datei oder Ressource ermöglichen. Ein Singleton scheint eine gute Praxis zu sein, nicht wahr? Aber was ist, wenn Sie die Anwendung morgen in einem Cluster mit N Servern einsetzen?
Im Falle von Java ist dies auch ziemlich kompliziert, da es so etwas wie eine Klasse pro JVM nicht gibt. Das richtige Konzept ist eine Klasse pro ``ClassLoader``, so dass auf demselben JEE-Server zwei verschiedene Anwendungen jeweils ihre eigene Version der gleichen Klasse haben können. Statische Variablen werden nicht zwischen diesen Versionen der gleichen Klasse geteilt, so dass der Geltungsbereich des Singleton in Java pro ``ClassLoader`` und nicht pro Programm ist.
###Warum verwenden
In manchen Situationen wissen Sie, dass Sie nur eine Instanz der Klasse haben werden. In einer Desktop-Anwendung zum Beispiel gibt es keinen Grund, zusätzlichen "Schnickschnack" zu haben, um eine Verbindung zur Datenbank herzustellen.
Ich sehe auch kein Problem mit einem Objekt, das einige globale Konfigurationsattribute kapselt. Es würde sich einfach nicht lohnen, einen komplizierten Mechanismus für etwas so Einfaches zu implementieren.
###Wie zu verwenden
Wenn wir an Singleton denken, kommt uns sofort die klassische Gang of Four-Implementierung in den Sinn. Die vorangegangenen Themen in dieser Antwort haben dies berücksichtigt. Mit der zunehmenden Verwendung von Inversion of Control (IoC) und Dependency Injection (DI) Frameworks gibt es jetzt jedoch eine viel "sicherere" und flexiblere Möglichkeit, das Muster zu implementieren: Lassen Sie das Framework das für Sie erledigen!
###Wie man Singleton vermeidet
Obwohl einfachere Implementierungen das Singleton-Muster problemlos auf "klassische" Weise verwenden können, ist es im Allgemeinen besser, die Inversion der Kontrolle anzuwenden, indem man die Instanz seiner Abhängigkeiten einfach injizieren lässt. Wenn sich die Anforderungen morgen ändern und Sie andere Instanzen injizieren müssen oder sogar Test-Mocks erstellen wollen, können Sie Ihren Container oder Ihr Framework einfach so konfigurieren, dass dies möglich ist, ohne die bestehenden Implementierungen zu ändern. | En Internet se afirma que los Singleton son malos. ¿Es esto cierto? ¿Por qué?
¿Se generalizaría el problema a cualquier objeto con una única instancia? ¿O a cualquier cosa que tenga un estado global?
Si es tan malo, ¿para qué se inventó? En otras palabras, ¿qué problema quería resolver?
¿Qué problemas tendré si lo uso?
¿Hay alguna alternativa viable? | Gran parte de la controversia se debe a la falta de contextualización. No veo nada que desvirtúe la norma Sigleton cuando se utiliza en el contexto adecuado. Sí, puede hacer mucho daño, como cualquier norma de diseño que se aplique indebidamente sin analizar el impacto y los efectos secundarios.
###Por qué no utilizar
* Acoplamiento. Usando un Singleton estás acoplando el código a una implementación estática y específica. Esto hace que tu código dependa de esa clase e impide, por ejemplo, crear mocks en las pruebas unitarias. Desde este punto de vista, la consecuencia es básicamente la misma que hacer un ``new MiObjetoImportante()`` directamente, ya que es una dependencia directa de la clase.
* Alcance. El patrón Singleton aplicado tal y como está definido también elimina el concepto de ámbito. Esto significa que si por alguna razón decides que para ciertos componentes de la aplicación necesitas otra implementación, tendrás que cambiar manualmente todas las clases.
* No hay garantía de instancia única. En ciertos casos el patrón puede llevar a la falsa certeza de que sólo habrá una instancia. Digamos que estás diseñando un sistema web y quieres dar acceso a un único archivo o recurso. Un Singleton parece una buena práctica, ¿verdad? Pero, ¿y si mañana despliegas la aplicación en un cluster con N servidores?
En el caso de Java, esto también es bastante complicado, ya que no existe una clase por JVM. El concepto correcto es una clase por ``ClassLoader``, de forma que en el mismo servidor JEE dos aplicaciones diferentes pueden tener cada una su propia versión de la misma clase. Las variables estáticas no se comparten entre estas versiones de la misma clase, por lo que el ámbito del Singleton en Java es por ``ClassLoader`` y no por programa.
###Por qué utilizar
En algunas situaciones sabes que sólo tendrás una instancia de la clase. En una aplicación de escritorio, por ejemplo, no tiene sentido tener "florituras" adicionales para conseguir una conexión con la base de datos.
Tampoco veo ningún problema en que un objeto encapsule algunos atributos de configuración global. Simplemente no valdría la pena el esfuerzo de implementar algún mecanismo elaborado para algo tan simple.
###Uso
Cuando pensamos en Singleton, inmediatamente nos viene a la mente la clásica implementación de la Pandilla de los Cuatro. Los temas anteriores de esta respuesta ya lo contemplaban. Sin embargo, con el aumento del uso de marcos de trabajo de Inversión de Control (IoC) e Inyección de Dependencia (DI), ahora hay una forma mucho más "segura" y flexible de implementar el patrón: ¡deja que el marco de trabajo se encargue de ello por ti!
###Cómo evitar el Singleton
Aunque las implementaciones más sencillas pueden utilizar el patrón Singleton de la forma "clásica" sin ningún problema, en general sería mejor aplicar la Inversión de Control simplemente dejando que se inyecte la instancia de sus dependencias. De esta forma, si los requisitos cambian mañana y necesitas inyectar instancias diferentes, o incluso quieres crear mocks de prueba, puedes simplemente configurar tu contenedor o framework para hacerlo, sin cambiar las implementaciones existentes. | Sur Internet, vous trouverez des affirmations selon lesquelles les singletons sont mauvais. Est-ce vrai ? Pourquoi ?
Le problème se généraliserait-il à tous les objets ayant une seule instance ? Ou à tout objet ayant un état global ?
S'ils sont si mauvais, pourquoi ont-ils été inventés ? En d'autres termes, quel problème voulait-on résoudre ?
Quels problèmes vais-je rencontrer si je l'utilise ?
Existe-t-il une alternative viable ? | Une grande partie de la controverse est due à un manque de contextualisation. Je ne vois rien qui puisse nuire à la norme Sigleton lorsqu'elle est utilisée dans le bon contexte. Oui, elle peut faire beaucoup de mal, comme toute norme de conception appliquée de manière inappropriée sans analyse de l'impact et des effets secondaires.
###Pourquoi ne pas utiliser
* Couplage. En utilisant un Singleton, vous couplez le code à une implémentation statique et spécifique. Cela rend votre code dépendant de cette classe et empêche, par exemple, de créer des mocks dans les tests unitaires. De ce point de vue, la conséquence est fondamentalement la même que de faire un ``new MyImportantObject()`` directement, puisqu'il s'agit d'une dépendance directe de la classe.
* Portée. Le modèle Singleton appliqué tel qu'il est défini élimine également le concept de portée. Cela signifie que si, pour une raison quelconque, vous décidez que pour certains composants de l'application vous avez besoin d'une autre implémentation, vous devrez changer manuellement toutes les classes.
* Pas de garantie d'une instance unique. Dans certains cas, le modèle peut conduire à la fausse certitude qu'il n'y aura qu'une seule instance. Supposons que vous conceviez un système web et que vous souhaitiez donner accès à un fichier ou à une ressource unique. Un Singleton semble être une bonne pratique, n'est-ce pas ? Mais que se passera-t-il si demain vous déployez l'application sur un cluster de N serveurs ?
Dans le cas de Java, c'est également assez compliqué, car il n'existe pas de classe par JVM. Le concept correct est une classe par ``ClassLoader``, de sorte que sur le même serveur JEE, deux applications différentes peuvent avoir chacune leur propre version de la même classe. Les variables statiques ne sont pas partagées entre ces versions de la même classe, de sorte que la portée du Singleton en Java est par ``ClassLoader`` et non par programme.
###Pourquoi utiliser
Dans certaines situations, vous savez que vous n'aurez qu'une seule instance de la classe. Dans une application de bureau, par exemple, il n'est pas utile d'avoir des "fioritures" supplémentaires pour obtenir une connexion à la base de données.
Je ne vois pas non plus de problème à ce qu'un objet encapsule certains attributs de configuration globale. Cela ne vaudrait tout simplement pas la peine de mettre en œuvre un mécanisme élaboré pour quelque chose d'aussi simple.
###Comment utiliser
Lorsque nous pensons à Singleton, l'implémentation classique de Gang of Four nous vient immédiatement à l'esprit. Les sujets précédents de cette réponse l'ont envisagé. Cependant, avec l'augmentation de l'utilisation des frameworks d'inversion de contrôle (IoC) et d'injection de dépendance (DI), il y a maintenant une façon beaucoup plus "sûre" et plus flexible d'implémenter le modèle : laissez le framework s'en occuper pour vous !
###Comment éviter le Singleton
Bien que des implémentations plus simples puissent utiliser le modèle Singleton de manière "classique" sans aucun problème, il est généralement préférable d'appliquer l'inversion de contrôle en laissant simplement l'instance de ses dépendances être injectée. De cette façon, si les exigences changent demain et que vous avez besoin d'injecter des instances différentes, ou même de créer des mocks de test, vous pouvez simplement configurer votre conteneur ou framework pour le faire, sans changer les implémentations existantes. | Su Internet si legge che i singleton sono cattivi. È vero? Perché?
Il problema si generalizzerebbe a qualsiasi oggetto con una singola istanza? O a qualsiasi oggetto che abbia uno stato globale?
Se è così negativo, per cosa è stato inventato? In altre parole, quale problema voleva risolvere?
Quali problemi avrei se lo usassi?
Esiste un'alternativa valida? | Gran parte della controversia è dovuta alla mancanza di contestualizzazione. Non vedo nulla che possa sminuire lo standard Sigleton se utilizzato nel giusto contesto. Sì, può causare molti danni, come qualsiasi standard di progettazione applicato in modo improprio senza analizzarne l'impatto e gli effetti collaterali.
###Perché non usare
* Accoppiamento. Utilizzando un Singleton si accoppia il codice a un'implementazione statica e specifica. Questo rende il codice dipendente da quella classe e impedisce, ad esempio, la creazione di mock nei test unitari. Da questo punto di vista, la conseguenza è sostanzialmente la stessa di creare direttamente un ``new MyImportantObject()``, essendo una dipendenza diretta della classe.
* Ambito di applicazione. Il modello Singleton applicato come definito elimina anche il concetto di scope. Questo significa che se per qualche motivo si decide che per alcuni componenti dell'applicazione è necessaria un'altra implementazione, si dovranno cambiare manualmente tutte le classi.
* Nessuna garanzia di una singola istanza. In alcuni casi il pattern può portare alla falsa certezza che ci sarà una sola istanza. Supponiamo che stiate progettando un sistema web e vogliate dare accesso a un file o a una risorsa unica. Un singleton sembra una buona pratica, non è vero? Ma cosa succede se domani si distribuisce l'applicazione su un cluster con N server?
Nel caso di Java, anche questo è piuttosto complicato, perché non esiste una classe per JVM. Il concetto corretto è una classe per ``ClassLoader``, in modo che sullo stesso server JEE due applicazioni diverse possano avere ciascuna la propria versione della stessa classe. Le variabili statiche non sono condivise tra queste versioni della stessa classe, quindi l'ambito del Singleton in Java è per ``ClassLoader`` e non per programma.
###Perché usare
In alcune situazioni si sa che si avrà una sola istanza della classe. In un'applicazione desktop, per esempio, non ha senso avere ulteriori "fronzoli" per ottenere una connessione al database.
Non vedo nemmeno il problema di un oggetto che incapsuli alcuni attributi di configurazione globale. Semplicemente non varrebbe la pena di implementare un meccanismo elaborato per qualcosa di così semplice.
###Come si usa
Quando si pensa a Singleton, viene subito in mente la classica implementazione della Gang of Four. Gli argomenti precedenti di questa risposta ne hanno tenuto conto. Tuttavia, con l'aumento dell'uso di framework di Inversion of Control (IoC) e Dependency Injection (DI), esiste ora un modo molto più "sicuro" e flessibile di implementare il pattern: lasciare che il framework se ne occupi per voi!
###Come evitare i Singleton
Anche se le implementazioni più semplici possono usare il pattern Singleton nel modo "classico" senza problemi, in generale sarebbe meglio applicare l'Inversione del controllo, lasciando semplicemente che l'istanza delle sue dipendenze venga iniettata. In questo modo, se un domani i requisiti cambieranno e sarà necessario iniettare istanze diverse, o anche creare mock di test, si potrà semplicemente configurare il contenitore o il framework per farlo, senza modificare le implementazioni esistenti. |
293 | The construction of Solomon's temple includes a piece of furnishing described in 1 Kings 7:23 (ESV):
Then he made the sea of cast metal. It was round, ten cubits from brim to brim, and five cubits high, and a line of thirty cubits measured its circumference.
So if the ```diameter = 10``` cubits and the ```circumference = 30``` cubits, then ```π = 3``` by the equation ```C = π * D```.
Of course, such an object does not exist since ```π = 3.14159...``` yet clearly the sea was constructed at some point. So how do we resolve this contradiction? | To start with, compare the circle the diameter we're given would make with the circle the circumference we're given would make:
Since a circumference is π times the diameter, a 'pure' circle of 10 cubits in diameter as we describe the sea as having would be 10π cubits in circumference, or roughly 31.4 cubits.
Now, since the circumference attributed to our sea is only 30 cubits, it represents a smaller circle, which is 30/π or roughly 9.55 cubits in diameter.
Or to tabulate it:
```Circle A: ~9.55 cubits diameter, 30 cubits circumference
Circle B: 10 cubits diameter, ~31.4 cubits circumference
```
Given that, we have two diameters differing by about .45 cubits (about eight inches on an 18-inch cubit--a sizable difference).
Since we know the sea was a physical object and not a circle bounded by an infinitesimal line, we can safely understand that the sea must be of some thickness; on this ground, it would not be unreasonable to take the shorter dimension as the inner measurement, and the longer dimension as the outer measurement, and see where that takes us.
Dividing the difference in the diameters in half, this would make the wall around our sea at least .225 cubits thick--i.e., about four inches on either end of the sea, assuming an eighteen-inch cubit.
Do we have any authority for assuming that this is the case and saying the sea was anything like four inches thick?
A couple of verses after this we have 1 Kings 7:26, which gives it to us outright:
Its thickness was a handbreadth, and its brim was made like the brim of a cup, like the flower of a lily. It held two thousand baths.
A handbreadth as a unit of measurement is generally given as between three and four inches.
(The 'Number Pi in the Bible' site linked elsewhere gives as its rebuttal to this sort of argument the statement "The writer makes sure that no question remains: both the diameter and the circumference are taken over-all." - though I'm not sure on what basis he sees that.) | Der Bau des salomonischen Tempels umfasst ein Einrichtungsstück, das in 1 Könige 7:23 (ESV) beschrieben wird:
Und er machte das Meer aus gegossenem Metall. Es war rund, zehn Ellen von Rand zu Rand und fünf Ellen hoch, und eine Linie von dreißig Ellen maß seinen Umfang.
Wenn also der "Durchmesser" = 10 Ellen und der "Umfang" = 30 Ellen ist, dann ist nach der Gleichung "C = π * D" "π" = 3".
Natürlich gibt es ein solches Objekt nicht, denn ```π = 3,14159...```, aber es ist klar, dass das Meer irgendwann einmal gebaut wurde. Wie lösen wir also diesen Widerspruch auf? | Vergleichen Sie zunächst den Kreis, den der angegebene Durchmesser ergeben würde, mit dem Kreis, den der angegebene Umfang ergeben würde:
Da ein Umfang das π-fache des Durchmessers ist, hätte ein "reiner" Kreis mit einem Durchmesser von 10 Ellen, wie wir ihn dem Meer zuschreiben, einen Umfang von 10π Ellen, also etwa 31,4 Ellen.
Da der unserem Meer zugeschriebene Umfang aber nur 30 Ellen beträgt, stellt es einen kleineren Kreis dar, der 30/π oder etwa 9,55 Ellen im Durchmesser hat.
Oder um es tabellarisch darzustellen:
,,Kreis A: ~9,55 Ellen Durchmesser, 30 Ellen Umfang
Kreis B: 10 Ellen Durchmesser, ~31,4 Ellen Umfang
```
Damit haben wir zwei Durchmesser, die sich um etwa 0,45 Ellen unterscheiden (etwa acht Zoll auf einer 18-Zoll-Elle - ein beträchtlicher Unterschied).
Da wir wissen, dass das Meer ein physisches Objekt war und kein Kreis, der von einer unendlich langen Linie begrenzt wird, können wir sicher davon ausgehen, dass das Meer eine gewisse Dicke haben muss; auf dieser Grundlage wäre es nicht unvernünftig, das kürzere Maß als inneres Maß und das längere Maß als äußeres Maß zu nehmen und zu sehen, wohin uns das führt.
Teilt man die Differenz der Durchmesser in zwei Hälften, so würde die Mauer um unser Meer mindestens 0,225 Ellen dick sein, d.h. etwa vier Zoll an beiden Enden des Meeres, wenn man von einer achtzehn Zoll großen Elle ausgeht.
Haben wir irgendeine Berechtigung für die Annahme, dass dies der Fall ist und dass das Meer etwa vier Zoll dick war?
Ein paar Verse später, in 1. Könige 7,26, erfahren wir es ganz genau:
Seine Dicke war eine Handbreit, und sein Rand war gemacht wie der Rand eines Bechers, wie die Blume einer Lilie. Es fasste zweitausend Bäder.
Eine Handbreit als Maßeinheit wird im Allgemeinen mit drei bis vier Zoll angegeben.
(Die an anderer Stelle verlinkte Seite 'Number Pi in the Bible' widerlegt diese Art von Argumenten mit der Aussage: "Der Schreiber stellt sicher, dass keine Frage offen bleibt: sowohl der Durchmesser als auch der Umfang werden über-alles genommen." - Ich bin mir allerdings nicht sicher, auf welcher Grundlage er das sieht.) | La construcción del templo de Salomón incluye una pieza de mobiliario descrita en 1 Reyes 7:23:
Entonces hizo el mar de metal fundido. Era redondo, de diez codos de borde a borde, y de cinco codos de alto, y una línea de treinta codos medía su circunferencia.
Así que si el ```diámetro = 10`` codos y la ```circunferencia = 30`` codos, entonces ```π = 3`` por la ecuación ```C = π * D```.
Por supuesto, tal objeto no existe ya que ```π = 3.14159...`` sin embargo claramente el mar fue construido en algún momento. Entonces, ¿cómo resolvemos esta contradicción? | Para empezar, compara el círculo que formaría el diámetro que nos han dado con el círculo que formaría la circunferencia que nos han dado:
Dado que una circunferencia es π veces el diámetro, un círculo "puro" de 10 codos de diámetro como el que describimos que tiene el mar tendría 10π codos de circunferencia, o aproximadamente 31,4 codos.
Ahora bien, como la circunferencia atribuida a nuestro mar es de sólo 30 codos, representa un círculo más pequeño, que es de 30/π o aproximadamente 9,55 codos de diámetro.
O para tabularlo:
``Círculo A: ~9.55 codos de diametro, 30 codos de circunferencia
Circulo B: 10 codos de diametro, ~31.4 codos de circunferencia
```
Así pues, tenemos dos diámetros que difieren en unos 0,45 codos (unas ocho pulgadas en un cubo de 18 pulgadas, una diferencia considerable).
Puesto que sabemos que el mar era un objeto físico y no un círculo delimitado por una línea infinitesimal, podemos entender sin temor a equivocarnos que el mar debía tener cierto grosor; partiendo de esta base, no sería descabellado tomar la dimensión más corta como medida interior, y la dimensión más larga como medida exterior, y ver adónde nos lleva eso.
Dividiendo la diferencia de los diámetros por la mitad, la pared que rodea nuestro mar tendría un grosor de al menos 0,225 codos, es decir, unas cuatro pulgadas en cada extremo del mar, suponiendo un codo de dieciocho pulgadas.
¿Tenemos alguna autoridad para suponer que este es el caso y decir que el mar tenía algo así como cuatro pulgadas de espesor?
Un par de versículos después tenemos 1 Reyes 7:26, que nos lo dice rotundamente:
Su grosor era de un palmo, y su borde era como el borde de una copa, como la flor de un lirio. Tenía capacidad para dos mil baños.
Como unidad de medida, la anchura de mano se suele situar entre tres y cuatro pulgadas.
(El sitio "El número Pi en la Biblia", enlazado en otro lugar, ofrece como refutación a este tipo de argumento la afirmación "El escritor se asegura de que no quede ninguna duda: tanto el diámetro como la circunferencia se toman en conjunto". - aunque no estoy seguro de en qué se basa para considerarlo así). | La construction du temple de Salomon comprend un élément d'ameublement décrit dans 1 Rois 7:23 (ESV) :
Il fit la mer en fonte. Elle était ronde, avait dix coudées d'un bord à l'autre, cinq coudées de hauteur, et une ligne de trente coudées en mesurait la circonférence.
Si le ``diamètre = 10`` coudées et la ``circonférence = 30`` coudées, alors ``π = 3`` par l'équation ``C = π * D```.
Bien sûr, un tel objet n'existe pas puisque ``π = 3.14159...``, mais il est clair que la mer a été construite à un moment donné. Comment résoudre cette contradiction ? | Pour commencer, il faut comparer le cercle que le diamètre donné ferait avec le cercle que la circonférence donnée ferait :
La circonférence étant égale à π fois le diamètre, un cercle "pur" de 10 coudées de diamètre tel que nous le décrivons pour la mer aurait une circonférence de 10π coudées, soit environ 31,4 coudées.
Or, comme la circonférence attribuée à notre mer n'est que de 30 coudées, elle représente un cercle plus petit, qui a un diamètre de 30/π, soit environ 9,55 coudées.
Ou encore, pour faire un tableau :
``Cercle A : ~9,55 coudées de diamètre, 30 coudées de circonférence
Cercle B : 10 coudées de diamètre, ~31,4 coudées de circonférence
```
Nous avons donc deux diamètres qui diffèrent d'environ 0,45 coudée (environ 8 pouces sur une coudée de 18 pouces - une différence considérable).
Puisque nous savons que la mer était un objet physique et non un cercle délimité par une ligne infinitésimale, nous pouvons comprendre sans risque que la mer doit avoir une certaine épaisseur ; sur cette base, il ne serait pas déraisonnable de prendre la dimension la plus courte comme mesure intérieure, et la dimension la plus longue comme mesure extérieure, et de voir où cela nous mène.
Si l'on divise par deux la différence des diamètres, le mur entourant notre mer aurait une épaisseur d'au moins 0,225 coudée, c'est-à-dire d'environ quatre pouces à chaque extrémité de la mer, en supposant une coudée de dix-huit pouces.
Sommes-nous fondés à supposer que c'est le cas et à dire que la mer avait une épaisseur de l'ordre de 10 cm ?
Quelques versets plus loin, 1 Rois 7:26 nous donne la réponse :
Son épaisseur était d'une largeur de main, et son bord était fait comme le bord d'une coupe, comme la fleur d'un lis. Elle contenait deux mille baths.
L'épaisseur d'une main est une unité de mesure qui se situe généralement entre trois et quatre pouces.
(Le site "Number Pi in the Bible", dont le lien figure ailleurs, réfute ce type d'argument en affirmant que "l'auteur veille à ce qu'aucune question ne subsiste : le diamètre et la circonférence sont tous deux pris en compte". - mais je ne suis pas sûr de savoir sur quoi il se base pour affirmer cela). | La costruzione del tempio di Salomone comprende un elemento di arredo descritto in 1 Re 7:23 (ESV):
Poi fece il mare di metallo fuso. Era rotondo, di dieci cubiti da un orlo all'altro, alto cinque cubiti e una linea di trenta cubiti ne misurava la circonferenza.
Quindi, se il ``diametro = 10`` cubiti e la ``circonferenza = 30`` cubiti, allora ```π = 3`` per l'equazione ```C = π * D```.
Naturalmente, un tale oggetto non esiste, poiché ```π = 3,14159...```, ma è chiaro che il mare è stato costruito a un certo punto. Come risolvere questa contraddizione? | Per cominciare, confrontiamo il cerchio che si ottiene dal diametro con il cerchio che si ottiene dalla circonferenza:
Poiché la circonferenza è π volte il diametro, un cerchio "puro" di 10 cubiti di diametro, come quello descritto dal mare, avrebbe una circonferenza di 10π cubiti, cioè circa 31,4 cubiti.
Ora, poiché la circonferenza attribuita al nostro mare è di soli 30 cubiti, esso rappresenta un cerchio più piccolo, che ha un diametro di 30/π o circa 9,55 cubiti.
O per tabulare:
``Cerchio A: ~9,55 cubiti di diametro, 30 cubiti di circonferenza
Cerchio B: 10 cubiti di diametro, ~31,4 cubiti di circonferenza
```
In questo modo, abbiamo due diametri che differiscono di circa 0,45 cubiti (circa otto pollici su un cubito di 18 pollici, una differenza considerevole).
Poiché sappiamo che il mare era un oggetto fisico e non un cerchio delimitato da una linea infinitesimale, possiamo tranquillamente capire che il mare doveva avere un certo spessore; su questa base, non sarebbe irragionevole prendere la dimensione più corta come misura interna e quella più lunga come misura esterna, e vedere dove ci porta.
Dividendo a metà la differenza dei diametri, il muro intorno al nostro mare avrebbe uno spessore di almeno 0,225 cubiti, cioè circa quattro pollici a entrambe le estremità del mare, ipotizzando un cubito di 18 pollici.
Abbiamo qualche autorità per supporre che questo sia il caso e per dire che il mare era spesso come quattro pollici?
Un paio di versetti dopo abbiamo 1 Re 7:26, che ce lo dice chiaramente:
Il suo spessore era di una larghezza di mano e il suo orlo era fatto come l'orlo di una coppa, come il fiore di un giglio. Conteneva duemila vasche.
L'unità di misura della larghezza di una mano è generalmente indicata tra i tre e i quattro pollici.
(Il sito "Il numero Pi greco nella Bibbia", linkato altrove, riporta come confutazione di questo tipo di argomentazione l'affermazione "Lo scrittore si assicura che non rimanga alcun dubbio: sia il diametro che la circonferenza sono presi in considerazione". - Anche se non sono sicuro su quale base lo ritenga). |
294 | With PHP 7.2, ```each``` is deprecated. The documentation says:
Warning This function has been DEPRECATED as of PHP 7.2.0. Relying on this function is highly discouraged.
How can I update my code to avoid using it? Here are some examples:
*
```$ar = $o->me;
reset($ar);
list($typ, $val) = each($ar);
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null);
$expected = each($out);
```
*
```for(reset($broken);$kv = each($broken);) {...}
```
*
```list(, $this->result) = each($this->cache_data);
```
*
```// iterating to the end of an array or a limit > the length of the array
$i = 0;
reset($array);
while( (list($id, $item) = each($array)) || $i < 30 ) {
// code
$i++;
}
```
When I execute the code on PHP 7.2 I receive the following error:
Deprecated: The each() function is deprecated. This message will be suppressed on further calls |
* For your first two example cases, you could use ```key()``` and ```current()``` to assign the values you need.
```$ar = $o->me; // reset isn't necessary, since you just created the array
$typ = key($ar);
$val = current($ar);
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null);
$expected = [key($out), current($out)];
```
In those cases, you can use ```next()``` to advance the cursor afterward, but it may not be necessary if the rest of your code doesn't depend on that.
* For the third case, I'd suggest just using a ```foreach()``` loop instead and assigning ```$kv``` inside the loop.
```foreach ($broken as $k => $v) {
$kv = [$k, $v];
}
```
* For the fourth case, it looks like the key is disregarded in ```list()```, so you can assign the current value.
```$this->result = current($this->cache_data);
```
Like the first two cases, it may be necessary to advance the cursor with ```next()``` depending on how the rest of your code interacts with ```$this->cache_data```.
* Fifth can be replaced with a ```for()``` loop.
```reset($array);
for ($i = 0; $i < 30; $i++) {
$id = key($array);
$item = current($array);
// code
next($array);
}
```
| Mit PHP 7.2 ist ```each`` veraltet. Die Dokumentation sagt:
Warnung Diese Funktion wurde mit PHP 7.2.0 DEPRECATED. Es wird dringend davon abgeraten, diese Funktion zu verwenden.
Wie kann ich meinen Code aktualisieren, um die Verwendung dieser Funktion zu vermeiden? Hier sind einige Beispiele:
*
```$ar = $o->me;
reset($ar);
list($typ, $val) = each($ar);
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null);
$expected = each($out);
```
*
```for(reset($broken);$kv = each($broken);) {...}
```
*
```list(, $this->result) = each($this->cache_data);
```
*
```// Iterieren bis zum Ende eines Arrays oder einer Grenze > der Länge des Arrays
$i = 0;
reset($array);
while( (list($id, $item) = each($array)) || $i < 30 ) {
// Code
$i++;
}
```
Wenn ich den Code unter PHP 7.2 ausführe, erhalte ich die folgende Fehlermeldung:
Deprecated: Die Funktion each() ist veraltet. Diese Meldung wird bei weiteren Aufrufen unterdrückt |
* Fuer die ersten beiden Beispiele koennen Sie ```Schluessel()`` und ```Aktuell()`` verwenden, um die benoetigten Werte zuzuweisen.
```$ar = $o->me; // Zurücksetzen ist nicht notwendig, da Sie gerade das Array erstellt haben
$typ = key($ar);
$val = current($ar);
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null);
$expected = [key($out), current($out)];
```
In diesen Fällen können Sie ```next()``` verwenden, um den Cursor danach weiterzuschieben, aber es ist vielleicht nicht notwendig, wenn der Rest Ihres Codes nicht davon abhängt.
* Für den dritten Fall würde ich vorschlagen, stattdessen eine ``foreach()`` Schleife zu verwenden und ```$kv`` innerhalb der Schleife zuzuweisen.
```foreach ($broken as $k => $v) {
$kv = [$k, $v];
}
```
* Für den vierten Fall sieht es so aus, als ob der Schlüssel in ```list()``` nicht beachtet wird, also kann man den aktuellen Wert zuweisen.
```$this->Ergebnis = current($this->cache_data);
```
Wie in den ersten beiden Fällen kann es notwendig sein, den Cursor mit ```Next()``` weiterzuschalten, je nachdem wie der Rest Ihres Codes mit ```$this->cache_data`` interagiert.
* Fifth kann durch eine ```for()`` Schleife ersetzt werden.
```reset($array);
for ($i = 0; $i < 30; $i++) {
$id = key($array);
$item = current($array);
// Code
next($array);
}
```
| Con PHP 7.2, ```each`` queda obsoleto. La documentación dice:
Advertencia Esta función ha sido DEPREDADA a partir de PHP 7.2.0. No se recomienda usar esta función.
¿Cómo puedo actualizar mi código para evitar usarla? He aquí algunos ejemplos:
*
```$ar = $o->me;
reset($ar);
list($typ, $val) = each($ar);
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null);
$esperado = each($fuera);
```
*
```for(reset($broken);$kv = each($broken);) {...}
```
*
```list(, $this->resultado) = each($this->datos_cache);
```
*
```// iterando hasta el final de un array o un límite > la longitud del array
$i = 0;
reset($array);
while( (list($id, $item) = each($array)) || $i < 30 ) {
// código
$i++;
}
```
Cuando ejecuto el código en PHP 7.2 recibo el siguiente error:
Deprecated: La función each() está obsoleta. Este mensaje se suprimirá en futuras llamadas |
* Para tus dos primeros casos de ejemplo, podrías usar ```key()`` y ```current()`` para asignar los valores que necesitas.
```$ar = $o->me; // reset no es necesario, ya que acabas de crear el array
$typ = clave($ar);
$val = current($ar);
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null);
$expected = [key($out), current($out)];
```
En esos casos, puedes usar ```next()`` para avanzar el cursor después, pero puede que no sea necesario si el resto de tu código no depende de eso.
* Para el tercer caso, sugeriría usar un bucle ``foreach()`` y asignar ```$kv`` dentro del bucle.
```foreach ($broken as $k => $v) {
$kv = [$k, $v];
}
```
* Para el cuarto caso, parece que la clave no se tiene en cuenta en ```list()``, así que puedes asignar el valor actual.
```$this->resultado = actual($this->datos_cache);
```
Como en los dos primeros casos, puede ser necesario avanzar el cursor con ```next()`` dependiendo de cómo interactúe el resto de tu código con ```$this->cache_data```.
*Quinto puede sustituirse por un bucle ``for()``.
```reset($array);
for ($i = 0; $i < 30; $i++) {
$id = clave($array);
$item = actual($array);
// código
next($array);
}
```
| Avec PHP 7.2, ``each``` est obsolète. La documentation dit :
Avertissement Cette fonction a été DÉPRÉCIÉE à partir de PHP 7.2.0. Il est fortement déconseillé de s'appuyer sur cette fonction.
Comment puis-je mettre à jour mon code pour éviter de l'utiliser ? Voici quelques exemples :
*
```$ar = $o->me ;
reset($ar) ;
list($typ, $val) = each($ar) ;
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null) ;
$expected = each($out) ;
```
*
````for(reset($broken);$kv = each($broken) ;) {...}
```
*
```list(, $this->result) = each($this->cache_data) ;
```
*
```// itérer jusqu'à la fin d'un tableau ou une limite > la longueur du tableau
$i = 0 ;
reset($array) ;
while( (list($id, $item) = each($array)) || $i < 30 ) {
// code
$i++ ;
}
```
Lorsque j'exécute le code sur PHP 7.2, je reçois l'erreur suivante :
Deprecated : La fonction each() est obsolète. Ce message sera supprimé lors des appels suivants |
* Pour vos deux premiers exemples, vous pouvez utiliser ``key()`` et ``current()`` pour assigner les valeurs dont vous avez besoin.
```$ar = $o->me ; // la réinitialisation n'est pas nécessaire, puisque vous venez de créer le tableau
$typ = key($ar) ;
$val = current($ar) ;
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null) ;
$expected = [key($out), current($out)] ;
```
Dans ces cas, vous pouvez utiliser ``next()`` pour faire avancer le curseur par la suite, mais ce n'est peut-être pas nécessaire si le reste de votre code n'en dépend pas.
* Pour le troisième cas, je suggère d'utiliser une boucle ``foreach()`` à la place et d'assigner ``$kv``` à l'intérieur de la boucle.
```foreach ($broken as $k => $v) {
$kv = [$k, $v] ;
}
```
* Pour le quatrième cas, il semble que la clé soit ignorée dans ``list()``, donc vous pouvez assigner la valeur courante.
```$this->result = current($this->cache_data) ;
```
Comme dans les deux premiers cas, il peut être nécessaire d'avancer le curseur avec ``next()`` en fonction de la façon dont le reste de votre code interagit avec ``$this->cache_data``.
* La cinquième étape peut être remplacée par une boucle ``for()``.
``Reset($array) ;
for ($i = 0 ; $i < 30 ; $i++) {
$id = key($array) ;
$item = current($array) ;
// code
next($array) ;
}
```
| Con PHP 7.2, ```each``` è deprecato. La documentazione dice:
Avvertenza Questa funzione è stata DEPRECATA a partire da PHP 7.2.0. L'uso di questa funzione è altamente sconsigliato.
Come posso aggiornare il mio codice per evitare di usarla? Ecco alcuni esempi:
*
```$ar = $o->me;
reset($ar);
list($typ, $val) = each($ar);
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null);
$expected = each($out);
```
*
```for(reset($broken);$kv = each($broken);) {...}
```
*
```list(, $this->result) = each($this->cache_data);
```
*
```// iterazione fino alla fine di un array o a un limite > della lunghezza dell'array
$i = 0;
reset($array);
while( (list($id, $item) = each($array)) || $i < 30 ) {
// codice
$i++;
}
```
Quando eseguo il codice su PHP 7.2 ricevo il seguente errore:
Deprecato: La funzione each() è deprecata. Questo messaggio sarà soppresso alle successive chiamate |
* Per i primi due casi di esempio, si può usare ```key()`` e ```current()`` per assegnare i valori necessari.
```$ar = $o->me; // la reimpostazione non è necessaria, dato che si è appena creato l'array
$typ = key($ar);
$val = current($ar);
```
*
```$out = array('me' => array(), 'mytype' => 2, '_php_class' => null);
$expected = [key($out), current($out)];
```
In questi casi, si può usare ```next()``` per far avanzare il cursore dopo, ma potrebbe non essere necessario se il resto del codice non dipende da questo.
* Per il terzo caso, suggerirei di usare un ciclo ``foreach()`` e di assegnare ```$kv`` all'interno del ciclo.
```foreach ($broken as $k => $v) {
$kv = [$k, $v];
}
```
* Per il quarto caso, sembra che la chiave sia ignorata in ``list()``, quindi si può assegnare il valore corrente.
```$this->result = current($this->cache_data);
```
Come nei primi due casi, potrebbe essere necessario far avanzare il cursore con ```next()``, a seconda di come il resto del codice interagisce con ```$this->cache_data``.
* Quinto può essere sostituito da un ciclo ```for()``.
```reset($array);
for ($i = 0; $i < 30; $i++) {
$id = chiave($array);
$item = current($array);
// codice
next($array);
}
```
|
295 | Can someone please give an explanation of different egg preparations? | Sure, here are different preparations of eggs:
1. Fried Eggs:
* Sunny Side Up -- Not flipped, unbroken yolk. The top of the egg is just barely set.
* Basted -- Sunny Side Up, hot fat spooned over until the white surrounding the yolk is opaque.
* Over Easy / lite -- Flipped, whites fully cooked, unbroken yolk, yolk runny.
* Over medium -- flipped, whites fully cooked, unbroken yolk, yolk creamy (not completely runny).
* Over Medium Well -- Flipped, unbroken yolk, yolk cooked to have a firm but wet-appearing center.
* Over Hard -- Flipped, broken, fully-cooked yolk.
* Over Well -- Flipped, intact, fully-cooked yolk.
* Broken / Lightly Scrambled -- Broken in pan and gently stirred while cooking - yolk and whites should not be mixed entirely.
* Scrambled Eggs -- Made in many different ways. Generally the eggs are mixed in a bowl before being put into the pan, and often stirred while cooking. Some recipes add fat to the eggs in the form of milk, * cream, butter, or oil. A distinction can be made between Wet/Loose or Dry, which refers to the degree of doneness.
2. Omelettes:
* Filled Omelette -- Eggs mixed before cooking, possibly with added fat as in Scrambled Eggs. Cooked in fat in a saute pan; when set but the interior still wet, previously-cooked fillings (cheese, onions, mushrooms, peppers, tomatoes...) are added, and the eggs folded over into a half-moon shape.
* Spanish Omelette / Western Omelette -- Same as filled, but the egg mixture is poured over the fillings in a hot pan and cooked, thus incorporating the fillings into the egg.
* Fluffy Omelette -- Whites and yolks beaten separately. Yolks are gently folded into the whites without breaking the structure of the whites. Optional toppings are added. Cooked slowly in a pan, or baked (an electric frying pan with a lid works well for this preparation).
* French Omelette -- Cooked soft & creamy with no color on the egg. Omelette is folded 1/3 in the pan, knocked to the edge so it can be rolled out onto the plate. It ends up being folded into thirds and is very creamy and soft.
3. Boiled:
Cooked in shell in water for a timed period. Some people will refer to degree of doneness by cooking time, i.e., a "3-minute egg" is soft-boiled with some runny white around the yolk. Some recipes call for eggs to be added to boiling water, others to be started in cold water. In the cold-water start, the pot may be left on the heat or removed when the water reaches a boil. The eggs may be shocked in ice water when removed.
* Soft -- Yolk runny, potentially with slight unset white around the yolk.
* Medium -- White completely set, yolk firm but with a dark, wet appearance.
* Hard -- Yolk completely set and pale yellow.
4. Poached:
Egg cooked, out of shell, in water, stock, or other liquid -- excluding fats or oils -- at a temperature in the range of 160-180˚F (70-82˚C). There are possible degrees of doneness, however the typical poached egg has a runny but warm and thickened yolk and fully-set white.
5. Coddled:
An egg that has been very lightly cooked (poached eggs are sometimes considered coddled). This can either be accomplished with an egg coddler or cooking an egg in its shell with water that is slightly below boiling point.
6. Shirred:
An egg cooked in an oven at the low-mid 300's˚F (~160˚C), contained in a ramekin, until the whites are just set and the yolk is runny but thickened. Often butter or another fat is placed on top before cooking.
7. Steamed:
Very similar to shirred eggs, but the ramekin is covered with some aluminum foil and put in a steamer for 7-15 minutes.
8. In a basket:
Eggs fried in a hole made in a slice of bread.
9. deep fried
Moo shu- using a strainer to drop small drops of egg into hot oil in a wok and stir. Frying in vegetables and/optionally meat or another protein then consume on mandarin pancakes with your choice of sauce. | Kann mir jemand die verschiedenen Eizubereitungen erklären? | Sicher, es gibt verschiedene Zubereitungen von Eiern:
1. Spiegeleier:
* Sunny Side Up - nicht gewendet, ungebrochenes Eigelb. Die Oberseite des Eies ist gerade noch fest.
* Überbacken - Sunny Side Up, heißes Fett wird über das Ei gelöffelt, bis das Eiweiß um das Eigelb herum undurchsichtig ist.
* Over Easy / lite - umgedreht, Eiweiß vollständig durchgebacken, Dotter ungebrochen, Dotter flüssig.
* Over Medium - umgedreht, Eiweiß durchgebacken, Dotter ungebrochen, Dotter cremig (nicht ganz flüssig).
* Über Medium gut - umgedreht, Eigelb unzerbrochen, Eigelb so gekocht, dass es in der Mitte fest, aber feucht aussieht.
* Zu hart - umgedreht, gebrochenes, vollständig gegartes Eigelb.
* Over Well - Umgedrehtes, intaktes, vollständig gegartes Eigelb.
* Zerbrochenes / leichtes Rührei - wird in der Pfanne zerbrochen und während des Kochens leicht umgerührt - Eigelb und Eiweiß sollten nicht vollständig vermischt sein.
* Rührei - wird auf viele verschiedene Arten zubereitet. Im Allgemeinen werden die Eier in einer Schüssel verrührt, bevor sie in die Pfanne gegeben werden, und oft während des Kochens umgerührt. In einigen Rezepten wird den Eiern Fett in Form von Milch, * Sahne, Butter oder Öl zugesetzt. Man unterscheidet zwischen nass/locker und trocken, was sich auf den Gargrad bezieht.
2. Omeletts:
* Gefülltes Omelett - Eier, die vor dem Kochen gemischt werden, möglicherweise mit Zusatz von Fett wie bei Rührei. Sie werden in einer Pfanne in Fett gebraten; wenn sie fest sind, aber das Innere noch feucht ist, werden zuvor gekochte Füllungen (Käse, Zwiebeln, Pilze, Paprika, Tomaten...) hinzugefügt und die Eier in eine Halbmondform gefaltet.
* Spanisches Omelett / Westliches Omelett - wie gefüllt, aber die Eimasse wird in einer heißen Pfanne über die Füllung gegossen und gegart, wodurch die Füllung in das Ei eingearbeitet wird.
* Fluffy Omelette - Eiweiß und Eigelb werden getrennt aufgeschlagen. Das Eigelb wird vorsichtig unter das Eiweiß gehoben, ohne die Struktur des Eiweißes zu zerstören. Optional werden Beläge hinzugefügt. Es wird langsam in einer Pfanne gegart oder gebacken (eine elektrische Pfanne mit Deckel eignet sich gut für diese Zubereitung).
* Französisches Omelett - weich und cremig gekocht, ohne dass das Ei Farbe annimmt. Das Omelett wird zu 1/3 in der Pfanne gefaltet und an den Rand geklopft, damit es auf dem Teller ausgerollt werden kann. Das Omelett wird zu einem Drittel gefaltet und ist sehr cremig und weich.
3. Gekocht:
In der Schale in Wasser für eine bestimmte Zeit gekocht. Manche Leute geben den Gargrad nach der Kochzeit an, d. h. ein "3-Minuten-Ei" ist weich gekocht mit etwas flüssigem Eiweiß um das Eigelb. In einigen Rezepten werden die Eier in kochendes Wasser gegeben, in anderen werden sie in kaltem Wasser zubereitet. Bei der Zubereitung in kaltem Wasser kann der Topf auf dem Herd gelassen oder entfernt werden, sobald das Wasser kocht. Die Eier können nach dem Herausnehmen in Eiswasser aufgeschreckt werden.
* Weich - Der Dotter ist flüssig, möglicherweise mit einem leicht unbeständigen Weiß um den Dotter.
* Mittel - Das Eiweiß ist vollständig fest, der Dotter ist fest, hat aber ein dunkles, feuchtes Aussehen.
* Hart - Der Dotter ist vollständig fest und hellgelb.
4. Pochiert:
Ei, das ohne Schale in Wasser, Brühe oder einer anderen Flüssigkeit - ausgenommen Fette oder Öle - bei einer Temperatur im Bereich von 70-82 °C (160-180 °F) gekocht wird. Es gibt verschiedene Garheitsgrade, aber das typische pochierte Ei hat ein flüssiges, aber warmes und eingedicktes Eigelb und ein vollständig festes Eiweiß.
5. Gekocht:
Ein Ei, das nur sehr leicht gekocht wurde (pochierte Eier werden manchmal als gekocht bezeichnet). Dies kann entweder mit einem Eierkocher oder durch Kochen eines Eies in der Schale mit Wasser, das knapp unter dem Siedepunkt liegt, erreicht werden.
6. Geraffelt:
Ein Ei, das in einer Auflaufform in einem Ofen bei etwa 160 °C gekocht wird, bis das Eiweiß gerade fest und das Eigelb flüssig, aber verdickt ist. Oft wird vor dem Garen Butter oder ein anderes Fett darüber gegeben.
7. Gedünstet:
Ähnlich wie geraffte Eier, aber die Auflaufform wird mit Alufolie abgedeckt und für 7-15 Minuten in einen Dampfgarer gestellt.
8. In einem Korb:
Eier, die in einem Loch in einer Brotscheibe gebraten werden.
9. Frittiert
Moo shu - mit einem Sieb kleine Eiertropfen in das heiße Öl eines Woks geben und umrühren. In Gemüse und/oder Fleisch oder einem anderen Eiweiß frittieren und dann auf Mandarinenpfannkuchen mit einer Sauce Ihrer Wahl verzehren. | ¿Puede alguien dar una explicación de los diferentes preparados de huevo? | Claro, aquí hay diferentes preparaciones de huevos:
1. Huevos fritos:
* Sunny Side Up -- Sin voltear, yema intacta. La parte superior del huevo apenas está cuajada.
* Bañados: boca arriba, con una cuchara de grasa caliente hasta que la clara que rodea la yema esté opaca.
* Over Easy / lite -- Volteado, clara totalmente cocida, yema sin romper, yema líquida.
* Más de medio: volteado, claras completamente cocidas, yema sin romper, yema cremosa (no completamente líquida).
* Más de medio bien: volteado, yema intacta, yema cocida hasta tener un centro firme pero de aspecto húmedo.
* Demasiado duro: yema vuelta, rota y totalmente cocida.
* Over Well: yema vuelta, intacta y totalmente cocida.
* Huevos rotos o ligeramente revueltos: se rompen en la sartén y se remueven suavemente durante la cocción; la yema y la clara no deben mezclarse por completo.
* Huevos revueltos: se preparan de muchas formas distintas. Por lo general, los huevos se mezclan en un bol antes de ponerlos en la sartén, y a menudo se remueven mientras se cocinan. Algunas recetas añaden grasa a los huevos en forma de leche, * nata, mantequilla o aceite. Se puede distinguir entre Húmedo/Suelto o Seco, que se refiere al grado de cocción.
2. Tortilla:
* Tortilla rellena -- Huevos mezclados antes de cocinarlos, posiblemente con grasa añadida como en los huevos revueltos. Se cuecen en grasa en una sartén; cuando cuajan pero el interior aún está húmedo, se añaden los rellenos previamente cocinados (queso, cebollas, champiñones, pimientos, tomates...) y se doblan los huevos en forma de media luna.
* Spanish Omelette / Western Omelette -- Igual que la rellena, pero la mezcla de huevo se vierte sobre los rellenos en una sartén caliente y se cuece, incorporando así los rellenos al huevo.
* Tortilla esponjosa: las claras y las yemas se baten por separado. Las yemas se incorporan suavemente a las claras sin romper su estructura. Se añaden ingredientes opcionales. Se cuece lentamente en una sartén o se hornea (una sartén eléctrica con tapa funciona bien para esta preparación).
* Tortilla francesa -- Se cocina suave y cremosa, sin color en el huevo. La tortilla se dobla 1/3 en la sartén, se golpea hasta el borde para poder extenderla en el plato. Se acaba doblando en tercios y queda muy cremosa y suave.
3. Hervido:
Se cuece con cáscara en agua durante un tiempo determinado. Algunas personas se refieren al grado de cocción por el tiempo de cocción, es decir, un "huevo de 3 minutos" es de cocción suave con algo de clara líquida alrededor de la yema. En algunas recetas, los huevos se echan en agua hirviendo, mientras que en otras se cuecen en agua fría. En el caso del agua fría, la olla puede dejarse al fuego o retirarse cuando el agua empiece a hervir. Los huevos pueden escurrirse en agua helada al sacarlos.
* Blandos -- Yema líquida, posiblemente con una ligera clara sin cuajar alrededor de la yema.
* Medianos -- Clara completamente cuajada, yema firme pero con un aspecto oscuro y húmedo.
* Duro -- Yema completamente cuajada y de color amarillo pálido.
4. Escalfado:
Huevo cocido, fuera de la cáscara, en agua, caldo u otro líquido -excluyendo grasas o aceites- a una temperatura entre 160-180˚F (70-82˚C). Hay varios grados de cocción, pero el huevo escalfado típico tiene una yema líquida pero caliente y espesa y una clara completamente cuajada.
5. Cocido:
Huevo ligeramente cocido (los huevos escalfados a veces se consideran cocidos). Esto se puede conseguir con un codificador de huevos o cociendo un huevo en su cáscara con agua ligeramente por debajo del punto de ebullición.
6. Berreado:
Huevo cocido en un horno a unos 160 ºC, en una cazuela, hasta que la clara está a punto de cuajar y la yema líquida pero espesa. A menudo se pone mantequilla u otra grasa por encima antes de cocinarlos.
7. Al vapor:
Muy similar a los huevos escurridos, pero el ramekin se cubre con un poco de papel de aluminio y se pone en una vaporera durante 7-15 minutos.
8. En una cesta:
Huevos fritos en un agujero hecho en una rebanada de pan.
9. Fritos
Moo shu: utilizar un colador para dejar caer pequeñas gotas de huevo en el aceite caliente de un wok y remover. Se fríen en verduras y/opcionalmente carne u otra proteína y luego se consumen en tortitas de mandarina con la salsa que se elija. | Quelqu'un peut-il expliquer les différentes préparations d'œufs ? | Bien sûr, il existe différentes préparations d'œufs :
1. Œufs frits :
* Sunny Side Up -- Non retourné, jaune d'œuf non cassé. Le dessus de l'œuf est à peine pris.
* Bastonné -- Côté soleil vers le haut, graisse chaude versée à la cuillère jusqu'à ce que le blanc entourant le jaune d'œuf soit opaque.
* Sur le plat -- retourné, les blancs sont complètement cuits, le jaune n'est pas cassé, le jaune est coulant.
* Sur medium -- retourné, blancs complètement cuits, jaune d'œuf intact, jaune d'œuf crémeux (pas complètement coulant).
* Surmédium -- retourné, jaune d'œuf non rompu, jaune d'œuf cuit jusqu'à ce que le centre soit ferme mais d'apparence humide.
* Sur dur -- jaune d'œuf cassé, entièrement cuit.
* Trop bien -- Jaune d'œuf retourné, intact et entièrement cuit.
* Brisé / légèrement brouillé -- Brisé dans la casserole et remué doucement pendant la cuisson - le jaune d'œuf et les blancs ne doivent pas être entièrement mélangés.
* Œufs brouillés -- Ils sont préparés de différentes manières. En général, les œufs sont mélangés dans un bol avant d'être placés dans la poêle, et souvent remués pendant la cuisson. Certaines recettes ajoutent de la matière grasse aux œufs sous forme de lait, de crème, de beurre ou d'huile. Une distinction peut être faite entre humide/libre ou sec, qui se réfère au degré de cuisson.
2. Omelettes :
* Omelette farcie - Œufs mélangés avant la cuisson, éventuellement avec ajout de matière grasse comme dans les œufs brouillés. Ils sont cuits dans la graisse dans une poêle à frire ; lorsqu'ils sont cuits mais que l'intérieur est encore humide, des garnitures préalablement cuites (fromage, oignons, champignons, poivrons, tomates...) sont ajoutées, et les œufs sont repliés en forme de demi-lune.
* Omelette espagnole / Omelette occidentale -- Identique à l'omelette garnie, mais le mélange d'œufs est versé sur les garnitures dans une poêle chaude et cuit, incorporant ainsi les garnitures dans l'œuf.
* Omelette moelleuse -- Les blancs et les jaunes sont battus séparément. Les jaunes sont délicatement incorporés aux blancs sans briser la structure des blancs. Des garnitures facultatives sont ajoutées. Elle est cuite lentement dans une poêle ou au four (une poêle à frire électrique munie d'un couvercle convient parfaitement à cette préparation).
* Omelette française -- Cuite molle et crémeuse, sans coloration de l'œuf. L'omelette est pliée au tiers dans la poêle, frappée jusqu'au bord pour pouvoir être roulée sur l'assiette. Elle finit par être pliée en trois et est très crémeuse et moelleuse.
3. Bouilli :
Cuit dans une coquille dans de l'eau pendant une période déterminée. Certaines personnes font référence au degré de cuisson en fonction du temps de cuisson, c'est-à-dire qu'un œuf de 3 minutes est un œuf à la coque avec un peu de blanc coulant autour du jaune. Certaines recettes prévoient d'ajouter les œufs à l'eau bouillante, d'autres de les faire démarrer dans l'eau froide. Dans le cas d'une préparation à l'eau froide, la casserole peut être laissée sur le feu ou retirée lorsque l'eau atteint l'ébullition. Les œufs peuvent être placés dans de l'eau glacée lorsqu'ils sont retirés de la casserole.
* Mou -- Jaune coulant, éventuellement avec un léger blanc non pris autour du jaune.
* Moyen -- Le blanc est complètement pris, le jaune est ferme mais a un aspect sombre et humide.
* Dur -- Le jaune d'œuf est complètement pris et jaune pâle.
4. Poché :
Œuf cuit, sans sa coquille, dans de l'eau, du bouillon ou un autre liquide - à l'exclusion des graisses ou des huiles - à une température comprise entre 160 et 180˚F (70-82˚C). Il existe plusieurs degrés de cuisson, mais l'œuf poché typique a un jaune coulant, mais chaud et épaissi, et un blanc complètement pris.
5. Œuf de cabillaud :
Un œuf qui a été très légèrement cuit (les œufs pochés sont parfois considérés comme codés). Cela peut se faire à l'aide d'une cocotte ou en faisant cuire un œuf dans sa coquille avec de l'eau légèrement en dessous du point d'ébullition.
6. Oeuf à la coque :
Un œuf cuit au four à une température de ~160˚C, contenu dans un ramequin, jusqu'à ce que les blancs soient juste pris et que le jaune soit coulant mais épais. Le beurre ou une autre matière grasse est souvent placé sur le dessus avant la cuisson.
7. À la vapeur :
Très similaire aux œufs au plat, mais le ramequin est recouvert d'une feuille d'aluminium et placé dans un cuit-vapeur pendant 7 à 15 minutes.
8. Dans un panier :
Œufs frits dans un trou fait dans une tranche de pain.
9. frits
Moo shu : utiliser une passoire pour déposer de petites gouttes d'œuf dans l'huile chaude d'un wok et remuer. On le fait frire dans des légumes et/ou de la viande ou une autre protéine, puis on le consomme sur des crêpes à la mandarine avec la sauce de son choix. | Qualcuno può dare una spiegazione delle diverse preparazioni di uova? | Certo, qui ci sono diverse preparazioni di uova:
1. Uova fritte:
* Sunny Side Up -- Non girato, tuorlo non rotto. La parte superiore dell'uovo è appena appena rappresa.
* Basted - Sunny Side Up, con un cucchiaio di grasso caldo fino a quando il bianco che circonda il tuorlo è opaco.
* Over Easy / lite -- Capovolto, albumi completamente cotti, tuorlo non rotto, tuorlo che cola.
* Oltre la media - girato, bianchi completamente cotti, tuorlo non rotto, tuorlo cremoso (non del tutto colante).
* Oltre la media - Capovolta, tuorlo non rotto, tuorlo cotto in modo da avere un centro sodo ma umido.
* Oltre il duro -- Tuorlo girato, rotto, completamente cotto.
* Oltre il limite - Tuorlo girato, intatto e completamente cotto.
* Rotto / leggermente strapazzato - Rotto nel tegame e mescolato delicatamente durante la cottura - tuorlo e albume non devono essere completamente mescolati.
* Uova strapazzate - Si preparano in molti modi diversi. In genere le uova vengono mescolate in una ciotola prima di essere messe in padella e spesso vengono mescolate durante la cottura. Alcune ricette aggiungono grassi alle uova sotto forma di latte, * panna, burro o olio. Si può fare una distinzione tra Wet/Loose o Dry, che si riferisce al grado di cottura.
2. Omelette:
* Omelette ripiena -- Uova mescolate prima della cottura, eventualmente con l'aggiunta di grassi come nelle uova strapazzate. Cotte nel grasso in una padella; quando sono cotte ma l'interno è ancora umido, si aggiungono i ripieni (formaggio, cipolle, funghi, peperoni, pomodori...) precedentemente cotti e le uova vengono ripiegate a forma di mezzaluna.
* Omelette spagnola / Omelette occidentale - Come quella ripiena, ma il composto di uova viene versato sul ripieno in una padella calda e cotto, incorporando così il ripieno nell'uovo.
* Omelette soffice: albumi e tuorli sbattuti separatamente. I tuorli vengono delicatamente ripiegati negli albumi senza rompere la struttura degli stessi. Si aggiungono guarnizioni facoltative. Si cuoce lentamente in padella o al forno (per questa preparazione va bene una padella elettrica con coperchio).
* Omelette francese: cotta in modo morbido e cremoso, senza colorazione dell'uovo. L'omelette viene piegata per un terzo nella padella, battuta fino al bordo in modo da poterla srotolare sul piatto. Alla fine viene piegata in tre e risulta molto cremosa e morbida.
3. Bollito:
Cottura in conchiglia in acqua per un periodo di tempo prestabilito. Alcune persone si riferiscono al grado di cottura in base al tempo di cottura, ad esempio un "uovo di 3 minuti" è un uovo alla coque con un po' di albume che cola intorno al tuorlo. Alcune ricette prevedono che le uova vengano aggiunte all'acqua bollente, altre che vengano avviate in acqua fredda. Nel caso di avvio in acqua fredda, la pentola può essere lasciata sul fuoco o rimossa quando l'acqua raggiunge l'ebollizione. Le uova possono essere immerse in acqua ghiacciata una volta tolte.
* Morbido -- Tuorlo che cola, potenzialmente con un bianco leggermente non rappreso intorno al tuorlo.
* Medio - Bianco completamente rappreso, tuorlo sodo ma con un aspetto scuro e umido.
* Duro - Tuorlo completamente rappreso e di colore giallo pallido.
4. In camicia:
Uovo cotto, senza guscio, in acqua, brodo o altro liquido - esclusi grassi o oli - a una temperatura compresa tra i 160 e i 180˚F (70-82˚C). Esistono diversi gradi di cottura, ma l'uovo in camicia tipico ha un tuorlo filante ma caldo e addensato e un bianco completamente sodo.
5. In camicia:
Un uovo che è stato cotto in modo molto leggero (le uova in camicia sono a volte considerate "codificate"). Per ottenere questo risultato, si può utilizzare un contenitore per uova o cuocere un uovo nel suo guscio con acqua leggermente al di sotto del punto di ebollizione.
6. Scremato:
Uovo cotto in forno a temperature medio-basse (~160°C), contenuto in un pirottino, fino a quando l'albume non è appena rappreso e il tuorlo è filante ma addensato. Spesso il burro o un altro grasso viene messo sopra prima della cottura.
7. Al vapore:
Molto simile alle uova al tegamino, ma il pirottino viene coperto con un foglio di alluminio e messo in una vaporiera per 7-15 minuti.
8. In un cestino:
Uova fritte in un buco fatto in una fetta di pane.
9. fritto
Moo shu: utilizzare un colino per far cadere piccole gocce d'uovo nell'olio caldo in un wok e mescolare. Friggere con verdure e/opzionalmente carne o un'altra proteina, quindi consumare su frittelle di mandarino con una salsa a scelta. |
296 | I'm running a relatively small one-man business in the software sector. I just started and am trying to create a larger portfolio. For that, I offer some friends free services.
I found a few reasons to send these clients €0,- invoices, mostly similar to the reasons to send 100% discount invoices to charity funds that I gave here:
* Clarity about what has to be done and when
* No transfers (as I would have with a 0% discount bill and returning the money as a gift)
And also:
* With an invoice I have more distinguishable clients which makes that I have more chance on getting a better certificate from the state (doesn't matter how it exactly works, this is an advantage)
Suppose that these clients won't have a problem with the €0,- invoices, could there be any reason for me to not send them?
I ask this, because I've never seen people sending invoices like this, and I can only see advantages. | It depends on the tax system that applies to you, but there can be consequences, and they can be very severe.
Generally economic activity is defined as oriented on profit, so giving anything for free could qualify as self-promotion or donation.
In Poland, for example, only some costs of the company spend on promotion can be considered as tax costs. So in worst case you could end with tax office refusing to acknowledge, for example, 50% of your expenses as tax costs. You would end up with fine and penalty percentages.
With donation, the danger is even greater. There was a case of baker who was giving the unsold bread to charity for free. He was told to pay the VAT from the bread that was given for free (from the price it was normally being sold - but the tax officer is free to estimate the basis price as he/she wants). With penalty percentages the sum was so big, that he has become insolvent. However, the obligation to pay VAT was only in case of wares, not services, and the law has changed recently, but in other countries the regulations may be even stricter.
There is also a potential consequence if you receive something for free. It could be interpreted as income and you would have to pay income tax from the value estimated by tax officer.
Assuming, analyse your local law, consult a tax specialist and be sure you exactly want what you are doing before issuing €0 invoices. | Ich betreibe ein relativ kleines Ein-Mann-Unternehmen in der Softwarebranche. Ich habe gerade erst angefangen und versuche, ein größeres Portfolio aufzubauen. Dazu biete ich einigen Freunden kostenlose Dienstleistungen an.
Ich habe ein paar Gründe gefunden, diesen Kunden €0,--Rechnungen zu schicken, meist ähnlich wie die Gründe, Rechnungen mit 100 % Rabatt an Wohltätigkeitsorganisationen zu schicken, die ich hier genannt habe:
* Klarheit darüber, was zu tun ist und wann
* Keine Überweisungen (wie bei einer Rechnung mit 0 % Skonto und Rückgabe des Geldes als Geschenk)
Und außerdem:
* Mit einer Rechnung habe ich mehr unterscheidbare Kunden, was dazu führt, dass ich mehr Chancen auf ein besseres Zertifikat vom Staat habe (egal wie es genau funktioniert, das ist ein Vorteil)
Angenommen, diese Kunden haben kein Problem mit den 0,- €-Rechnungen, gibt es dann einen Grund für mich, sie nicht zu verschicken?
Ich frage das, weil ich noch nie gesehen habe, dass jemand Rechnungen auf diese Weise verschickt, und ich sehe nur Vorteile. | Es hängt von dem für Sie geltenden Steuersystem ab, aber es kann Konsequenzen haben, und die können sehr schwerwiegend sein.
Im Allgemeinen wird wirtschaftliche Tätigkeit als gewinnorientiert definiert, so dass alles, was Sie umsonst geben, als Eigenwerbung oder Spende gelten könnte.
In Polen zum Beispiel können nur einige der Kosten, die ein Unternehmen für Werbung ausgibt, steuerlich geltend gemacht werden. Im schlimmsten Fall könnten Sie also damit enden, dass das Finanzamt sich weigert, z. B. 50 % Ihrer Ausgaben als steuerliche Kosten anzuerkennen. Sie würden mit Bußgeldern und Strafzahlungen rechnen müssen.
Bei Spenden ist die Gefahr noch größer. Es gab den Fall eines Bäckers, der sein unverkauftes Brot kostenlos an wohltätige Organisationen verschenkte. Ihm wurde gesagt, er solle die Mehrwertsteuer von dem kostenlos abgegebenen Brot bezahlen (von dem Preis, zu dem es normalerweise verkauft wird - aber der Finanzbeamte kann den Basispreis nach eigenem Ermessen schätzen). Mit Strafprozenten war die Summe so hoch, dass er zahlungsunfähig geworden ist. Allerdings galt die Pflicht zur Zahlung der Mehrwertsteuer nur für Waren, nicht für Dienstleistungen, und das Gesetz hat sich vor kurzem geändert, aber in anderen Ländern sind die Vorschriften möglicherweise noch strenger.
Eine weitere mögliche Folge ist, dass Sie etwas unentgeltlich erhalten. Es könnte als Einkommen gewertet werden, und Sie müssten von dem vom Finanzbeamten geschätzten Wert Einkommensteuer zahlen.
Analysieren Sie also Ihre lokalen Gesetze, konsultieren Sie einen Steuerexperten und stellen Sie sicher, dass Sie genau wissen, was Sie tun, bevor Sie 0 €-Rechnungen ausstellen. | Tengo una empresa unipersonal relativamente pequeña en el sector del software. Acabo de empezar y estoy intentando crear una cartera más amplia. Para ello, ofrezco a algunos amigos servicios gratuitos.
He encontrado algunas razones para enviar facturas de 0,- euros a estos clientes, en su mayoría similares a las razones para enviar facturas con descuentos del 100% a fondos benéficos que di aquí:
* Claridad sobre lo que hay que hacer y cuándo
* Sin transferencias (como me pasaría con una factura al 0% de descuento y devolviendo el dinero como regalo)
Y también:
* Con una factura tengo clientes más distinguibles lo que hace que tenga más posibilidades de conseguir un mejor certificado del estado (da igual como funcione exactamente, esto es una ventaja)
Supongamos que estos clientes no tendrán ningún problema con las facturas de 0,- euros, ¿podría haber alguna razón para que no las envíe?
Lo pregunto porque nunca he visto a nadie enviar facturas de este modo, y sólo veo ventajas. | Depende del sistema fiscal que se le aplique, pero puede haber consecuencias, y pueden ser muy graves.
Por lo general, la actividad económica se define como orientada al beneficio, por lo que dar algo gratis podría calificarse de autopromoción o donación.
En Polonia, por ejemplo, sólo algunos gastos de la empresa en promoción pueden considerarse gastos fiscales. Así que, en el peor de los casos, la Agencia Tributaria podría negarse a reconocer, por ejemplo, el 50% de los gastos como gastos fiscales. Acabarías con porcentajes de multa y sanción.
En el caso de las donaciones, el peligro es aún mayor. Hubo un caso de un panadero que donaba gratuitamente el pan que no vendía. Se le dijo que pagara el IVA del pan donado (al precio al que se vendía normalmente, pero el funcionario de Hacienda es libre de estimar el precio base como quiera). Con los porcentajes de penalización, el importe era tan elevado que se declaró insolvente. Sin embargo, la obligación de pagar el IVA era sólo en caso de mercancías, no de servicios, y la ley ha cambiado recientemente, pero en otros países la normativa puede ser aún más estricta.
También existe una posible consecuencia si recibe algo gratis. Podría interpretarse como un ingreso y tendría que pagar el impuesto sobre la renta a partir del valor estimado por el funcionario de Hacienda.
Por tanto, analice su legislación local, consulte a un especialista fiscal y asegúrese de lo que quiere hacer exactamente antes de emitir facturas de 0 euros. | Je dirige une entreprise individuelle relativement petite dans le secteur des logiciels. Je viens de commencer et j'essaie de créer un portefeuille plus important. Pour cela, j'offre à quelques amis des services gratuits.
J'ai trouvé quelques raisons d'envoyer à ces clients des factures à 0,- €, essentiellement similaires aux raisons d'envoyer des factures à 100 % de réduction à des fonds caritatifs que j'ai données ici :
* Clarté sur ce qui doit être fait et quand
* Pas de transferts (comme je l'aurais fait avec une facture à 0 % de remise et en renvoyant l'argent comme un cadeau)
Et aussi :
* Avec une facture, j'ai plus de clients distincts, ce qui fait que j'ai plus de chances d'obtenir un meilleur certificat de la part de l'Etat (peu importe comment cela fonctionne exactement, c'est un avantage).
Supposons que ces clients n'aient pas de problème avec les factures de 0,00 €, y a-t-il une raison pour que je ne les envoie pas ?
Je pose cette question parce que je n'ai jamais vu de personnes envoyer des factures de cette manière, et je n'y vois que des avantages. | Cela dépend du régime fiscal qui s'applique à vous, mais il peut y avoir des conséquences, et elles peuvent être très graves.
En règle générale, l'activité économique est définie comme étant orientée vers le profit, de sorte que le fait de donner quelque chose gratuitement peut être considéré comme de l'autopromotion ou un don.
En Pologne, par exemple, seules certaines dépenses de promotion de l'entreprise peuvent être considérées comme des coûts fiscaux. Dans le pire des cas, le bureau des impôts pourrait donc refuser de reconnaître, par exemple, 50 % de vos dépenses comme des coûts fiscaux. Vous vous retrouveriez alors avec des amendes et des pourcentages de pénalité.
En ce qui concerne les dons, le danger est encore plus grand. Il y a eu le cas d'un boulanger qui donnait gratuitement son pain invendu à une association caritative. Il lui a été demandé de payer la TVA sur le pain donné gratuitement (sur la base du prix de vente normal - mais l'agent du fisc est libre d'estimer le prix de base comme il l'entend). Avec les pourcentages de pénalité, la somme était si importante qu'il est devenu insolvable. Toutefois, l'obligation de payer la TVA ne s'appliquait qu'aux marchandises, et non aux services, et la loi a changé récemment, mais dans d'autres pays, les réglementations peuvent être encore plus strictes.
Il y a également une conséquence potentielle si vous recevez quelque chose gratuitement. Cela pourrait être interprété comme un revenu et vous devriez payer l'impôt sur le revenu à partir de la valeur estimée par l'agent du fisc.
Par conséquent, analysez votre législation locale, consultez un spécialiste de la fiscalité et assurez-vous que vous savez exactement ce que vous faites avant d'émettre des factures de 0 €. | Gestisco una ditta individuale relativamente piccola nel settore del software. Ho appena iniziato e sto cercando di creare un portafoglio più ampio. Per questo motivo, offro ad alcuni amici servizi gratuiti.
Ho trovato alcune ragioni per inviare a questi clienti fatture da €0,-, per lo più simili alle ragioni per inviare fatture scontate al 100% a fondi di beneficenza che ho illustrato qui:
* Chiarezza su ciò che deve essere fatto e quando
* Nessun trasferimento (come avverrebbe con una fattura a sconto 0% e con la restituzione del denaro come regalo).
E inoltre:
* Con una fattura ho clienti più distinguibili, il che significa che ho più possibilità di ottenere un certificato migliore dallo Stato (non importa come funziona esattamente, questo è un vantaggio).
Supponendo che questi clienti non abbiano problemi con le fatture da €0,-, ci potrebbe essere un motivo per non inviarle?
Lo chiedo perché non ho mai visto persone che inviano fatture in questo modo e vedo solo vantaggi. | Dipende dal sistema fiscale in vigore, ma le conseguenze possono essere molto gravi.
In generale, l'attività economica è definita come orientata al profitto, quindi dare qualsiasi cosa gratuitamente potrebbe qualificarsi come autopromozione o donazione.
In Polonia, ad esempio, solo alcuni costi dell'azienda spesi per la promozione possono essere considerati come costi fiscali. Quindi, nel peggiore dei casi, potreste ritrovarvi con l'ufficio delle imposte che rifiuta di riconoscere, ad esempio, il 50% delle vostre spese come costi fiscali. Si finirebbe per incorrere in multe e sanzioni.
Nel caso delle donazioni, il pericolo è ancora maggiore. C'è stato un caso di un panettiere che dava il pane invenduto in beneficenza gratuitamente. Gli è stato detto di pagare l'IVA sul pane donato gratuitamente (dal prezzo di vendita normale - ma il funzionario fiscale è libero di stimare il prezzo base come vuole). Con le percentuali di penalità la somma era così alta che è diventato insolvente. Tuttavia, l'obbligo di pagare l'IVA riguardava solo i beni, non i servizi, e la legge è cambiata di recente, ma in altri Paesi le norme possono essere ancora più severe.
Esiste anche una potenziale conseguenza se si riceve qualcosa gratuitamente. Potrebbe essere interpretato come un reddito e dovreste pagare l'imposta sul reddito a partire dal valore stimato dal funzionario fiscale.
In conclusione, analizzate la vostra legge locale, consultate uno specialista fiscale e assicuratevi di volere esattamente quello che state facendo prima di emettere fatture da 0 euro. |
297 | In regards to Error handling in PHP -- As far I know there are 3 styles:
* ```die()```or ```exit()``` style:
```$con = mysql_connect("localhost","root","password");
if (!$con) {
die('Could not connect: ' . mysql_error());
}
```
* ```throw Exception``` style:
``` if (!function_exists('curl_init')) {
throw new Exception('need the CURL PHP extension.
Recomplie PHP with curl');
}
```
* ```trigger_error()``` style:
```if(!is_array($config) && isset($config)) {
trigger_error('Error: config is not an array or is not set', E_USER_ERROR);
}
```
Now, in the PHP manual all three methods are used.
* What I want to know is which style should I prefer & why?
* Are these 3 drop in replacements of each other & therefore can be used interchangeably?
Is it just me or everyone thinks PHP error handling options are just too many to the extent it confuses php developers? | The first one should never be used in production code, since it's transporting information irrelevant to end-users (a user can't do anything about "Cannot connect to database").
You throw Exceptions if you know that at a certain critical code point, your application can fail and you want your code to recover across multiple call-levels.
```trigger_error()``` lets you fine-grain error reporting (by using different levels of error messages) and you can hide those errors from end-users (using ```set_error_handler()```) but still have them be displayed to you during testing.
Also ```trigger_error()``` can produce non-fatal messages important during development that can be suppressed in production code using a custom error handler. You can produce fatal errors, too (```E_USER_ERROR```) but those aren't recoverable. If you trigger one of those, program execution stops at that point. This is why, for fatal errors, Exceptions should be used. This way, you'll have more control over your program's flow:
```// Example (pseudo-code for db queries):
$db->query('START TRANSACTION');
try {
while ($row = gather_data()) {
$db->query('INSERT INTO `table` (`foo`,`bar`) VALUES(?,?)', ...);
}
$db->query('COMMIT');
} catch(Exception $e) {
$db->query('ROLLBACK');
}
```
Here, if ```gather_data()``` just plain croaked (using ```E_USER_ERROR``` or ```die()```) there's a chance, previous ```INSERT``` statements would have made it into your database, even if not desired and you'd have no control over what's to happen next. | In Bezug auf die Fehlerbehandlung in PHP - Soweit ich weiß, gibt es 3 Arten:
* ``die()``oder ``exit()`` Stil:
```$con = mysql_connect("localhost", "root", "password");
if (!$con) {
die('Konnte keine Verbindung herstellen: ' . mysql_error());
}
```
* ```Werfen einer Exception`` Stil:
```` if (!function_exists('curl_init')) {
throw new Exception('brauche die CURL PHP Erweiterung.
Recomplie PHP mit curl');
}
```
* ```trigger_error()``` Stil:
```if(!is_array($config) && isset($config)) {
trigger_error('Error: config is not an array or is not set', E_USER_ERROR);
}
```
Im PHP-Handbuch werden alle drei Methoden verwendet.
* Ich möchte wissen, welchen Stil ich bevorzugen sollte und warum?
* Sind diese 3 Methoden austauschbar und können daher austauschbar verwendet werden?
Geht es nur mir so oder ist jeder der Meinung, dass PHP zu viele Optionen für die Fehlerbehandlung hat, so dass es die PHP-Entwickler verwirrt? | Die erste sollte niemals in Produktionscode verwendet werden, da sie Informationen transportiert, die für den Endbenutzer irrelevant sind (ein Benutzer kann nichts gegen "Cannot connect to database" unternehmen).
Sie werfen Exceptions, wenn Sie wissen, dass Ihre Anwendung an einem bestimmten kritischen Codepunkt fehlschlagen kann und Sie möchten, dass Ihr Code über mehrere Aufrufebenen hinweg wiederhergestellt werden kann.
Mit ```trigger_error()``` können Sie die Fehlermeldungen feinkörnig gestalten (indem Sie verschiedene Stufen von Fehlermeldungen verwenden) und Sie können diese Fehler vor dem Endbenutzer verstecken (mit ```set_error_handler()```), aber sie werden Ihnen trotzdem während des Testens angezeigt.
Auch ```trigger_error()``` kann nicht-fatale Meldungen erzeugen, die während der Entwicklung wichtig sind und die im Produktionscode mit einem eigenen Fehlerhandler unterdrückt werden können. Sie können auch fatale Fehler erzeugen (```E_USER_ERROR``), aber diese sind nicht wiederherstellbar. Wenn Sie einen solchen Fehler auslösen, stoppt die Programmausführung an diesem Punkt. Aus diesem Grund sollten für fatale Fehler Exceptions verwendet werden. Auf diese Weise haben Sie mehr Kontrolle über den Ablauf Ihres Programms:
```/// Beispiel (Pseudocode für Datenbankabfragen):
$db->query('START TRANSACTION');
try {
while ($row = gather_data()) {
$db->query('INSERT INTO `table` (`foo`,`bar`) VALUES(?,?)', ...);
}
$db->query('COMMIT');
} catch(Exception $e) {
$db->query('ROLLBACK');
}
```
Wenn ````gather_data()``` einfach abbricht (mit ```E_USER_ERROR`` oder ```die()```), besteht die Möglichkeit, dass frühere ```INSERT```-Anweisungen in die Datenbank gelangt sind, auch wenn sie nicht erwünscht waren, und Sie keine Kontrolle darüber haben, was als nächstes passiert. | Con respecto al manejo de errores en PHP -- Hasta donde yo sé hay 3 estilos:
* estilo ```die()`` o ```exit()``:
```$con = mysql_connect("localhost", "root", "password");
if (!$con) {
die('No se pudo conectar: ' . mysql_error());
}
```
* ```throw Exception`` style:
``` if (!function_exists('curl_init')) {
throw new Exception('necesita la extensión PHP CURL.
Recomplie PHP con curl');
}
```
* ```trigger_error()`` style:
```if(!is_array($config) && isset($config)) {
trigger_error('Error: config is not an array or is not set', E_USER_ERROR);
}
```
Ahora, en el manual de PHP se usan los tres métodos.
* Lo que quiero saber es qué estilo debo preferir y por qué.
* ¿Son estos 3 métodos sustitutos el uno del otro y por lo tanto se pueden utilizar indistintamente?
¿Soy sólo yo o todo el mundo piensa que las opciones de manejo de errores de PHP son demasiadas hasta el punto de confundir a los desarrolladores de php? | El primero nunca debería usarse en código de producción, ya que transporta información irrelevante para los usuarios finales (un usuario no puede hacer nada sobre "No se puede conectar a la base de datos").
Lanzas Exceptions si sabes que en un cierto punto crítico del código, tu aplicación puede fallar y quieres que tu código se recupere a través de múltiples niveles de llamada.
```trigger_error()`` te permite afinar el informe de errores (mediante el uso de diferentes niveles de mensajes de error) y puedes ocultar esos errores a los usuarios finales (usando ```set_error_handler()``) pero aún así mostrarlos durante las pruebas.
También ```trigger_error()`` puede producir mensajes no fatales importantes durante el desarrollo que pueden suprimirse en el código de producción usando un manejador de errores personalizado. También puedes producir errores fatales (``E_USER_ERROR``) pero no son recuperables. Si se produce uno de ellos, la ejecución del programa se detiene en ese punto. Esta es la razón por la que, para los errores fatales, deberían usarse Exceptions. De esta manera, tendrás más control sobre el flujo de tu programa:
```// Ejemplo (pseudo-código para consultas a la db):
$db->query('INICIAR TRANSACCIÓN');
try {
while ($fila = recoger_datos()) {
$db->query('INSERT INTO `table` (`foo`,`bar`) VALUES(?,?)', ...);
}
$db->query('COMMIT');
} catch(Exception $e) {
$db->query('ROLLBACK');
}
```
Aquí, si ``gather_data()`` simplemente fallara (usando ```E_USER_ERROR`` o ``die()``) existe la posibilidad de que las sentencias ``INSERT`` anteriores hubieran llegado a tu base de datos, incluso si no lo deseabas, y no tendrías control sobre lo que ocurriría a continuación. | En ce qui concerne la gestion des erreurs en PHP, je sais qu'il existe 3 styles :
* Le style ``die()``ou ``exit()`` :
```$con = mysql_connect("localhost", "root", "password") ;
if (!$con) {
die('Impossible de se connecter : ' . mysql_error()) ;
}
```
* ``throw Exception`` style :
```` if (!function_exists('curl_init')) {
lance une nouvelle Exception('need the CURL PHP extension.
Recomplie PHP avec curl') ;
}
```
* ``trigger_error()``` style :
````if(!is_array($config) && isset($config)) {
trigger_error('Error : config is not an array or is not set', E_USER_ERROR) ;
}
```
Dans le manuel PHP, les trois méthodes sont utilisées.
* Ce que je veux savoir, c'est quel style je devrais préférer et pourquoi ?
* Est-ce que ces 3 méthodes se remplacent l'une l'autre et peuvent donc être utilisées de manière interchangeable ?
Est-ce que je suis le seul à penser que les options de gestion des erreurs de PHP sont trop nombreuses au point de rendre les développeurs confus ? | La première ne devrait jamais être utilisée dans un code de production, car elle transporte des informations non pertinentes pour les utilisateurs finaux (un utilisateur ne peut rien faire à propos de "Cannot connect to database").
Vous lancez des exceptions si vous savez qu'à un certain point de code critique, votre application peut échouer et que vous voulez que votre code se rétablisse à travers plusieurs niveaux d'appel.
``trigger_error()`` vous permet d'affiner les rapports d'erreurs (en utilisant différents niveaux de messages d'erreurs) et vous pouvez cacher ces erreurs aux utilisateurs finaux (en utilisant ``set_error_handler()``) mais vous pouvez quand même les afficher pendant les tests.
De même, ``trigger_error()`` peut produire des messages non fatals importants pendant le développement qui peuvent être supprimés dans le code de production en utilisant un gestionnaire d'erreur personnalisé. Vous pouvez aussi produire des erreurs fatales (``E_USER_ERROR``) mais celles-ci ne sont pas récupérables. Si vous en déclenchez une, l'exécution du programme s'arrête à ce moment-là. C'est pourquoi, pour les erreurs fatales, il faut utiliser des Exceptions. De cette façon, vous aurez plus de contrôle sur le déroulement de votre programme :
```// Exemple (pseudo-code pour les requêtes de la base de données) :
$db->query('START TRANSACTION') ;
try {
while ($row = gather_data()) {
$db->query('INSERT INTO `table` (`foo`,`bar`) VALUES( ?,?)', ...) ;
}
$db->query('COMMIT') ;
} catch(Exception $e) {
$db->query('ROLLBACK') ;
}
```
Ici, si ``gather_data()`` a simplement crevé (en utilisant ``E_USER_ERROR`` ou ``die()``), il y a une chance que les instructions ``INSERT`` précédentes se soient retrouvées dans votre base de données, même si elles n'étaient pas souhaitées, et vous n'auriez aucun contrôle sur ce qui va se passer par la suite. | Per quanto riguarda la gestione degli errori in PHP, per quanto ne so ci sono 3 stili:
* stile ```die()``o ``exit()``:
```$con = mysql_connect("localhost", "root", "password");
if (!$con) {
die('Impossibile connettersi: ' . mysql_error());
}
```
* Stile ```throw Exception``:
```` if (!function_exists('curl_init')) {
lancia una nuova eccezione('serve l'estensione PHP CURL.
Ricompilare PHP con curl');
}
```
* Stile ``trigger_error()```:
```if(!is_array($config) && isset($config)) {
trigger_error('Errore: config non è un array o non è impostato', E_USER_ERROR);
}
```
Ora, nel manuale di PHP vengono utilizzati tutti e tre i metodi.
* Vorrei sapere quale stile dovrei preferire e perché?
* Questi tre metodi si sostituiscono l'uno all'altro e quindi possono essere usati in modo intercambiabile?
Sono solo io o tutti pensano che le opzioni di gestione degli errori in PHP siano troppe al punto da confondere gli sviluppatori di php? | Il primo non dovrebbe mai essere usato nel codice di produzione, poiché trasporta informazioni irrilevanti per gli utenti finali (un utente non può fare nulla per "Impossibile connettersi al database").
Si lanciano eccezioni se si sa che in un certo punto critico del codice l'applicazione può fallire e si vuole che il codice si riprenda attraverso più livelli di chiamata.
```trigger_error()`` permette di filtrare la segnalazione degli errori (usando diversi livelli di messaggi di errore) e di nascondere gli errori agli utenti finali (usando ```set_error_handler()``), ma di visualizzarli durante i test.
Anche ```trigger_error()`` può produrre messaggi non fatali importanti durante lo sviluppo, che possono essere soppressi nel codice di produzione usando un gestore di errori personalizzato. Si possono produrre anche errori fatali (```E_USER_ERROR``), ma non sono recuperabili. Se si attiva uno di questi errori, l'esecuzione del programma si ferma a quel punto. Per questo motivo, per gli errori fatali si dovrebbero usare le Eccezioni. In questo modo, si avrà un maggiore controllo sul flusso del programma:
```// Esempio (pseudo-codice per le query al db):
$db->query('START TRANSACTION');
try {
while ($row = gather_data()) {
$db->query('INSERT INTO `table` (`foo`,`bar`) VALUES(?,?)', ...);
}
$db->query('COMMIT');
} catch(Exception $e) {
$db->query('ROLLBACK');
}
```
In questo caso, se ```gather_data()``` si fosse semplicemente rotto (usando ```E_USER_ERROR`` o ```die()``), è possibile che le precedenti dichiarazioni ```INSERT`` siano arrivate nel database, anche se non desiderate, e non si avrebbe alcun controllo su ciò che accadrà in seguito. |
298 | How do I change the author and committer name/email for multiple commits? | Here is the solution, but be careful if you have a multi-user repository - this will change all commits to have the same (new) author and committer.
```
git filter-branch -f --env-filter "
GIT_AUTHOR_NAME='Newname'
GIT_AUTHOR_EMAIL='new@email'
GIT_COMMITTER_NAME='Newname'
GIT_COMMITTER_EMAIL='new@email'
" HEAD
```
Changing the author (or committer) would require rewriting all of the history. If you're okay with that and think it's worth it then you should check out git filter-branch. The manual page includes several examples to get you started. Also note that you can use environment variables to change the name of the author, committer, dates, etc. -- see the "Environment Variables" section of the git manual page.
Specifically, you can fix all the wrong author names and emails for all branches and tags with this command (source: GitHub help):
```
#!/bin/sh
git filter-branch --env-filter '
OLD_EMAIL="[email protected]"
CORRECT_NAME="Your Correct Name"
CORRECT_EMAIL="[email protected]"
if [ "$GIT_COMMITTER_EMAIL" = "$OLD_EMAIL" ]
then
export GIT_COMMITTER_NAME="$CORRECT_NAME"
export GIT_COMMITTER_EMAIL="$CORRECT_EMAIL"
fi
if [ "$GIT_AUTHOR_EMAIL" = "$OLD_EMAIL" ]
then
export GIT_AUTHOR_NAME="$CORRECT_NAME"
export GIT_AUTHOR_EMAIL="$CORRECT_EMAIL"
fi
' --tag-name-filter cat -- --branches --tags
```
For using alternative history filtering tool `git filter-repo`, you can first install it and construct a `git-mailmap` according to the format of `gitmailmap`.
```
Proper Name <[email protected]> Commit Name <[email protected]>
```
And then run filter-repo with the created mailmap:
```
git filter-repo --mailmap git-mailmap
``` | Wie ändere ich den Autor und den Committer-Namen/die E-Mail für mehrere Commits? | Hier ist die Lösung, aber seien Sie vorsichtig, wenn Sie ein Multi-User-Repository haben - dies wird alle Commits so ändern, dass sie denselben (neuen) Autor und Committer haben.
```
git filter-branch -f --env-filter "
GIT_AUTHOR_NAME='NeuerName'
GIT_AUTHOR_EMAIL='new@email'
GIT_COMMITTER_NAME='NeuerName'
GIT_COMMITTER_EMAIL='new@email'
" HEAD
```
Das Ändern des Autors (oder Committers) würde bedeuten, dass die gesamte Historie neu geschrieben werden müsste. Wenn Sie damit einverstanden sind und denken, dass es sich lohnt, dann sollten Sie sich git filter-branch ansehen. Die Handbuchseite enthält mehrere Beispiele, die Ihnen den Einstieg erleichtern. Beachten Sie auch, dass Sie Umgebungsvariablen verwenden können, um den Namen des Autors, des Committers, das Datum usw. zu ändern. -- siehe den Abschnitt "Umgebungsvariablen" auf der git-Handbuchseite.
Insbesondere können Sie alle falschen Autorennamen und E-Mails für alle Zweige und Tags mit diesem Befehl korrigieren (Quelle: GitHub-Hilfe):
```
#!/bin/sh
git filter-branch --env-filter '
OLD_EMAIL="[email protected]"
CORRECT_NAME="Ihr richtiger Name"
CORRECT_EMAIL="[email protected]"
if [ "$GIT_COMMITTER_EMAIL" = "$OLD_EMAIL" ]
dann
export GIT_COMMITTER_NAME="$CORRECT_NAME"
export GIT_COMMITTER_EMAIL="$KORREKT_EMAIL"
fi
if [ "$GIT_AUTHOR_EMAIL" = "$OLD_EMAIL" ]
then
export GIT_AUTHOR_NAME="$KORREKT_NAME"
export GIT_AUTHOR_EMAIL="$KORREKT_EMAIL"
fi
' --tag-name-filter cat -- --branches --tags
```
Um das alternative History-Filter-Tool `git filter-repo` zu verwenden, können Sie es zunächst installieren und eine `git-mailmap` entsprechend dem Format von `gitmailmap` erstellen.
```
Proper Name <[email protected]> Commit Name <[email protected]>
```
Und dann filter-repo mit der erstellten Mailmap ausführen:
```
git filter-repo --mailmap git-mailmap
``` | ¿Cómo puedo cambiar el nombre/correo electrónico del autor y del committer de varias confirmaciones? | Aquí está la solución, pero tenga cuidado si tiene un repositorio multiusuario - esto cambiará todos los commits para que tengan el mismo (nuevo) autor y committer.
```
git filter-branch -f --env-filter "
GIT_AUTHOR_NAME='NombreNuevo'
GIT_AUTHOR_EMAIL='nuevo@email'
GIT_COMMITTER_NAME='NombreNuevo'
GIT_COMMITTER_EMAIL='nuevo@email'
"HEAD
```
Cambiar el autor (o committer) requeriría reescribir todo el historial. Si te parece bien y crees que merece la pena, deberías echar un vistazo a git filter-branch. La página del manual incluye varios ejemplos para empezar. También ten en cuenta que puedes usar variables de entorno para cambiar el nombre del autor, committer, fechas, etc. -- mira la sección "Variables de entorno". -- Consulta la sección "Variables de entorno" de la página del manual de git.
En concreto, puedes arreglar todos los nombres de autor y correos electrónicos erróneos para todas las ramas y etiquetas con este comando (fuente: ayuda de GitHub):
```
/bin/sh
git filter-branch --env-filter '
OLD_EMAIL="[email protected]"
CORRECT_NAME="Tu nombre correcto"
CORREO_CORRECTO="[email protected]"
if [ "$GIT_COMMITTER_EMAIL" = "$OLD_EMAIL" ]
entonces
export GIT_COMMITTER_NAME="$NOMBRE_correcto"
export GIT_COMMITTER_EMAIL="$CORRECT_EMAIL"
fi
if [ "$GIT_AUTHOR_EMAIL" = "$OLD_EMAIL" ]
entonces
export GIT_AUTHOR_NAME="$NOMBRE_CORRECTO"
export GIT_AUTHOR_EMAIL="$CORRECT_EMAIL"
fi
' --tag-name-filter cat -- --branches --tags
```
Para utilizar la herramienta alternativa de filtrado del historial `git filter-repo`, puede instalarla primero y construir un `git-mailmap` según el formato de `gitmailmap`.
```
Nombre propio <[email protected]> Nombre del commit <[email protected]>
```
Y luego ejecutar filter-repo con el mailmap creado:
```
git filter-repo --mailmap git-mailmap
``` | Comment changer le nom et l'email de l'auteur et du committer pour plusieurs commits ? | Voici la solution, mais attention si vous avez un dépôt multi-utilisateurs - cela changera tous les commits pour qu'ils aient le même (nouveau) auteur et le même committer.
```
git filter-branch -f --env-filter "
GIT_AUTHOR_NAME='Nouveau nom'
GIT_AUTHOR_EMAIL='new@email'
GIT_COMMITTER_NAME='Nouveau nom'
GIT_COMMITTER_EMAIL='new@email'
" HEAD
```
Changer l'auteur (ou le committer) nécessiterait de réécrire tout l'historique. Si vous êtes d'accord avec cela et que vous pensez que cela en vaut la peine, alors vous devriez jeter un oeil à git filter-branch. La page de manuel contient plusieurs exemples pour vous aider à démarrer. Notez également que vous pouvez utiliser des variables d'environnement pour changer le nom de l'auteur, du committer, les dates, etc. -- voir la section "Variables d'environnement" de la page de manuel de git.
Spécifiquement, vous pouvez corriger tous les noms d'auteurs et les courriels erronés pour toutes les branches et tous les tags avec cette commande (source : GitHub help) :
```
#!/bin/sh
git filter-branch --env-filter '
OLD_EMAIL="[email protected]"
CORRECT_NAME="Votre nom correct"
CORRECT_EMAIL="[email protected]"
if [ "$GIT_COMMITTER_EMAIL" = "$OLD_EMAIL" ]
then
export GIT_COMMITTER_NAME="$CORRECT_NAME"
export GIT_COMMITTER_EMAIL="$CORRECT_EMAIL"
fi
if [ "$GIT_AUTHOR_EMAIL" = "$OLD_EMAIL" ]
then
export GIT_AUTHOR_NAME="$CORRECT_NAME"
export GIT_AUTHOR_EMAIL="$CORRECT_EMAIL"
fi
' --tag-name-filter cat -- --branches --tags
```
Pour utiliser l'outil alternatif de filtrage de l'historique `git filter-repo`, vous pouvez d'abord l'installer et construire un `git-mailmap` selon le format de `gitmailmap`.
```
Nom propre <[email protected]> Nom du commit <[email protected]>
```
Ensuite, lancez filter-repo avec le mailmap créé :
```
git filter-repo --mailmap git-mailmap
``` | Come posso cambiare il nome/email dell'autore e del committer per più commit? | Ecco la soluzione, ma fate attenzione se avete un repository multiutente: questo cambierà tutti i commit in modo che abbiano lo stesso (nuovo) autore e committer.
```
git filter-branch -f --env-filter "
GIT_AUTHOR_NAME='Newname'
GIT_AUTHOR_EMAIL='new@email'
GIT_COMMITTER_NAME='Nome nuovo'
GIT_COMMITTER_EMAIL='new@email'
" TESTA
```
Cambiare l'autore (o il committer) richiederebbe la riscrittura di tutta la cronologia. Se si è d'accordo con questo e si pensa che ne valga la pena, si dovrebbe dare un'occhiata a git filter-branch. La pagina del manuale include diversi esempi per iniziare. Si noti anche che si possono usare le variabili d'ambiente per cambiare il nome dell'autore, del committer, delle date, ecc. -- si veda la sezione "Variabili d'ambiente" della pagina di manuale di git.
In particolare, è possibile correggere tutti i nomi degli autori e le email sbagliate per tutti i rami e i tag con questo comando (fonte: guida GitHub):
```
#!/bin/sh
git filter-branch --env-filter '
OLD_EMAIL="[email protected]"
CORRECT_NAME="Il tuo nome corretto".
CORRECT_EMAIL="[email protected]"
se [ "$GIT_COMMITTER_EMAIL" = "$OLD_EMAIL" ]
allora
esportare GIT_COMMITTER_NAME="$CORRECT_NAME".
esportare GIT_COMMITTER_EMAIL="$CORRETTO_EMAIL"
fi
se [ "$GIT_AUTHOR_EMAIL" = "$OLD_EMAIL" ]
allora
esportare GIT_AUTHOR_NAME="$NOME_CORRETTO"
esportare GIT_AUTHOR_EMAIL="$CORRECT_EMAIL"
fi
' --tag-name-filter cat -- --branches --tags
```
Per usare lo strumento alternativo di filtraggio della cronologia `git filter-repo`, si può prima installarlo e costruire una `git-mailmap` secondo il formato di `gitmailmap`.
```
Nome proprio <[email protected]> Nome impegno <[email protected]>
```
E poi eseguire filter-repo con la mailmap creata:
```
git filter-repo --mailmap git-mailmap
``` |
299 | This summer I will be taking a rather inherently dangerous multi-day hike by myself. I was considering buying a flare gun since I will be out of cellular range unless there is something more modern and equally reliable. Any suggestions? | In increasing order of complexity and price you have,
* Personal Locator Beacons
Personal locator beacons are high-powered (typically, 5 watts) devices designed primarily to send out a personalized emergency distress signal. They generally require an open view of the sky to transmit successfully.
* Satellite Messengers (Like a Garmin inReach)
Much like PLBs, satellite messengers are handheld transmitting devices that are useful in backcountry areas far from reliable cell phone coverage. These user-friendly devices allow you to communicate short text messages and/or your location coordinates with friends or family back home so you can report on your trip’s status or, in an emergency, send calls for help.
* Satellite Phones
A satellite telephone, satellite phone, or satphone is a type of mobile phone that connects to orbiting satellites instead of terrestrial cell sites. They provide similar functionality to terrestrial mobile telephones; voice, short messaging service and low-bandwidth internet access are supported through most systems.
None of these are a substitute for good judgement and the electronics can fail or run out of batteries, but they would be the modern equivalent of a flare gun. | Diesen Sommer werde ich eine ziemlich gefährliche mehrtägige Wanderung alleine unternehmen. Ich habe überlegt, eine Leuchtpistole zu kaufen, da ich außerhalb der Reichweite von Handys sein werde, es sei denn, es gibt etwas Moderneres und ebenso Zuverlässiges. Irgendwelche Vorschläge? | In aufsteigender Reihenfolge von Komplexität und Preis haben Sie,
* Persönliche Ortungsbaken (Personal Locator Beacons)
Personenortungsbaken sind Hochleistungsgeräte (in der Regel 5 Watt), die in erster Linie dazu dienen, ein persönliches Notrufsignal zu senden. Sie benötigen im Allgemeinen eine freie Sicht auf den Himmel, um erfolgreich zu senden.
* Satelliten-Messenger (wie Garmin inReach)
Ähnlich wie PLBs sind Satelliten-Messenger tragbare Sendegeräte, die in Gegenden im Hinterland nützlich sind, in denen es keinen zuverlässigen Handyempfang gibt. Mit diesen benutzerfreundlichen Geräten können Sie kurze Textnachrichten und/oder Ihre Standortkoordinaten an Freunde oder Familienangehörige zu Hause übermitteln, um über den Status Ihrer Reise zu berichten oder im Notfall einen Hilferuf abzusetzen.
* Satellitentelefone
Ein Satellitentelefon, Satellitentelefon oder Satellitentelefon ist eine Art Mobiltelefon, das eine Verbindung zu Satelliten in der Erdumlaufbahn herstellt und nicht zu terrestrischen Mobilfunkstandorten. Sie bieten ähnliche Funktionen wie terrestrische Mobiltelefone; die meisten Systeme unterstützen Sprache, Kurznachrichtendienste und Internetzugang mit geringer Bandbreite.
Nichts davon ist ein Ersatz für ein gutes Urteilsvermögen, und die Elektronik kann ausfallen oder die Batterien sind leer, aber sie wären das moderne Äquivalent einer Leuchtpistole. | Este verano voy a hacer una excursión bastante peligrosa de varios días yo solo. Me estaba planteando comprar una pistola de bengalas ya que estaré fuera del alcance de los móviles a no ser que haya algo más moderno e igual de fiable. ¿Alguna sugerencia? | En orden creciente de complejidad y precio tienes,
* Balizas de localización personal
Las balizas de localización personal son dispositivos de alta potencia (normalmente, 5 vatios) diseñados principalmente para enviar una señal de socorro de emergencia personalizada. Generalmente requieren una vista abierta del cielo para transmitir con éxito.
* Mensajeros por satélite (como Garmin inReach)
Al igual que los PLB, los mensajeros por satélite son dispositivos de transmisión portátiles que resultan útiles en zonas de montaña alejadas de una cobertura fiable de telefonía móvil. Estos dispositivos de fácil uso te permiten comunicar mensajes de texto cortos y/o las coordenadas de tu ubicación con amigos o familiares en casa para que puedas informar sobre el estado de tu viaje o, en caso de emergencia, enviar llamadas de auxilio.
* Teléfonos por satélite
Un teléfono por satélite o satelital es un tipo de teléfono móvil que se conecta a satélites en órbita en lugar de a células terrestres. Ofrecen funciones similares a las de los teléfonos móviles terrestres: voz, servicio de mensajes cortos y acceso a Internet de bajo ancho de banda en la mayoría de los sistemas.
Nada de esto sustituye al buen juicio y los componentes electrónicos pueden fallar o quedarse sin pilas, pero serían el equivalente moderno de una pistola de bengalas. | Cet été, je vais faire une randonnée de plusieurs jours, assez dangereuse par nature, tout seul. J'envisageais d'acheter un pistolet lance-fusées puisque je serai hors de portée des téléphones portables, à moins qu'il n'existe quelque chose de plus moderne et de tout aussi fiable. Des suggestions ? | Par ordre croissant de complexité et de prix,
* les balises de localisation personnelle
Les balises de localisation personnelle sont des appareils de grande puissance (généralement 5 watts) conçus principalement pour envoyer un signal de détresse personnalisé. Elles ont généralement besoin d'une vue dégagée du ciel pour émettre avec succès.
* Messagers par satellite (comme Garmin inReach)
Tout comme les BLP, les messagers satellites sont des appareils de transmission portatifs qui sont utiles dans les zones de l'arrière-pays éloignées d'une couverture fiable par téléphone cellulaire. Ces appareils conviviaux vous permettent de communiquer de courts messages texte et/ou les coordonnées de votre position à vos amis ou à votre famille restés à la maison, afin que vous puissiez rendre compte de l'état de votre voyage ou, en cas d'urgence, envoyer des appels à l'aide.
* Téléphones satellites
Un téléphone satellite est un type de téléphone mobile qui se connecte à des satellites en orbite plutôt qu'à des sites cellulaires terrestres. Ils offrent des fonctionnalités similaires à celles des téléphones mobiles terrestres ; la voix, les services de messagerie courte et l'accès à l'internet à faible bande passante sont pris en charge par la plupart des systèmes.
Rien de tout cela ne remplace un bon jugement et l'électronique peut tomber en panne ou s'épuiser, mais ils seraient l'équivalent moderne d'un pistolet lance-fusées. | Quest'estate farò da solo un'escursione di più giorni piuttosto pericolosa. Stavo considerando l'acquisto di una pistola lanciarazzi, dato che sarò fuori dal raggio d'azione del cellulare, a meno che non ci sia qualcosa di più moderno e ugualmente affidabile. Qualche suggerimento? | In ordine crescente di complessità e prezzo si hanno,
* Beacon di localizzazione personale
I localizzatori personali sono dispositivi ad alta potenza (in genere 5 watt) progettati principalmente per inviare un segnale di emergenza personalizzato. In genere richiedono una vista aperta sul cielo per trasmettere con successo.
* Messaggeri satellitari (come Garmin inReach)
Come i PLB, i messaggeri satellitari sono dispositivi di trasmissione portatili utili nelle zone di montagna lontane da una copertura cellulare affidabile. Questi dispositivi di facile utilizzo consentono di comunicare brevi messaggi di testo e/o le coordinate della vostra posizione ad amici o familiari a casa, in modo da poter riferire sullo stato della vostra escursione o, in caso di emergenza, inviare richieste di aiuto.
* Telefoni satellitari
Un telefono satellitare, un telefono satellitare o un satphone è un tipo di telefono cellulare che si collega ai satelliti in orbita invece che ai siti cellulari terrestri. Forniscono funzionalità simili a quelle dei telefoni cellulari terrestri; la voce, il servizio di messaggistica breve e l'accesso a Internet a bassa larghezza di banda sono supportati dalla maggior parte dei sistemi.
Nessuno di questi sistemi sostituisce il buon senso e l'elettronica può guastarsi o esaurire le batterie, ma sarebbero l'equivalente moderno di una pistola lanciarazzi. |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.