id_numeric
int64
0
1.03k
en_input
stringlengths
12
7.84k
en_output
stringlengths
15
17.7k
de_input
stringlengths
13
8.96k
de_output
stringlengths
15
21.1k
es_input
stringlengths
16
8.77k
es_output
stringlengths
15
18.6k
fr_input
stringlengths
15
9.16k
fr_output
stringlengths
15
20.6k
it_input
stringlengths
8
8.7k
it_output
stringlengths
15
19.6k
100
The following article from CNN describes a Michigan police officer being put on administrative leave for having KKK material at his home: https://www.cnn.com/2019/08/10/us/michigan-officer-placed-on-leave-kkk-document-house/index.html. The materials were discovered while a potential buyer was touring his house. Although I vehemently condemn the KKK, doesn't this officer have the right to display whatever he wants in his home so long as it doesn't actively and deliberately call for violence? Aren't these articles protected under the first amendment? I realize this is an extreme example, and as a police officer his job requires interacting with all races, but unless it can be shown that he's bigoted and that it negatively affected his job performance, isn't it illegal to fire him? Employers can restrict speech according to company policy while at work, but we all have to go home at some point. Can those restrictions follow us after clocking out?
In general, employers in the United States are free to fire you for your speech. The First Amendment does not apply to anyone except the government (other than a narrow set of circumstances where private parties act on behalf of the government or take on government roles, like when private universities employ campus police). If the officer was being fired from a job at a private company, this would not be an interesting question -- the answer would clearly be "no, there is no First Amendment claim here." That’s not to say labor laws might not come into play (for instance, federal law prohibits firing an employee for organizing a union, and some states prohibit firing for off-duty political speech); however, labor law protections exist by statute and are not derived from the First Amendment. What makes this interesting is that the government is involved. Unlike private employers, government agencies are bound by the First Amendment. In Pickering v. Board of Education, the Supreme Court held that this does restrict them in their role as employer and that they can't necessarily fire an employee for speech. Pickering imposes a balancing test, where the harm to the employee's First Amendment rights is weighed against the government's interest in efficient operation. Courts have given particular leeway to police departments punishing speech that would undermine public trust and confidence in the department. A police officer expressing racist views, even privately, can seriously hamper the effectiveness of the department if the speech gets linked back to them. For instance, see Pappas v. Giuliani, where the Second Circuit upheld the firing of an NYPD officer for anonymously mailing racist diatribes from home in his off-duty time. Another answer suggests that the main question is a public safety one: whether the officer could be trusted to carry out his duties without bias. But that's not the only legitimate consideration for the government employer. The courts have repeatedly held that public perception of an agency is a legitimate concern, especially when it comes to agencies (like the police) whose job requires maintaining good relations with the community. In Pappas, the officer was assigned as a computer operator who had no contact with the public, but he was still a police officer whose speech had a high potential to undermine NYPD community relations.
Der folgende Artikel von CNN beschreibt einen Polizeibeamten aus Michigan, der wegen der Aufbewahrung von KKK-Material in seinem Haus beurlaubt wurde: https://www.cnn.com/2019/08/10/us/michigan-officer-placed-on-leave-kkk-document-house/index.html. Die Materialien wurden entdeckt, als ein potenzieller Käufer sein Haus besichtigte. Obwohl ich den KKK vehement verurteile, hat dieser Beamte nicht das Recht, in seinem Haus auszustellen, was er will, solange es nicht aktiv und absichtlich zur Gewalt aufruft? Sind diese Artikel nicht durch den ersten Verfassungszusatz geschützt? Mir ist klar, dass dies ein extremes Beispiel ist und dass er als Polizeibeamter in seinem Job mit allen Rassen zu tun hat, aber solange nicht bewiesen werden kann, dass er bigott ist und dass dies seine Arbeitsleistung beeinträchtigt, ist es dann nicht illegal, ihn zu entlassen? Arbeitgeber können die Meinungsäußerung während der Arbeit gemäß den Unternehmensrichtlinien einschränken, aber wir alle müssen irgendwann nach Hause gehen. Können diese Einschränkungen auch nach dem Feierabend gelten?
Im Allgemeinen steht es den Arbeitgebern in den Vereinigten Staaten frei, Sie wegen Ihrer Äußerungen zu entlassen. Der erste Verfassungszusatz gilt für niemanden außer für die Regierung (abgesehen von einigen wenigen Fällen, in denen private Parteien im Namen der Regierung handeln oder staatliche Aufgaben übernehmen, z. B. wenn private Universitäten Campus-Polizisten beschäftigen). Wenn der Beamte von einem Job in einem privaten Unternehmen entlassen worden wäre, wäre dies keine interessante Frage - die Antwort würde eindeutig lauten: "Nein, hier gibt es keinen Anspruch auf den Ersten Verfassungszusatz." Das soll nicht heißen, dass Arbeitsgesetze nicht ins Spiel kommen könnten (zum Beispiel verbietet das Bundesgesetz die Entlassung eines Angestellten wegen der Gründung einer Gewerkschaft, und einige Bundesstaaten verbieten die Entlassung wegen politischer Äußerungen außerhalb des Dienstes); der arbeitsrechtliche Schutz ist jedoch gesetzlich geregelt und leitet sich nicht aus dem Ersten Verfassungszusatz ab. Das Interessante an diesem Fall ist, dass die Regierung involviert ist. Im Gegensatz zu privaten Arbeitgebern sind staatliche Stellen an den Ersten Verfassungszusatz gebunden. In der Rechtssache Pickering v. Board of Education entschied der Oberste Gerichtshof, dass dies ihre Rolle als Arbeitgeber einschränkt und dass sie einen Angestellten nicht unbedingt wegen einer Rede entlassen können. Pickering schreibt eine Abwägungsprüfung vor, bei der die Beeinträchtigung der Rechte des Angestellten nach dem Ersten Verfassungszusatz gegen das Interesse der Regierung an einem effizienten Betrieb abgewogen wird. Die Gerichte haben den Polizeidienststellen einen besonderen Spielraum eingeräumt, wenn sie Äußerungen bestrafen, die das öffentliche Vertrauen in die Dienststelle untergraben würden. Ein Polizeibeamter, der rassistische Ansichten äußert, selbst wenn er dies privat tut, kann die Effizienz der Behörde ernsthaft beeinträchtigen, wenn die Äußerungen mit ihr in Verbindung gebracht werden. Siehe z. B. Pappas gegen Giuliani, wo der Zweite Gerichtshof die Entlassung eines NYPD-Beamten bestätigte, weil er in seiner dienstfreien Zeit anonym rassistische Tiraden von zu Hause aus verschickt hatte. Eine andere Antwort deutet darauf hin, dass die Hauptfrage eine Frage der öffentlichen Sicherheit ist: ob man dem Beamten zutrauen kann, dass er seine Aufgaben unvoreingenommen ausführt. Aber das ist nicht die einzige legitime Überlegung des staatlichen Arbeitgebers. Die Gerichte haben wiederholt entschieden, dass die öffentliche Wahrnehmung einer Behörde ein legitimes Anliegen ist, insbesondere wenn es sich um Behörden (wie die Polizei) handelt, deren Aufgabe es ist, gute Beziehungen zur Gemeinschaft zu pflegen. In der Rechtssache Pappas war der Beamte als Computerbediener eingesetzt, der keinen Kontakt mit der Öffentlichkeit hatte, aber er war dennoch ein Polizeibeamter, dessen Äußerungen das Potenzial hatten, die Beziehungen der NYPD zur Bevölkerung zu untergraben.
El siguiente artículo de la CNN describe la baja administrativa de un policía de Michigan por tener material del KKK en su casa: https://www.cnn.com/2019/08/10/us/michigan-officer-placed-on-leave-kkk-document-house/index.html. Los materiales fueron descubiertos mientras un comprador potencial visitaba su casa. Aunque condeno vehementemente al KKK, ¿no tiene derecho este agente a exhibir lo que quiera en su casa siempre que no haga un llamamiento activo y deliberado a la violencia? ¿No están estos artículos protegidos por la Primera Enmienda? Soy consciente de que se trata de un ejemplo extremo y de que, como agente de policía, su trabajo requiere interactuar con todas las razas, pero a menos que pueda demostrarse que es intolerante y que ello afecta negativamente a su rendimiento laboral, ¿no es ilegal despedirle? Los empresarios pueden restringir la libertad de expresión en el trabajo, pero todos tenemos que irnos a casa en algún momento. ¿Pueden esas restricciones seguirnos después de fichar?
En general, los empleadores de Estados Unidos son libres de despedir a alguien por sus declaraciones. La Primera Enmienda no se aplica a nadie excepto al gobierno (salvo en un reducido conjunto de circunstancias en las que los particulares actúan en nombre del gobierno o asumen funciones gubernamentales, como cuando las universidades privadas contratan a la policía universitaria). Si el agente estuviera siendo despedido de un trabajo en una empresa privada, esto no sería una cuestión interesante - la respuesta sería claramente "no, no hay reclamación de la Primera Enmienda aquí". Eso no quiere decir que las leyes laborales no puedan entrar en juego (por ejemplo, la ley federal prohíbe despedir a un empleado por organizar un sindicato, y algunos estados prohíben el despido por discursos políticos fuera de servicio); sin embargo, las protecciones de las leyes laborales existen por ley y no se derivan de la Primera Enmienda. Lo que lo hace interesante es que está implicada la Administración. A diferencia de los empleadores privados, los organismos públicos están sujetos a la Primera Enmienda. En Pickering contra el Consejo de Educación, el Tribunal Supremo sostuvo que esto sí les restringe en su papel de empleador y que no necesariamente pueden despedir a un empleado por su expresión. Pickering impone una prueba de equilibrio, en la que el perjuicio a los derechos del empleado amparados por la Primera Enmienda se sopesa con el interés del gobierno en un funcionamiento eficiente. Los tribunales han concedido un margen de maniobra especial a los departamentos de policía que sancionan expresiones que socavan la confianza del público en el departamento. Un agente de policía que exprese opiniones racistas, incluso en privado, puede obstaculizar seriamente la eficacia del departamento si el discurso se relaciona con él. Por ejemplo, véase Pappas contra Giuliani, donde el Segundo Circuito confirmó el despido de un agente de policía de Nueva York por enviar anónimamente diatribas racistas desde su casa cuando no estaba de servicio. Otra respuesta sugiere que la cuestión principal es la seguridad pública: si se puede confiar en que el agente desempeñe sus funciones sin prejuicios. Pero esa no es la única consideración legítima para el empleador gubernamental. Los tribunales han sostenido en repetidas ocasiones que la percepción pública de un organismo es una preocupación legítima, especialmente cuando se trata de organismos (como la policía) cuyo trabajo requiere mantener buenas relaciones con la comunidad. En el caso Pappas, el agente estaba destinado como operador informático que no tenía contacto con el público, pero seguía siendo un agente de policía cuyo discurso tenía un alto potencial para socavar las relaciones de la policía de Nueva York con la comunidad.
L'article suivant, publié par CNN, décrit la mise en congé administratif d'un policier du Michigan pour avoir conservé à son domicile des documents relatifs au KKK : https://www.cnn.com/2019/08/10/us/michigan-officer-placed-on-leave-kkk-document-house/index.html. Le matériel a été découvert alors qu'un acheteur potentiel visitait sa maison. Bien que je condamne avec véhémence le KKK, ce policier n'a-t-il pas le droit d'exposer ce qu'il veut chez lui tant que cela n'appelle pas activement et délibérément à la violence ? Ces articles ne sont-ils pas protégés par le premier amendement ? Je suis conscient qu'il s'agit d'un exemple extrême et qu'en tant qu'officier de police, son travail nécessite d'interagir avec toutes les races, mais à moins que l'on puisse prouver qu'il est sectaire et que cela a affecté négativement ses performances professionnelles, n'est-il pas illégal de le licencier ? Les employeurs peuvent restreindre la liberté d'expression conformément à la politique de l'entreprise sur le lieu de travail, mais nous devons tous rentrer chez nous à un moment ou à un autre. Ces restrictions peuvent-elles nous suivre après notre départ ?
En général, les employeurs aux États-Unis sont libres de vous licencier pour vos propos. Le premier amendement ne s'applique à personne d'autre qu'au gouvernement (à l'exception d'un petit nombre de circonstances où des parties privées agissent au nom du gouvernement ou assument des rôles gouvernementaux, comme lorsque des universités privées emploient la police du campus). Si l'agent était licencié d'un emploi dans une entreprise privée, la question ne serait pas intéressante : la réponse serait clairement "non, il n'y a pas de revendication au titre du premier amendement dans ce cas". Cela ne veut pas dire que le droit du travail ne peut pas entrer en ligne de compte (par exemple, la loi fédérale interdit de licencier un employé pour avoir organisé un syndicat, et certains États interdisent de licencier un employé pour avoir tenu des propos politiques en dehors de ses heures de travail) ; toutefois, les protections du droit du travail sont prévues par la loi et ne découlent pas du premier amendement. Ce qui rend cette affaire intéressante, c'est que le gouvernement est impliqué. Contrairement aux employeurs privés, les agences gouvernementales sont liées par le premier amendement. Dans l'affaire Pickering v. Board of Education, la Cour suprême a estimé que cela les limitait dans leur rôle d'employeur et qu'ils ne pouvaient pas nécessairement licencier un employé pour ses propos. L'arrêt Pickering impose un test d'équilibre, dans lequel l'atteinte aux droits du premier amendement de l'employé est mise en balance avec l'intérêt du gouvernement à fonctionner efficacement. Les tribunaux ont accordé une marge de manœuvre particulière aux services de police qui sanctionnent des propos susceptibles de saper la confiance du public dans le service. Un policier exprimant des opinions racistes, même en privé, peut sérieusement entraver l'efficacité du service si ces propos lui sont associés. Voir, par exemple, l'affaire Pappas v. Giuliani, dans laquelle la deuxième instance a confirmé le licenciement d'un agent de la police de New York pour avoir envoyé anonymement des diatribes racistes depuis son domicile en dehors de ses heures de service. Une autre réponse suggère que la question principale est celle de la sécurité publique, à savoir si l'on peut faire confiance à l'agent pour exercer ses fonctions sans parti pris. Mais ce n'est pas la seule considération légitime pour l'employeur public. Les tribunaux ont affirmé à plusieurs reprises que la perception d'une agence par le public est une préoccupation légitime, en particulier lorsqu'il s'agit d'agences (comme la police) dont le travail exige de maintenir de bonnes relations avec la communauté. Dans l'affaire Pappas, l'agent était affecté à un poste d'opérateur informatique qui n'avait aucun contact avec le public, mais il n'en restait pas moins un agent de police dont les propos risquaient fortement de nuire aux relations de la police de New York avec la communauté.
Il seguente articolo della CNN descrive un ufficiale di polizia del Michigan che è stato messo in congedo amministrativo per aver tenuto del materiale del KKK nella sua casa: https://www.cnn.com/2019/08/10/us/michigan-officer-placed-on-leave-kkk-document-house/index.html. Il materiale è stato scoperto mentre un potenziale acquirente stava visitando la sua casa. Sebbene io condanni con veemenza il KKK, questo agente non ha forse il diritto di esporre qualsiasi cosa voglia nella sua casa, a patto che non inciti attivamente e deliberatamente alla violenza? Questi articoli non sono protetti dal primo emendamento? Mi rendo conto che si tratta di un esempio estremo e che, in quanto agente di polizia, il suo lavoro richiede di interagire con tutte le razze, ma a meno che non si possa dimostrare che è bigotto e che ciò ha influito negativamente sulle sue prestazioni lavorative, non è illegale licenziarlo? I datori di lavoro possono limitare la libertà di parola secondo la politica aziendale mentre sono al lavoro, ma tutti noi dobbiamo andare a casa prima o poi. Queste restrizioni possono seguirci anche dopo aver timbrato il cartellino?
In generale, negli Stati Uniti i datori di lavoro sono liberi di licenziarvi per il vostro discorso. Il Primo Emendamento non si applica a nessuno, tranne che al governo (a parte una ristretta serie di circostanze in cui i privati agiscono per conto del governo o assumono ruoli governativi, come quando le università private assumono la polizia del campus). Se l'agente fosse stato licenziato da un lavoro presso un'azienda privata, la questione non sarebbe interessante: la risposta sarebbe chiaramente "no, non c'è alcuna rivendicazione del Primo Emendamento". Questo non vuol dire che le leggi sul lavoro non possano entrare in gioco (per esempio, la legge federale proibisce di licenziare un dipendente per aver organizzato un sindacato, e alcuni Stati proibiscono il licenziamento per discorsi politici fuori dal servizio); tuttavia, le tutele del diritto del lavoro esistono per statuto e non derivano dal Primo Emendamento. L'aspetto interessante è che è coinvolto il governo. A differenza dei datori di lavoro privati, le agenzie governative sono vincolate dal Primo Emendamento. Nella causa Pickering v. Board of Education, la Corte Suprema ha stabilito che questo limita il loro ruolo di datori di lavoro e che non possono necessariamente licenziare un dipendente per un discorso. Pickering impone un test di bilanciamento, in cui il danno ai diritti del Primo Emendamento del dipendente viene soppesato con l'interesse del governo a un funzionamento efficiente. I tribunali hanno dato particolare spazio ai dipartimenti di polizia che puniscono i discorsi che minano la fiducia del pubblico nel dipartimento. Un agente di polizia che esprime opinioni razziste, anche privatamente, può ostacolare seriamente l'efficacia del dipartimento se il discorso viene ricondotto a lui. Si veda, ad esempio, la causa Pappas contro Giuliani, in cui il Secondo Circuito ha confermato il licenziamento di un agente di polizia di New York per aver inviato anonimamente diatribe razziste da casa nel tempo libero dal servizio. Un'altra risposta suggerisce che la questione principale è quella della sicurezza pubblica: se ci si può fidare che l'agente svolga i suoi compiti senza pregiudizi. Ma questa non è l'unica considerazione legittima per il datore di lavoro pubblico. I tribunali hanno ripetutamente affermato che la percezione pubblica di un'agenzia è una preoccupazione legittima, soprattutto quando si tratta di agenzie (come la polizia) il cui lavoro richiede di mantenere buoni rapporti con la comunità. Nel caso di Pappas, l'agente era stato assegnato a un operatore informatico che non aveva contatti con il pubblico, ma era comunque un agente di polizia il cui discorso aveva un alto potenziale di compromettere le relazioni con la comunità della polizia di New York.
101
What does strength refer to in mathematics? Is it a formal idea?
Suppose you have a theorem that says "If $X$, then $Y$." There are two ways to strengthen such a theorem: * Assume less. If you can reduce the number of hypotheses, but still prove the same conclusion, then you have proved a more "powerful" result (in the sense that it applies in more situations). * Prove more. If you can keep the same hypotheses, but add more information to the conclusion, then you have also produced a more "powerful" result. Here is an easy example from Geometry. Let $ABCD$ be a (non-square) rectangle. Then the internal angle bisectors of the vertices intersect at four points $WXYZ$, which are the vertices of a rectangle. (You need the condition that $ABCD$ is not a square because if it is a square then all four angle bisectors coincide at a single point.) Here are a few ways to strengthen the theorem: * The hypothesis "$ABCD$ is a (non-square) rectangle" can be relaxed to the more general "$ABCD$ is a (non-rhombic) parallelogram". The conclusion that $WXYZ$ is a rectangle still holds. * Alternatively, you can keep the original hypothesis that $ABCD$ is a (non-square) rectangle, and strengthen to the conclusion to say that $WXYZ$ is not just a rectangle, but a square. * Having done that, you can then strengthen the conclusion of the theorem even more, by noting that the diagonal of square $WXYZ$ is equal in length to the difference of the lengths of the sides of $ABCD$. * Once you know that, you can now strengthen the theorem even more by (finally) removing the hypothesis that $ABCD$ is non-square, and including the case in which the four angle bisectors coincide at a single point as forming a "degenerate" square with a diagonal of length zero.
Was versteht man in der Mathematik unter Stärke? Ist sie eine formale Idee?
Angenommen, man hat einen Satz, der besagt: "Wenn $X$, dann $Y$." Es gibt zwei Möglichkeiten, ein solches Theorem zu stärken: * Nehmen Sie weniger an. Wenn Sie die Anzahl der Hypothesen reduzieren können, aber immer noch die gleiche Schlussfolgerung beweisen können, dann haben Sie ein "stärkeres" Ergebnis bewiesen (in dem Sinne, dass es in mehr Situationen gilt). * Mehr beweisen. Wenn Sie dieselben Hypothesen beibehalten können, aber mehr Informationen zu der Schlussfolgerung hinzufügen, dann haben Sie ebenfalls ein "stärkeres" Ergebnis erzielt. Hier ist ein einfaches Beispiel aus der Geometrie. Sei $ABCD$ ein (nicht quadratisches) Rechteck. Dann schneiden sich die inneren Winkelhalbierenden der Eckpunkte in vier Punkten $WXYZ$, die die Eckpunkte eines Rechtecks sind. (Man braucht die Bedingung, dass $ABCD$ kein Quadrat ist, denn wenn es ein Quadrat ist, dann fallen alle vier Winkelhalbierenden in einem einzigen Punkt zusammen.) Hier sind ein paar Möglichkeiten, den Satz zu verstärken: * Die Hypothese "$ABCD$ ist ein (nicht-quadratisches) Rechteck" kann zu der allgemeineren Hypothese "$ABCD$ ist ein (nicht-rhombisches) Parallelogramm" gelockert werden. Die Schlussfolgerung, dass $WXYZ$ ein Rechteck ist, gilt immer noch. * Alternativ kann man die ursprüngliche Hypothese beibehalten, dass $ABCD$ ein (nicht-quadratisches) Rechteck ist, und die Schlussfolgerung dahingehend verstärken, dass $WXYZ$ nicht nur ein Rechteck, sondern ein Quadrat ist. * Danach kann man die Schlussfolgerung des Satzes noch verstärken, indem man feststellt, dass die Diagonale des Quadrats $WXYZ$ gleich lang ist wie die Differenz der Seitenlängen von $ABCD$. * Wenn man das weiß, kann man den Satz noch verstärken, indem man (endlich) die Hypothese aufgibt, dass $ABCD$ nicht quadratisch ist, und den Fall einbezieht, in dem die vier Winkelhalbierenden in einem einzigen Punkt zusammenfallen und ein "entartetes" Quadrat mit einer Diagonale der Länge Null bilden.
¿A qué se refiere la fuerza en matemáticas? ¿Es una idea formal?
Supongamos que tenemos un teorema que dice "Si $X$, entonces $Y$". Hay dos maneras de reforzar dicho teorema: * Suponer menos cosas. Si puede reducir el número de hipótesis, pero sigue demostrando la misma conclusión, entonces ha demostrado un resultado más "potente" (en el sentido de que se aplica en más situaciones). * Demostrar más. Si puede mantener las mismas hipótesis, pero añadir más información a la conclusión, entonces también habrá obtenido un resultado más "potente". He aquí un ejemplo sencillo de Geometría. Sea $ABCD$ un rectángulo (no cuadrado). Entonces las bisectrices de los ángulos internos de los vértices se cruzan en cuatro puntos $WXYZ$, que son los vértices de un rectángulo. (Necesitas la condición de que $ABCD$ no sea un cuadrado porque si lo es entonces las cuatro bisectrices de ángulos coinciden en un único punto). Aquí tienes algunas formas de reforzar el teorema: * La hipótesis "$ABCD$ es un rectángulo (no cuadrado)" puede relajarse a la más general "$ABCD$ es un paralelogramo (no rómbico)". La conclusión de que $WXYZ$ es un rectángulo sigue siendo válida. * Alternativamente, se puede mantener la hipótesis original de que $ABCD$ es un rectángulo (no cuadrado), y reforzar la conclusión para decir que $WXYZ$ no es sólo un rectángulo, sino un cuadrado. * Una vez hecho esto, se puede reforzar aún más la conclusión del teorema, observando que la diagonal del cuadrado $WXYZ$ es igual en longitud a la diferencia de las longitudes de los lados de $ABCD$. * Una vez sabido esto, se puede reforzar aún más el teorema eliminando (por fin) la hipótesis de que $ABCD$ no es cuadrado, e incluyendo el caso en que las cuatro bisectrices de los ángulos coinciden en un único punto como formando un cuadrado "degenerado" con una diagonal de longitud cero.
Qu'est-ce que la force en mathématiques ? S'agit-il d'une idée formelle ?
Supposons que vous ayez un théorème qui dit "Si $X$, alors $Y$". Il y a deux façons de renforcer un tel théorème : * En supposant moins d'hypothèses. Si vous pouvez réduire le nombre d'hypothèses, tout en prouvant la même conclusion, vous avez prouvé un résultat plus "puissant" (dans le sens où il s'applique à un plus grand nombre de situations). * Prouver davantage. Si vous pouvez conserver les mêmes hypothèses, mais ajouter plus d'informations à la conclusion, vous avez également produit un résultat plus "puissant". Voici un exemple simple tiré de la géométrie. Soit $ABCD$ un rectangle (non carré). Les bissectrices des angles internes des sommets se coupent en quatre points $WXYZ$, qui sont les sommets d'un rectangle. (Vous avez besoin de la condition selon laquelle $ABCD$ n'est pas un carré car si c'est un carré, les quatre bissectrices d'angle coïncident en un seul point). Voici quelques façons de renforcer le théorème : * L'hypothèse "$ABCD$ est un rectangle (non carré)" peut être assouplie pour devenir plus générale "$ABCD$ est un parallélogramme (non rhombique)". La conclusion selon laquelle $WXYZ$ est un rectangle reste valable. * Vous pouvez également conserver l'hypothèse initiale selon laquelle $ABCD$ est un rectangle (non carré) et renforcer la conclusion pour dire que $WXYZ$ n'est pas seulement un rectangle, mais un carré. * Une fois que vous avez fait cela, vous pouvez renforcer la conclusion du théorème en notant que la diagonale du carré $WXYZ$ est égale à la différence des longueurs des côtés de $ABCD$. * Une fois que vous savez cela, vous pouvez encore renforcer le théorème en supprimant (enfin) l'hypothèse selon laquelle $ABCD$ n'est pas un carré, et en incluant le cas où les quatre bissectrices des angles coïncident en un seul point comme formant un carré "dégénéré" avec une diagonale de longueur nulle.
A cosa si riferisce la forza in matematica? È un'idea formale?
Supponiamo di avere un teorema che dice "Se $X$, allora $Y$". Ci sono due modi per rafforzare un teorema di questo tipo: * Fare meno ipotesi. Se si riesce a ridurre il numero di ipotesi, pur dimostrando la stessa conclusione, allora si è dimostrato un risultato più "potente" (nel senso che si applica in più situazioni). * Dimostrare di più. Se si possono mantenere le stesse ipotesi, ma aggiungere più informazioni alla conclusione, si è ottenuto un risultato più "potente". Ecco un facile esempio tratto dalla geometria. Sia $ABCD$ un rettangolo (non quadrato). Le bisettrici degli angoli interni dei vertici si intersecano in quattro punti $WXYZ$, che sono i vertici di un rettangolo. (È necessaria la condizione che $ABCD$ non sia un quadrato, perché se è un quadrato tutte e quattro le bisettrici degli angoli coincidono in un unico punto). Ecco alcuni modi per rafforzare il teorema: * L'ipotesi "$ABCD$ è un rettangolo (non quadrato)" può essere attenuata con la più generale "$ABCD$ è un parallelogramma (non rombico)". La conclusione che $WXYZ$ è un rettangolo è ancora valida. * In alternativa, si può mantenere l'ipotesi originale che $ABCD$ è un rettangolo (non quadrato) e rafforzare la conclusione per dire che $WXYZ$ non è solo un rettangolo, ma un quadrato. * Una volta fatto ciò, è possibile rafforzare ulteriormente la conclusione del teorema, notando che la diagonale del quadrato $WXYZ$ è di lunghezza pari alla differenza delle lunghezze dei lati di $ABCD$. * Una volta appurato ciò, è possibile rafforzare ulteriormente il teorema eliminando (finalmente) l'ipotesi che $ABCD$ non sia quadrato e includendo il caso in cui le quattro bisettrici degli angoli coincidano in un unico punto, formando un quadrato "degenere" con una diagonale di lunghezza zero.
102
Does vegetarianism affect life expectancy? Is an average vegetarian supposed to live longer just because of their diet?
Yes, according to a paper by the American Society for Clinical Nutrition. > Results: Our review of the 6 studies found the following trends: 1) a very low meat intake was associated with a significant decrease in risk of death in 4 studies, a nonsignificant decrease in risk of death in the fifth study, and virtually no association in the sixth study; 2) 2 of the studies in which a low meat intake significantly decreased mortality risk also indicated that a longer duration (≥ 2 decades) of adherence to this diet contributed to a significant decrease in mortality risk and a significant 3.6-y (95% CI: 1.4, 5.8 y) increase in life expectancy; and 3) the protective effect of a very low meat intake seems to attenuate after the ninth decade. Some of the variation in the survival advantage in vegetarians may have been due to marked differences between studies in adjustment for confounders, the definition of vegetarian, measurement error, age distribution, the healthy volunteer effect, and intake of specific plant foods by the vegetarians. TL;DR: * less meat = less risk of death, * less meat for a longer time = an average of a 3 year longer lifespan + less risk of death, * after 90 years of no meat it stops decreasing your risk of death. > Conclusion: Current prospective cohort data from adults in North America and Europe raise the possibility that a lifestyle pattern that includes a very low meat intake is associated with greater longevity. So yes, scientific research says that vegetarianism could help you live longer, but it primarily decreases your risk of death. (i.e. you might not live to 105, but you probably won't die at 55)
Wirkt sich Vegetarismus auf die Lebenserwartung aus? Lebt ein durchschnittlicher Vegetarier länger, nur weil er sich so ernährt?
Ja, laut einer Veröffentlichung der American Society for Clinical Nutrition. > Ergebnisse: Unsere Überprüfung der 6 Studien ergab die folgenden Trends: 1) Ein sehr niedriger Fleischkonsum war in 4 Studien mit einer signifikanten Verringerung des Sterberisikos verbunden, in der fünften Studie mit einer nicht signifikanten Verringerung des Sterberisikos und in der sechsten Studie praktisch mit keinem Zusammenhang; 2) 2 der Studien, in denen ein niedriger Fleischkonsum das Sterberisiko signifikant verringerte, wiesen auch darauf hin, dass eine längere Dauer (≥ 2 Jahrzehnte) der Einhaltung dieser Diät zu einer signifikanten Verringerung des Sterberisikos und einer signifikanten 3.6 Jahren (95% CI: 1,4, 5,8 Jahre) zu einer signifikanten Erhöhung der Lebenserwartung beiträgt; und 3) die schützende Wirkung eines sehr niedrigen Fleischkonsums scheint nach dem neunten Jahrzehnt abzunehmen. Ein Teil der Schwankungen beim Überlebensvorteil von Vegetariern könnte auf deutliche Unterschiede zwischen den Studien bei der Bereinigung um Störfaktoren, der Definition von Vegetariern, Messfehlern, der Altersverteilung, dem Effekt gesunder Freiwilliger und dem Verzehr bestimmter pflanzlicher Lebensmittel durch die Vegetarier zurückzuführen sein. TL;DR: * weniger Fleisch = geringeres Sterberisiko, * weniger Fleisch über einen längeren Zeitraum = durchschnittlich 3 Jahre längere Lebenserwartung + geringeres Sterberisiko, * nach 90 Jahren Fleischverzicht sinkt das Sterberisiko nicht mehr. > Schlussfolgerung: Aktuelle prospektive Kohortendaten von Erwachsenen in Nordamerika und Europa lassen vermuten, dass ein Lebensstil, der einen sehr geringen Fleischkonsum beinhaltet, mit einer höheren Lebenserwartung verbunden ist. Die wissenschaftliche Forschung besagt also, dass Vegetarismus zu einem längeren Leben beitragen kann, aber in erster Linie das Sterberisiko senkt. (d. h. Sie werden vielleicht nicht 105 Jahre alt, aber Sie werden wahrscheinlich nicht mit 55 Jahren sterben)
¿Afecta el vegetarianismo a la esperanza de vida? ¿Se supone que un vegetariano medio vive más sólo por su dieta?
Sí, según un artículo de la Sociedad Americana de Nutrición Clínica. > Resultados: Nuestra revisión de los 6 estudios encontró las siguientes tendencias: 1) una ingesta muy baja de carne se asoció con una disminución significativa del riesgo de muerte en 4 estudios, una disminución no significativa del riesgo de muerte en el quinto estudio y prácticamente ninguna asociación en el sexto estudio; 2) 2 de los estudios en los que una ingesta baja de carne disminuyó significativamente el riesgo de mortalidad también indicaron que una mayor duración (≥ 2 décadas) de la adherencia a esta dieta contribuyó a una disminución significativa del riesgo de mortalidad y a un aumento significativo de 3.6 años (IC 95%: 1,4; 5,8 años) en la esperanza de vida; y 3) el efecto protector de una ingesta de carne muy baja parece atenuarse después de la novena década. Parte de la variación en la ventaja de supervivencia de los vegetarianos puede deberse a las marcadas diferencias entre los estudios en el ajuste de los factores de confusión, la definición de vegetariano, el error de medición, la distribución de edades, el efecto de voluntario sano y la ingesta de alimentos vegetales específicos por parte de los vegetarianos. TL;DR: * menos carne = menos riesgo de muerte * menos carne durante más tiempo = una media de 3 años más de vida + menos riesgo de muerte, * después de 90 años sin carne deja de disminuir el riesgo de muerte. > Conclusión: Los datos actuales de cohortes prospectivas de adultos en Norteamérica y Europa plantean la posibilidad de que un patrón de estilo de vida que incluya un consumo muy bajo de carne esté asociado a una mayor longevidad. Así que sí, la investigación científica dice que el vegetarianismo podría ayudarte a vivir más, pero principalmente disminuye tu riesgo de muerte. (Es decir, puede que no vivas hasta los 105 años, pero probablemente no mueras a los 55).
Le végétarisme affecte-t-il l'espérance de vie ? Un végétarien moyen est-il censé vivre plus longtemps uniquement en raison de son régime alimentaire ?
Oui, selon un article de l'American Society for Clinical Nutrition. > Résultats : Notre examen des 6 études a permis de dégager les tendances suivantes : 1) un apport très faible en viande était associé à une diminution significative du risque de décès dans 4 études, à une diminution non significative du risque de décès dans la cinquième étude et à une association pratiquement nulle dans la sixième étude ; 2) 2 des études dans lesquelles un apport faible en viande diminuait significativement le risque de mortalité indiquaient également qu'une durée plus longue (≥ 2 décennies) d'adhésion à ce régime contribuait à une diminution significative du risque de mortalité et à une augmentation significative de l'espérance de vie de 3.6 ans (IC 95 % : 1,4, 5,8 ans) de l'espérance de vie ; et 3) l'effet protecteur d'un apport très faible en viande semble s'atténuer après la neuvième décennie. Une partie de la variation de l'avantage de survie chez les végétariens peut être due à des différences marquées entre les études en ce qui concerne l'ajustement des facteurs de confusion, la définition du végétarien, l'erreur de mesure, la distribution de l'âge, l'effet du volontaire sain et la consommation d'aliments végétaux spécifiques par les végétariens. TL;DR : * moins de viande = moins de risque de décès, * moins de viande pendant plus longtemps = une durée de vie plus longue de 3 ans en moyenne + moins de risque de décès, * Après 90 ans d'absence de viande, le risque de décès ne diminue plus. > Conclusion : Les données actuelles de cohortes prospectives d'adultes d'Amérique du Nord et d'Europe soulèvent la possibilité qu'un mode de vie comprenant une très faible consommation de viande soit associé à une plus grande longévité. Donc oui, la recherche scientifique indique que le végétarisme pourrait vous aider à vivre plus longtemps, mais qu'il diminue principalement votre risque de décès. (En d'autres termes, vous ne vivrez peut-être pas jusqu'à 105 ans, mais vous ne mourrez probablement pas à 55 ans).
Il vegetarianismo influisce sull'aspettativa di vita? Un vegetariano medio dovrebbe vivere più a lungo solo grazie alla sua dieta?
Sì, secondo un documento dell'American Society for Clinical Nutrition. > Risultati: La nostra revisione dei 6 studi ha rilevato le seguenti tendenze: 1) un'assunzione di carne molto bassa è stata associata a una riduzione significativa del rischio di morte in 4 studi, a una riduzione non significativa del rischio di morte nel quinto studio e a un'associazione praticamente nulla nel sesto studio; 2) 2 degli studi in cui un'assunzione di carne bassa ha ridotto significativamente il rischio di mortalità hanno anche indicato che una durata più lunga (≥ 2 decenni) di aderenza a questa dieta ha contribuito a una riduzione significativa del rischio di mortalità e a un aumento significativo di 3,6 anni (95% CI: 1,4, 5,8 anni) dell'aspettativa di vita.6 anni (95% CI: 1,4, 5,8 anni) nell'aspettativa di vita; e 3) l'effetto protettivo di un'assunzione di carne molto bassa sembra attenuarsi dopo il nono decennio. Alcune delle variazioni nel vantaggio di sopravvivenza dei vegetariani possono essere dovute a marcate differenze tra gli studi nell'aggiustamento per i confondenti, la definizione di vegetariano, l'errore di misurazione, la distribuzione dell'età, l'effetto volontario sano e l'assunzione di specifici alimenti vegetali da parte dei vegetariani. IN POCHE PAROLE: * meno carne = meno rischio di morte, * meno carne per un periodo più lungo = in media 3 anni di vita in più + meno rischio di morte, * dopo 90 anni di astinenza da carne, il rischio di morte smette di diminuire. > Conclusioni: Gli attuali dati prospettici di coorte di adulti in Nord America e in Europa sollevano la possibilità che un modello di vita che includa un'assunzione di carne molto ridotta sia associato a una maggiore longevità. Quindi sì, la ricerca scientifica dice che il vegetarianismo potrebbe aiutare a vivere più a lungo, ma soprattutto a ridurre il rischio di morte. (cioè, forse non vivrete fino a 105 anni, ma probabilmente non morirete a 55 anni).
103
What is the difference between an object and a companion object in a class in kotlin? Example: ```class MyClass { object Holder { //something } companion object { //something } } ``` I already read that companion object shall be used, if the containing parameters/methods are closely related to its class. But why is there also the possibility of declaring a normal object in the class? Because it behaves exactly like the companion, but it must have a name. Is there maybe a difference in its "static" (I'm from the java side) lifecycle?
There are two different types of ```object``` uses, expression and declaration. Object Expression An object expression can be used when a class needs slight modification, but it's not necessary to create an entirely new subclass for it. Anonymous inner classes are a good example of this. ```button.setOnClickListener(object: View.OnClickListener() { override fun onClick(view: View) { // click event } }) ``` One thing to watch out for is that anonymous inner classes can access variables from the enclosing scope, and these variables do not have to be ```final```. This means that a variable used inside an anonymous inner class that is not considered ```final``` can change value unexpectedly before it is accessed. Object Declaration An object declaration is similar to a variable declaration and therefore cannot be used on the right side of an assignment statement. Object declarations are very useful for implementing the Singleton pattern. ```object MySingletonObject { fun getInstance(): MySingletonObject { // return single instance of object } } ``` And the ```getInstance``` method can then be invoked like this. ```MySingletonObject.getInstance() ``` Companion Object A companion object is a specific type of object declaration that allows an object to act similar to static objects in other languages (such as Java). Adding ```companion``` to the object declaration allows for adding the "static" functionality to an object even though the actual static concept does not exist in Kotlin. Here's an example of a class with instance methods and companion methods. ```class MyClass { companion object MyCompanionObject { fun actsAsStatic() { // do stuff } } fun instanceMethod() { // do stuff } } ``` Invoking the instance method would look like this. ```var myClass = MyClass() myClass.instanceMethod() ``` Invoking the companion object method would look like this. ```MyClass.actsAsStatic() ``` See the Kotlin docs for more info.
Was ist der Unterschied zwischen einem Objekt und einem Begleitobjekt in einer Klasse in Kotlin? Beispiel: ```Klasse MyClass { Objekt Holder { //something } companion object { //irgendwas } } ``` Ich habe bereits gelesen, dass ein Companion-Objekt verwendet werden soll, wenn die enthaltenen Parameter/Methoden eng mit seiner Klasse verbunden sind. Aber warum gibt es auch die Möglichkeit, ein normales Objekt in der Klasse zu deklarieren? Weil es sich genauso verhält wie das Companion, aber es muss einen Namen haben. Gibt es vielleicht einen Unterschied in seinem "statischen" (ich bin von der Java-Seite) Lebenszyklus?
Es gibt zwei verschiedene Arten der Verwendung von ```Objekten``: Ausdruck und Deklaration. Objekt-Ausdruck Ein Objektausdruck kann verwendet werden, wenn eine Klasse leicht verändert werden muss, es aber nicht notwendig ist, eine völlig neue Unterklasse dafür zu erstellen. Anonyme innere Klassen sind ein gutes Beispiel dafür. ```button.setOnClickListener(object: View.OnClickListener() { override fun onClick(view: View) { // Klick-Ereignis } }) ``` Eine Sache, auf die man achten sollte, ist, dass anonyme innere Klassen auf Variablen aus dem umschließenden Bereich zugreifen können, und diese Variablen müssen nicht ````final`` sein. Das bedeutet, dass eine Variable, die innerhalb einer anonymen inneren Klasse verwendet wird und nicht als ``final`` gilt, ihren Wert unerwartet ändern kann, bevor auf sie zugegriffen wird. Objekt-Deklaration Eine Objektdeklaration ist ähnlich wie eine Variablendeklaration und kann daher nicht auf der rechten Seite einer Zuweisungsanweisung verwendet werden. Objektdeklarationen sind sehr nützlich für die Implementierung des Singleton-Musters. ```Objekt MySingletonObject { fun getInstance(): MySingletonObject { // Rückgabe einer einzelnen Instanz des Objekts } } ``` Und die Methode ```GetInstance`` kann dann wie folgt aufgerufen werden. ````MeinSingletonObject.getInstance() ``` Companion-Objekt Ein Companion-Objekt ist eine spezielle Art der Objektdeklaration, die es einem Objekt erlaubt, sich ähnlich wie statische Objekte in anderen Sprachen (z.B. Java) zu verhalten. Das Hinzufügen von ```Companion`` zur Objektdeklaration erlaubt es, die "static" Funktionalität zu einem Objekt hinzuzufügen, obwohl das eigentliche statische Konzept in Kotlin nicht existiert. Hier ist ein Beispiel für eine Klasse mit Instanzmethoden und Companion-Methoden. ```Klasse MyClass { Begleiter-Objekt MyCompanionObject { fun actsAsStatic() { // Dinge tun } } fun instanceMethod() { // Dinge tun } } ``` Der Aufruf der Instanzmethode würde wie folgt aussehen. ```var myClass = MyClass() myClass.instanceMethod() ``` Der Aufruf der Companion Object-Methode würde wie folgt aussehen. myClass.actsAsStatic() ``` Weitere Informationen finden Sie in den Kotlin-Dokumenten.
¿Cuál es la diferencia entre un objeto y un objeto compañero en una clase en kotlin? Ejemplo: ```clase MiClase { objeto Holder { /algo } objeto Compañero { /algo } } ``` Ya he leído que se utilizará el objeto compañero, si los parámetros/métodos que contiene están estrechamente relacionados con su clase. Pero, ¿por qué existe también la posibilidad de declarar un objeto normal en la clase? Porque se comporta exactamente igual que el companion, pero debe tener un nombre. ¿Hay tal vez una diferencia en su "estática" (yo soy del lado de java) ciclo de vida?
Existen dos tipos diferentes de usos de ``objeto``, expresión y declaración. Expresión de objeto Una expresión de objeto se puede utilizar cuando una clase necesita una ligera modificación, pero no es necesario crear una subclase completamente nueva para ella. Las clases internas anónimas son un buen ejemplo de esto. ```button.setOnClickListener(object: View.OnClickListener() { override fun onClick(view: View) { // evento click } }) ``` Una cosa a tener en cuenta es que las clases internas anónimas pueden acceder a variables del ámbito que las rodea, y estas variables no tienen por qué ser ```finales``. Esto significa que una variable usada dentro de una clase interna anónima que no sea considerada ``final`` puede cambiar de valor inesperadamente antes de que sea accedida. Declaración de objeto Una declaración de objeto es similar a una declaración de variable y por lo tanto no puede ser usada en el lado derecho de una sentencia de asignación. Las declaraciones de objetos son muy útiles para implementar el patrón Singleton. ```objeto MiSingletonObjeto { fun getInstance(): MySingletonObject { // devuelve una única instancia del objeto } } ``` Y el método ``getInstance`` puede invocarse así. MiSingletonObject.getInstance() ``` Objeto compañero Un objeto compañero es un tipo específico de declaración de objeto que permite a un objeto actuar de forma similar a los objetos estáticos de otros lenguajes (como Java). Añadir ```companion`` a la declaración del objeto permite añadir la funcionalidad "static" a un objeto aunque el concepto static no exista en Kotlin. He aquí un ejemplo de una clase con métodos de instancia y métodos acompañantes. ```clase MiClase { objeto compañero MyCompanionObject { fun actsAsStatic() { // hacer cosas } } fun instanceMethod() { // hacer cosas } } ``` La invocación del método de instancia sería así. ```var myClass = MyClass() myClass.instanceMethod() ``` La invocación al método del objeto compañero sería así. ```MyClass.actsAsStatic() ``` Consulta la documentación de Kotlin para más información.
Quelle est la différence entre un objet et un objet compagnon dans une classe en kotlin ? Exemple : ```classe MyClass { objet Holder { /quelque chose } objet compagnon { /quelque chose } } ``` J'ai déjà lu que l'objet compagnon doit être utilisé si les paramètres/méthodes qu'il contient sont étroitement liés à sa classe. Mais pourquoi y a-t-il aussi la possibilité de déclarer un objet normal dans la classe ? Parce qu'il se comporte exactement comme l'objet compagnon, mais il doit avoir un nom. Y a-t-il peut-être une différence dans son cycle de vie "statique" (je suis du côté java) ?
Il existe deux types d'utilisation d'un "objet" : l'expression et la déclaration. Expression d'objet Une expression d'objet peut être utilisée lorsqu'une classe a besoin d'être légèrement modifiée, mais qu'il n'est pas nécessaire de créer une sous-classe entièrement nouvelle. Les classes internes anonymes en sont un bon exemple. ```button.setOnClickListener(object : View.OnClickListener() { override fun onClick(view : View) { // événement de clic } }) ``` Une chose à laquelle il faut faire attention est que les classes internes anonymes peuvent accéder aux variables de la portée qui les entoure, et ces variables n'ont pas besoin d'être ``finales``. Cela signifie qu'une variable utilisée à l'intérieur d'une classe interne anonyme qui n'est pas considérée comme "finale" peut changer de valeur de façon inattendue avant qu'on y accède. Déclaration d'objet Une déclaration d'objet est similaire à une déclaration de variable et ne peut donc pas être utilisée du côté droit d'une instruction d'affectation. Les déclarations d'objets sont très utiles pour implémenter le modèle Singleton. ```objet MySingletonObject { fun getInstance() : MySingletonObject { // renvoie une seule instance de l'objet } } ``` Et la méthode ``getInstance`` peut alors être invoquée comme ceci. ```MySingletonObject.getInstance() ``` Objet compagnon Un objet compagnon est un type spécifique de déclaration d'objet qui permet à un objet d'agir de manière similaire aux objets statiques dans d'autres langages (comme Java). Ajouter ``companion`` à la déclaration d'objet permet d'ajouter la fonctionnalité "static&quot ; à un objet même si le concept statique n'existe pas en Kotlin. Voici un exemple de classe avec des méthodes d'instance et des méthodes compagnons. ```classe MyClass { objet compagnon MyCompanionObject { fun actsAsStatic() { // fait des choses } } fun instanceMethod() { // do stuff } } ``` L'invocation de la méthode d'instance ressemblerait à ceci. ```var myClass = MyClass() myClass.instanceMethod() ``` L'invocation de la méthode de l'objet compagnon ressemblerait à ceci. ```MyClass.actsAsStatic() ``` Voir la documentation Kotlin pour plus d'informations.
Qual è la differenza tra un oggetto e un oggetto compagno in una classe in kotlin? Esempio: ```classe MyClass { oggetto Holder { //qualcosa } oggetto compagno { //qualcosa } } ``` Ho già letto che l'oggetto companion deve essere usato, se i parametri/metodi che lo contengono sono strettamente correlati alla sua classe. Ma perché c'è anche la possibilità di dichiarare un oggetto normale nella classe? Perché si comporta esattamente come il companion, ma deve avere un nome. C'è forse una differenza nel suo ciclo di vita "statico" (sono del lato java)?
Esistono due diversi tipi di utilizzo di ``oggetti'': l'espressione e la dichiarazione. Espressione dell'oggetto Un'espressione di oggetto può essere usata quando una classe necessita di leggere modifiche, ma non è necessario creare una sottoclasse completamente nuova per essa. Le classi interne anonime ne sono un buon esempio. ```button.setOnClickListener(object: View.OnClickListener() { override fun onClick(view: View) { // evento click } }) ``` Una cosa a cui prestare attenzione è che le classi interne anonime possono accedere alle variabili dell'ambito che le racchiude e queste variabili non devono essere ```finali``. Ciò significa che una variabile usata all'interno di una classe interna anonima che non è considerata ```finale`` può cambiare valore inaspettatamente prima che vi si acceda. Dichiarazione di un oggetto Una dichiarazione di oggetto è simile a una dichiarazione di variabile e quindi non può essere usata sul lato destro di un'istruzione di assegnazione. Le dichiarazioni di oggetti sono molto utili per implementare il modello Singleton. ```oggetto MySingletonObject { fun getInstance(): MySingletonObject { // restituisce una singola istanza dell'oggetto } } ``` E il metodo ``getInstance`` può essere invocato in questo modo. ```MySingletonObject.getInstance() ``` Oggetto compagno Un oggetto compagno è un tipo specifico di dichiarazione di oggetto che consente a un oggetto di agire in modo simile agli oggetti statici di altri linguaggi (come Java). L'aggiunta di ``companion`` alla dichiarazione dell'oggetto consente di aggiungere la funzionalità "static" a un oggetto, anche se il concetto di staticità non esiste in Kotlin. Ecco un esempio di classe con metodi di istanza e metodi companion. ```classe MyClass { oggetto compagno MyCompanionObject { fun actsAsStatic() { // fa delle cose } } fun instanceMethod() { // fa delle cose } } ``` L'invocazione del metodo di istanza si presenta in questo modo. ```var myClass = MyClass() myClass.instanceMethod() ``` L'invocazione del metodo dell'oggetto compagno si presenterebbe come segue. ```MyClass.actsAsStatic() ``` Si vedano i documenti di Kotlin per maggiori informazioni.
104
I've rooted my phone. Now what? What do I gain from rooting?
In few words, rooting an Android system means overcome the limitations that were imposed over it by the manufacturer. People may want that for different reasons, but the main one is freedom. Having a rooted phone means you've got all the control over your device. The main reason people root phones is to install a custom ROM. Custom ROMs are often known for improvements in performance and exclusive features that are not present on manufacturer ROMs, like installing apps on sdcard or taking screenshots. Custom ROMS can also become a system update alternative for those devices that were abandoned by their manufacturers. You can see a review of popular ROMS, as an example, here. Rooting Android also allows you to uninstall stock apps that you don't use or don't want, besides those that violates user's privacy (see CarrierIQ). Another main reason for doing that is to gain more space on internal storage. A rooted device lets you install almost any app that requires root access. Those apps generally aim to do something that would not be possible without that privilege. A lot of useful apps were shown on the previous answer, but you may find a lot more available on Google Play. You can find a list of good apps here.
Ich habe mein Handy gerootet. Was nun? Was bringt mir das Rooten?
In wenigen Worten bedeutet das Rooten eines Android-Systems die Überwindung der Beschränkungen, die vom Hersteller auferlegt wurden. Die Menschen können das aus verschiedenen Gründen wollen, aber der wichtigste ist die Freiheit. Ein verwurzeltes Telefon zu haben bedeutet, dass Sie die ganze Kontrolle über Ihr Gerät haben. Der Hauptgrund für das Rooten von Handys ist die Installation eines Custom ROM. Benutzerdefinierte ROMs sind oft für Leistungsverbesserungen und exklusive Funktionen bekannt, die in den ROMs der Hersteller nicht vorhanden sind, z. B. das Installieren von Apps auf der SD-Karte oder das Erstellen von Screenshots. Benutzerdefinierte ROMs können auch eine Alternative zur Systemaktualisierung für Geräte sein, die von ihren Herstellern aufgegeben wurden. Einen Überblick über beliebte ROMS finden Sie zum Beispiel hier. Das Rooten von Android ermöglicht es Ihnen auch, Standard-Apps zu deinstallieren, die Sie nicht verwenden oder nicht wollen, abgesehen von denen, die die Privatsphäre des Benutzers verletzen (siehe CarrierIQ). Ein weiterer Hauptgrund dafür ist, mehr Platz auf dem internen Speicher zu gewinnen. Auf einem verwurzelten Gerät können Sie fast jede Anwendung installieren, die Root-Zugriff erfordert. Diese Apps zielen im Allgemeinen darauf ab, etwas zu tun, was ohne dieses Privileg nicht möglich wäre. In der vorigen Antwort wurden viele nützliche Apps gezeigt, aber Sie können noch viel mehr auf Google Play finden. Eine Liste mit guten Apps finden Sie hier.
He rooteado mi teléfono. ¿Y ahora qué? ¿Qué gano con rootear?
En pocas palabras, rootear un sistema Android significa superar las limitaciones que le impuso el fabricante. La gente puede querer eso por diferentes razones, pero la principal es la libertad. Tener un teléfono rooteado significa que tienes todo el control sobre tu dispositivo. La principal razón por la que la gente rootea los teléfonos es para instalar una ROM personalizada. Las ROM personalizadas suelen ser conocidas por las mejoras en el rendimiento y las funciones exclusivas que no están presentes en las ROM de los fabricantes, como instalar aplicaciones en la sdcard o hacer capturas de pantalla. Las ROMs personalizadas también pueden convertirse en una alternativa de actualización del sistema para aquellos dispositivos que fueron abandonados por sus fabricantes. Puedes ver una revisión de ROMS populares, a modo de ejemplo, aquí. Rootear Android también te permite desinstalar aplicaciones de stock que no usas o no quieres, además de aquellas que violan la privacidad del usuario (ver CarrierIQ). Otra razón principal para hacerlo es ganar más espacio en el almacenamiento interno. Un dispositivo rooteado te permite instalar casi cualquier app que requiera acceso root. Por lo general, esas aplicaciones pretenden hacer algo que no sería posible sin ese privilegio. En la respuesta anterior se han mostrado muchas aplicaciones útiles, pero puedes encontrar muchas más en Google Play. Puedes encontrar una lista de buenas aplicaciones aquí.
J'ai rooté mon téléphone. Et maintenant ? Qu'est-ce que cela m'apporte ?
En quelques mots, l'enracinement d'un système Android consiste à dépasser les limites imposées par le fabricant. Les gens peuvent vouloir cela pour différentes raisons, mais la principale est la liberté. Avoir un téléphone rooté signifie que vous avez tout le contrôle sur votre appareil. La principale raison pour laquelle les gens rootent leur téléphone est l'installation d'une ROM personnalisée. Les ROM personnalisées sont souvent connues pour leurs améliorations des performances et leurs fonctions exclusives qui ne sont pas présentes dans les ROM du fabricant, comme l'installation d'applications sur la carte SD ou la réalisation de captures d'écran. Les ROM personnalisées peuvent également constituer une alternative à la mise à jour du système pour les appareils qui ont été abandonnés par leur fabricant. Vous pouvez consulter une revue des ROMS les plus populaires, à titre d'exemple, ici. Le rootage d'Android vous permet également de désinstaller les applications stockées que vous n'utilisez pas ou dont vous ne voulez pas, en plus de celles qui violent la vie privée de l'utilisateur (voir CarrierIQ). Une autre raison principale de le faire est de gagner de l'espace sur le stockage interne. Un appareil rooté vous permet d'installer presque n'importe quelle application nécessitant un accès rooté. Ces applications ont généralement pour but de faire quelque chose qui ne serait pas possible sans ce privilège. De nombreuses applications utiles ont été présentées dans la réponse précédente, mais vous pouvez en trouver beaucoup plus sur Google Play. Vous trouverez une liste de bonnes applications ici.
Ho effettuato il rooting del mio telefono. E adesso? Cosa ottengo dal rooting?
In poche parole, rootare un sistema Android significa superare le limitazioni imposte dal produttore. Le persone possono volerlo per diversi motivi, ma il principale è la libertà. Avere un telefono rootato significa avere tutto il controllo sul proprio dispositivo. Il motivo principale per cui le persone effettuano il root dei telefoni è l'installazione di una ROM personalizzata. Le ROM personalizzate sono spesso note per i miglioramenti delle prestazioni e per le funzioni esclusive non presenti nelle ROM del produttore, come l'installazione di app su sdcard o la creazione di screenshot. Le ROM personalizzate possono anche diventare un'alternativa all'aggiornamento del sistema per quei dispositivi che sono stati abbandonati dai produttori. È possibile vedere una recensione di ROM popolari, come esempio, qui. Il rooting di Android consente anche di disinstallare le applicazioni stock che non si usano o non si vogliono, oltre a quelle che violano la privacy dell'utente (vedi CarrierIQ). Un'altra ragione principale per farlo è guadagnare più spazio sulla memoria interna. Un dispositivo rootato consente di installare quasi tutte le app che richiedono l'accesso root. Queste app in genere hanno lo scopo di fare qualcosa che non sarebbe possibile senza questo privilegio. Nella risposta precedente sono state mostrate molte app utili, ma è possibile trovarne molte altre disponibili su Google Play. È possibile trovare un elenco di applicazioni valide qui.
105
Is there a better way to determine whether a variable in ```Pandas``` and/or ```NumPy``` is ```numeric``` or not ? I have a self defined ```dictionary``` with ```dtypes``` as keys and ```numeric``` / ```not``` as values.
You can use ```np.issubdtype``` to check if the dtype is a sub dtype of ```np.number```. Examples: ```np.issubdtype(arr.dtype, np.number) # where arr is a numpy array np.issubdtype(df['X'].dtype, np.number) # where df['X'] is a pandas Series ``` This works for numpy's dtypes but fails for pandas specific types like pd.Categorical as Thomas noted. If you are using categoricals ```is_numeric_dtype``` function from pandas is a better alternative than np.issubdtype. ```df = pd.DataFrame({'A': [1, 2, 3], 'B': [1.0, 2.0, 3.0], 'C': [1j, 2j, 3j], 'D': ['a', 'b', 'c']}) df Out: A B C D 0 1 1.0 1j a 1 2 2.0 2j b 2 3 3.0 3j c df.dtypes Out: A int64 B float64 C complex128 D object dtype: object ``` ```np.issubdtype(df['A'].dtype, np.number) Out: True np.issubdtype(df['B'].dtype, np.number) Out: True np.issubdtype(df['C'].dtype, np.number) Out: True np.issubdtype(df['D'].dtype, np.number) Out: False ``` For multiple columns you can use np.vectorize: ```is_number = np.vectorize(lambda x: np.issubdtype(x, np.number)) is_number(df.dtypes) Out: array([ True, True, True, False], dtype=bool) ``` And for selection, pandas now has ```select_dtypes```: ```df.select_dtypes(include=[np.number]) Out: A B C 0 1 1.0 1j 1 2 2.0 2j 2 3 3.0 3j ```
Gibt es eine bessere Möglichkeit zu bestimmen, ob eine Variable in ```Pandas``` und/oder ``NumPy`` ``numerisch`` ist oder nicht ? Ich habe ein selbst definiertes ```Wörterbuch`` mit ``dtypes`` als Schlüssel und ```numeric`` / ``not`` als Werte.
Sie können ```np.issubdtype`` verwenden, um zu prüfen, ob der D-Typ ein Sub-D-Typ von ```np.number`` ist. Beispiele: ```np.issubdtype(arr.dtype, np.number) # wobei arr ein Numpy-Array ist np.issubdtype(df['X'].dtype, np.number) # wobei df['X'] eine Pandas-Serie ist ``` Dies funktioniert für numpy's dtypes, schlägt aber bei pandas-spezifischen Typen wie pd.Categorical fehl, wie Thomas bemerkte. Wenn Sie kategorische Typen verwenden, ist die Funktion ```is_numeric_dtype`` von pandas eine bessere Alternative als np.issubdtype. ```df = pd.DataFrame({'A': [1, 2, 3], 'B': [1.0, 2.0, 3.0], 'C': [1j, 2j, 3j], 'D': ['a', 'b', 'c']}) df Out: A B C D 0 1 1.0 1j a 1 2 2.0 2j b 2 3 3.0 3j c df.dtypes Aus: A int64 B float64 C komplex128 D Objekt dTyp: Objekt ``` ```np.issubdtype(df['A'].dtype, np.number) Out: True np.issubdtype(df['B'].dtype, np.number) Out: True np.issubdtype(df['C'].dtype, np.number) Out: True np.issubdtype(df['D'].dtype, np.number) Out: False ``` Für mehrere Spalten können Sie np.vectorize verwenden: ```is_number = np.vectorize(lambda x: np.issubdtype(x, np.number)) is_number(df.dtypes) Out: array([ True, True, True, False], dtype=bool) ``` Und für die Auswahl hat Pandas jetzt ```select_dtypes``: ```df.select_dtypes(include=[np.number]) Out: A B C 0 1 1.0 1j 1 2 2.0 2j 2 3 3.0 3j ```
¿Hay alguna forma mejor de determinar si una variable en ``Pandas`` y/o ``NumPy`` es ``numérica`` o no? Tengo un ``diccionario`` autodefinido con ``tipos`` como claves y ``numérico`` / ``no`` como valores.
Puedes usar ```np.issubdtype`` para comprobar si el dtype es un sub dtype de ```np.number``. Ejemplos: ```np.issubdtype(arr.dtype, np.number) # donde arr es un array de numpy np.issubdtype(df['X'].dtype, np.number) # donde df['X'] es una serie pandas ``` Esto funciona para los dtypes de numpy, pero falla para tipos específicos de pandas como pd.Categorical, como ha señalado Thomas. Si usas categoricals la función ```is_numeric_dtype`` de pandas es una alternativa mejor que np.issubdtype. ```df = pd.DataFrame({'A': [1, 2, 3], 'B': [1.0, 2.0, 3.0], 'C': [1j, 2j, 3j], 'D': ['a', 'b', 'c']}) df Salida A B C D 0 1 1.0 1j a 1 2 2.0 2j b 2 3 3.0 3j c df.dtipos Out: A int64 B float64 C complejo128 D objeto dtype: objeto ``` ```np.issubdtype(df['A'].dtype, np.number) Fuera True np.issubdtype(df['B'].dtype, np.number) Salida: True np.issubdtype(df['C'].dtype, np.number) Salida: True np.issubdtype(df['D'].dtype, np.number) Salida: False ``` Para múltiples columnas puedes usar np.vectorize: ```is_number = np.vectorize(lambda x: np.issubdtype(x, np.number)) is_number(df.dtypes) Out: array([ Verdadero, Verdadero, Verdadero, Falso], dtype=bool) ``` Y para la selección, pandas tiene ahora ``select_dtypes``: ```df.select_dtypes(include=[np.number]) Out: A B C 0 1 1.0 1j 1 2 2.0 2j 2 3 3.0 3j ```
Existe-t-il un meilleur moyen de déterminer si une variable dans ``Pandas`` et/ou ``NumPy`` est ``numérique`` ou non ? J'ai un ``dictionnaire`` auto-défini avec ``dtypes`` comme clés et ``numeric`` / ``not`` comme valeurs.
Vous pouvez utiliser ``np.issubdtype`` pour vérifier si le dtype est un sous dtype de ``np.number``. Exemples : ``np.issubdtype(arr.dtype, np.number) # où arr est un tableau numpy np.issubdtype(df['X'].dtype, np.number) # où df['X'] est un tableau pandas Series ``` Cela fonctionne pour les dtypes de numpy mais échoue pour les types spécifiques à pandas comme pd.Categorical comme l'a noté Thomas. Si vous utilisez des catégoriques, la fonction ``is_numeric_dtype`` de pandas est une meilleure alternative que np.issubdtype. ```df = pd.DataFrame({'A' : [1, 2, 3], 'B' : [1.0, 2.0, 3.0], 'C' : [1j, 2j, 3j], 'D' : ['a', 'b', 'c']}) df Sortie : A B C D 0 1 1.0 1j a 1 2 2.0 2j b 2 3 3.0 3j c df.dtypes Out : A int64 B float64 C complexe128 D objet dtype : objet ``` ```np.issubdtype(df['A'].dtype, np.number) Out : True np.issubdtype(df['B'].dtype, np.number) Out : True True np.issubdtype(df['C'].dtype, np.number) Out : True True np.issubdtype(df['D'].dtype, np.number) Out : False ``` Pour plusieurs colonnes, vous pouvez utiliser np.vectorize : ```is_number = np.vectorize(lambda x : np.issubdtype(x, np.number)) is_number(df.dtypes) Out : array([ True, True, True, False], dtype=bool) ``` Et pour la sélection, pandas a maintenant ``select_dtypes`` : ```df.select_dtypes(include=[np.number]) Sortie : A B C 0 1 1.0 1j 1 2 2.0 2j 2 3 3.0 3j ```
Esiste un modo migliore per determinare se una variabile in ``Pandas`` e/o ``NumPy`` è ```numerica`` o no? Ho un ``dizionario`` autodefinito con ```dtypes`` come chiavi e ```numeric``` / ``not`` come valori.
Si può usare ``np.issubdtype`` per verificare se il tipo è un sottotipo di ``np.number``. Esempi: ```np.issubdtype(arr.dtype, np.number) # dove arr è un array numpy np.issubdtype(df['X'].dtype, np.number) # dove df['X'] è una serie pandas ``` Questo funziona per i tipi di numpy, ma fallisce per i tipi specifici di pandas come pd.Categorical, come ha notato Thomas. Se si utilizzano i tipi categorici, la funzione ```is_numeric_dtype`` di pandas è un'alternativa migliore di np.issubdtype. ```df = pd.DataFrame({'A': [1, 2, 3], 'B': [1.0, 2.0, 3.0], 'C': [1j, 2j, 3j], 'D': ['a', 'b', 'c']}) df Uscita: A B C D 0 1 1.0 1j a 1 2 2.0 2j b 2 3 3.0 3j c df.dtypes In uscita: A int64 B float64 C complesso128 D oggetto dtype: oggetto ``` ```np.issubdtype(df['A'].dtype, np.number) Uscita: Vero np.issubdtype(df['B'].dtype, np.number) Uscita: Vero np.issubdtype(df['C'].dtype, np.number) Uscita: Vero np.issubdtype(df['D'].dtype, np.number) Uscita: Falso ``` Per più colonne si può usare np.vectorize: ```is_number = np.vectorize(lambda x: np.issubdtype(x, np.number)) is_number(df.dtypes) Out: array([ True, True, True, False], dtype=bool) ``` E per la selezione, pandas ha ora ``select_dtypes``: ```df.select_dtypes(include=[np.number]) Uscita: A B C 0 1 1.0 1j 1 2 2.0 2j 2 3 3.0 3j ```
106
I've come across the polynomial algorithm that solves 2SAT. I've found it boggling that 2SAT is in P where all (or many others) of the SAT instances are NP-Complete. What makes this problem different? What makes it so easy (NL-Complete - even easier than P)?
Here is a further intuitive and unpretentious explanation along the lines of MGwynne's answer. With $2$-SAT, you can only express implications of the form $a \Rightarrow b$, where $a$ and $b$ are literals. More precisely, every $2$-clause $l_1 \lor l_2$ can be understood as a pair of implications: $\lnot l_1 \Rightarrow l_2$ and $\lnot l_2 \Rightarrow l_1$. If you set $a$ to true, $b$ must be true as well. If you set $b$ to false, $a$ must be false as well. Such implications are straightforward: there is no choice, you have only $1$ possibility, there is no room for case-multiplication. You can just follow every possible implication chain, and see if you ever derive both $\lnot l$ from $l$ and $l$ from $\lnot l$: if you do for some $l$, then the 2-SAT formula is unsatisfiable, otherwise it is satisfiable. It is the case that the number of possible implication chains is polynomially bounded in the size of the input formula. With $3$-SAT, you can express implications of the form $a \Rightarrow b \lor c$, where $a$, $b$ and $c$ are literals. Now you are in trouble: if you set $a$ to true, then either $b$ or $c$ must be true, but which one? You have to make a choice: you have 2 possibilities. Here is where case-multiplication becomes possible, and where the combinatorial explosion arises. In other words, $3$-SAT is able to express the presence of more than one possibility, while $2$-SAT doesn't have such ability. It is precisely such presence of more than one possibility ($2$ possibilities in case of $3$-SAT, $k-1$ possibilities in case of $k$-SAT) that causes the typical combinatorial explosion of NP-complete problems.
Ich bin auf den Polynomalgorithmus gestoßen, der 2SAT löst. Ich finde es verwunderlich, dass 2SAT in P ist, wo alle (oder viele andere) SAT-Instanzen NP-komplett sind. Was macht dieses Problem anders? Was macht es so einfach (NL-Complete - sogar einfacher als P)?
Hier eine weitere intuitive und unprätentiöse Erklärung in Anlehnung an die Antwort von MGwynne. Mit $2$-SAT kann man nur Implikationen der Form $a \Rightarrow b$ ausdrücken, wobei $a$ und $b$ Literale sind. Genauer gesagt kann jede $2$-Klausel $l_1 \lor l_2$ als ein Paar von Implikationen verstanden werden: $\lnot l_1 \Rightarrow l_2$ und $\lnot l_2 \Rightarrow l_1$. Wenn man $a$ auf wahr setzt, muss $b$ ebenfalls wahr sein. Setzt man $b$ auf falsch, so muss auch $a$ falsch sein. Solche Implikationen sind einfach: Es gibt keine Wahl, man hat nur $1$ Möglichkeiten, es gibt keinen Raum für Fallvervielfältigung. Man kann einfach jeder möglichen Implikationskette folgen und sehen, ob man jemals sowohl $\lnot l$ aus $l$ als auch $l$ aus $\lnot l$ ableiten kann: Wenn dies für einige $l$ der Fall ist, dann ist die 2-SAT-Formel nicht erfüllbar, andernfalls ist sie erfüllbar. Es ist der Fall, dass die Anzahl der möglichen Implikationsketten polynomiell durch die Größe der Eingabeformel begrenzt ist. Mit $3$-SAT kann man Implikationen der Form $a \Rightarrow b \lor c$ ausdrücken, wobei $a$, $b$ und $c$ Literale sind. Jetzt hat man ein Problem: Wenn man $a$ auf wahr setzt, dann muss entweder $b$ oder $c$ wahr sein, aber welches von beiden? Sie müssen sich entscheiden: Sie haben 2 Möglichkeiten. Hier wird die Fallmultiplikation möglich, und hier entsteht die kombinatorische Explosion. Mit anderen Worten: $3$-SAT ist in der Lage, das Vorhandensein von mehr als einer Möglichkeit auszudrücken, während $2$-SAT dazu nicht in der Lage ist. Gerade das Vorhandensein von mehr als einer Möglichkeit ($2$ Möglichkeiten im Fall von $3$-SAT, $k-1$ Möglichkeiten im Fall von $k$-SAT) verursacht die typische kombinatorische Explosion von NP-kompletten Problemen.
Me he encontrado con el algoritmo polinómico que resuelve 2SAT. Me ha parecido alucinante que 2SAT esté en P donde todas (o muchas otras) de las instancias SAT son NP-Completas. ¿Qué hace que este problema sea diferente? ¿Qué lo hace tan fácil (NL-Completo - incluso más fácil que P)?
He aquí otra explicación intuitiva y sin pretensiones en la línea de la respuesta de MGwynne. Con $2$-SAT, sólo se pueden expresar implicaciones de la forma $a \flechaderecha b$, donde $a$ y $b$ son literales. Más precisamente, cada $2$-cláusula $l_1 \lor l_2$ puede entenderse como un par de implicaciones: $\lnot l_1 \Rightarrow l_2$ y $\lnot l_2 \Rightarrow l_1$. Si $a$ es verdadero, $b$ también debe ser verdadero. Si $b$ es falso, $a$ también debe ser falso. Tales implicaciones son sencillas: no hay elección, sólo hay $1$ posibilidad, no hay lugar para la multiplicación de casos. Se pueden seguir todas las cadenas de implicación posibles y ver si alguna vez se obtienen tanto $\lno l$ de $l$ como $l$ de $\lno l$: si se obtiene para algún $l$, entonces la fórmula 2-SAT es insatisfactible; en caso contrario, es satisfactible. Se da el caso de que el número de cadenas de implicación posibles está polinómicamente acotado en el tamaño de la fórmula de entrada. Con $3$-SAT, se pueden expresar implicaciones de la forma $a \Rightarrow b \lor c$, donde $a$, $b$ y $c$ son literales. Ahora tiene un problema: si pone $a$ como verdadero, entonces $b$ o $c$ deben ser verdaderos, pero ¿cuál? Hay que elegir: hay dos posibilidades. Aquí es donde es posible la multiplicación de casos y donde surge la explosión combinatoria. En otras palabras, $3$-SAT es capaz de expresar la presencia de más de una posibilidad, mientras que $2$-SAT no tiene tal capacidad. Es precisamente esa presencia de más de una posibilidad ($2$ posibilidades en el caso del $3$-SAT, $k-1$ posibilidades en el caso del $k$-SAT) lo que provoca la típica explosión combinatoria de los problemas NP-completos.
J'ai découvert l'algorithme polynomial qui résout 2SAT. J'ai trouvé ahurissant que le 2SAT soit dans P alors que toutes les instances SAT (ou beaucoup d'autres) sont NP-Complet. Qu'est-ce qui rend ce problème différent ? Qu'est-ce qui le rend si facile (NL-Complete - encore plus facile que P) ?
Voici une explication plus intuitive et sans prétention, dans la lignée de la réponse de MGwynne. Avec $2$-SAT, vous ne pouvez exprimer que des implications de la forme $a \Rightarrow b$, où $a$ et $b$ sont des littéraux. Plus précisément, chaque clause $2$ $l_1 \lor l_2$ peut être comprise comme une paire d'implications : $\lnot l_1 \Rightarrow l_2$ et $\lnot l_2 \Rightarrow l_1$. Si $a$ est vrai, $b$ doit l'être aussi. Si $b$ est faux, $a$ doit être faux aussi. De telles implications sont directes : il n'y a pas de choix, vous n'avez que $1$ possibilité, il n'y a pas de place pour la multiplication des cas. Il suffit de suivre toutes les chaînes d'implications possibles et de voir si l'on peut dériver $\lnot l$ de $l$ et $l$ de $\lnot l$ : si c'est le cas pour $l$, alors la formule 2-SAT est insatisfaisante, sinon elle est satisfaisante. Le nombre de chaînes d'implication possibles est polynomialement limité à la taille de la formule d'entrée. Avec $3$-SAT, vous pouvez exprimer des implications de la forme $a \Rightarrow b \lor c$, où $a$, $b$ et $c$ sont des littéraux. Vous êtes maintenant dans l'embarras : si vous donnez à $a$ la valeur vrai, alors $b$ ou $c$ doit être vrai, mais lequel ? Vous devez faire un choix : vous avez deux possibilités. C'est ici que la multiplication des cas devient possible et que l'explosion combinatoire apparaît. En d'autres termes, $3$-SAT est capable d'exprimer la présence de plus d'une possibilité, alors que $2$-SAT n'a pas cette capacité. C'est précisément la présence de plus d'une possibilité ($2$ possibilités dans le cas de $3$-SAT, $k-1$ possibilités dans le cas de $k$-SAT) qui provoque l'explosion combinatoire typique des problèmes NP-complets.
Mi sono imbattuto nell'algoritmo polinomiale che risolve 2SAT. Ho trovato sconcertante che 2SAT sia in P dove tutte (o molte altre) le istanze SAT sono NP-Complete. Cosa rende questo problema diverso? Cosa lo rende così facile (NL-Completo - persino più facile di P)?
Ecco un'ulteriore spiegazione intuitiva e senza pretese sulla falsariga della risposta di MGwynne. Con $2$-SAT, si possono esprimere solo implicazioni della forma $a \Freccia retta b$, dove $a$ e $b$ sono letterali. Più precisamente, ogni $2$-clausola $l_1 \lor l_2$ può essere intesa come una coppia di implicazioni: $non l_1 \freccia destra l_2$ e $non l_2 \freccia destra l_1$. Se si imposta $a$ come vero, anche $b$ deve essere vero. Se si imposta $b$ su falso, anche $a$ deve essere falso. Queste implicazioni sono semplici: non c'è scelta, c'è solo 1$ possibilità, non c'è spazio per la moltiplicazione dei casi. Si può semplicemente seguire ogni possibile catena di implicazioni e vedere se si ricava sia $non l$ da $l$ sia $l$ da $non l$: se lo si fa per qualche $l$, allora la formula 2-SAT è insoddisfacente, altrimenti è soddisfacente. Il numero di possibili catene di implicazioni è polinomialmente legato alla dimensione della formula di input. Con $3$-SAT, si possono esprimere implicazioni della forma $a \freccia destra b \lor c$, dove $a$, $b$ e $c$ sono letterali. Ora ci si trova nei guai: se si imposta $a$ come vero, allora deve essere vero o $b$ o $c$, ma quale? Bisogna fare una scelta: ci sono due possibilità. È qui che diventa possibile la moltiplicazione dei casi e che si verifica l'esplosione combinatoria. In altre parole, $3$-SAT è in grado di esprimere la presenza di più di una possibilità, mentre $2$-SAT non ha questa capacità. È proprio la presenza di più possibilità ($2$ possibilità nel caso di $3$-SAT, $k-1$ possibilità nel caso di $k$-SAT) a causare la tipica esplosione combinatoria dei problemi NP-completi.
107
Why isn't Sectumsempra an Unforgivable Curse?
Not many people knew Sectumsempra - they'd need to know it exists to ban it. Severus Snape invented Sectumsempra while at Hogwarts, and wrote it down in his Potions book. He doesn't seem to have told many people about it, it's possible he didn't tell anyone at all. “Harry was about to put his book away again when he noticed the corner of a page folded down; turning to it, he saw the Sectumsempra spell, captioned ‘For Enemies’, that he had marked a few weeks previously.” - Harry Potter and the Half-Blood Prince, Chapter 24 (Sectumsempra) His book was hidden away until Harry found it, and Harry didn't tell the rest of the wizarding world about it either. Severus himself was seen using Sectumsempra when the Order was moving seven Harrys, and Harry had used it a few times after he found it in Snape's old book. Lupin knows of it, since he described it as one of Snape's specialties. However, they are probably some of the only people who know it - it isn't widely known like the three Unforgivable Curses. No one else, either in the Death Eaters or the Order of the Phoenix, is ever said to use it. It's likely that the Ministry didn't even know of it. Therefore, the Ministry wouldn't have even been able to make the decision to classify it as an Unforgivable Curse, since they would likely not have even known it existed. If the Ministry knew about it, would it be classified as Unforgivable? The reason it wasn't classified as an Unforgivable Curse is because the Ministry wouldn't have known about it - they would be unable to make any decision on something they don't know exists. That, by itself, doesn't say whether the Ministry would classify it as one if they knew about it. Not all potentially harmful spells are classified as Unforgivable Curses. It's nowhere near guaranteed, though, that if the Ministry knew about Sectumsempra, that they'd classify it as an Unforgivable Curse. There are other spells that could clearly do harm. Just to give a few examples - Confringo, Flagrante, and the creation of Fiendfyre are all potentially harmful but not Unforgivable. It's never mentioned why those three curses are classified as Unforgivable and others aren't, but it seems likely that it's because there are little to no uses for them that aren't evil. The punishment for using an Unforgivable Curse is a lifetime sentence in Azkaban, so only the worst curses, that are highly unlikely to ever have a non-Dark use, would be made Unforgivable. “Now … those three curses – Avada Kedavra, Imperius and Cruciatus – are known as the Unforgivable Curses. The use of any one of them on a fellow human being is enough to earn a life sentence in Azkaban.” - Harry Potter and the Goblet of Fire, Chapter 14 (The Unforgivable Curses) Now, would Sectumsempra fit the criteria for being made an Unforgivable Curse? Probably not - it cuts through things like a sword. It can be used for anything a sword, knife or other cutting tool can be used for. While using it on people might be considered Unforgivable, the spell itself is simply the act of cutting. There are many things a wizard might reasonably want to cut with no malicious intent; vegetables, rope, cloth, building materials. Because of this, it seems unlikely that even if the Ministry had known about it, it would be classified as an Unforgivable Curse. In addition, there is a countercurse for Sectumsempra. “Pushing Harry roughly aside, he knelt over Malfoy, drew his wand and traced it over the deep wounds Harry’s curse had made, muttering an incantation that sounded almost like song. The flow of blood seemed to ease; Snape wiped the residue from Malfoy’s face and repeated his spell. Now the wounds seemed to be knitting. - Harry Potter and the Half-Blood Prince, Chapter 24 (Sectumsempra) While the wounds from Sectumsempra can't be healed by simple healing spells, they can in fact be healed by the countercurse. So - Sectumsempra likely wouldn't be made Unforgivable if the Ministry knew it.
Warum ist Sectumsempra nicht ein unverzeihlicher Fluch?
Nicht viele Menschen kannten Sectumsempra - sie müssten wissen, dass es existiert, um es zu verbieten. Severus Snape erfand Sectumsempra, als er in Hogwarts war, und schrieb es in sein Zaubertränkebuch. Er scheint nicht vielen Leuten davon erzählt zu haben, es ist möglich, dass er es überhaupt niemandem erzählt hat. "Harry wollte sein Buch gerade wieder weglegen, als er bemerkte, dass die Ecke einer Seite umgeknickt war; als er sie aufschlug, sah er den Sectumsempra-Zauberspruch mit der Überschrift 'Für Feinde', den er einige Wochen zuvor markiert hatte." - Harry Potter und der Halbblutprinz, Kapitel 24 (Sectumsempra) Sein Buch wurde versteckt, bis Harry es fand, und Harry erzählte auch dem Rest der Zaubererwelt nichts davon. Severus selbst wurde gesehen, wie er Sectumsempra benutzte, als der Orden sieben Harrys umzog, und Harry hatte es ein paar Mal benutzt, nachdem er es in Snapes altem Buch gefunden hatte. Lupin weiß davon, da er es als eine von Snapes Spezialitäten beschrieben hat. Allerdings sind sie wahrscheinlich die einzigen, die ihn kennen - er ist nicht so weit verbreitet wie die drei unverzeihlichen Flüche. Niemand sonst, weder bei den Todessern noch im Orden des Phönix, soll ihn jemals benutzt haben. Es ist wahrscheinlich, dass nicht einmal das Ministerium von ihm wusste. Daher hätte das Ministerium nicht einmal die Entscheidung treffen können, ihn als unverzeihlichen Fluch einzustufen, da es wahrscheinlich nicht einmal wusste, dass er existiert. Wenn das Ministerium davon gewusst hätte, wäre er dann als unverzeihlich eingestuft worden? Der Grund, warum er nicht als unverzeihlicher Fluch eingestuft wurde, ist, dass das Ministerium nichts davon gewusst hätte - es wäre nicht in der Lage gewesen, eine Entscheidung über etwas zu treffen, von dessen Existenz es nichts wusste. Das allein sagt noch nichts darüber aus, ob das Ministerium ihn als solchen einstufen würde, wenn es davon wüsste. Nicht alle potenziell schädlichen Zaubersprüche werden als unverzeihliche Flüche eingestuft. Es ist jedoch keineswegs garantiert, dass das Ministerium, wenn es von Sectumsempra wüsste, es als unverzeihlichen Fluch einstufen würde. Es gibt andere Zaubersprüche, die eindeutig Schaden anrichten können. Um nur ein paar Beispiele zu nennen: Confringo, Flagrante und die Erschaffung von Fiendfyre sind alle potentiell schädlich, aber nicht unverzeihlich. Es wird nie erwähnt, warum diese drei Flüche als unverzeihlich eingestuft werden und andere nicht, aber es scheint wahrscheinlich zu sein, dass es wenig bis gar keinen Nutzen für sie gibt, der nicht böse ist. Die Strafe für die Anwendung eines unverzeihlichen Fluchs ist eine lebenslange Haftstrafe in Askaban, so dass nur die schlimmsten Flüche, bei denen es höchst unwahrscheinlich ist, dass sie jemals eine nicht-dunkle Verwendung finden, als unverzeihlich eingestuft werden. "Nun ... diese drei Flüche - Avada Kedavra, Imperius und Cruciatus - sind als die unverzeihlichen Flüche bekannt. Die Anwendung eines dieser Flüche bei einem Mitmenschen reicht aus, um eine lebenslange Haftstrafe in Askaban zu erhalten." - Harry Potter und der Feuerkelch, Kapitel 14 (Die unverzeihlichen Flüche) Würde Sectumsempra nun die Kriterien für einen unverzeihlichen Fluch erfüllen? Wahrscheinlich nicht - er schneidet durch Dinge wie ein Schwert. Es kann für alles verwendet werden, wofür ein Schwert, ein Messer oder ein anderes Schneidewerkzeug verwendet werden kann. Auch wenn die Anwendung auf Menschen als unverzeihlich angesehen werden könnte, ist der Zauber selbst nur der Akt des Schneidens. Es gibt viele Dinge, die ein Zauberer vernünftigerweise ohne böswillige Absicht schneiden möchte: Gemüse, Seile, Stoffe, Baumaterialien. Aus diesem Grund ist es unwahrscheinlich, dass der Zauber als unverzeihlicher Fluch eingestuft wird, selbst wenn das Ministerium davon gewusst hätte. Darüber hinaus gibt es einen Gegenfluch für Sectumsempra. "Er schob Harry grob zur Seite, kniete sich über Malfoy, zog seinen Zauberstab und strich damit über die tiefen Wunden, die Harrys Fluch verursacht hatte, und murmelte eine Beschwörungsformel, die fast wie ein Lied klang. Der Blutfluss schien nachzulassen; Snape wischte die Rückstände von Malfoys Gesicht und wiederholte seinen Zauber. Jetzt schienen die Wunden zu vernarben. - Harry Potter und der Halbblutprinz, Kapitel 24 (Sectumsempra) Die Wunden von Sectumsempra können zwar nicht durch einfache Heilzauber geheilt werden, wohl aber durch den Gegenzauber. Also - Sectumsempra würde wahrscheinlich nicht unverzeihlich gemacht werden, wenn das Ministerium es wüsste.
¿Por qué Sectumsempra no es una maldición imperdonable?
No mucha gente conocía la Sectumsempra; necesitarían saber que existe para prohibirla. Severus Snape inventó el Sectumsempra en Hogwarts y lo escribió en su libro de Pociones. No parece que se lo contara a mucha gente, es posible que no se lo contara a nadie. "Harry estaba a punto de volver a guardar su libro cuando notó que la esquina de una página estaba doblada; al volverse hacia ella, vio el hechizo Sectumsempra, con la leyenda "Para enemigos", que había marcado unas semanas antes." - Harry Potter y el príncipe mestizo, capítulo 24 (Sectumsempra) Su libro estuvo escondido hasta que Harry lo encontró, y Harry tampoco se lo contó al resto del mundo mágico. El propio Severus fue visto usando Sectumsempra cuando la Orden trasladaba a siete Harrys, y Harry lo había usado unas cuantas veces después de encontrarlo en el viejo libro de Snape. Lupin lo conoce, ya que lo describió como una de las especialidades de Snape. Sin embargo, probablemente sean los únicos que la conocen, ya que no es tan conocida como las tres Maldiciones Imperdonables. No se dice que nadie más, ni entre los mortífagos ni en la Orden del Fénix, la utilice. Es probable que el Ministerio ni siquiera la conociera. Por lo tanto, el Ministerio ni siquiera habría podido tomar la decisión de clasificarla como Maldición Imperdonable, ya que probablemente ni siquiera habrían sabido que existía. Si el Ministerio la conociera, ¿la clasificaría como Imperdonable? La razón por la que no se clasificó como Maldición Imperdonable es porque el Ministerio no la habría conocido; no podrían tomar ninguna decisión sobre algo que no saben que existe. Eso, por sí solo, no dice si el Ministerio lo clasificaría como tal si lo supiera. No todos los hechizos potencialmente dañinos se clasifican como Maldiciones Imperdonables. Sin embargo, no está garantizado que si el Ministerio conociera el Sectumsempra, lo clasificaría como Maldición Imperdonable. Hay otros hechizos que claramente podrían hacer daño. Por poner algunos ejemplos, Confringo, Flagrante y la creación de Fiendfyre son potencialmente dañinos, pero no imperdonables. Nunca se menciona por qué esas tres maldiciones están clasificadas como Imperdonables y otras no, pero parece probable que sea porque hay pocos o ningún uso para ellas que no sea maligno. El castigo por usar una maldición imperdonable es una sentencia de por vida en Azkaban, así que sólo las peores maldiciones, que tienen muy pocas probabilidades de tener un uso no oscuro, serían consideradas imperdonables. "Esas tres maldiciones, Avada Kedavra, Imperius y Cruciatus, se conocen como Maldiciones Imperdonables. El uso de cualquiera de ellas en un ser humano es suficiente para ganarse una cadena perpetua en Azkaban". - Harry Potter y el cáliz de fuego, capítulo 14 (Las maldiciones imperdonables) Ahora bien, ¿cumpliría Sectumsempra los criterios para convertirse en una Maldición Imperdonable? Probablemente no. Atraviesa las cosas como una espada. Se puede usar para cualquier cosa que se pueda usar con una espada, un cuchillo u otra herramienta cortante. Mientras que usarlo en personas puede ser considerado Imperdonable, el hechizo en si mismo es simplemente el acto de cortar. Hay muchas cosas que un mago puede razonablemente querer cortar sin mala intención; vegetales, cuerda, tela, materiales de construcción. Por ello, parece poco probable que, aunque el Ministerio lo hubiera sabido, se hubiera clasificado como Maldición Imperdonable. Además, existe una contra-maldición para Sectumsempra. "Apartando bruscamente a Harry, se arrodilló sobre Malfoy, sacó la varita y la trazó sobre las profundas heridas que la maldición de Harry había hecho, murmurando un encantamiento que sonaba casi como una canción. El flujo de sangre pareció aliviarse; Snape limpió los residuos de la cara de Malfoy y repitió su hechizo. Ahora las heridas parecían tejerse. - Harry Potter y el príncipe mestizo, capítulo 24 (Sectumsempra) Aunque las heridas de Sectumsempra no pueden curarse con simples hechizos curativos, sí que pueden curarse con la contraconjuración. Por lo tanto, el Sectumsempra probablemente no sería Imperdonable si el Ministerio lo supiera.
Pourquoi Sectumsempra n'est-il pas une malédiction impardonnable ?
Peu de gens connaissent la Sectumsempra - il faudrait qu'ils sachent qu'elle existe pour l'interdire. Severus Rogue a inventé le Sectumsempra alors qu'il était à Poudlard, et l'a noté dans son livre de potions. Il ne semble pas en avoir parlé à beaucoup de monde, il est même possible qu'il n'en ait parlé à personne. Harry s'apprêtait à ranger son livre lorsqu'il remarqua le coin d'une page rabattue ; en se tournant vers elle, il vit le sortilège Sectumsempra, légendé "Pour les ennemis", qu'il avait marqué quelques semaines plus tôt." - Harry Potter et le Prince de Sang-Mêlé, chapitre 24 (Sectumsempra) Son livre a été caché jusqu'à ce que Harry le trouve, et Harry n'en a pas non plus parlé au reste du monde des sorciers. Severus lui-même a été vu en train d'utiliser Sectumsempra lorsque l'Ordre déplaçait sept Harrys, et Harry l'a utilisé à plusieurs reprises après l'avoir trouvé dans le vieux livre de Rogue. Lupin le connaît, puisqu'il l'a décrit comme l'une des spécialités de Rogue. Cependant, ils sont probablement les seuls à la connaître, car elle n'est pas aussi répandue que les trois maléfices impardonnables. Personne d'autre, que ce soit chez les Mangemorts ou au sein de l'Ordre du Phénix, n'est censé l'utiliser. Il est probable que le ministère n'en ait même pas eu connaissance. Par conséquent, le Ministère n'aurait même pas été en mesure de prendre la décision de la classer comme malédiction impardonnable, puisqu'il n'aurait probablement même pas su qu'elle existait. Si le ministère était au courant, la malédiction serait-elle classée comme impardonnable ? La raison pour laquelle elle n'a pas été classée comme Malédiction impardonnable est que le Ministère n'en aurait pas eu connaissance - il ne pourrait pas prendre de décision sur quelque chose dont il ne connaît pas l'existence. En soi, cela ne dit pas si le ministère l'aurait classé comme tel s'il en avait eu connaissance. Tous les sorts potentiellement dangereux ne sont pas classés comme malédictions impardonnables. Il n'est pas du tout certain que si le ministère connaissait Sectumsempra, il le classerait dans la catégorie des malédictions impardonnables. Il y a d'autres sorts qui pourraient clairement faire du mal. Pour ne citer que quelques exemples, Confringo, Flagrante et la création de Fiendfyre sont tous potentiellement nuisibles mais pas impardonnables. Il n'est jamais précisé pourquoi ces trois malédictions sont classées comme Impardonnables et d'autres non, mais il semble probable que ce soit parce qu'il n'y a que peu ou pas d'utilisations de ces malédictions qui ne soient pas maléfiques. La punition pour l'utilisation d'une malédiction impardonnable est une condamnation à vie à Azkaban, donc seules les pires malédictions, qui ont très peu de chances d'avoir un jour une utilisation non ténébreuse, seraient rendues impardonnables. "Ces trois malédictions - Avada Kedavra, Imperius et Cruciatus - sont connues sous le nom de Malédictions Impardonnables. L'utilisation de l'une d'entre elles sur un autre être humain est suffisante pour justifier une condamnation à vie à Azkaban." - Harry Potter et la Coupe de Feu, chapitre 14 (Les Malédictions Impardonnables) La Sectumsempra répondrait-elle aux critères d'une malédiction impardonnable ? Probablement pas - il transperce les choses comme une épée. Il peut être utilisé pour tout ce qu'une épée, un couteau ou un autre outil de coupe peut faire. Bien que l'utiliser sur des personnes puisse être considéré comme impardonnable, le sort lui-même n'est que l'acte de couper. Il existe de nombreuses choses qu'un sorcier peut raisonnablement vouloir couper sans intention malveillante : légumes, corde, tissu, matériaux de construction. Pour cette raison, il semble peu probable que même si le ministère avait eu connaissance de ce sort, il aurait été classé comme malédiction impardonnable. De plus, il existe une contre-malédiction pour Sectumsempra. "Poussant Harry brutalement de côté, il s'agenouilla au-dessus de Malefoy, tira sa baguette et la traça sur les profondes blessures que le sort de Harry avait causées, marmonnant une incantation qui ressemblait presque à un chant. L'écoulement de sang sembla s'atténuer ; Rogue essuya le résidu sur le visage de Malefoy et répéta son incantation. A présent, les plaies semblaient se tricoter. - Harry Potter et le Prince de Sang-Mêlé, Chapitre 24 (Sectumsempra) Si les blessures causées par Sectumsempra ne peuvent être soignées par de simples sorts de guérison, elles peuvent en revanche être soignées par la contre-curiosité. Ainsi, le Sectumsempra ne serait probablement pas impardonnable si le ministère le savait.
Perché Sectumsempra non è una Maledizione Imperdonabile?
Non sono in molti a conoscere la Sectumsempra: per vietarla bisognerebbe sapere che esiste. Severus Piton inventò la Sectumsempra mentre era a Hogwarts e la scrisse nel suo libro di Pozioni. Non sembra che ne abbia parlato a molte persone, è possibile che non l'abbia detto a nessuno. "Harry stava per rimettere via il libro quando notò l'angolo di una pagina piegato; voltandosi verso di esso, vide l'incantesimo Sectumsempra, con la didascalia 'Per i nemici', che aveva segnato qualche settimana prima". - Harry Potter e il Principe Mezzosangue, capitolo 24 (Sectumsempra) Il libro fu nascosto fino a quando Harry non lo trovò, e Harry non ne parlò nemmeno al resto del mondo dei maghi. Severus stesso è stato visto usare Sectumsempra quando l'Ordine stava trasferendo sette Harry, e Harry lo ha usato alcune volte dopo averlo trovato nel vecchio libro di Piton. Lupin ne è a conoscenza, poiché l'ha descritta come una delle specialità di Piton. Tuttavia, probabilmente sono le uniche persone che la conoscono: non è molto diffusa come le tre Maledizioni Imperdonabili. Non si dice che nessun altro, né tra i Mangiamorte né nell'Ordine della Fenice, la usi. È probabile che nemmeno il Ministero ne fosse a conoscenza. Pertanto, il Ministero non avrebbe nemmeno potuto prendere la decisione di classificarla come Maledizione Imperdonabile, poiché probabilmente non ne conosceva nemmeno l'esistenza. Se il Ministero ne fosse a conoscenza, sarebbe stata classificata come Imperdonabile? Il motivo per cui non è stata classificata come Maledizione Imperdonabile è che il Ministero non ne sarebbe stato a conoscenza: non potrebbe prendere alcuna decisione su qualcosa di cui non conosce l'esistenza. Questo, di per sé, non dice se il Ministero la classificherebbe come tale se ne fosse a conoscenza. Non tutti gli incantesimi potenzialmente dannosi sono classificati come Maledizioni Imperdonabili. Non è affatto garantito, però, che se il Ministero sapesse di Sectumsempra, lo classificherebbe come Maledizione Imperdonabile. Ci sono altri incantesimi che potrebbero chiaramente fare del male. Solo per fare qualche esempio, Confringo, Flagrante e la creazione di Fiendfyre sono tutti potenzialmente dannosi ma non imperdonabili. Non viene mai detto perché queste tre maledizioni siano classificate come Imperdonabili e le altre no, ma sembra probabile che sia perché ci sono pochi o nessun uso per loro che non sia malvagio. La punizione per l'uso di una Maledizione Imperdonabile è una condanna a vita ad Azkaban, quindi solo le peggiori maledizioni, per le quali è altamente improbabile un uso non Oscuro, verrebbero rese Imperdonabili. "Ora... queste tre maledizioni - Avada Kedavra, Imperius e Cruciatus - sono note come Maledizioni Imperdonabili. L'uso di una di esse su un altro essere umano è sufficiente per ottenere una condanna a vita ad Azkaban". - Harry Potter e il Calice di Fuoco, Capitolo 14 (Le Maledizioni Imperdonabili) Ora, Sectumsempra rientrerebbe nei criteri per essere considerata una Maledizione Imperdonabile? Probabilmente no: taglia le cose come una spada. Può essere usato per tutto ciò per cui si può usare una spada, un coltello o un altro strumento da taglio. Anche se usarlo sulle persone potrebbe essere considerato imperdonabile, l'incantesimo in sé è semplicemente l'atto di tagliare. Ci sono molte cose che un mago potrebbe ragionevolmente voler tagliare senza alcun intento malevolo: verdure, corda, stoffa, materiali da costruzione. Per questo motivo, sembra improbabile che anche se il Ministero ne fosse stato a conoscenza, sarebbe stato classificato come Maledizione Imperdonabile. Inoltre, esiste una controcurva per Sectumsempra. "Spingendo Harry bruscamente da parte, si inginocchiò su Malfoy, estrasse la bacchetta e la tracciò sulle profonde ferite che la maledizione di Harry aveva provocato, mormorando un incantesimo che sembrava quasi una canzone. Il flusso di sangue sembrò attenuarsi; Piton pulì i residui dal volto di Malfoy e ripeté l'incantesimo. Ora le ferite sembravano rimarginarsi. - Harry Potter e il Principe Mezzosangue, Capitolo 24 (Sectumsempra) Sebbene le ferite di Sectumsempra non possano essere curate con semplici incantesimi di guarigione, in realtà possono essere curate con la controcurva. Quindi - probabilmente Sectumsempra non sarebbe reso imperdonabile se il Ministero lo sapesse.
108
How can I add a delay to a program in C#?
Use a timer with an interval set to 2–3 seconds. You have three different options to choose from, depending on which type of application you're writing: * ```System.Timers.Timer``` * ```System.Windows.Forms.Timer``` * ```System.Threading.Timer``` Don't use ```Thread.Sleep``` if your application need to process any inputs on that thread at the same time (WinForms, WPF), as ```Sleep``` will completely lock up the thread and prevent it from processing other messages. Assuming a single-threaded application (as most are), your entire application will stop responding, rather than just delaying an operation as you probably intended. Note that it may be fine to use Sleep in pure console application as there are no "events" to handle or on separate thread (also ```Task.Delay``` is better option). In addition to timers and ```Sleep``` you can use ```Task.Delay``` which is asynchronous version of ```Sleep``` that does not block thread from processing events (if used properly - don't turn it into infinite sleep with ```.Wait()```). ``` public async void ClickHandler(...) { // whatever you need to do before delay goes here await Task.Delay(2000); // whatever you need to do after delay. } ``` The same ```await Task.Delay(2000)``` can be used in a ```Main``` method of a console application if you use C# 7.1 (Async main on MSDN blogs). Note: delaying operation with ```Sleep``` has benefit of avoiding race conditions that comes from potentially starting multiple operations with timers/```Delay```. Unfortunately freezing UI-based application is not acceptable so you need to think about what will happen if you start multiple delays (i.e. if it is triggered by a button click) - consider disabling such button, or canceling the timer/task or making sure delayed operation can be done multiple times safely.
Wie kann ich eine Verzögerung zu einem Programm in C# hinzufügen?
Verwenden Sie einen Timer, dessen Intervall auf 2-3 Sekunden eingestellt ist. Sie haben drei verschiedene Optionen zur Auswahl, je nachdem, welche Art von Anwendung Sie schreiben: * ```System.Timers.Timer`` * ```System.Windows.Forms.Timer`` * ```System.Threading.Timer`` Verwenden Sie ```Thread.Sleep``` nicht, wenn Ihre Anwendung gleichzeitig Eingaben auf diesem Thread verarbeiten muss (WinForms, WPF), da ```Sleep``` den Thread komplett blockiert und ihn daran hindert, andere Nachrichten zu verarbeiten. Angenommen, es handelt sich um eine Single-Thread-Anwendung (wie die meisten), dann wird Ihre gesamte Anwendung aufhören zu reagieren, anstatt nur eine Operation zu verzögern, wie Sie es wahrscheinlich beabsichtigt haben. Beachten Sie, dass es in einer reinen Konsolenanwendung in Ordnung sein kann, Sleep zu benutzen, da es keine "Ereignisse" zu behandeln gibt oder auf einem separaten Thread (auch ```Task.Delay``` ist eine bessere Option). Zusätzlich zu Timern und ```Sleep`` können Sie ```Task.Delay`` verwenden, welches eine asynchrone Version von ```Sleep`` ist, die den Thread nicht von der Verarbeitung von Ereignissen blockiert (wenn es richtig verwendet wird - machen Sie es nicht zu einem unendlichen Schlaf mit ```.Wait()```). ```` public async void ClickHandler(...) { // was immer Sie vor der Verzögerung tun müssen, kommt hier hin await Task.Delay(2000); // was auch immer Sie nach der Verzögerung tun müssen. } ``` Das gleiche ```await Task.Delay(2000)``` kann in einer ```Main``-Methode einer Konsolenanwendung verwendet werden, wenn Sie C# 7.1 verwenden (Async main auf MSDN Blogs). Anmerkung: Das Verzögern von Operationen mit ```Sleep`` hat den Vorteil, dass Race Conditions vermieden werden, die durch das potentielle Starten mehrerer Operationen mit Timern/```Delay`` entstehen. Leider ist das Einfrieren von UI-basierten Anwendungen nicht akzeptabel, so dass Sie darüber nachdenken müssen, was passiert, wenn Sie mehrere Verzögerungen starten (z.B. wenn es durch einen Button-Klick ausgelöst wird) - erwägen Sie die Deaktivierung eines solchen Buttons oder das Abbrechen des Timers/der Aufgabe oder stellen Sie sicher, dass die verzögerte Operation mehrmals sicher ausgeführt werden kann.
¿Cómo puedo añadir un retardo a un programa en C#?
Utiliza un temporizador con un intervalo de 2-3 segundos. Tienes tres opciones diferentes para elegir, dependiendo del tipo de aplicación que estés escribiendo: * ```System.Timers.Timer`` * System.Windows.Forms.Timer * ``System.Threading.Timer`` No utilices ```Thread.Sleep`` si tu aplicación necesita procesar cualquier entrada en ese hilo al mismo tiempo (WinForms, WPF), ya que ```Sleep`` bloqueará completamente el hilo e impedirá que procese otros mensajes. Asumiendo una aplicación de un solo hilo (como la mayoría), toda la aplicación dejará de responder, en lugar de retrasar una operación como probablemente pretendías. Ten en cuenta que puede estar bien usar Sleep en una aplicación de consola pura ya que no hay "eventos" que manejar o en un hilo separado (también ```Task.Delay`` es mejor opción). Además de los temporizadores y ``Sleep`` puedes usar ``Task.Delay`` que es una versión asíncrona de ``Sleep`` que no bloquea el procesamiento de eventos (si se usa correctamente - no lo conviertas en un sleep infinito con ```.Wait()``). ``` public async void ClickHandler(...) { // lo que necesites hacer antes del retardo va aquí await Tarea.Retardo(2000); // lo que necesites hacer después del retardo. } ``` El mismo ```await Task.Delay(2000)`` se puede usar en un método ```Main`` de una aplicación de consola si usas C# 7.1 (Async main en los blogs de MSDN). Nota: retrasar la operación con ``Sleep`` tiene el beneficio de evitar condiciones de carrera que vienen de iniciar potencialmente múltiples operaciones con temporizadores/``Delay``. Desafortunadamente, congelar una aplicación basada en la interfaz de usuario no es aceptable, por lo que debes pensar en lo que ocurrirá si inicias múltiples retardos (por ejemplo, si se activa al pulsar un botón) - considera desactivar dicho botón, o cancelar el temporizador/tarea o asegurarte de que la operación retardada se puede realizar varias veces de forma segura.
Comment ajouter un délai à un programme en C# ?
Utilisez une minuterie avec un intervalle de 2 à 3 secondes. Vous avez le choix entre trois options différentes, en fonction du type d'application que vous écrivez : * ``System.Timers.Timer``` * ``System.Windows.Forms.Timer``` * ``System.Windows.Forms.Timer`` * ``System.Windows.Forms.Timer'' N'utilisez pas ``Thread.Sleep`` si votre application a besoin de traiter des entrées sur ce thread en même temps (WinForms, WPF), car ``Sleep`` bloquera complètement le thread et l'empêchera de traiter d'autres messages. Dans le cas d'une application à un seul thread (ce qui est le cas de la plupart des applications), c'est toute l'application qui cessera de répondre, au lieu de simplement retarder une opération comme vous l'aviez probablement prévu. Notez qu'il est possible d'utiliser Sleep dans une application purement console car il n'y a pas d'"événements" à gérer ou sur un thread séparé (``Task.Delay`` est aussi une meilleure option). En plus des timers et de ``Sleep``, vous pouvez utiliser ``Task.Delay`` qui est une version asynchrone de ``Sleep`` qui ne bloque pas le thread dans le traitement des événements (si elle est utilisée correctement - ne la transformez pas en sommeil infini avec ``.Wait()``). ``` public async void ClickHandler(...) { // tout ce que vous devez faire avant le délai va ici await Task.Delay(2000) ; // tout ce que vous devez faire après le délai. } ``` Le même ``await Task.Delay(2000)`` peut être utilisé dans une méthode ``Main`` d'une application console si vous utilisez C# 7.1 (Async main sur les blogs MSDN). Note : retarder une opération avec ``Sleep`` a l'avantage d'éviter les conditions de course qui viennent du démarrage potentiel de multiples opérations avec les timers/``Delay``. Malheureusement, geler les applications basées sur l'interface utilisateur n'est pas acceptable, vous devez donc penser à ce qui se passera si vous lancez plusieurs temporisations (c'est-à-dire si elles sont déclenchées par le clic d'un bouton) - envisagez de désactiver ce bouton, ou d'annuler le timer/la tâche ou de vous assurer que l'opération retardée peut être effectuée plusieurs fois en toute sécurité.
Come posso aggiungere un ritardo a un programma in C#?
Utilizzate un timer con un intervallo impostato su 2-3 secondi. È possibile scegliere tra tre diverse opzioni, a seconda del tipo di applicazione che si sta scrivendo: * ```System.Timers.Timer`` * ``System.Windows.Forms.Timer`` * ``System.Threading.Timer`` Non usare ```Thread.Sleep`` se l'applicazione deve elaborare contemporaneamente degli input su quel thread (WinForms, WPF), perché ```Sleep`` bloccherà completamente il thread e gli impedirà di elaborare altri messaggi. Supponendo che si tratti di un'applicazione a thread singolo (come la maggior parte), l'intera applicazione smetterà di rispondere, invece di ritardare semplicemente un'operazione, come probabilmente si intendeva fare. Si noti che può andare bene usare Sleep in un'applicazione console pura, poiché non ci sono "eventi" da gestire o su thread separati (anche ```Task.Delay`` è un'opzione migliore). Oltre ai timer e a ```Sleep`` si può usare ```Task.Delay`` che è la versione asincrona di ```Sleep`` che non blocca il thread dall'elaborazione degli eventi (se usato correttamente - non trasformarlo in uno sleep infinito con ```.Wait()``). ``` public async void ClickHandler(...) { // qualsiasi cosa si debba fare prima del ritardo va qui await Task.Delay(2000); // qualsiasi cosa si debba fare dopo il ritardo. } ``` Lo stesso ```await Task.Delay(2000)`` può essere usato in un metodo ```Main`` di un'applicazione console se si usa C# 7.1 (Async main sui blog MSDN). Nota: ritardare le operazioni con ```Sleep`` ha il vantaggio di evitare le condizioni di gara che derivano dall'avvio potenziale di più operazioni con timer/```Delay``. Sfortunatamente il congelamento delle applicazioni basate sull'interfaccia utente non è accettabile, quindi bisogna pensare a cosa accadrà se si avviano ritardi multipli (per esempio se è innescato da un clic su un pulsante): si può prendere in considerazione la disabilitazione di tale pulsante, o l'annullamento del timer o del task, oppure assicurarsi che l'operazione ritardata possa essere eseguita più volte in modo sicuro.
109
I'm trying to write a Bash script that will overwrite an existing directory. I have a directory ```foo/``` and I am trying to overwrite ```bar/``` with it. But when I do this: ```cp -Rf foo/ bar/ ``` a new ```bar/foo/``` directory is created. I don't want that. There are two files in ```foo/```; ```a``` and ```b```. There are files with same names in ```bar/``` as well. I want the ```foo/a``` and ```foo/b``` to replace ```bar/a``` and ```bar/b```.
If you want to ensure ```bar/``` ends up identical to ```foo/```, use ```rsync``` instead: ```rsync -a --delete foo/ bar/ ``` If just a few things have changed, this will execute much faster than removing and re-copying the whole directory. * ```-a``` is 'archive mode', which copies faithfully files in ```foo/``` to ```bar/``` * ```--delete``` removes extra files not in ```foo/``` from ```bar/``` as well, ensuring ```bar/``` ends up identical * If you want to see what it's doing, add ```-vh``` for verbose and human-readable * Note: the slash after ```foo``` is required, otherwise ```rsync``` will copy ```foo/``` to ```bar/foo/``` rather than overwriting ```bar/``` itself. * (Slashes after directories in rsync are confusing; if you're interested, here's the scoop. They tell rsync to refer to the contents of the directory, rather than the directory itself. So to overwrite from the contents of ```foo/``` onto the contents of ```bar/```, we use a slash on both. It's confusing because it won't work as expected with a slash on neither, though; rsync sneakily always interprets the destination path as though it has a slash, even though it honors an absence of a slash on the source path. So we need a slash on the source path to make it match the auto-added slash on the destination path, if we want to copy the contents of ```foo/``` into ```bar/```, rather than the directory ```foo/``` itself landing into ```bar/``` as ```bar/foo```.) ```rsync``` is very powerful and useful, if you're curious look around for what else it can do (such as copying over ssh).
Ich versuche, ein Bash-Skript zu schreiben, das ein bestehendes Verzeichnis überschreibt. Ich habe ein Verzeichnis ```foo/`` und versuche, ```bar/`` damit zu überschreiben. Aber wenn ich dies tue: ```cp -Rf foo/ bar/ ``` wird ein neues Verzeichnis ```bar/foo/`` erstellt. Das möchte ich nicht. Es gibt zwei Dateien in ```foo/```; ```a``` und ```b``. Es gibt auch Dateien mit den gleichen Namen in ```bar/```. Ich moechte, dass ```foo/a`` und ```foo/b``` die Dateien ```bar/a`` und ```bar/b``` ersetzen.
Wenn Sie sicherstellen wollen, dass ```bar/`` am Ende mit ```foo/``` identisch ist, verwenden Sie stattdessen ```rsync``: ```rsync -a --delete foo/ bar/ ``` Wenn sich nur ein paar Dinge geändert haben, wird dies viel schneller ausgeführt als das Entfernen und erneute Kopieren des gesamten Verzeichnisses. * ````-a`` ist der "Archivmodus", der die Dateien in ```foo/`` originalgetreu nach ```bar/``` kopiert. * ```--delete`` entfernt zusätzliche Dateien, die nicht in ```foo/``` sind, aus ```bar/```, so dass ```bar/``` am Ende identisch ist * Wenn Sie sehen wollen, was es macht, fügen Sie ```-vh`` für ausführlich und für Menschen lesbar hinzu. * Anmerkung: Der Schrägstrich nach ```foo`` ist erforderlich, da ```rsync`` sonst ```foo/`` nach ```bar/foo/``` kopiert, anstatt ```bar/``` selbst zu überschreiben. * (Schrägstriche nach Verzeichnissen in rsync sind verwirrend; wenn Sie daran interessiert sind, hier ist der Grund dafür. Sie sagen rsync, dass es sich auf den Inhalt des Verzeichnisses beziehen soll und nicht auf das Verzeichnis selbst. Um also den Inhalt von ```foo/`` auf den Inhalt von ```bar/`` zu überschreiben, benutzen wir einen Schrägstrich an beiden Stellen. Es ist verwirrend, weil es mit einem Schrägstrich an keinem der beiden Pfade wie erwartet funktioniert; rsync interpretiert den Zielpfad heimlich immer so, als ob er einen Schrägstrich enthält, obwohl es das Fehlen eines Schrägstrichs im Quellpfad anerkennt. Wir brauchen also einen Schrägstrich im Quellpfad, damit er mit dem automatisch hinzugefügten Schrägstrich im Zielpfad übereinstimmt, wenn wir den Inhalt von ```foo/``` nach ```bar/``` kopieren wollen, anstatt dass das Verzeichnis ```foo/``` selbst als ```bar/``` in ```bar/``` landet). ```rsync`` ist sehr mächtig und nützlich, wenn Sie neugierig sind, schauen Sie sich an, was es sonst noch kann (wie z.B. das Kopieren über ssh).
Estoy tratando de escribir un script Bash que sobrescribirá un directorio existente. Tengo un directorio ``foo/``` y estoy intentando sobrescribir ```bar/``` con él. Pero cuando hago esto ```cp -Rf foo/ bar/ ``` se crea un nuevo directorio ``bar/foo/```. Yo no quiero eso. Hay dos ficheros en ```foo/```; ```a`` y ```b``. Hay archivos con los mismos nombres en ``bar/``` también. Quiero que ``foo/a`` y ``foo/b``` reemplacen a ```bar/a`` y ``bar/b``.
Si quieres asegurarte de que ``bar/``` acaba siendo idéntico a ```foo/```, utiliza ```rsync`` en su lugar: ``rsync -a --delete foo/ bar/ ``` Si sólo han cambiado unas pocas cosas, esto se ejecutará mucho más rápido que eliminar y volver a copiar todo el directorio. * ```-a`` es "modo archivo", que copia fielmente los ficheros de ```foo/``` a ```bar/```. * ```--delete`` elimina también de ```bar/``` los ficheros extra que no están en ```foo/```, asegurando que ```bar/``` acabe idéntico. * Si quieres ver lo que está haciendo, añade ```-vh`` para verbosidad y lectura humana. * Nota: la barra después de ``foo`` es necesaria, de lo contrario ``rsync`` copiará ``foo/`` a ```bar/foo/``` en lugar de sobreescribir ```bar/```. * (Las barras después de los directorios en rsync son confusas; si estás interesado, aquí está la primicia. Le dicen a rsync que se refiera al contenido del directorio, en lugar de al directorio en sí. Así que para sobrescribir desde el contenido de ```foo/`` al contenido de ```bar/```, usamos una barra en ambos. Es confuso porque no funcionará como se espera con una barra en ninguno de los dos, sin embargo; rsync sigilosamente siempre interpreta la ruta de destino como si tuviera una barra, a pesar de que honra la ausencia de una barra en la ruta de origen. Así que necesitamos una barra en la ruta de origen para que coincida con la barra auto-añadida en la ruta de destino, si queremos copiar el contenido de ```foo/``` en ```bar/```, en lugar de que el directorio ```foo/``` aterrice en ```bar/``` como ```bar/````). ```rsync`` es muy potente y útil, si tienes curiosidad mira qué más puede hacer (como copiar sobre ssh).
J'essaie d'écrire un script Bash qui va écraser un répertoire existant. J'ai un répertoire ``foo/`` et j'essaie d'écraser ``bar/`` avec lui. Mais quand je fais ceci : ``cp -Rf foo/ bar/ ``` un nouveau répertoire ``bar/foo/`` est créé. Ce n'est pas ce que je veux. Il y a deux fichiers dans ``foo/`` ; ``a`` et ``b``. Il y a aussi des fichiers avec les mêmes noms dans ``bar/``. Je veux que ``foo/a`` et ``foo/b`` remplacent ``bar/a`` et ``bar/b``.
Si vous voulez vous assurer que ``bar/`` finisse identique à ``foo/``, utilisez ``rsync`` à la place : ``rsync -a --delete foo/ bar/ ``` Si seulement quelques éléments ont été modifiés, cela s'exécutera beaucoup plus rapidement que de supprimer et recopier tout le répertoire. * ``-a`` est le mode archive, qui copie fidèlement les fichiers de ``foo/`` vers ``bar/``` * ``--delete`` supprime les fichiers supplémentaires qui ne sont pas dans ``foo/``` de ``bar/``` également, assurant que ``bar/``` finisse identique. * Si vous voulez voir ce qu'il fait, ajoutez ``-vh`` pour verbeux et lisible par l'homme. * Note : le slash après ``foo`` est nécessaire, sinon ``rsync`` copiera ``foo/``` vers ``bar/foo/``` au lieu d'écraser ``bar/`` lui-même. * (Les barres obliques après les répertoires dans rsync sont déroutantes ; si cela vous intéresse, voici ce qu'il en est. Ils indiquent à rsync de se référer au contenu du répertoire, plutôt qu'au répertoire lui-même. Ainsi, pour écraser le contenu de ``foo/`` sur le contenu de ``bar/``, nous utilisons un slash sur les deux. C'est déroutant parce que cela ne fonctionnera pas comme prévu avec un slash sur les deux, cependant ; rsync interprète toujours sournoisement le chemin de destination comme s'il avait un slash, même s'il honore l'absence d'un slash sur le chemin source. Nous avons donc besoin d'un slash sur le chemin source pour qu'il corresponde au slash ajouté automatiquement sur le chemin de destination, si nous voulons copier le contenu de ``foo/`` dans ``bar/``, plutôt que le répertoire ``foo/`` lui-même atterrissant dans ``bar/`` en tant que ``bar/foo``). ``rsync`` est très puissant et utile, si vous êtes curieux, regardez ce qu'il peut faire d'autre (comme copier par ssh).
Sto cercando di scrivere uno script Bash che sovrascriva una directory esistente. Ho una directory ```foo/``` e sto cercando di sovrascrivere ```bar/``` con essa. Ma quando faccio così: ```cp -Rf foo/ bar/''. ``` viene creata una nuova directory ``bar/foo/``. Non voglio questo. Ci sono due file in ```foo/```; ````a`` e ````b``. Ci sono file con gli stessi nomi anche in ``bar/``. Voglio che i file ```foo/a`` e ```foo/b`` sostituiscano ```bar/a`` e ```bar/b``.
Se volete assicurarvi che ``bar/`` finisca identico a ``foo/``, usate invece ```rsync``: ``rsync -a --delete foo/ bar/ ``` Se sono cambiate solo poche cose, questa operazione sarà molto più veloce della rimozione e della ricopiatura dell'intera directory. * ````-a`` è la "modalità archivio", che copia fedelmente i file presenti in ```foo/`` in ```bar/`` * ```--delete`` rimuove anche i file non presenti in ```foo/``` da ```bar/``, assicurando che ```bar/`` sia identica. * Se si vuole vedere cosa sta facendo, aggiungere ```-vh`` per verboso e leggibile dall'uomo. * Nota: lo slash dopo ```foo`` è necessario, altrimenti ```rsync`` copierà ```foo/`` in ```bar/foo/`` invece di sovrascrivere ``bar/``. * (Gli slash dopo le directory in rsync sono fonte di confusione; se siete interessati, ecco come funziona. Indicano a rsync di fare riferimento al contenuto della directory, piuttosto che alla directory stessa. Quindi, per sovrascrivere il contenuto di ``foo/`` sul contenuto di ``bar/``, si usa uno slash su entrambi. La confusione è dovuta al fatto che non funzionerà come ci si aspetta con uno slash su nessuno dei due; rsync interpreta sempre in modo subdolo il percorso di destinazione come se avesse uno slash, anche se riconosce l'assenza di uno slash sul percorso di origine. Quindi abbiamo bisogno di uno slash sul percorso sorgente per farlo corrispondere allo slash aggiunto automaticamente sul percorso di destinazione, se vogliamo copiare il contenuto di ```foo/``` in ```bar/``, piuttosto che la directory ```foo/``` stessa che atterra in ```bar/`` come ```bar/foo``). ```rsync`` è molto potente e utile, se siete curiosi di vedere cos'altro può fare (come copiare su ssh).
110
Is there a particular reason the elves die off so fast? After the first war against Sauron, I recall the elves being decimated, to the point that they're almost useless army-wise in the trilogy. But I'm guessing men suffered equal or greater losses as well. Anyways, other races just seem much more capable of repopulating, while is seems like there are incredibly few (if any?) elven children. Considering the fact that elves are immortal, wouldn't their population be the fastest to grow? Also the seem to be perpetually 40 years old, so aren't they eternally fertile as well? Why don't they have more kids and build bigger societies?
Tolkien himself addresses this in an essay called "Laws and Customs Among the Eldar". There are essentially two problems: * Elvish libido diminishes over time. Contrary to popular belief (and outward appearance, from a human perspective), Elves do age; and as they get older, they get less interested in procreation. * Having children is exhausting. The Elves believe that their child-bearing process draws a heavier physical and spiritual toll on them, compared to what it does to humans. They're understandable reluctant to have a lot of kids, because what's the point in having a dozen kids if doing so might literally kill you? From "Laws and Customs": It might be thought that, since the Eldar do not (as Men deem) grow old in body, they may bring forth children at any time in the ages of their lives. But this is not so. For the Eldar do indeed grow older, even if slowly: the limit of their lives is the life of Arda, which though long beyond the reckoning of Men is not endless, and ages also. Moreover their body and spirit are not separated but coherent. As the weight of the years, with all their changes of desire and thought, gathers upon the spirit of the Eldar, so do the impulses and moods of their bodies change. [...] Also the Eldar say that in the begetting [conceiving], and still more in the bearing of children, greater share and strength of their being, in mind and in body, goes forth than in the making of mortal children. For these reasons it came to pass that the Eldar brought forth few children; and also that their time of generation was in their youth or earlier life, unless strange and hard fates befell them. History of Middle-earth X Morgoth's Ring Part 3: "The Later Quenta Silmarillion" Chapter 2: "The Second Phase" Laws and Customs Among the Eldar That last point about the toll on their mind and body is worth expanding on, and fortunately Tolkien does this later in the essay: [A]ll the Eldar, being aware of it in themselves, spoke of the passing of much strength, both of mind and of body, into their children, in bearing and begetting. Therefore they hold that the fëa [soul], though unbegotten, draws nourishment directly from the fëa of the mother while she bears and nourishes the hrondo [body; later changed to the word hroä], and mediately but equally from the father, whose fëa is bound in union with the mother's and supports it. History of Middle-earth X Morgoth's Ring Part 3: "The Later Quenta Silmarillion" Chapter 2: "The Second Phase" Laws and Customs Among the Eldar
Gibt es einen bestimmten Grund, warum die Elfen so schnell aussterben? Ich erinnere mich, dass die Elfen nach dem ersten Krieg gegen Sauron so dezimiert wurden, dass sie als Armee in der Trilogie fast nutzlos sind. Aber ich vermute, dass auch die Menschen gleiche oder größere Verluste erlitten haben. Wie auch immer, andere Völker scheinen einfach viel besser in der Lage zu sein, sich neu zu bevölkern, während es anscheinend unglaublich wenige (wenn überhaupt?) Elfenkinder gibt. Wenn man bedenkt, dass Elfen unsterblich sind, würde ihre Bevölkerung dann nicht am schnellsten wachsen? Außerdem scheinen sie ewig 40 Jahre alt zu sein, sind sie also nicht auch ewig fruchtbar? Warum haben sie nicht mehr Kinder und bauen größere Gesellschaften auf?
Tolkien selbst spricht dies in einem Essay mit dem Titel "Gesetze und Bräuche unter den Eldar" an. Es gibt im Wesentlichen zwei Probleme: * Die elbische Libido nimmt mit der Zeit ab. Entgegen der landläufigen Meinung (und dem äußeren Erscheinungsbild aus menschlicher Sicht) altern Elben; und je älter sie werden, desto weniger Interesse haben sie an der Fortpflanzung. * Kinder zu haben ist anstrengend. Die Elfen glauben, dass der Prozess des Kinderkriegens sie körperlich und geistig stärker belastet als die Menschen. Verständlicherweise zögern sie, viele Kinder zu bekommen, denn was nützt es, ein Dutzend Kinder zu haben, wenn man dabei buchstäblich umkommt? Aus "Gesetze und Bräuche": Man könnte meinen, dass die Eldar, da sie nicht (wie die Menschen meinen) körperlich altern, zu jedem Zeitpunkt ihres Lebens Kinder gebären können. Aber das ist nicht der Fall. Denn die Eldar werden in der Tat älter, wenn auch langsam: Die Grenze ihres Lebens ist das Leben von Arda, das, obwohl es jenseits der menschlichen Vorstellungskraft lang ist, nicht endlos ist und ebenfalls altert. Außerdem sind ihr Körper und ihr Geist nicht getrennt, sondern zusammenhängend. So wie die Last der Jahre mit all ihren Veränderungen der Wünsche und Gedanken auf dem Geist der Eldar lastet, so verändern sich auch die Impulse und Stimmungen ihrer Körper. [...] Auch sagen die Eldar, dass bei der Zeugung [Empfängnis] und noch mehr beim Gebären von Kindern ein größerer Anteil und eine größere Kraft ihres Wesens, an Geist und Körper, hervorkommt als bei der Zeugung von sterblichen Kindern. Aus diesen Gründen kam es, dass die Eldar nur wenige Kinder zur Welt brachten und dass die Zeit ihrer Zeugung in ihrer Jugend oder ihrem früheren Leben lag, es sei denn, dass ihnen seltsame und schwere Schicksale widerfuhren. Geschichte Mittelerdes X Morgoths Ring Teil 3: "Das spätere Quenta Silmarillion" Kapitel 2: "Die zweite Phase" Gesetze und Bräuche unter den Eldar Der letzte Punkt über den Tribut, den die Eldar für ihren Geist und ihren Körper entrichten müssen, ist es wert, näher erläutert zu werden, und glücklicherweise tut Tolkien dies später in seinem Essay: [A]lle Eldar, die sich dessen bewusst waren, sprachen davon, dass viel Kraft, sowohl des Geistes als auch des Körpers, auf ihre Kinder übergeht, wenn sie gebären und Kinder zeugen. Deshalb meinen sie, dass die fëa [Seele], obwohl sie nicht gezeugt wird, direkt von der fëa der Mutter genährt wird, während sie den hrondo [Körper; später in das Wort hroä umgewandelt] trägt und nährt, und mittelbar, aber gleichermaßen vom Vater, dessen fëa mit der der Mutter verbunden ist und sie unterstützt. Geschichte von Mittelerde X Morgoths Ring Teil 3: "Das spätere Quenta-Silmarillion" Kapitel 2: "Die zweite Phase" Gesetze und Bräuche unter den Eldar
¿Hay alguna razón en particular por la que los elfos mueran tan rápido? Después de la primera guerra contra Sauron, recuerdo que los elfos fueron diezmados, hasta el punto de que son casi inútiles como ejército en la trilogía. Pero supongo que los hombres también sufrieron pérdidas iguales o mayores. En cualquier caso, otras razas parecen mucho más capaces de repoblar, mientras que parece que hay muy pocos niños elfos (¿o ninguno?). Teniendo en cuenta que los elfos son inmortales, ¿no sería su población la que más rápido crecería? Además, parecen tener siempre 40 años, así que ¿no son eternamente fértiles? ¿Por qué no tienen más hijos y construyen sociedades más grandes?
El propio Tolkien aborda esta cuestión en un ensayo titulado "Leyes y costumbres entre los Eldar". Hay esencialmente dos problemas: * La libido élfica disminuye con el tiempo. Contrariamente a la creencia popular (y a la apariencia externa, desde una perspectiva humana), los elfos envejecen; y a medida que envejecen, se interesan menos por la procreación. * Tener hijos es agotador. Los elfos creen que el proceso de procreación les supone un mayor desgaste físico y espiritual que a los humanos. Es comprensible que sean reacios a tener muchos hijos, porque ¿qué sentido tiene tener una docena de hijos si hacerlo puede matarte literalmente? De "Leyes y costumbres": Podría pensarse que, puesto que los Eldar no envejecen (como consideran los Hombres), pueden tener hijos en cualquier momento de sus vidas. Pero no es así. En efecto, los Eldar envejecen, aunque sea lentamente: el límite de sus vidas es la vida de Arda, que, aunque larga para los hombres, no es interminable y también envejece. Además, su cuerpo y su espíritu no están separados, sino que son coherentes. A medida que el peso de los años, con todos sus cambios de deseo y pensamiento, se acumula en el espíritu de los Eldar, también cambian los impulsos y estados de ánimo de sus cuerpos. [...] También dicen los Eldar que en el engendrar [concebir], y aún más en el tener hijos, sale mayor parte y fuerza de su ser, en mente y en cuerpo, que en el hacer hijos mortales. Por estas razones sucedió que los Eldar tuvieron pocos hijos; y también que su tiempo de generación fue en su juventud o vida temprana, a menos que extraños y duros destinos les ocurrieran. Historia de la Tierra Media X El Anillo de Morgoth Parte 3: "El Silmarillion posterior" Capítulo 2: "La segunda fase" Leyes y costumbres entre los Eldar Merece la pena profundizar en este último punto sobre los estragos en la mente y el cuerpo de los Eldar, y afortunadamente Tolkien lo hace más adelante en el ensayo: [Todos los Eldar, conscientes de ello en sí mismos, hablaban de la transmisión de mucha fuerza, tanto de la mente como del cuerpo, a sus hijos, en el parto y el engendramiento. Por lo tanto, sostienen que la fëa [alma], aunque no engendrada, se nutre directamente de la fëa de la madre mientras ésta engendra y nutre al hrondo [cuerpo; más tarde se cambió a la palabra hroä], y mediata pero igualmente del padre, cuya fëa está ligada en unión con la de la madre y la sostiene. Historia de la Tierra Media X El Anillo de Morgoth Parte 3: "El Silmarillion posterior" Capítulo 2: "La segunda fase" Leyes y costumbres entre los Eldar
Y a-t-il une raison particulière pour laquelle les elfes meurent si vite ? Après la première guerre contre Sauron, je me souviens que les elfes ont été décimés, au point qu'ils sont presque inutiles en termes d'armée dans la trilogie. Mais je suppose que les hommes ont subi des pertes égales ou supérieures à celles des elfes. En tout cas, les autres races semblent bien plus capables de se repeupler, alors qu'il semble qu'il y ait incroyablement peu (voire pas du tout ?) d'enfants elfes. Si l'on considère que les elfes sont immortels, leur population ne serait-elle pas celle qui croît le plus rapidement ? De plus, les elfes semblent être perpétuellement âgés de 40 ans, donc ne sont-ils pas éternellement fertiles ? Pourquoi n'ont-ils pas plus d'enfants et ne construisent-ils pas des sociétés plus grandes ?
Tolkien lui-même aborde cette question dans un essai intitulé "Laws and Customs Among the Eldar" (Lois et coutumes chez les Eldars). Il y a essentiellement deux problèmes : * La libido elfique diminue avec le temps. Contrairement à la croyance populaire (et à l'apparence extérieure, d'un point de vue humain), les Elfes vieillissent, et plus ils vieillissent, moins ils sont intéressés par la procréation. * Avoir des enfants est épuisant. Les elfes pensent que le processus de procréation leur fait payer un tribut physique et spirituel plus lourd qu'aux humains. Il est compréhensible qu'ils hésitent à avoir beaucoup d'enfants, car quel est l'intérêt d'en avoir une douzaine si cela risque de vous tuer littéralement ? Extrait de "Lois et coutumes" : On pourrait penser que, puisque les Eldars ne vieillissent pas (selon l'avis des hommes), ils peuvent avoir des enfants à n'importe quel moment de leur vie. Mais ce n'est pas le cas. En effet, les Eldars vieillissent, même si c'est lentement : la limite de leur vie est la vie d'Arda, qui, bien qu'elle soit longue au-delà de l'entendement des hommes, n'est pas sans fin et vieillit également. De plus, leur corps et leur esprit ne sont pas séparés mais cohérents. Alors que le poids des années, avec tous leurs changements de désir et de pensée, s'accumule sur l'esprit des Eldars, les impulsions et les humeurs de leur corps changent également. [...] Les Eldars disent aussi que dans l'engendrement [la conception], et plus encore dans l'enfantement, une plus grande part et une plus grande force de leur être, dans l'esprit et dans le corps, se manifestent que dans la fabrication d'enfants mortels. C'est pour ces raisons que les Eldars ont eu peu d'enfants, et qu'ils ont été engendrés dans leur jeunesse ou avant, à moins que d'étranges et durs destins ne les aient frappés. Histoire de la Terre du Milieu X L'Anneau de Morgoth Partie 3 : "Les derniers Quenta Silmarillion&quot ; Chapitre 2 : "La seconde phase&quot ; Lois et coutumes chez les Eldars Ce dernier point concernant les dommages causés à leur corps et à leur esprit mérite d'être développé, et heureusement Tolkien le fait plus loin dans l'essai : [T]ous les Eldars, conscients de cela en eux-mêmes, ont parlé de la transmission de beaucoup de force, à la fois de l'esprit et du corps, à leurs enfants, lors de la naissance et de l'engendrement. C'est pourquoi ils considèrent que la fëa [âme], bien que non engendrée, se nourrit directement de la fëa de la mère pendant qu'elle porte et nourrit le hrondo [corps ; plus tard remplacé par le mot hroä], et médiatement mais également du père, dont la fëa est liée en union avec celle de la mère et la soutient. Histoire de la Terre du Milieu X L'Anneau de Morgoth Partie 3 : "Le Silmarillion Quenta postérieur&quot ; Chapitre 2 : "La Seconde Phase&quot ; Lois et coutumes chez les Eldars
C'è una ragione particolare per cui gli elfi muoiono così velocemente? Dopo la prima guerra contro Sauron, ricordo che gli elfi furono decimati, al punto che nella trilogia sono quasi inutili dal punto di vista militare. Ma immagino che anche gli uomini abbiano subito perdite uguali o maggiori. In ogni caso, le altre razze sembrano molto più capaci di ripopolarsi, mentre sembra che ci siano incredibilmente pochi (se non nessuno?) bambini elfici. Considerando il fatto che gli elfi sono immortali, la loro popolazione non sarebbe la più veloce a crescere? Inoltre sembrano avere perennemente 40 anni, quindi non sono anche eternamente fertili? Perché non hanno più figli e non costruiscono società più grandi?
Tolkien stesso affronta la questione in un saggio intitolato "Leggi e costumi tra gli Eldar". I problemi sono essenzialmente due: * La libido elfica diminuisce con il tempo. Contrariamente a quanto si crede (e all'aspetto esteriore, dal punto di vista umano), gli Elfi invecchiano; e invecchiando, diventano meno interessati alla procreazione. * Avere figli è faticoso. Gli Elfi ritengono che il processo di procreazione sia più pesante per loro, sia dal punto di vista fisico che spirituale, rispetto a quanto accade agli umani. Sono comprensibilmente riluttanti ad avere molti figli, perché che senso ha averne una dozzina se poi si rischia di morire? Da "Leggi e costumi": Si potrebbe pensare che, poiché gli Eldar non invecchiano (come ritengono gli Uomini) nel corpo, possano generare figli in qualsiasi momento della loro vita. Ma non è così. Gli Eldar invecchiano davvero, anche se lentamente: il limite della loro vita è la vita di Arda, che sebbene sia lunga oltre i calcoli degli uomini non è infinita, e invecchia anch'essa. Inoltre, il loro corpo e il loro spirito non sono separati, ma coerenti. Come il peso degli anni, con tutti i loro cambiamenti di desiderio e di pensiero, si addensa sullo spirito degli Eldar, così cambiano gli impulsi e gli umori dei loro corpi. [...] Inoltre gli Eldar affermano che nel generare [concepire] e ancor più nel partorire i figli, si sprigiona una parte e una forza maggiore del loro essere, nella mente e nel corpo, che nel fare figli mortali. Per queste ragioni, gli Eldar generarono pochi figli e il loro momento di generazione era la giovinezza o l'inizio della vita, a meno che non fossero colpiti da strani e duri destini. Storia della Terra di Mezzo X L'Anello di Morgoth Parte 3: "I Quenta Silmarillion successivi" Capitolo 2: "La seconda fase" Leggi e costumi tra gli Eldar L'ultimo punto, relativo al tributo alla loro mente e al loro corpo, merita di essere approfondito, e fortunatamente Tolkien lo fa più avanti nel saggio: [Tutti gli Eldar, essendo consapevoli di ciò in loro stessi, parlavano del passaggio di molta forza, sia mentale che corporea, ai loro figli, nel partorire e nel generare. Perciò ritengono che la fëa [anima], sebbene non generata, tragga nutrimento direttamente dalla fëa della madre, mentre questa porta e nutre l'hrondo [corpo; in seguito cambiato nella parola hroä], e mediatamente ma ugualmente dal padre, la cui fëa è legata in unione con quella della madre e la sostiene. Storia della Terra di Mezzo X L'Anello di Morgoth Parte 3: "I Quenta Silmarillion successivi" Capitolo 2: "La seconda fase" Leggi e costumi tra gli Eldar
111
Reasons for being vegetarian or vegan other than ethical reasons?
There are multiple reasons why people are/become Vegetarian/Vegan apart from ethics, including but not limited to * Religion/Culture - most of the worlds Vegetarians reside in India, mainly due to culture/personal beliefs but often interlinked with some of their major religions (Hinduism/Sikhism/Jainism etc) which promote the diet. Some strains of Buddhism also look positively at not eating meat, as does the Seventh-day Adventist Church. * Environment - reducing land degradation, climate change, reducing harm to bio-diversity etc. Animal agriculture causes a huge amount of problems to our planet and environment. * Health - another major point. Being Vegetarian or Vegan won't automatically improve your health of course (it's easy to live off junk food, believe me), but there are lots of scientifically proven benefits to eat a plant based diet over a standard Western diet including a lower risk of heart disease, lower BMI, lower cholesterol etc. * Political - a slightly less common reason but still; some people go Vegetarian or Vegan based on their political beliefs once they realise how much the two share intersectional values (e.g. from Anarchism to Veganarchism)
Gibt es außer ethischen Gründen noch andere Gründe, vegetarisch oder vegan zu leben?
Es gibt viele Gründe, warum Menschen Vegetarier/Veganer sind/werden, abgesehen von ethischen Gründen, einschließlich, aber nicht beschränkt auf * Religion/Kultur - die meisten Vegetarier der Welt leben in Indien, hauptsächlich aufgrund der Kultur/persönlichen Überzeugungen, aber oft in Verbindung mit einigen ihrer Hauptreligionen (Hinduismus/Sikhismus/Jainismus usw.), die diese Ernährungsweise fördern. Einige Richtungen des Buddhismus stehen dem Fleischverzicht ebenfalls positiv gegenüber, ebenso wie die Kirche der Siebenten-Tags-Adventisten. * Umwelt - Verringerung der Bodenverschlechterung, des Klimawandels, der Beeinträchtigung der biologischen Vielfalt usw. Die Tierhaltung verursacht eine Vielzahl von Problemen für unseren Planeten und unsere Umwelt. * Gesundheit - ein weiterer wichtiger Punkt. Vegetarier oder Veganer zu sein, verbessert natürlich nicht automatisch Ihre Gesundheit (es ist leicht, sich von Junkfood zu ernähren, glauben Sie mir), aber es gibt viele wissenschaftlich nachgewiesene Vorteile einer pflanzlichen Ernährung gegenüber einer westlichen Standarddiät, darunter ein geringeres Risiko für Herzkrankheiten, ein niedrigerer BMI, ein niedrigerer Cholesterinspiegel usw. * Politisch - ein etwas weniger häufiger Grund, aber dennoch; einige Menschen werden Vegetarier oder Veganer aufgrund ihrer politischen Überzeugungen, sobald sie erkennen, wie sehr sich die beiden Werte überschneiden (z. B. vom Anarchismus zum Veganarchismus)
¿Razones para ser vegetariano o vegano aparte de las razones éticas?
Hay muchas razones por las que la gente es/se hace vegetariana/vegana, aparte de la ética, entre otras * Religión/cultura: la mayoría de los vegetarianos del mundo residen en la India, principalmente debido a la cultura y las creencias personales, pero a menudo en relación con algunas de sus principales religiones (hinduismo, sijismo, jainismo, etc.), que promueven la dieta. Algunas corrientes del budismo también ven con buenos ojos no comer carne, al igual que la Iglesia Adventista del Séptimo Día. * Medio ambiente: reducir la degradación de la tierra, el cambio climático, reducir el daño a la biodiversidad, etc. La agricultura animal causa muchos problemas a nuestro planeta y al medio ambiente. * Salud - otro punto importante. Ser vegetariano o vegano no mejorará automáticamente tu salud, por supuesto (es fácil vivir a base de comida basura, créeme), pero hay un montón de beneficios científicamente probados en una dieta basada en plantas sobre una dieta occidental estándar, incluyendo un menor riesgo de enfermedades del corazón, menor IMC, menor colesterol, etc. * Política - una razón un poco menos común, pero aún así; algunas personas se hacen vegetarianas o veganas basándose en sus creencias políticas una vez que se dan cuenta de lo mucho que ambas comparten valores comunes (por ejemplo, del anarquismo al veganarquismo).
Raisons d'être végétarien ou végétalien autres que des raisons éthiques ?
Les raisons pour lesquelles les gens sont ou deviennent végétariens ou végétaliens sont multiples et ne se limitent pas à l'éthique. * Religion/Culture - la plupart des végétariens du monde résident en Inde, principalement pour des raisons de culture/croyances personnelles, mais souvent en lien avec certaines de leurs grandes religions (hindouisme/sikhisme/jaïnisme, etc.) qui encouragent le régime alimentaire. Certains courants du bouddhisme, tout comme l'Église adventiste du septième jour, considèrent également de manière positive le fait de ne pas manger de viande. * Environnement - réduction de la dégradation des sols, changement climatique, réduction des dommages causés à la biodiversité, etc. L'agriculture animale est à l'origine d'un grand nombre de problèmes pour notre planète et notre environnement. * La santé - un autre point important. Être végétarien ou végétalien n'améliorera pas automatiquement votre santé bien sûr (il est facile de vivre de malbouffe, croyez-moi), mais il y a de nombreux avantages scientifiquement prouvés à manger un régime à base de plantes par rapport à un régime occidental standard, y compris un risque plus faible de maladie cardiaque, un IMC plus bas, un cholestérol plus bas, etc. * Politique - une raison un peu moins courante, mais tout de même ; certaines personnes deviennent végétariennes ou végétaliennes en raison de leurs croyances politiques, une fois qu'elles ont réalisé à quel point les deux partagent des valeurs communes (par exemple, de l'anarchisme au véganarchisme).
Motivi per essere vegetariani o vegani oltre a quelli etici?
Le ragioni per cui le persone sono/diventano vegetariane/vegane sono molteplici, a parte l'etica, e includono, ma non solo, i seguenti motivi * Religione/cultura - la maggior parte dei vegetariani del mondo risiede in India, soprattutto per motivi culturali/personali, ma spesso legati ad alcune delle loro principali religioni (induismo/sichismo/giainismo ecc.) che promuovono questa dieta. Anche alcuni ceppi del buddismo considerano positivamente il non mangiare carne, così come la Chiesa avventista del settimo giorno. * Ambiente - ridurre il degrado del territorio, i cambiamenti climatici, ridurre i danni alla biodiversità, ecc. L'agricoltura animale causa un'enorme quantità di problemi al nostro pianeta e all'ambiente. * Salute - un altro punto importante. Essere vegetariani o vegani non migliorerà automaticamente la vostra salute (è facile vivere di cibo spazzatura, credetemi), ma ci sono molti benefici scientificamente provati nel mangiare una dieta a base vegetale rispetto a una dieta occidentale standard, tra cui un minor rischio di malattie cardiache, un IMC più basso, un colesterolo più basso, ecc. * Politica - è una ragione un po' meno comune, ma comunque; alcune persone diventano vegetariane o vegane in base alle loro convinzioni politiche, una volta che si rendono conto di quanto le due cose condividano valori intersecanti (ad esempio, dall'anarchismo al veganarchismo).
112
My mom has a green card that expires 2028 but has been out of the US in the UK for over a year due to COVID travel restrictions. Can she enter now?
Assuming she doesn't have a valid Re-entry Permit, she technically doesn't have one of the accepted documents for entry of a returning immigrant, as listed in 8 CFR 211.1(a). A green card is not one of the accepted documents after an absence of more than 1 year, and she doesn't have any of the other documents, like a Re-entry Permit or an immigrant visa. However, under 8 CFR 211.1(b)(3) and 8 CFR 211.4, the immigration officers at the port of entry have the authority to waive her failure to meet the documentary requirements, if they determine that she has not abandoned residence. They often will grant the waiver if it's the first time, the absence is not too much over a year, and/or there is a good reason for not returning earlier (e.g. COVID-19). So if she manages to make it to a US port of entry, there is a good chance they will just let her in, perhaps with a warning. The officer could deny her entry, and pressure her to voluntarily sign I-407 to relinquish her permanent residency. This is voluntary, and she can refuse. If she refuses, they will give her a Notice to Appear for removal proceedings in immigration court at a later date. There, she will be able to present her case to the immigration judge, and if the immigration judge determines that she has not abandoned residence, the immigration judge can grant the waiver for her failure to meet the documentary requirements (think of it as a second opinion on the immigration officer's decision). The other option to all this is that she can apply for an SB1 returning resident visa at a US consulate (which will meet the documentary requirements since it is an immigrant visa). However, this requires showing that she could not return any earlier due to circumstances beyond her control (which may be harder to prove than showing that she did not abandon residence). Also, there is no appeal for visa denials.
Meine Mutter hat eine Green Card, die 2028 ausläuft, aber sie ist seit über einem Jahr aufgrund von COVID-Reisebeschränkungen nicht mehr in den USA, sondern im Vereinigten Königreich. Kann sie jetzt einreisen?
Angenommen, sie hat keine gültige Wiedereinreisegenehmigung, dann hat sie technisch gesehen keines der akzeptierten Dokumente für die Einreise eines zurückkehrenden Einwanderers, wie in 8 CFR 211.1(a) aufgeführt. Eine Green Card gehört nicht zu den akzeptierten Dokumenten nach einer Abwesenheit von mehr als einem Jahr, und sie hat keines der anderen Dokumente wie eine Wiedereinreisegenehmigung oder ein Einwanderungsvisum. Gemäß 8 CFR 211.1(b)(3) und 8 CFR 211.4 sind die Einwanderungsbeamten am Einreisehafen jedoch befugt, ihr die Nichterfüllung der Dokumentenanforderungen zu erlassen, wenn sie feststellen, dass sie ihren Wohnsitz nicht aufgegeben hat. Sie gewähren diesen Verzicht häufig, wenn es sich um das erste Mal handelt, die Abwesenheit nicht länger als ein Jahr dauert und/oder ein triftiger Grund vorliegt, warum sie nicht früher zurückgekehrt ist (z. B. COVID-19). Wenn sie es also bis zu einem US-Einreisehafen schafft, ist die Wahrscheinlichkeit groß, dass man sie einfach einreisen lässt, vielleicht mit einer Verwarnung. Der Beamte könnte ihr die Einreise verweigern und sie drängen, freiwillig das Formular I-407 zu unterschreiben, um auf ihren ständigen Aufenthalt zu verzichten. Dies ist freiwillig, und sie kann sich weigern. Weigert sie sich, erhält sie eine Aufforderung, zu einem späteren Zeitpunkt vor dem Einwanderungsgericht zu erscheinen. Dort kann sie ihren Fall dem Einwanderungsrichter vortragen, und wenn dieser zu dem Schluss kommt, dass sie ihren Wohnsitz nicht aufgegeben hat, kann der Einwanderungsrichter ihr die Verzichtserklärung wegen Nichterfüllung der Dokumentationsanforderungen gewähren (betrachten Sie dies als eine zweite Meinung zur Entscheidung des Einwanderungsbeamten). Die andere Möglichkeit besteht darin, dass sie bei einem US-Konsulat ein SB1-Visum für einen wiederkehrenden Wohnsitz beantragt (das die Dokumentationsanforderungen erfüllt, da es ein Einwanderungsvisum ist). Dazu muss sie jedoch nachweisen, dass sie aufgrund von Umständen, die sich ihrer Kontrolle entziehen, nicht früher zurückkehren konnte (was schwieriger zu beweisen sein dürfte als der Nachweis, dass sie ihren Wohnsitz nicht aufgegeben hat). Außerdem kann gegen die Verweigerung eines Visums kein Rechtsmittel eingelegt werden.
Mi madre tiene una tarjeta verde que expira 2028, pero ha estado fuera de los EE.UU. en el Reino Unido durante más de un año debido a las restricciones de viaje COVID. ¿Puede entrar ahora?
Suponiendo que no tenga un permiso de reingreso válido, técnicamente no tiene uno de los documentos aceptados para la entrada de un inmigrante que regresa, como se indica en 8 CFR 211.1(a). Una tarjeta verde no es uno de los documentos aceptados después de una ausencia de más de 1 año, y ella no tiene ninguno de los otros documentos, como un permiso de reingreso o un visado de inmigrante. Sin embargo, en virtud de los artículos 8 CFR 211.1(b)(3) y 8 CFR 211.4, los funcionarios de inmigración del puerto de entrada están facultados para eximirla del cumplimiento de los requisitos documentales si determinan que no ha abandonado la residencia. Suelen conceder la dispensa si es la primera vez, la ausencia no es muy superior a un año y/o existe una buena razón para no haber regresado antes (por ejemplo, COVID-19). Así que si consigue llegar a un puerto de entrada en EE.UU., es muy probable que la dejen entrar, quizá con una advertencia. El funcionario podría denegarle la entrada y presionarla para que firme voluntariamente la I-407 para renunciar a su residencia permanente. Esto es voluntario y ella puede negarse. Si se niega, le darán un aviso de comparecencia para el procedimiento de expulsión en el tribunal de inmigración en una fecha posterior. Allí, ella podrá presentar su caso al juez de inmigración, y si el juez de inmigración determina que ella no ha abandonado la residencia, el juez de inmigración puede conceder la dispensa por su incumplimiento de los requisitos documentales (piense en ello como una segunda opinión sobre la decisión del oficial de inmigración). La otra opción a todo esto es que solicite un visado de residente retornada SB1 en un consulado de EE.UU. (que cumplirá los requisitos documentales, ya que es un visado de inmigrante). Sin embargo, para ello es necesario demostrar que no pudo regresar antes por circunstancias ajenas a su voluntad (lo que puede ser más difícil de demostrar que demostrar que no abandonó la residencia). Además, no se puede recurrir la denegación del visado.
Ma mère possède une carte verte qui expire en 2028, mais elle a quitté les États-Unis pour se rendre au Royaume-Uni depuis plus d'un an en raison des restrictions de voyage imposées par le COVID. Peut-elle entrer maintenant ?
En supposant qu'elle ne dispose pas d'un permis de réadmission valide, elle n'a techniquement pas l'un des documents acceptés pour l'entrée d'un immigrant de retour, comme indiqué dans le 8 CFR 211.1(a). Une carte verte ne fait pas partie des documents acceptés après une absence de plus d'un an, et elle ne possède aucun des autres documents, tels qu'un permis de réentrée ou un visa d'immigrant. Toutefois, en vertu des règlements 8 CFR 211.1(b)(3) et 8 CFR 211.4, les agents d'immigration au point d'entrée sont habilités à renoncer à son incapacité à satisfaire aux exigences documentaires, s'ils déterminent qu'elle n'a pas abandonné sa résidence. Ils accordent souvent cette dérogation s'il s'agit de la première fois, si l'absence ne dépasse pas un an et/ou s'il existe une bonne raison de ne pas être revenu plus tôt (par exemple, COVID-19). Par conséquent, si elle parvient à se rendre à un point d'entrée aux États-Unis, il y a de fortes chances qu'ils la laissent entrer, peut-être avec un avertissement. L'agent peut lui refuser l'entrée et faire pression sur elle pour qu'elle signe volontairement le formulaire I-407 afin de renoncer à sa résidence permanente. Il s'agit d'une démarche volontaire et elle peut refuser. Si elle refuse, l'agent lui remettra un avis de comparution pour la procédure d'expulsion devant le tribunal de l'immigration à une date ultérieure. Elle pourra alors présenter son cas au juge de l'immigration et, si ce dernier estime qu'elle n'a pas renoncé à sa résidence, il pourra lui accorder une dérogation pour non-respect des exigences documentaires (il s'agit d'un deuxième avis sur la décision de l'agent d'immigration). L'autre option consiste à demander un visa de résident de retour SB1 auprès d'un consulat américain (qui répondra aux exigences documentaires puisqu'il s'agit d'un visa d'immigrant). Toutefois, elle doit pour cela prouver qu'elle n'a pas pu revenir plus tôt en raison de circonstances indépendantes de sa volonté (ce qui peut être plus difficile à prouver que de démontrer qu'elle n'a pas abandonné la résidence). Par ailleurs, il n'y a pas de recours possible en cas de refus de visa.
Mia madre ha una carta verde che scade nel 2028, ma è stata fuori dagli Stati Uniti nel Regno Unito per oltre un anno a causa delle restrizioni di viaggio del COVID. Può entrare ora?
Supponendo che non abbia un permesso di reingresso valido, tecnicamente non ha uno dei documenti accettati per l'ingresso di un immigrato di ritorno, come elencato in 8 CFR 211.1(a). La carta verde non è uno dei documenti accettati dopo un'assenza di oltre un anno, e lei non ha nessuno degli altri documenti, come il permesso di reingresso o il visto per immigrati. Tuttavia, ai sensi dell'8 CFR 211.1(b)(3) e dell'8 CFR 211.4, gli ufficiali dell'immigrazione al porto d'ingresso hanno l'autorità di rinunciare a soddisfare i requisiti documentali, se stabiliscono che non ha abbandonato la residenza. Spesso concedono la deroga se è la prima volta, se l'assenza non supera l'anno e/o se c'è una buona ragione per non tornare prima (ad esempio, COVID-19). Quindi, se riesce a raggiungere un porto d'ingresso negli Stati Uniti, è molto probabile che la lascino entrare, magari con un avvertimento. L'ufficiale potrebbe negarle l'ingresso e farle pressione affinché firmi volontariamente l'I-407 per rinunciare alla residenza permanente. La firma è volontaria e lei può rifiutarsi. Se si rifiuta, le verrà consegnato un avviso di comparizione per il procedimento di espulsione presso il tribunale dell'immigrazione in una data successiva. Lì potrà presentare il suo caso al giudice dell'immigrazione e, se quest'ultimo stabilirà che non ha abbandonato la residenza, potrà concedere la deroga per il mancato soddisfacimento dei requisiti documentali (si tratta di una seconda opinione sulla decisione dell'ufficiale dell'immigrazione). L'altra possibilità è quella di richiedere un visto SB1 per residenti di ritorno presso un consolato statunitense (che soddisferà i requisiti documentali in quanto si tratta di un visto per immigrati). Tuttavia, è necessario dimostrare che non è potuta tornare prima a causa di circostanze al di fuori del suo controllo (il che potrebbe essere più difficile da dimostrare che non ha abbandonato la residenza). Inoltre, il visto non può essere impugnato.
113
What is the LXX and why is it so noteworthy that there is a Greek translation of the OT? Wouldn't it be better to directly reference manuscripts in the original languages?
Before 1947, a good case could be made that the Septuagint represented a more ancient tradition than the Masoretic versions of the Tanakh. Since the Septuagint was produced before 132 BCE (and probably in the 3rd century BCE) and the earliest known Masoretic manuscripts date to the 10th century CE, the Greek translation might have fossilized an early rendering of the Scriptures while the Hebrew continued to be copied and potentially altered. To further support the primacy of the Septuagint, the early Christian and Hellenistic Jewish texts, tended to use that translation rather go back to Hebrew sources. An interesting counter-argument arises from the observation that during the 600 years from Jerome's translation into Latin (the Vulgate) to the earliest Masoretic manuscripts, the Hebrew seems to have been faithfully copied. That suggests that Jewish scribes were exceptionally careful to duplicate their scriptures. After 1947, the evidence changed. According to Wikipedia: [Most] of the Qumran fragments can be classified as being closer to the Masoretic text than to any other text group that has survived. According to Lawrence Schiffman, 60% can be classed as being of proto-Masoretic type, and a further 20% Qumran style with bases in proto-Masoretic texts, compared to 5% proto-Samaritan type, 5% Septuagintal type, and 10% non-aligned. Joseph Fitzmyer noted the following regarding the findings at Qumran Cave 4 in particular: "Such ancient recensional forms of Old Testament books bear witness to an unsuspected textual diversity that once existed; these texts merit far greater study and attention than they have been accorded till now. Thus, the differences in the Septuagint are no longer considered the result of a poor or tendentious attempt to translate the Hebrew into the Greek; rather they testify to a different pre-Christian form of the Hebrew text". Another another article describes the meaning of the categories in detail. A few caveats are in order: * Surveying the Qumran about religious texts seems something akin to surveying a hippie commune about political issues—you're likely to experience some bias. If we could obtain a similar collection from Jerusalem, we'd likely find more agreement and likely the side of MT. Given the diversity in non-Scriptural texts, 60% seems quite solid support. * While it's unlikely, there exists a chronological possibility the scrolls associated with the Septuagint-aligned Hebrew were influenced by the Greek. (Any references one way or the other would be appreciated.) What remains therefore is a window into the community of Alexandrian Jews that produced the translation. For those who are interested in the development of Jewish belief, that can be extremely useful. N. T. Wright's book, The Resurrection of the Son of God, shows that the LXX translators chose to interpret key texts from Daniel and Ezekiel about the resurrection as literal rather than metaphorical. He argues from this that belief in bodily resurrection was more common in Jesus' day than other scholars assert.
Was ist die LXX und warum ist es so bemerkenswert, dass es eine griechische Übersetzung des Alten Testaments gibt? Wäre es nicht besser, sich direkt auf die Manuskripte in den Originalsprachen zu beziehen?
Vor 1947 gab es gute Argumente dafür, dass die Septuaginta eine ältere Tradition repräsentierte als die masoretischen Versionen des Tanach. Da die Septuaginta vor 132 v. Chr. (und wahrscheinlich im 3. Jahrhundert v. Chr.) entstand und die frühesten bekannten masoretischen Manuskripte aus dem 10. Jahrhundert n. Chr. stammen, könnte die griechische Übersetzung eine frühe Wiedergabe der Heiligen Schrift versteinert haben, während das Hebräische weiterhin kopiert und möglicherweise verändert wurde. Um die Vorrangstellung der Septuaginta weiter zu untermauern, tendierten die frühen christlichen und hellenistischen jüdischen Texte dazu, diese Übersetzung zu verwenden, anstatt auf hebräische Quellen zurückzugreifen. Ein interessantes Gegenargument ergibt sich aus der Beobachtung, dass während der 600 Jahre von Hieronymus' Übersetzung ins Lateinische (der Vulgata) bis zu den frühesten masoretischen Manuskripten das Hebräische offenbar getreu kopiert wurde. Das deutet darauf hin, dass die jüdischen Schriftgelehrten bei der Vervielfältigung ihrer Schriften außerordentlich sorgfältig waren. Nach 1947 änderte sich die Beweislage. Laut Wikipedia: [Die meisten] Qumran-Fragmente können als näher am masoretischen Text stehend eingestuft werden als jede andere Textgruppe, die überlebt hat. Laut Lawrence Schiffman können 60 % als proto-masoretisch eingestuft werden und weitere 20 % als Qumran-Stil mit Basen in proto-masoretischen Texten, verglichen mit 5 % proto-samaritanischem Typ, 5 % septuagintalischem Typ und 10 % ohne Ausrichtung. Joseph Fitzmyer bemerkte zu den Funden in Qumran-Höhle 4 insbesondere Folgendes: "Solche alten Überlieferungsformen alttestamentlicher Bücher zeugen von einer ungeahnten Textvielfalt, die einst existierte; diese Texte verdienen eine weitaus größere Untersuchung und Aufmerksamkeit, als ihnen bisher zuteil wurde. So werden die Unterschiede in der Septuaginta nicht mehr als Ergebnis eines schlechten oder tendenziösen Versuchs angesehen, das Hebräische ins Griechische zu übersetzen; vielmehr zeugen sie von einer anderen vorchristlichen Form des hebräischen Textes". In einem anderen Artikel wird die Bedeutung der Kategorien im Detail beschrieben. Ein paar Vorbehalte sind angebracht: * Die Befragung von Qumran zu religiösen Texten ist in etwa so, als würde man eine Hippie-Kommune zu politischen Fragen befragen—man wird wahrscheinlich eine gewisse Voreingenommenheit erleben. Wenn wir eine ähnliche Sammlung aus Jerusalem erhalten könnten, würden wir wahrscheinlich mehr Übereinstimmung und wahrscheinlich die Seite von MT finden. In Anbetracht der Vielfalt der nichtschriftlichen Texte scheinen 60 % eine recht solide Unterstützung zu sein. * Obwohl es unwahrscheinlich ist, besteht die chronologische Möglichkeit, dass die Schriftrollen, die mit dem an den Septuaginta orientierten Hebräisch verbunden sind, vom Griechischen beeinflusst wurden. (Für Hinweise auf die eine oder andere Möglichkeit wären wir dankbar.) Was also bleibt, ist ein Einblick in die Gemeinschaft der alexandrinischen Juden, die die Übersetzung angefertigt haben. Für diejenigen, die an der Entwicklung des jüdischen Glaubens interessiert sind, kann dies äußerst nützlich sein. N. T. Wright zeigt in seinem Buch Die Auferstehung des Gottessohnes, dass die Übersetzer der LXX die Schlüsseltexte aus Daniel und Hesekiel über die Auferstehung eher wörtlich als metaphorisch auslegten. Daraus folgert er, dass der Glaube an die leibliche Auferstehung zur Zeit Jesu weiter verbreitet war, als andere Gelehrte behaupten.
¿Qué es la LXX y por qué es tan notable que exista una traducción griega del AT? ¿No sería mejor hacer referencia directa a los manuscritos en las lenguas originales?
Antes de 1947, se podía argumentar que la Septuaginta representaba una tradición más antigua que las versiones masoréticas del Tanaj. Puesto que la Septuaginta fue producida antes del 132 a.C. (y probablemente en el siglo III a.C.) y los manuscritos masoréticos más antiguos conocidos datan del siglo X d.C., la traducción griega podría haber fosilizado una primera versión de las Escrituras mientras que la hebrea seguía siendo copiada y potencialmente alterada. Para apoyar aún más la primacía de la Septuaginta, los primeros textos judíos cristianos y helenísticos, tendían a utilizar esa traducción en lugar de remontarse a las fuentes hebreas. Un interesante contraargumento surge de la observación de que durante los 600 años transcurridos desde la traducción de Jerónimo al latín (la Vulgata) hasta los primeros manuscritos masoréticos, el hebreo parece haber sido copiado fielmente. Eso sugiere que los escribas judíos eran excepcionalmente cuidadosos a la hora de duplicar sus escrituras. Después de 1947, las pruebas cambiaron. Según Wikipedia: [La mayoría] de los fragmentos de Qumrán pueden clasificarse como más cercanos al texto masorético que a cualquier otro grupo de textos que haya sobrevivido. Según Lawrence Schiffman, el 60% pueden clasificarse como de tipo proto-masorético, y otro 20% de estilo Qumrán con bases en textos proto-masoréticos, frente a un 5% de tipo proto-samaritano, un 5% de tipo septuagintal, y un 10% no alineados. Joseph Fitzmyer señaló lo siguiente en relación con los hallazgos de la cueva 4 de Qumrán en particular: "Estas antiguas formas recensionales de los libros del Antiguo Testamento dan testimonio de una insospechada diversidad textual que existió antaño; estos textos merecen un estudio y una atención mucho mayores de los que se les ha concedido hasta ahora". Así, las diferencias en la Septuaginta ya no se consideran el resultado de un intento pobre o tendencioso de traducir el hebreo al griego, sino que atestiguan una forma precristiana diferente del texto hebreo". Otro artículo describe detalladamente el significado de las categorías. Conviene hacer algunas advertencias: * Encuestar en Qumrán sobre textos religiosos parece algo parecido a encuestar en una comuna hippie sobre cuestiones políticas—es probable que se experimente algún sesgo. Si pudiéramos obtener una colección similar de Jerusalén, probablemente encontraríamos más acuerdo y probablemente del lado de MT. Dada la diversidad en los textos no escriturales, el 60% parece un apoyo bastante sólido. * Aunque es poco probable, existe la posibilidad cronológica de que los rollos asociados con el hebreo alineado con la Septuaginta estuvieran influidos por el griego. (Se agradecería cualquier referencia en un sentido u otro). Lo que queda, por tanto, es una ventana a la comunidad de judíos alejandrinos que produjeron la traducción. Para quienes se interesan por el desarrollo de las creencias judías, esto puede ser sumamente útil. El libro de N. T. Wright, La resurrección del Hijo de Dios, muestra que los traductores de los LXX optaron por interpretar textos clave de Daniel y Ezequiel sobre la resurrección como literales en lugar de metafóricos. A partir de ahí argumenta que la creencia en la resurrección corporal era más común en la época de Jesús de lo que afirman otros estudiosos.
Qu'est-ce que la LXX et pourquoi est-il si important qu'il existe une traduction grecque de l'AT ? Ne serait-il pas préférable de se référer directement aux manuscrits dans les langues originales ?
Avant 1947, on pouvait affirmer que la Septante représentait une tradition plus ancienne que les versions massorètes du Tanakh. Étant donné que la Septante a été produite avant 132 avant notre ère (et probablement au 3e siècle avant notre ère) et que les premiers manuscrits massorètes connus datent du 10e siècle de notre ère, la traduction grecque pourrait avoir fossilisé un premier rendu des Écritures alors que l'hébreu continuait d'être copié et potentiellement modifié. Pour étayer la primauté de la Septante, les premiers textes chrétiens et juifs hellénistiques ont eu tendance à utiliser cette traduction plutôt que de revenir aux sources hébraïques. Un contre-argument intéressant découle de l'observation que pendant les 600 ans qui se sont écoulés entre la traduction de Jérôme en latin (la Vulgate) et les premiers manuscrits massorètes, l'hébreu semble avoir été fidèlement copié. Cela suggère que les scribes juifs étaient exceptionnellement attentifs à la reproduction de leurs écritures. Après 1947, les preuves ont changé. Selon Wikipedia : [La plupart] des fragments de Qumrân peuvent être classés comme étant plus proches du texte massorétique que de tout autre groupe de textes ayant survécu. Selon Lawrence Schiffman, 60 % peuvent être classés comme étant de type proto-masorétique, et 20 % supplémentaires de style de Qumrân avec des bases dans des textes proto-masorétiques, contre 5 % de type proto-samaritain, 5 % de type septuagénaire, et 10 % non alignés. Joseph Fitzmyer a noté ce qui suit concernant les découvertes de la grotte 4 de Qumrân en particulier : "Ces formes anciennes de recension des livres de l'Ancien Testament témoignent d'une diversité textuelle insoupçonnée qui a existé autrefois ; ces textes méritent une étude et une attention bien plus grandes que celles qui leur ont été accordées jusqu'à présent. Ainsi, les différences dans la Septante ne sont plus considérées comme le résultat d'une tentative médiocre ou tendancieuse de traduire l'hébreu en grec ; elles témoignent plutôt d'une forme préchrétienne différente du texte hébreu". Un autre article décrit en détail la signification des catégories. Quelques mises en garde s'imposent : * L'étude des textes religieux de Qumrân ressemble à celle d'une commune hippie sur des questions politiques&mdash ; il est probable qu'il y ait des biais. Si nous pouvions obtenir une collection similaire à Jérusalem, nous trouverions probablement plus d'accord et probablement du côté de MT. Compte tenu de la diversité des textes non scripturaux, une proportion de 60 % semble être un soutien assez solide. * Bien que cela soit peu probable, il existe une possibilité chronologique que les rouleaux associés à l'hébreu aligné sur la Septante aient été influencés par le grec. (Toute référence dans un sens ou dans l'autre serait appréciée). Ce qui reste donc, c'est une fenêtre sur la communauté des Juifs alexandrins qui ont produit la traduction. Pour ceux qui s'intéressent à l'évolution des croyances juives, cela peut être extrêmement utile. Le livre de N. T. Wright, The Resurrection of the Son of God, montre que les traducteurs des LXX ont choisi d'interpréter les textes clés de Daniel et d'Ézéchiel sur la résurrection comme étant littéraux plutôt que métaphoriques. Il en déduit que la croyance en la résurrection corporelle était plus répandue à l'époque de Jésus que ne l'affirment d'autres chercheurs.
Che cos'è la LXX e perché è così importante che esista una traduzione greca dell'AT? Non sarebbe meglio fare riferimento direttamente ai manoscritti nelle lingue originali?
Prima del 1947, si poteva affermare che la Septuaginta rappresentava una tradizione più antica delle versioni masoretiche del Tanakh. Poiché la Septuaginta è stata prodotta prima del 132 a.C. (e probabilmente nel III secolo a.C.) e i primi manoscritti masoretici conosciuti risalgono al X secolo d.C., la traduzione greca potrebbe aver fossilizzato una prima resa delle Scritture, mentre l'ebraico continuava a essere copiato e potenzialmente alterato. A ulteriore sostegno del primato della Septuaginta, i primi testi ebraici cristiani ed ellenistici tendevano a utilizzare quella traduzione piuttosto che risalire alle fonti ebraiche. Un interessante contro-argomento nasce dall'osservazione che durante i 600 anni che vanno dalla traduzione di Girolamo in latino (la Vulgata) ai primi manoscritti masoretici, l'ebraico sembra essere stato copiato fedelmente. Ciò suggerisce che gli scribi ebrei erano eccezionalmente attenti a duplicare le loro scritture. Dopo il 1947, le prove sono cambiate. Secondo Wikipedia: [La maggior parte dei frammenti di Qumran può essere classificata come più vicina al testo masoretico che a qualsiasi altro gruppo testuale sopravvissuto. Secondo Lawrence Schiffman, il 60% può essere classificato come di tipo proto-masoretico e un altro 20% di stile Qumran con basi in testi proto-masoretici, rispetto al 5% di tipo proto-samaritano, al 5% di tipo settenario e al 10% non allineato. Joseph Fitzmyer ha osservato quanto segue riguardo ai ritrovamenti della Grotta 4 di Qumran in particolare: "Queste antiche forme ricorsive dei libri dell'Antico Testamento testimoniano una diversità testuale insospettata che esisteva un tempo; questi testi meritano uno studio e un'attenzione molto maggiori di quelli che sono stati accordati finora". Così, le differenze nella Septuaginta non sono più considerate il risultato di uno scarso o tendenzioso tentativo di tradurre l'ebraico in greco; piuttosto testimoniano una diversa forma precristiana del testo ebraico". Un altro articolo descrive in dettaglio il significato delle categorie. Alcune avvertenze sono d'obbligo: * Indagare a Qumran sui testi religiosi sembra qualcosa di simile a un'indagine su una comune hippy su questioni politiche; è probabile che si verifichino dei pregiudizi. Se potessimo ottenere una raccolta simile da Gerusalemme, probabilmente troveremmo un maggiore accordo e probabilmente il lato di MT. Data la diversità dei testi non scritturali, il 60% sembra un sostegno abbastanza solido. * Sebbene sia improbabile, esiste la possibilità cronologica che i rotoli associati all'ebraico allineato ai settanta siano stati influenzati dal greco. (Qualsiasi riferimento in un senso o nell'altro sarebbe apprezzato). Ciò che rimane è quindi una finestra sulla comunità di ebrei alessandrini che ha prodotto la traduzione. Per coloro che sono interessati allo sviluppo del credo ebraico, ciò può essere estremamente utile. Il libro di N. T. Wright, La resurrezione del Figlio di Dio, mostra che i traduttori dei LXX scelsero di interpretare testi chiave di Daniele ed Ezechiele sulla resurrezione come letterali piuttosto che metaforici. Ne deduce che la credenza nella resurrezione corporea era più comune ai tempi di Gesù di quanto non affermino altri studiosi.
114
I have to disable inputs at first and then on click of a link to enable them. This is what I have tried so far, but it doesn't work. HTML: ``` ``` jQuery: ```$("#edit").click(function(event){ event.preventDefault(); $('.inputDisabled').removeAttr("disabled") }); ``` This shows me ```true``` and then ```false``` but nothing changes for the inputs: ```$("#edit").click(function(event){ alert(''); event.preventDefault(); alert($('.inputDisabled').attr('disabled')); $('.inputDisabled').removeAttr("disabled"); alert($('.inputDisabled').attr('disabled')); }); ```
Always use the ```prop()``` method to enable or disable elements when using jQuery (see below for why). In your case, it would be: ```$("#edit").click(function(event){ event.preventDefault(); $('.inputDisabled').prop("disabled", false); // Element(s) are now enabled. }); ``` jsFiddle example here. Why use ```prop()``` when you could use ```attr()```/```removeAttr()``` to do this? Basically, ```prop()``` should be used when getting or setting properties (such as ```autoplay```, ```checked```, ```disabled``` and ```required``` amongst others). While what you want to do can technically be done using ```attr()```/```removeAttr()```, it doesn't mean it should be done - and can cause strange/problematic behaviour, as in this case. "The difference between attributes and properties can be important in specific situations. Before jQuery 1.6, the ```.attr()``` method sometimes took property values into account when retrieving some attributes, which could cause inconsistent behavior. As of jQuery 1.6, the ```.prop()``` method provides a way to explicitly retrieve property values, while ```.attr()``` retrieves attributes." "Properties generally affect the dynamic state of a DOM element without changing the serialized HTML attribute. Examples include the ```value``` property of input elements, the ```disabled``` property of inputs and buttons, or the ```checked``` property of a checkbox. The ```.prop()``` method should be used to set ```disabled``` and ```checked``` instead of the ```.attr()``` method. The ```.val()``` method should be used for getting and setting ```value```." - jQuery documentation for prop() Pre-jQuery 3.0 (before 2016) The reason why you should use ```prop``` over ```removeAttr()``` is that ```removeAttr()``` completely removes the ```disabled``` attribute itself - as this method would simply set the corresponding property name to ```false```: Prior to jQuery 3.0, using .removeAttr() on a boolean attribute such as checked, selected, or readonly would also set the corresponding named property to false. This behavior was required for ancient versions of Internet Explorer but is not correct for modern browsers because the attribute represents the initial value and the property represents the current (dynamic) value. - jQuery 3.0 Breaking Changes While ```prop()``` merely sets the property's underlying boolean value to false.
Ich muss die Eingaben zunächst deaktivieren und dann beim Klicken auf einen Link aktivieren. Das habe ich bis jetzt versucht, aber es funktioniert nicht. HTML: ``` ``` jQuery: ```$("#edit").click(function(event){ event.preventDefault(); $('.inputDisabled').removeAttr("disabled") }); ``` Dies zeigt mir ```true``` und dann ```false``, aber es ändert sich nichts an den Eingaben: ```$("#edit").click(function(event){ alert(''); event.preventDefault(); alert($('.inputDisabled').attr('disabled')); $('.inputDisabled').removeAttr("disabled"); alert($('.inputDisabled').attr('disabled')); }); ```
Verwenden Sie immer die Methode ``prop()``, um Elemente zu aktivieren oder zu deaktivieren, wenn Sie jQuery verwenden (siehe unten, warum). In Ihrem Fall wäre das so: ```$("#edit").click(function(event){ event.preventDefault(); $('.inputDisabled').prop("disabled", false); // Element(e) sind jetzt aktiviert. }); ``` jsFiddle Beispiel hier. Warum ``prop()`` verwenden, wenn man auch ``attr()``/```removeAttr()``` dafür verwenden kann? Grundsätzlich sollte ```prop()`` verwendet werden, wenn man Eigenschaften (wie ```autoplay``, ```checked``, ```disabled`` und ```required`` unter anderem) erhalten oder setzen möchte. Während das, was Sie tun wollen, technisch mit ```attr()```/``removeAttr()``` getan werden kann, bedeutet das nicht, dass es getan werden sollte - und kann zu seltsamem/problematischem Verhalten führen, wie in diesem Fall. "Der Unterschied zwischen Attributen und Eigenschaften kann wichtig sein in bestimmten Situationen wichtig sein. Vor jQuery 1.6 hat die Methode ```.attr()``` manchmal beim Abrufen einiger Attribute Eigenschaftswerte berücksichtigt, was zu inkonsistentem Verhalten führen konnte. Ab jQuery 1.6 bietet die Methode ```.prop()``` Methode einen Weg, um explizit Eigenschaftswerte abzurufen, während ``.attr()```` Attribute abruft; "Eigenschaften beeinflussen im Allgemeinen den dynamischen Zustand eines DOM-Elements, ohne ohne das serialisierte HTML-Attribut zu verändern. Beispiele hierfür sind die ```value``` Eigenschaft von Eingabeelementen, die ```disabled`` Eigenschaft von Eingaben und Buttons, oder die Eigenschaft ``checked`` eines Kontrollkästchens. Die Methode ```.prop()``` sollte verwendet werden, um ```disabled`` und ``checked`` zu setzen, anstatt die ```.attr()``` Methode verwendet werden. Die Methode ```.val()`` sollte für das Holen und Setzen von ``Wert``." - jQuery Dokumentation für prop() Vor jQuery 3.0 (vor 2016) Der Grund, warum Sie ``prop`` gegenüber ``removeAttr()``` verwenden sollten, ist, dass ``removeAttr()``` das Attribut ``disabled`` selbst vollständig entfernt - da diese Methode den entsprechenden Eigenschaftsnamen einfach auf ``false`` setzen würde: Vor jQuery 3.0 wurde mit .removeAttr() ein boolesches Attribut wie wie "checked", "selected" oder "readonly" wurde auch die entsprechende benannte Eigenschaft auf false gesetzt. Dieses Verhalten war erforderlich für alte Versionen des Internet Explorers erforderlich, ist aber bei modernen Browsern nicht korrekt weil das Attribut den Anfangswert darstellt und die Eigenschaft den aktuellen (dynamischen) Wert repräsentiert. - jQuery 3.0 - grundlegende Änderungen Während ``prop()'' lediglich den zugrunde liegenden booleschen Wert der Eigenschaft auf false setzt.
Al principio tengo que desactivar las entradas y luego, al hacer clic en un enlace, activarlas. Esto es lo que he intentado hasta ahora, pero no funciona. HTML: ``` ``` jQuery: ```$("#edit").click(function(event){ event.preventDefault(); $('.inputDisabled').removeAttr("disabled") }); ``` Esto me muestra ```true`` y luego ```false`` pero nada cambia para los inputs: ```$("#edit").click(function(event){ alert(''); event.preventDefault(); alert($('.inputDisabled').attr('disabled')); $('.inputDisabled').removeAttr("disabled"); alert($('.inputDisabled').attr("disabled")); }); ```
Usa siempre el método ```prop()`` para activar o desactivar elementos cuando uses jQuery (mira más abajo por qué). En tu caso, sería ```$("#edit").click(function(event){ event.preventDefault(); $('.inputDisabled').prop("disabled", false); // Elemento(s) están ahora habilitados. }); ``` Ejemplo jsFiddle aquí. Por qué usar ``prop()`` cuando podrías usar ``attr()``/``removeAttr()`` para hacer esto? Básicamente, ``prop()`` debería utilizarse para obtener o establecer propiedades (como ``autoplay``, ``checked``, ``disabled`` y ``required`` entre otras). Aunque lo que quieres hacer puede hacerse técnicamente usando ``attr()``/``removeAttr()``, no significa que deba hacerse - y puede causar comportamientos extraños/problemáticos, como en este caso. "La diferencia entre atributos y propiedades puede ser importante en situaciones específicas. Antes de jQuery 1.6, el método ```.attr()`` a veces tenía en cuenta los valores de las propiedades cuando recuperaba algunos atributos, lo que podía causar un comportamiento inconsistente. A partir de jQuery 1.6, el método ```.prop()``` permite recuperar explícitamente los valores de las propiedades, mientras que el método ```.attr()`` recupera atributos." "Las propiedades generalmente afectan el estado dinámico de un elemento DOM sin cambiar el atributo HTML serializado. Algunos ejemplos son la propiedad ```value``. de los elementos input, la propiedad ``disabled`` de los inputs y botones o la propiedad ``checked`` de una casilla de verificación. El método ``.prop()`` para establecer las propiedades ``disabled`` y ``checked`` en lugar del método ```.attr()```. en lugar de ``.attr()``. El método ``.val()`` debe utilizarse para obtener y establecer ```value``." - Documentación de jQuery para prop() Pre-jQuery 3.0 (antes de 2016) La razón por la que deberías usar ```prop`` en lugar de ```removeAttr()`` es que ``removeAttr()`` elimina completamente el atributo ``disabled`` - ya que este método simplemente establecería el nombre de la propiedad correspondiente a ```false``: Antes de jQuery 3.0, el uso de .removeAttr() en un atributo booleano como como checked, selected, o readonly también establecía la correspondiente a false. Este comportamiento era necesario para versiones antiguas de de Internet Explorer, pero no es correcto para los navegadores modernos porque el atributo representa el valor inicial y la propiedad representa el valor actual (dinámico). - Cambios en jQuery 3.0 Mientras que ```prop()`` simplemente establece el valor booleano subyacente de la propiedad a false.
Je dois d'abord désactiver les entrées, puis les activer en cliquant sur un lien. C'est ce que j'ai essayé jusqu'à présent, mais cela ne fonctionne pas. HTML : ``` ``` jQuery : ```$("#edit").click(function(event){ event.preventDefault() ; $('.inputDisabled').removeAttr("disabled") }) ; ``` Cela me montre ``true`` puis ``false`` mais rien ne change pour les entrées : ```$("#edit").click(function(event){ alert('') ; event.preventDefault() ; alert($('.inputDisabled').attr('disabled')) ; $('.inputDisabled').removeAttr("disabled") ; alert($('.inputDisabled').attr('disabled')) ; }) ; ```
Utilisez toujours la méthode ``prop()`` pour activer ou désactiver des éléments lorsque vous utilisez jQuery (voir ci-dessous pour savoir pourquoi). Dans votre cas, ce serait : ``$("#edit&quot ;).click(function(event){ event.preventDefault() ; $('.inputDisabled').prop("disabled&quot ;, false) ; // Les éléments sont maintenant activés. }) ; ``` Exemple de jsFiddle ici. Pourquoi utiliser ``prop()`` alors que vous pourriez utiliser ``attr()``/``removeAttr()`` pour faire cela ? Fondamentalement, ``prop()`` doit être utilisé pour obtenir ou définir des propriétés (telles que ``autoplay``, ``checked``, ``disabled`` et ``required`` entre autres). Bien que ce que vous voulez faire puisse techniquement être fait en utilisant ``attr()``/``removeAttr()``, cela ne signifie pas qu'il faille le faire - et cela peut causer des comportements étranges/problématiques, comme dans ce cas. La différence entre les attributs et les propriétés peut être importante dans des dans des situations spécifiques. Avant jQuery 1.6, la méthode ``.attr()`` prenait parfois en compte les valeurs des propriétés lors de la récupération des données. prenait parfois en compte les valeurs des propriétés lors de la récupération de certains attributs, ce qui pouvait entraîner un comportement incohérent. Depuis jQuery 1.6, la méthode ``.prop()`` permet de récupérer explicitement les valeurs des propriétés, tandis que ``.attr()`` récupère les attributs ; Les propriétés affectent généralement l'état dynamique d'un élément DOM sans modifier l'attribut HTML sérialisé. sans modifier l'attribut HTML sérialisé. Les exemples incluent la propriété ``value`` des éléments d'entrée, la propriété ``disabled`` des entrées et des boutons, ou la propriété ``disabled``. ou la propriété ``checked`` d'une case à cocher. La méthode ``.prop()`` doit être utilisée pour définir la propriété ``.prop()``. doit être utilisée pour définir les propriétés ``disabled`` et ``checked`` au lieu de la méthode ``.attr()``. au lieu de la méthode ``.attr()``. La méthode ``.val()`` doit être utilisée pour obtenir et définir les éléments suivants ``value``.&quot ; - Documentation de jQuery pour prop() Pré-jQuery 3.0 (avant 2016) La raison pour laquelle vous devriez utiliser ``prop`` plutôt que ``removeAttr()`` est que ``removeAttr()`` supprime complètement l'attribut ``disabled`` lui-même - puisque cette méthode mettrait simplement le nom de la propriété correspondante à ``false`` : Avant jQuery 3.0, l'utilisation de .removeAttr() sur un attribut booléen tel que comme checked, selected ou readonly, définissait également la propriété nommée correspondante à false. Ce comportement était nécessaire pour les anciennes versions d'Internet Explorer, mais n'est pas correct. versions anciennes d'Internet Explorer, mais n'est pas correct pour les navigateurs modernes, car l'attribut représente la valeur initiale de la propriété. car l'attribut représente la valeur initiale et la propriété représente la valeur actuelle (dynamique). - Ruptures de jQuery 3.0 Alors que ``prop()`` fixe simplement la valeur booléenne sous-jacente de la propriété à false.
All'inizio devo disabilitare gli input e poi, facendo clic su un link, abilitarli. Questo è ciò che ho provato finora, ma non funziona. HTML: ``` ``` jQuery: ```$("#edit").click(function(event){ event.preventDefault(); $('.inputDisabled').removeAttr("disabled") }); ``` Questo mi mostra ```true`` e poi ```false`` ma non cambia nulla per gli input: ````$("#edit").click(function(event){ alert(''); event.preventDefault(); alert($('.inputDisabled').attr('disabled')); $('.inputDisabled').removeAttr("disabled"); alert($('.inputDisabled').attr('disabled')); }); ```
Usare sempre il metodo ```prop()`` per abilitare o disabilitare gli elementi quando si usa jQuery (si veda sotto il perché). Nel vostro caso, sarebbe: ```$("#edit").click(function(event){ event.preventDefault(); $('.inputDisabled').prop("disabled", false); // Gli elementi sono ora abilitati. }); ``` Esempio di jsFiddle qui. Perché usare ```prop()`` quando si potrebbe usare ```attr()``/``removeAttr()`` per farlo? Fondamentalmente, ```prop()`` dovrebbe essere usato quando si ottengono o si impostano proprietà (come ```autoplay``, ```checked``, ```disabled`` e ```required``, tra le altre). Sebbene ciò che si vuole fare sia tecnicamente possibile utilizzando ```attr()``/``removeAttr()``, ciò non significa che debba essere fatto e può causare comportamenti strani/problematici, come in questo caso. "La differenza tra attributi e proprietà può essere importante in situazioni specifiche. Prima di jQuery 1.6, il metodo ```.attr()`` a volte teneva conto dei valori delle proprietà quando recuperava alcuni attributi, che poteva causare un comportamento incoerente. A partire da jQuery 1.6, il metodo ```.prop()``` fornisce un modo per recuperare esplicitamente i valori delle proprietà, mentre il metodo ```.attr()`` recupera gli attributi; "Le proprietà generalmente influenzano lo stato dinamico di un elemento DOM senza modificare l'attributo HTML serializzato. Ne sono un esempio la proprietà ```value``` degli elementi di input, la proprietà ```disabilitato`` degli input e dei o la proprietà ```checked`` di una casella di controllo. Il metodo ```.prop()`` deve essere usato per impostare ```disabled`` e ``checked`` invece del metodo ```.attr()``. . Il metodo ```.val()`` dovrebbe essere usato per ottenere e impostare ```valore```." - Documentazione jQuery per prop() Prima di jQuery 3.0 (prima del 2016) Il motivo per cui si dovrebbe usare ```prop``` rispetto a ```removeAttr()`` è che ```removeAttr()`` rimuove completamente l'attributo ```disabled``, poiché questo metodo imposterebbe semplicemente il nome della proprietà corrispondente a ```false``: Prima di jQuery 3.0, l'utilizzo di .removeAttr() su un attributo booleano come come checked, selected o readonly, avrebbe impostato anche la corrispondente proprietà a false. Questo comportamento era necessario per le versioni versioni di Internet Explorer, ma non è corretto per i browser moderni. perché l'attributo rappresenta il valore iniziale e la proprietà rappresenta il valore corrente (dinamico). - Cambiamenti radicali di jQuery 3.0 Mentre ```prop()`` si limita a impostare il valore booleano sottostante della proprietà su false.
115
I'm no expert in darkroom photography, but it seems a little odd that there is a type of light that doesn't affect film or developing paper etc. So why is a dark-room safelight safe?
Photo films and papers are made from salts of silver that naturally only darken when exposed to violet or blue light. In the early days of photography, this was all that was available. Therefore these films and papers are able to be handled under any light source that does not radiate blue light. By the way, the violet and blue frequencies of light are the shortest, and are the most energetic when it comes to inducing a chemical change. These early films and papers could all be be handled safely under red light as well as yellow light. These lamps do not emit violet or blue. These blue-sensitive-only films did an OK job, with some exceptions. Women’s faces with cosmetics, like lipstick and rouge on the cheeks, came out weird. Warm tones reproduced super dark, and most times lips and cheeks turned black, void of detail on the finished picture. The bottom line is, many colors in nature reproduced incorrectly with this early blue-sensitive-only film. The cure was accidental. Professor Hermann Vogel at Berlin Technical was trying to solve the problem of halation. This results when taking a picture of bright objects, like light sources or gemstones and the like. These objects play on the film with lots of light energy. This energy often goes completely through the film and hits something behind the film. The light is then reflected back into the film. The result is a halo around bright objects. The professor had one of his students dye the silver salts yellow, thinking the yellow dye would filter out the annoying reflected blue from the rear. He tried this dyed film and it did the trick, plus the film gained sensitivity to green light. He named this blue/green sensitive film orthochromatic (Latin for correct color). The year was 1857, and the quality of film reproducing the colors of nature moved forward by a big leap. A few years later, one of his graduate students, experimenting with different dyes, discovered how to make films sensitive to blue, green and red light. This film was called panchromatic (the pan prefix in Greek means "all"). Thus panchromatic film reproduces all colors found in nature with high accuracy. The bad news was, the darkroom folks were forced to give up the red and yellow safelight. A super dim green safelight could be used for a short period of time during developing. Photo papers remained insensitive to red for the most part - no need, as they work OK with just blue and green sensitivity. Modern variable contrast photo papers have two sensitive coats, one for blue light and one for green light. We can use a safelight on these papers; it is amber with reduced brilliance. Films and papers that make color pictures are panchromatic, and most safelights are not safe. We can use infrared lamps with a specialized night vision infrared scope to view and handle most panchromatic films and papers, because these materials have low sensitivity to infrared.
Ich bin kein Experte auf dem Gebiet der Dunkelkammerfotografie, aber es erscheint mir etwas seltsam, dass es eine Art von Licht gibt, das den Film oder das Entwicklungspapier usw. nicht beeinträchtigt. Warum ist also ein Dunkelkammerlicht sicher?
Fotofilme und -papiere werden aus Silbersalzen hergestellt, die von Natur aus nur dann dunkel werden, wenn sie mit violettem oder blauem Licht belichtet werden. In den Anfängen der Fotografie war dies alles, was zur Verfügung stand. Deshalb können diese Filme und Papiere unter jeder Lichtquelle verarbeitet werden, die kein blaues Licht ausstrahlt. Übrigens sind die violetten und blauen Frequenzen des Lichts die kürzesten und die energiereichsten, wenn es darum geht, eine chemische Veränderung herbeizuführen. Diese frühen Filme und Papiere konnten sowohl unter rotem als auch unter gelbem Licht sicher verarbeitet werden. Diese Lampen strahlen weder violettes noch blaues Licht ab. Diese rein blauempfindlichen Filme waren bis auf einige Ausnahmen in Ordnung. Frauengesichter mit Kosmetika, wie Lippenstift und Rouge auf den Wangen, kamen seltsam heraus. Warme Töne wurden sehr dunkel wiedergegeben, und meistens wurden Lippen und Wangen schwarz und ohne Details auf dem fertigen Bild. Das Fazit ist, dass viele Farben in der Natur mit diesem frühen, nur blauempfindlichen Film falsch wiedergegeben wurden. Die Abhilfe war zufällig. Professor Hermann Vogel von der Technischen Universität Berlin versuchte, das Problem des Lichthofs zu lösen. Dieser entsteht, wenn man helle Gegenstände wie Lichtquellen oder Edelsteine und ähnliches fotografiert. Diese Objekte spielen auf dem Film mit einer großen Menge an Lichtenergie. Diese Energie geht oft vollständig durch den Film und trifft auf etwas hinter dem Film. Das Licht wird dann in den Film zurückreflektiert. Das Ergebnis ist ein Lichthof um helle Objekte. Der Professor ließ einen seiner Studenten die Silbersalze gelb einfärben, weil er dachte, der gelbe Farbstoff würde das störende, von hinten reflektierte Blau herausfiltern. Er probierte den gefärbten Film aus, und es klappte, außerdem wurde der Film empfindlicher für grünes Licht. Er nannte diesen blau/grün-empfindlichen Film orthochromatisch (lateinisch für "richtige Farbe"). Man schrieb das Jahr 1857, und die Qualität des Films, der die Farben der Natur wiedergibt, machte einen großen Sprung nach vorn. Einige Jahre später entdeckte einer seiner Studenten, der mit verschiedenen Farbstoffen experimentierte, wie man Filme herstellen konnte, die für blaues, grünes und rotes Licht empfindlich waren. Dieser Film wurde panchromatisch genannt (die Vorsilbe pan bedeutet im Griechischen "alles"). Der panchromatische Film gibt also alle in der Natur vorkommenden Farben mit hoher Genauigkeit wieder. Die schlechte Nachricht war, dass die Leute in der Dunkelkammer gezwungen waren, das rote und gelbe Sicherheitslicht aufzugeben. Ein sehr schwaches grünes Safelight konnte für kurze Zeit während der Entwicklung verwendet werden. Die Fotopapiere blieben größtenteils unempfindlich gegenüber Rot - das war auch nicht nötig, da sie auch mit blauer und grüner Empfindlichkeit gut funktionieren. Moderne Fotopapiere mit variablem Kontrast haben zwei empfindliche Schichten, eine für blaues Licht und eine für grünes Licht. Für diese Papiere kann man ein Safelight verwenden, das bernsteinfarben ist und eine geringere Brillanz aufweist. Filme und Papiere, die Farbbilder erzeugen, sind panchromatisch, und die meisten Safelights sind nicht sicher. Die meisten panchromatischen Filme und Papiere können mit Infrarotlampen und einem speziellen Nachtsicht-Infrarotfernrohr betrachtet und bearbeitet werden, da diese Materialien nur wenig empfindlich auf Infrarotlicht reagieren.
No soy experto en fotografía de cuarto oscuro, pero me parece un poco raro que haya un tipo de luz que no afecte a la película ni al papel de revelado, etc. Entonces, ¿por qué es segura una luz de seguridad de cuarto oscuro?
Las películas y papeles fotográficos se fabrican con sales de plata que sólo se oscurecen cuando se exponen a la luz violeta o azul. En los inicios de la fotografía, esto era todo lo que había. Por lo tanto, estas películas y papeles pueden manipularse bajo cualquier fuente de luz que no irradie luz azul. Por cierto, las frecuencias violeta y azul de la luz son las más cortas y las más energéticas a la hora de inducir un cambio químico. Todas estas primeras películas y papeles podían manipularse con seguridad tanto con luz roja como con luz amarilla. Estas lámparas no emiten luz violeta ni azul. Estas películas sensibles sólo al azul hacían un buen trabajo, con algunas excepciones. Las caras de las mujeres con cosméticos, como pintalabios y colorete en las mejillas, salían raras. Los tonos cálidos se reproducían superoscuros, y la mayoría de las veces los labios y las mejillas se volvían negros, sin detalles en la imagen final. En resumen, muchos colores de la naturaleza se reproducían incorrectamente con esta primera película sensible sólo al azul. El remedio fue accidental. El profesor Hermann Vogel de la Escuela Técnica de Berlín intentaba resolver el problema de la halación. Este problema se producía al fotografiar objetos brillantes, como fuentes de luz o piedras preciosas. Estos objetos producen en la película una gran cantidad de energía luminosa. A menudo, esta energía atraviesa completamente la película y golpea algo detrás de ella. La luz se refleja de nuevo en la película. El resultado es un halo alrededor de los objetos brillantes. El profesor hizo que uno de sus alumnos tiñera de amarillo las sales de plata, pensando que el tinte amarillo filtraría el molesto azul reflejado de la parte trasera. Probó esta película teñida y funcionó, además la película ganó sensibilidad a la luz verde. Llamó a esta película sensible al azul/verde ortocromática (color correcto en latín). Corría el año 1857 y la calidad de la película que reproducía los colores de la naturaleza avanzaba a pasos agigantados. Unos años más tarde, uno de sus estudiantes de posgrado, experimentando con diferentes tintes, descubrió cómo hacer películas sensibles a la luz azul, verde y roja. Esta película se llamó pancromática (el prefijo pan en griego significa "todo"). Así, la película pancromática reproduce con gran precisión todos los colores de la naturaleza. La mala noticia es que la gente del cuarto oscuro se vio obligada a renunciar a la luz de seguridad roja y amarilla. Se podía utilizar una luz de seguridad verde muy tenue durante un breve periodo de tiempo durante el revelado. Los papeles fotográficos seguían siendo insensibles al rojo en su mayor parte - no era necesario, ya que funcionaban bien sólo con sensibilidad azul y verde. Los papeles fotográficos modernos de contraste variable tienen dos capas sensibles, una para la luz azul y otra para la luz verde. Podemos utilizar una luz de seguridad en estos papeles; es ámbar con brillo reducido. Las películas y los papeles que hacen fotos en color son pancromáticos, y la mayoría de las lámparas de seguridad no son seguras. Podemos utilizar lámparas de infrarrojos con un visor de infrarrojos especializado en visión nocturna para ver y manipular la mayoría de las películas y papeles pancromáticos, ya que estos materiales son poco sensibles a los infrarrojos.
Je ne suis pas un expert de la photographie en chambre noire, mais il me semble un peu étrange qu'il existe un type de lumière qui n'affecte pas les films, le papier de développement, etc. Alors pourquoi une lampe de sécurité pour chambre noire est-elle sûre ?
Les films et papiers photo sont fabriqués à partir de sels d'argent qui ne s'assombrissent naturellement que lorsqu'ils sont exposés à la lumière violette ou bleue. Dans les premiers temps de la photographie, c'est tout ce qui était disponible. C'est pourquoi ces films et papiers peuvent être manipulés sous n'importe quelle source de lumière qui n'émet pas de lumière bleue. Par ailleurs, les fréquences lumineuses violette et bleue sont les plus courtes et les plus énergétiques lorsqu'il s'agit d'induire un changement chimique. Ces premiers films et papiers pouvaient tous être manipulés en toute sécurité sous une lumière rouge ou jaune. Ces lampes n'émettent pas de lumière violette ou bleue. Ces films sensibles au bleu uniquement ont donné de bons résultats, à quelques exceptions près. Les visages de femmes avec des produits cosmétiques, comme le rouge à lèvres et le rouge sur les joues, sont apparus bizarrement. Les tons chauds étaient reproduits très sombres, et la plupart du temps, les lèvres et les joues devenaient noires, sans aucun détail sur l'image finale. En résumé, de nombreuses couleurs naturelles ont été mal reproduites avec ce premier film sensible au bleu. Le remède fut accidentel. Le professeur Hermann Vogel, de l'Institut technique de Berlin, tentait de résoudre le problème du halo. Ce phénomène se produit lorsque l'on prend en photo des objets brillants, tels que des sources lumineuses, des pierres précieuses, etc. Ces objets jouent sur le film avec beaucoup d'énergie lumineuse. Cette énergie traverse souvent complètement le film et frappe quelque chose derrière le film. La lumière est alors réfléchie dans le film. Il en résulte un halo autour des objets lumineux. Le professeur a demandé à l'un de ses étudiants de teindre les sels d'argent en jaune, pensant que le colorant jaune filtrerait le bleu gênant réfléchi par l'arrière. Il a essayé ce film teinté et a obtenu les résultats escomptés, tout en gagnant en sensibilité à la lumière verte. Il nomme ce film sensible au bleu et au vert "orthochromatique" (couleur correcte en latin). Nous sommes en 1857 et la qualité des films reproduisant les couleurs de la nature a fait un grand bond en avant. Quelques années plus tard, l'un de ses étudiants, expérimentant différents colorants, découvrit comment fabriquer des films sensibles à la lumière bleue, verte et rouge. Ce film fut appelé panchromatique (le préfixe pan en grec signifie "tout"). Les films panchromatiques reproduisent donc toutes les couleurs présentes dans la nature avec une grande précision. La mauvaise nouvelle, c'est que les responsables de la chambre noire ont été contraints d'abandonner la lumière rouge et jaune. Une lampe de sécurité verte très faible pouvait être utilisée pendant une courte période de temps au cours du développement. Les papiers photo sont restés insensibles au rouge pour la plupart - ce n'est pas nécessaire, car ils fonctionnent bien avec une sensibilité au bleu et au vert. Les papiers photo modernes à contraste variable ont deux couches sensibles, l'une pour la lumière bleue et l'autre pour la lumière verte. Nous pouvons utiliser une lampe de sûreté sur ces papiers ; elle est de couleur ambre avec une brillance réduite. Les films et les papiers qui produisent des images en couleur sont panchromatiques et la plupart des lampes de sûreté ne sont pas sûres. Nous pouvons utiliser des lampes infrarouges avec une lunette de vision nocturne infrarouge spécialisée pour visualiser et manipuler la plupart des films et papiers panchromatiques, car ces matériaux sont peu sensibles aux infrarouges.
Non sono un esperto di fotografia in camera oscura, ma mi sembra un po' strano che esista un tipo di luce che non influisce sulla pellicola o sulla carta di sviluppo, ecc. Quindi, perché la luce di sicurezza della camera oscura è sicura?
Le pellicole e le carte fotografiche sono composte da sali d'argento che naturalmente si scuriscono solo se esposti alla luce violetta o blu. Agli albori della fotografia, questo era tutto ciò che era disponibile. Pertanto, queste pellicole e carte possono essere utilizzate con qualsiasi fonte di luce che non emetta luce blu. Tra l'altro, le frequenze violette e blu della luce sono le più brevi e le più energiche quando si tratta di indurre un cambiamento chimico. Le prime pellicole e carte potevano essere trattate in modo sicuro sia con la luce rossa che con la luce gialla. Queste lampade non emettono luce violetta o blu. Queste pellicole sensibili solo al blu hanno fatto un buon lavoro, con alcune eccezioni. I volti delle donne con cosmetici, come rossetto e rossetto sulle guance, venivano riprodotti in modo strano. I toni caldi venivano riprodotti molto scuri e il più delle volte le labbra e le guance diventavano nere, prive di dettagli nell'immagine finita. In conclusione, molti colori in natura venivano riprodotti in modo errato con questa pellicola sensibile solo al blu. La cura è stata accidentale. Il professor Hermann Vogel del Politecnico di Berlino stava cercando di risolvere il problema dell'alonatura. Questo fenomeno si verifica quando si fotografano oggetti luminosi, come fonti di luce, pietre preziose e simili. Questi oggetti agiscono sulla pellicola con molta energia luminosa. Spesso questa energia attraversa completamente la pellicola e colpisce qualcosa dietro la pellicola stessa. La luce viene quindi riflessa sulla pellicola. Il risultato è un alone intorno agli oggetti luminosi. Il professore fece tingere di giallo i sali d'argento a uno dei suoi studenti, pensando che il colorante giallo avrebbe filtrato il fastidioso blu riflesso dal retro. Provò questa pellicola colorata e il trucco funzionò, in più la pellicola acquisì sensibilità alla luce verde. Chiamò questa pellicola sensibile al blu/verde ortocromatica (in latino significa colore corretto). Era il 1857 e la qualità della pellicola che riproduceva i colori della natura fece un grande balzo in avanti. Qualche anno dopo, uno dei suoi studenti laureati, sperimentando con diversi coloranti, scoprì come realizzare pellicole sensibili alla luce blu, verde e rossa. Questa pellicola fu chiamata pancromatica (il prefisso pan in greco significa "tutto"). La pellicola pancromatica riproduce quindi tutti i colori presenti in natura con grande precisione. La cattiva notizia è che gli addetti alla camera oscura furono costretti a rinunciare alla luce di sicurezza rossa e gialla. Per un breve periodo di tempo, durante lo sviluppo, si poteva utilizzare una luce di sicurezza verde molto fioca. Le carte fotografiche rimasero per lo più insensibili al rosso: non ce n'era bisogno, perché funzionavano bene anche con la sensibilità al blu e al verde. Le moderne carte fotografiche a contrasto variabile hanno due strati sensibili, uno per la luce blu e uno per la luce verde. Su queste carte è possibile utilizzare una luce di sicurezza, di colore ambrato e con una brillantezza ridotta. Le pellicole e le carte che producono immagini a colori sono pancromatiche e la maggior parte delle lampade di sicurezza non sono sicure. Per vedere e maneggiare la maggior parte delle pellicole e delle carte pancromatiche possiamo utilizzare lampade a infrarossi con un cannocchiale specializzato per la visione notturna a infrarossi, poiché questi materiali hanno una bassa sensibilità agli infrarossi.
116
With the command: ```ls -la * ``` I can list all my symbolic links. How can I remove all symbolic links which are linked to a special folder? For example: In my directory ```usr/local/bin``` I have the following entries: ```lrwxrwxrwx 1 root root 50 Apr 22 14:52 allneeded -> /usr/local/texlive/2011/bin/x86_64-linux/allneeded lrwxrwxrwx 1 root root 47 Apr 22 14:52 amstex -> /usr/local/texlive/2011/bin/x86_64-linux/amstex lrwxrwxrwx 1 root root 24 Apr 23 19:09 arara -> /home/marco/.arara/arara ``` Now I want to remove all links with the path ```/usr/local/texlive/```
Please make sure to read the alternative answer. It's even more to the point although not voted as high at this point. You can use this to delete all symbolic links: ```find -type l -delete ``` with modern ```find``` versions. On older find versions it may have to be: ```find -type l -exec rm {} \; # or find -type l -exec unlink {} \; ``` To limit to a certain link target, assuming none of the paths contain any newline character: ``` find -type l | while IFS= read -r lnkname; do if [ "$(readlink '$lnkname')" == "/your/exact/path" ]; then rm -- "$lnkname"; fi; done ``` or nicely formatted ``` find -type l | while IFS= read -r lnkname; do if [ "$(readlink '$lnkname')" = "/your/exact/path" ]; then rm -- "$lnkname" fi done ``` The ```if``` could of course also include a more complex condition such as matching a pattern with ```grep```. Tailored to your case: ```find -type l | while IFS= read -r lnk; do if (readlink "$lnk" | grep -q '^/usr/local/texlive/'); then rm "$lnk"; fi; done ``` or nicely formatted: ```find -type l | while IFS= read -r lnk do if readlink "$lnk" | grep -q '^/usr/local/texlive/' then rm "$lnk" fi done ```
Mit dem Befehl: ```ls -la * ``` kann ich alle meine symbolischen Links auflisten. Wie kann ich alle symbolischen Links entfernen, die mit einem bestimmten Ordner verknüpft sind? Zum Beispiel: In meinem Verzeichnis ```usr/local/bin`` habe ich die folgenden Einträge: ```lrwxrwxrwx 1 root root 50 Apr 22 14:52 allneeded -> /usr/local/texlive/2011/bin/x86_64-linux/allneeded lrwxrwxrwx 1 root root 47 Apr 22 14:52 amstex -> /usr/local/texlive/2011/bin/x86_64-linux/amstex lrwxrwxrwx 1 root root 24 Apr 23 19:09 arara -> /home/marco/.arara/arara ``` Nun möchte ich alle Links mit dem Pfad ```/usr/local/texlive/``` entfernen
Bitte lesen Sie unbedingt die alternative Antwort. Sie ist noch treffender, auch wenn sie noch nicht so hoch bewertet wurde. Sie können dies verwenden, um alle symbolischen Links zu löschen: ```find -type l -delete ``` mit modernen ```find``-Versionen. Bei älteren Versionen von find kann es sein, dass es sein muss: ```find -type l -exec rm {} \; # oder find -type l -exec unlink {} \; ``` Um sich auf ein bestimmtes Linkziel zu beschränken, vorausgesetzt, keiner der Pfade enthält ein Zeilenumbruchzeichen: ```` find -type l | while IFS= read -r lnkname; do if [ "$(readlink '$lnkname')" == "/Ihr/exakter/path" ]; then rm -- "$lnkname"; fi; done ``` oder hübsch formatiert ```` find -type l | while IFS= read -r lnkname; do if [ "$(readlink '$lnkname')" = "/Ihr/exakter/Pfad" ]; dann rm -- "$lnkname" fi done ``` Das ```if``` könnte natürlich auch eine komplexere Bedingung enthalten, wie z.B. den Abgleich eines Musters mit ```grep```. Zugeschnitten auf Ihren Fall: ```find -type l | while IFS= read -r lnk; do if (readlink "$lnk" | grep -q '^/usr/local/texlive/'); then rm "$lnk"; fi; done ``` oder hübsch formatiert: ```find -type l | while IFS= read -r lnk do if readlink "$lnk" | grep -q '^/usr/local/texlive/' dann rm "$lnk" fi done ```
Con el comando: ``ls -la * ``` puedo listar todos mis enlaces simbólicos. ¿Cómo puedo eliminar todos los enlaces simbólicos que están vinculados a una carpeta especial? Por ejemplo: En mi directorio ``usr/local/bin`` tengo las siguientes entradas: ```lrwxrwxrwx 1 root root 50 Apr 22 14:52 allneed -> /usr/local/texlive/2011/bin/x86_64-linux/allneed lrwxrwxrwx 1 root root 47 abr 22 14:52 amstex -> /usr/local/texlive/2011/bin/x86_64-linux/amstex lrwxrwxrwx 1 root root 24 abr 23 19:09 arara -> /home/marco/.arara/arara ``` Ahora quiero eliminar todos los enlaces con la ruta ```/usr/local/texlive/```
Por favor, asegúrese de leer la respuesta alternativa. Es aún más al punto aunque no votado tan alto en este momento. Puedes usar esto para borrar todos los enlaces simbólicos: ```find -type l -delete ``` con versiones modernas de ```find``. En versiones antiguas de find puede que tenga que ser: ```find -type l -exec rm {} \; # ``o find -type l -exec unlink {} \; ``` Para limitar a un determinado objetivo de enlace, suponiendo que ninguna de las rutas contiene ningún carácter de nueva línea: ``` find -type l | while IFS= read -r lnkname; do if [ "$(readlink '$lnkname')" == "/su_ruta/exacta" ]; then rm -- "$lnkname"; fi; done ``` o con un buen formato ``` find -type l | while IFS= read -r lnkname; do if [ "$(readlink '$lnkname')" = "/su_ruta/exacta" ]; entonces rm -- "$nombredelnombre" fi hecho ``` Por supuesto, el ```if`` también podría incluir una condición más compleja, como la coincidencia de un patrón con ```grep``. Adaptado a tu caso: ```find -type l | while IFS= read -r lnk; do if (readlink "$lnk" | grep -q '^/usr/local/texlive/'); then rm "$lnk"; fi; done ``` o con un buen formato: ```find -type l | while IFS= read -r lnk do if readlink "$lnk" | grep -q '^/usr/local/texlive/' entonces rm "$lnk" fi hecho ```
Avec la commande : ```ls -la * ``` je peux lister tous mes liens symboliques. Comment puis-je supprimer tous les liens symboliques qui sont liés à un dossier particulier ? Par exemple, dans mon répertoire ``usr/local'' : Dans mon répertoire ``usr/local/bin``, j'ai les entrées suivantes : ``lrwxrwxrwx 1 root root 50 Apr 22 14:52 allneeded -> /usr/local/texlive/2011/bin/x86_64-linux/allneed lrwxrwx 1 root root 47 Apr 22 14:52 amstex -> /usr/local/texlive/2011/bin/x86_64-linux/amstex lrwxrwxrwx 1 root root 24 Apr 23 19:09 arara -> /home/marco/.arara/arara ``` Maintenant, je veux supprimer tous les liens avec le chemin ```/usr/local/texlive/```
Veillez à lire l'autre réponse. Elle est encore plus pertinente, bien qu'elle n'ait pas été votée aussi haut à ce stade. Vous pouvez utiliser ceci pour supprimer tous les liens symboliques : ``Find -type l -delete ``` avec les versions modernes de ``find``. Sur les versions plus anciennes de find, cela peut être : ``find -type l -exec rm {} \ ; # ou find -type l -exec unlink {} \ ; ``` Pour se limiter à une certaine cible de lien, en supposant qu'aucun des chemins ne contienne de caractère de retour à la ligne : ```` find -type l | while IFS= read -r lnkname ; do if [ "$(readlink '$lnkname')" == "/votre/exact/chemin" ] ; then rm -- "$lnkname" ; fi ; done ``` ou joliment formaté ```` find -type l | while IFS= read -r lnkname ; do if [ "$(readlink '$lnkname')" = "/votre/exact/chemin" ] ; then rm -- "$lnkname" fi done ``` Le ``if`` pourrait bien sûr inclure une condition plus complexe comme la correspondance d'un motif avec ``grep``. Adapté à votre cas : ``Find -type l | while IFS= read -r lnk ; do if (readlink "$lnk" | grep -q '^/usr/local/texlive/') ; then rm "$lnk" ; fi ; done ``` ou joliment formaté : ``find -type l | while IFS= read -r lnk do if readlink "$lnk" | grep -q '^/usr/local/texlive/' then rm "$lnk" fi done ```
Con il comando: ```ls -la * ``` posso elencare tutti i miei collegamenti simbolici. Come posso rimuovere tutti i collegamenti simbolici che sono collegati a una cartella speciale? Per esempio: Nella mia directory ``usr/local/bin`` ho le seguenti voci: ``lwxrwxrwx 1 root 50 Apr 22 14:52 allneed -> /usr/local/texlive/2011/bin/x86_64-linux/allneed lrwxrwxrwx 1 root 47 Apr 22 14:52 amstex -> /usr/local/texlive/2011/bin/x86_64-linux/amstex lrwxrwxrwx 1 root 24 apr 23 19:09 arara -> /home/marco/.arara/arara ``` Ora voglio rimuovere tutti i collegamenti con il percorso ```/usr/local/texlive/```
Assicuratevi di leggere la risposta alternativa. È ancora più precisa, anche se a questo punto non è stata votata con lo stesso punteggio. Si può usare questo metodo per cancellare tutti i collegamenti simbolici: ```find -type l -delete ``` con le versioni moderne di ``find``. Nelle vecchie versioni di find potrebbe essere necessario: ``find -type l -exec rm {} \; # oppure find -type l -exec unlink {} \; ``` Per limitare l'accesso a una determinata destinazione di link, assumendo che nessuno dei percorsi contenga un carattere di newline: ``` find -type l | while IFS= read -r lnkname; do if [ "$(readlink '$lnkname')" == "/your/exact/path" ]; then rm -- "$lnkname"; fi; done ``` o ben formattato ````trova -tipo l | while IFS= read -r lnkname; fare se [ "$(readlink '$lnkname')" = "/il tuo/esatto/percorso" ]; allora rm -- "$lnkname" fi fatto ``` Il ```se'' potrebbe naturalmente includere anche una condizione più complessa, come la corrispondenza di un pattern con ```grep''. Adattabile al vostro caso: ```find -type l | while IFS= read -r lnk; do if (readlink "$lnk" | grep -q '^/usr/local/texlive/'); then rm "$lnk"; fi; done ``` o ben formattato: ```find -type l | while IFS= read -r lnk fare se readlink "$lnk" | grep -q '^/usr/local/texlive/' allora rm "$lnk" fi fatto ```
117
Did Aztecs know how many continents there are on earth?
Do you know how many continents there are on Earth? Is Europe a separate continent from Asia? Is Australia the biggest island or the smallest continent? Is Antarctica an ice-locked archipelago or a continent? Are the Americas one continent or two? (All of those questions can be answered reasonably either way.) The separation of Europe from Asia into two continents happened because, from the point of view of the Greek Mediterranean world, all of Asia that mattered was across the sea from all of Europe that mattered. They knew that Europe and Asia were connected north of the Black Sea (though they didn't know how big a connection) but they didn't care, because for their purposes, they were separate continents. The idea of a continent is more a cultural thing than anything else. From a proper scientific point of view continents are probably better defined by tectonic plates so now you're dealing with twenty or so. Maybe a continent is a tectonic plate with dry land attached? That still leaves quite a few. (And how much dry land is needed? And is Los Angeles on a separate continent from New York?) If the Aztecs knew the geography of the whole Earth it would still be very surprising if they had counted continents the same way the Ancient Greeks have led us to do. And there's no evidence they knew the geography of the whole Earth and considerable evidence that they didn't.
Wussten die Azteken, wie viele Kontinente es auf der Erde gibt?
Wissen Sie, wie viele Kontinente es auf der Erde gibt? Ist Europa ein eigener Kontinent neben Asien? Ist Australien die größte Insel oder der kleinste Kontinent? Ist die Antarktis ein eisbedeckter Archipel oder ein Kontinent? Sind die Amerikas ein Kontinent oder zwei? (Alle diese Fragen können auf die eine oder andere Weise beantwortet werden). Die Trennung Europas und Asiens in zwei Kontinente geschah, weil aus der Sicht der griechischen Mittelmeerwelt alles Asien, das von Bedeutung war, auf der anderen Seite des Meeres lag als alles Europa, das von Bedeutung war. Sie wussten, dass Europa und Asien nördlich des Schwarzen Meeres miteinander verbunden waren (auch wenn sie nicht wussten, wie groß die Verbindung war), aber das war ihnen egal, denn für ihre Zwecke waren es getrennte Kontinente. Die Vorstellung eines Kontinents ist eher eine kulturelle Angelegenheit als alles andere. Aus wissenschaftlicher Sicht sind Kontinente wahrscheinlich besser durch tektonische Platten definiert, so dass man jetzt mit zwanzig oder so zu tun hat. Vielleicht ist ein Kontinent eine tektonische Platte, an der trockenes Land befestigt ist? Dann bleiben immer noch ziemlich viele übrig. (Und wie viel trockenes Land wird benötigt? Und liegt Los Angeles auf einem anderen Kontinent als New York?) Auch wenn die Azteken die Geografie der gesamten Erde kannten, wäre es doch sehr überraschend, wenn sie die Kontinente so gezählt hätten, wie es die alten Griechen uns vormachen. Und es gibt keinen Beweis dafür, dass sie die Geografie der gesamten Erde kannten, und es gibt beträchtliche Beweise dafür, dass sie es nicht taten.
¿Sabían los aztecas cuántos continentes hay en la Tierra?
¿Sabes cuántos continentes hay en la Tierra? ¿Es Europa un continente distinto de Asia? ¿Australia es la isla más grande o el continente más pequeño? ¿La Antártida es un archipiélago helado o un continente? ¿Las Américas son un continente o dos? (Todas esas preguntas pueden responderse razonablemente de cualquier manera). La separación de Europa y Asia en dos continentes se produjo porque, desde el punto de vista del mundo mediterráneo griego, toda Asia que importaba estaba al otro lado del mar de toda Europa que importaba. Sabían que Europa y Asia estaban conectadas al norte del Mar Negro (aunque no sabían la magnitud de la conexión), pero no les importaba, porque para sus propósitos eran continentes separados. La idea de continente es más una cuestión cultural que otra cosa. Desde un punto de vista propiamente científico, los continentes probablemente se definan mejor mediante placas tectónicas, así que ahora se trata de veinte o así. ¿Tal vez un continente sea una placa tectónica con tierra firme? Todavía quedan unos cuantos. (¿Y cuánta tierra firme se necesita? ¿Y está Los Ángeles en un continente distinto de Nueva York?) Si los aztecas conocieran la geografía de toda la Tierra seguiría siendo muy sorprendente que hubieran contado los continentes del mismo modo que los antiguos griegos nos han llevado a hacerlo. Y no hay pruebas de que conocieran la geografía de toda la Tierra y sí muchas de que no la conocieran.
Les Aztèques savaient-ils combien de continents il y a sur terre ?
Savez-vous combien de continents il y a sur Terre ? L'Europe est-elle un continent distinct de l'Asie ? L'Australie est-elle la plus grande île ou le plus petit continent ? L'Antarctique est-il un archipel bloqué par la glace ou un continent ? Les Amériques sont-elles un ou deux continents ? (Toutes ces questions peuvent trouver une réponse raisonnable dans un sens ou dans l'autre). La séparation de l'Europe et de l'Asie en deux continents s'est produite parce que, du point de vue du monde méditerranéen grec, toute l'Asie qui comptait se trouvait de l'autre côté de la mer par rapport à toute l'Europe qui comptait. Ils savaient que l'Europe et l'Asie étaient reliées au nord de la mer Noire (même s'ils ne connaissaient pas l'importance de cette liaison), mais ils s'en moquaient, car pour eux, il s'agissait de deux continents distincts. L'idée d'un continent est plus culturelle qu'autre chose. D'un point de vue scientifique, les continents sont probablement mieux définis par les plaques tectoniques. Peut-être qu'un continent est une plaque tectonique à laquelle est rattachée une terre ferme ? Il en reste encore pas mal. (Et quelle est la quantité de terre ferme nécessaire ? Et Los Angeles se trouve-t-elle sur un continent distinct de New York ?) Si les Aztèques connaissaient la géographie de la Terre entière, il serait tout de même très surprenant qu'ils aient compté les continents de la même manière que les Grecs anciens nous ont amenés à le faire. Or, rien ne prouve qu'ils connaissaient la géographie de l'ensemble de la Terre et de nombreux éléments indiquent qu'ils ne la connaissaient pas.
Gli Aztechi sapevano quanti continenti ci sono sulla terra?
Sapete quanti continenti ci sono sulla Terra? L'Europa è un continente separato dall'Asia? L'Australia è l'isola più grande o il continente più piccolo? L'Antartide è un arcipelago bloccato dai ghiacci o un continente? Le Americhe sono un continente o due? (A tutte queste domande si può rispondere ragionevolmente in entrambi i modi). La separazione dell'Europa dall'Asia in due continenti è avvenuta perché, dal punto di vista del mondo greco mediterraneo, tutta l'Asia che contava era al di là del mare da tutta l'Europa che contava. Sapevano che l'Europa e l'Asia erano collegate a nord del Mar Nero (anche se non sapevano quanto fosse grande il collegamento), ma non gli importava, perché per i loro scopi erano continenti separati. L'idea di continente è più una questione culturale che altro. Da un punto di vista propriamente scientifico, i continenti sono probabilmente meglio definiti dalle placche tettoniche, per cui ora si tratta di una ventina. Forse un continente è una placca tettonica con terraferma annessa? Rimangono comunque un bel po' di cose. (E quanta terraferma è necessaria? E Los Angeles si trova in un continente separato da quello di New York?) Se gli Aztechi conoscessero la geografia dell'intera Terra, sarebbe comunque molto sorprendente se avessero contato i continenti nello stesso modo in cui gli Antichi Greci ci hanno portato a farlo. Non ci sono prove che conoscessero la geografia dell'intera Terra e ci sono prove considerevoli che non la conoscessero.
118
What did the Soviet Union and Russia bring to the ISS?
Initially, everything. The ISS started out as Mir-2 with some extra modules added soon afterwards. Then lots more over the next 10 years. The initial modules, Zarya and Zvezda, which housed living quarters, reboost, attitude control, solar power, life support, and docking modules. Each additional component and module made the system better, but the ISS is still dependent on the Russian operating segment. Each function that the Russian segment supplied initially was enhanced or replaced by the US side (solar power, life support, etc.). The major component this is mostly still Russian is half the crew quarters and reboost/attitude control (beyond what the control gyros can handle). Initially the Shuttle and Soyuz provided crew services, and now only Soyuz (till SpaceX/ULA get their acts together in 2019) provides crew. Initially the Russians provided cargo (as did the Shuttle till retirement), but specifically Progress could refuel the engines on the ISS for reboost. The Russian theoretical plan is that the next two modules they launch (if ever, now, after being so delayed) Nauka and the UM will be able to separate from the ISS and form the core of their next space station. One of those theories was to take Zarya and Zvezda (or just one) with them as well.
Was haben die Sowjetunion und Russland in die ISS eingebracht?
Ursprünglich alles. Die ISS begann als Mir-2 mit einigen zusätzlichen Modulen, die bald darauf hinzugefügt wurden. Im Laufe der nächsten 10 Jahre kamen noch viele weitere hinzu. Die ersten Module, Zarya und Zvezda, beherbergten Wohnräume, Reboost, Lageregelung, Solarenergie, Lebenserhaltung und Andockmodule. Mit jeder zusätzlichen Komponente und jedem zusätzlichen Modul wurde das System besser, aber die ISS ist nach wie vor von dem russischen Betriebssegment abhängig. Jede Funktion, die das russische Segment ursprünglich lieferte, wurde von der amerikanischen Seite verbessert oder ersetzt (Solarenergie, Lebenserhaltung usw.). Die Hauptkomponente, die größtenteils immer noch russisch ist, ist die Hälfte der Mannschaftsunterkünfte und die Reboost-/Lageregelung (über das hinaus, was die Steuerkreisel bewältigen können). Ursprünglich boten das Shuttle und Sojus Besatzungsdienste an, und jetzt bietet nur noch Sojus (bis SpaceX/ULA 2019 die Kurve kriegen) Besatzungsdienste an. Ursprünglich stellten die Russen Fracht zur Verfügung (wie auch das Shuttle bis zu seiner Ausmusterung), aber speziell Progress konnte die Triebwerke auf der ISS auftanken, um sie wieder aufzuladen. Der theoretische Plan der Russen sieht vor, dass die nächsten beiden Module, die sie starten (wenn überhaupt, jetzt, nach der großen Verzögerung), Nauka und UM, sich von der ISS trennen und den Kern ihrer nächsten Raumstation bilden können. Eine dieser Theorien sah vor, auch Zarya und Zvezda (oder nur eines) mitzunehmen.
¿Qué aportaron la Unión Soviética y Rusia a la ISS?
Al principio, todo. La ISS comenzó como Mir-2, con algunos módulos adicionales añadidos poco después. Luego se añadieron muchos más en los 10 años siguientes. Los módulos iniciales, Zarya y Zvezda, albergaban los módulos de alojamiento, reimpulso, control de actitud, energía solar, soporte vital y acoplamiento. Cada componente y módulo adicional mejoró el sistema, pero la ISS sigue dependiendo del segmento operativo ruso. Cada función que el segmento ruso suministraba inicialmente fue mejorada o sustituida por la parte estadounidense (energía solar, soporte vital, etc.). El principal componente que sigue siendo mayoritariamente ruso es la mitad de los alojamientos de la tripulación y el control de la altitud (más allá de lo que pueden manejar los giroscopios de control). Inicialmente, el transbordador y Soyuz proporcionaban servicios a la tripulación, y ahora sólo Soyuz (hasta que SpaceX/ULA se pongan las pilas en 2019) proporciona tripulación. Inicialmente, los rusos proporcionaban carga (al igual que el transbordador hasta su retirada), pero en concreto el Progress podía repostar los motores en la ISS para el reabastecimiento. El plan teórico ruso es que los dos próximos módulos que lancen (si es que lo hacen ahora, después de tanto retraso) el Nauka y el UM podrán separarse de la ISS y formar el núcleo de su próxima estación espacial. Una de esas teorías era llevarse también Zarya y Zvezda (o sólo uno).
Qu'ont apporté l'Union soviétique et la Russie à l'ISS ?
Au départ, tout. L'ISS a débuté avec Mir-2 et quelques modules supplémentaires ont été ajoutés peu de temps après. Puis beaucoup d'autres au cours des dix années suivantes. Les modules initiaux, Zarya et Zvezda, abritaient les quartiers d'habitation, les modules de reboostage, de contrôle d'attitude, d'énergie solaire, de support de vie et d'amarrage. Chaque composant et module supplémentaire a permis d'améliorer le système, mais l'ISS dépend toujours du segment opérationnel russe. Chaque fonction fournie initialement par le segment russe a été améliorée ou remplacée par le segment américain (énergie solaire, systèmes de survie, etc.). Le principal élément qui reste russe est la moitié des quartiers de l'équipage et le contrôle de l'altitude (au-delà de ce que les gyroscopes de contrôle peuvent gérer). Au départ, la navette et Soyouz fournissaient des services à l'équipage, et aujourd'hui seul Soyouz (jusqu'à ce que SpaceX/ULA se reprennent en main en 2019) fournit des services à l'équipage. Au départ, les Russes fournissaient du fret (comme la navette jusqu'à sa retraite), mais Progress pouvait notamment ravitailler les moteurs de l'ISS pour les rebooster. Le plan théorique russe est que les deux prochains modules qu'ils lanceront (si jamais ils le font, maintenant, après avoir été tellement retardés), Nauka et UM, pourront se séparer de l'ISS et former le noyau de leur prochaine station spatiale. L'une de ces théories consistait à emmener Zarya et Zvezda (ou un seul) avec eux.
Cosa hanno portato l'Unione Sovietica e la Russia alla ISS?
Inizialmente, tutto. La ISS è nata come Mir-2 con alcuni moduli aggiuntivi aggiunti poco dopo. Poi molti altri nei 10 anni successivi. I moduli iniziali, Zarya e Zvezda, ospitavano alloggi, reboost, controllo dell'assetto, energia solare, supporto vitale e moduli di attracco. Ogni componente e modulo aggiuntivo ha migliorato il sistema, ma la ISS dipende ancora dal segmento operativo russo. Ogni funzione che il segmento russo forniva inizialmente è stata migliorata o sostituita dalla parte statunitense (energia solare, supporto vitale, ecc.). Il componente principale ancora russo è la metà degli alloggi per l'equipaggio e il controllo del reboost e dell'assetto (al di là di quanto possono gestire i giroscopi di controllo). Inizialmente lo Shuttle e la Soyuz fornivano servizi per l'equipaggio e ora solo la Soyuz (finché SpaceX/ULA non si metteranno d'accordo nel 2019) fornisce l'equipaggio. Inizialmente i russi fornivano servizi cargo (come lo Shuttle fino al pensionamento), ma in particolare Progress poteva rifornire i motori sulla ISS per il reboost. Il piano teorico russo prevede che i prossimi due moduli lanciati (se mai verranno lanciati, dopo un tale ritardo) Nauka e UM saranno in grado di separarsi dalla ISS e costituire il nucleo della loro prossima stazione spaziale. Una di queste teorie prevedeva di portare con sé anche Zarya e Zvezda (o solo uno).
119
What utility can move my Windows boot partition over to another hard drive? My preference is that it would be really easy. * Boot into Windows * Pick drive to move * Pick target drive * It copies everything over, and reboots to the correct partition.
## DriveImage XML DriveImage XML will do the job. It runs from within Windows and it can copy directly from drive to drive. A lot of people rave about it after good experiences with the software. DriveImage XML is an easy to use and reliable program for imaging and backing up partitions and logical drives. Image creation uses Microsoft's Volume Shadow Services (VSS), allowing you to create safe "hot images" even from drives currently in use. Images are stored in XML files, allowing you to process them with 3rd party tools. Never again be stuck with a useless backup! Restore images to drives without having to reboot. DriveImage XML is now faster than ever, offering two different compression levels. ## EASEUS Disk Copy EASEUS Disk Copy is a great alternative if you don't want to go for a 'hot' backup that runs from within Windows. Good review at lifehacker and on a par with DriveImage XML. They quite clearly state that it is ideal for moving from one disk to a larger one. Like other suggestions, this requires that you create a boot CD. > EASEUS Disk Copy is a potent freeware providing sector-by-sector disk/partition clone regardless of your operating system, file systems and partition scheme by creating a bootable CD. The sector-by-sector method assures you a copy 100% identical to the original. Disk Copy can be used for copy, cloning, or upgrading your original small hard drive to a new larger drive. Simply speaking, it can copy anything from the old hard drive including the deleted, lost files and inaccessible data. So, the freeware is a perfect tool for Data Recovery Wizard to recover files from a backup disk.
Mit welchem Programm kann ich meine Windows-Startpartition auf eine andere Festplatte verschieben? Am liebsten wäre es mir, wenn es ganz einfach wäre. * Windows starten * Zu verschiebendes Laufwerk auswählen * Ziellaufwerk auswählen * Es wird alles kopiert und auf der richtigen Partition neu gebootet.
*# DriveImage XML DriveImage XML erledigt diese Aufgabe. Es läuft von Windows aus und kann direkt von Laufwerk zu Laufwerk kopieren. Viele Leute schwärmen davon, nachdem sie gute Erfahrungen mit dieser Software gemacht haben. DriveImage XML ist ein einfach zu bedienendes und zuverlässiges Programm für die Sicherung von Partitionen und logischen Laufwerken. Die Erstellung von Abbildern nutzt Microsofts Volume Shadow Services (VSS), so dass Sie sichere "Hot Images" erstellen können, auch von Laufwerken, die gerade in Gebrauch sind. Die Images werden in XML-Dateien gespeichert, so dass Sie sie mit Tools von Drittanbietern bearbeiten können. Nie wieder mit einem unbrauchbaren Backup festsitzen! Wiederherstellung von Images auf Laufwerken ohne Neustart. DriveImage XML ist jetzt schneller als je zuvor und bietet zwei verschiedene Kompressionsstufen. ## EASEUS Disk Copy EASEUS Disk Copy ist eine großartige Alternative, wenn Sie sich nicht für ein "heißes" Backup entscheiden wollen, das von Windows aus läuft. Gute Bewertung bei lifehacker und gleichwertig mit DriveImage XML. Es wird deutlich darauf hingewiesen, dass es ideal ist, um von einer Festplatte auf eine größere zu wechseln. Wie bei anderen Vorschlägen ist auch hier die Erstellung einer Boot-CD erforderlich. > EASEUS Disk Copy ist eine leistungsfähige Freeware, die unabhängig von Betriebssystem, Dateisystem und Partitionsschema einen Sektor-für-Sektor-Klon der Festplatte/Partition erstellt und eine bootfähige CD erzeugt. Die Sektor-für-Sektor-Methode garantiert Ihnen eine Kopie, die 100% identisch mit dem Original ist. Disk Copy kann zum Kopieren, Klonen oder Aufrüsten Ihrer kleinen Originalfestplatte auf eine neue, größere Festplatte verwendet werden. Einfach gesagt, kann es alles von der alten Festplatte kopieren, einschließlich der gelöschten, verlorenen Dateien und unzugänglichen Daten. Die Freeware ist also ein perfektes Werkzeug für Data Recovery Wizard, um Dateien von einer Sicherungsplatte wiederherzustellen.
¿Qué utilidad puede mover mi partición de arranque de Windows a otro disco duro? Mi preferencia es que sería muy fácil. * Arrancar Windows * Elegir la unidad a mover * Elige la unidad de destino * Copia todo, y reinicia a la partición correcta.
## DriveImage XML DriveImage XML hará el trabajo. Se ejecuta desde Windows y puede copiar directamente de unidad a unidad. Mucha gente delira sobre él después de buenas experiencias con el software. DriveImage XML es un programa fácil de usar y fiable para crear imágenes y copias de seguridad de particiones y unidades lógicas. La creación de imágenes utiliza Volume Shadow Services (VSS) de Microsoft, lo que le permite crear "imágenes en caliente" seguras, incluso de unidades actualmente en uso. Las imágenes se almacenan en archivos XML, lo que le permite procesarlas con herramientas de terceros. No se quede nunca más con una copia de seguridad inútil. Restaure imágenes en unidades sin tener que reiniciar. DriveImage XML es ahora más rápido que nunca, ofreciendo dos niveles de compresión diferentes. ## EASEUS Disk Copy EASEUS Disk Copy es una gran alternativa si no quieres ir a por una copia de seguridad 'caliente' que se ejecuta desde Windows. Buena crítica en lifehacker y a la par con DriveImage XML. Dicen claramente que es ideal para pasar de un disco a otro más grande. Al igual que otras sugerencias, requiere la creación de un CD de arranque. > EASEUS Disk Copy es un potente programa gratuito que clona disco/partición sector a sector, independientemente de tu sistema operativo, sistema de archivos y esquema de particiones, creando un CD de arranque. El método sector por sector le asegura una copia 100% idéntica al original. Disk Copy se puede utilizar para copiar, clonar o actualizar su pequeño disco duro original a una nueva unidad más grande. En pocas palabras, puede copiar cualquier cosa del disco duro antiguo, incluidos los archivos borrados, perdidos y los datos inaccesibles. Por lo tanto, el freeware es una herramienta perfecta para Data Recovery Wizard para recuperar archivos de un disco de copia de seguridad.
Quel utilitaire peut déplacer ma partition de démarrage Windows sur un autre disque dur ? Je préférerais que ce soit très facile. * Démarrer Windows * Choisir le disque à déplacer * Choisir le disque cible * Il copie tout et redémarre sur la bonne partition.
## DriveImage XML DriveImage XML fera l'affaire. Il fonctionne sous Windows et peut copier directement d'un disque à l'autre. De nombreuses personnes en font l'éloge après avoir eu de bonnes expériences avec ce logiciel. DriveImage XML est un programme fiable et facile à utiliser pour créer des images et sauvegarder des partitions et des lecteurs logiques. La création d'images utilise Volume Shadow Services (VSS) de Microsoft, ce qui vous permet de créer des images sûres, même à partir de disques en cours d'utilisation. Les images sont stockées dans des fichiers XML, ce qui vous permet de les traiter avec des outils tiers. Ne vous retrouvez plus jamais avec une sauvegarde inutile ! Restaurez les images sur les lecteurs sans avoir à redémarrer. DriveImage XML est maintenant plus rapide que jamais, offrant deux niveaux de compression différents. ## EASEUS Disk Copy EASEUS Disk Copy est une excellente alternative si vous ne voulez pas opter pour une sauvegarde "à chaud" qui s'exécute à partir de Windows. Bonne critique sur lifehacker et au même niveau que DriveImage XML. Ils indiquent clairement qu'il est idéal pour passer d'un disque à un autre plus grand. Comme d'autres suggestions, elle nécessite la création d'un CD de démarrage. > EASEUS Disk Copy est un logiciel gratuit puissant qui permet de cloner un disque/une partition secteur par secteur, quels que soient votre système d'exploitation, vos systèmes de fichiers et votre schéma de partition, en créant un CD amorçable. La méthode secteur par secteur vous assure une copie 100% identique à l'original. Disk Copy peut être utilisé pour copier, cloner ou mettre à niveau votre petit disque dur d'origine vers un nouveau disque plus grand. En clair, il peut copier tout ce qui se trouve sur l'ancien disque dur, y compris les fichiers supprimés, perdus et les données inaccessibles. Ainsi, le freeware est un outil parfait pour Data Recovery Wizard afin de récupérer des fichiers à partir d'un disque de sauvegarde.
Quale utility può spostare la partizione di avvio di Windows su un altro disco rigido? La mia preferenza è che sia davvero facile. * Avviare Windows * Scegliere l'unità da spostare * Scegliere l'unità di destinazione * Copia tutto e si riavvia alla partizione corretta.
## DriveImage XML DriveImage XML farà il lavoro. Funziona all'interno di Windows e può copiare direttamente da un'unità all'altra. Molte persone ne parlano con entusiasmo dopo aver avuto buone esperienze con questo software. DriveImage XML è un programma facile da usare e affidabile per l'imaging e il backup di partizioni e unità logiche. La creazione di immagini utilizza il Volume Shadow Services (VSS) di Microsoft, consentendo di creare immagini sicure anche da unità attualmente in uso. Le immagini vengono memorizzate in file XML, consentendo di elaborarle con strumenti di terze parti. Non sarete mai più bloccati da un backup inutile! Ripristino delle immagini sulle unità senza dover riavviare. DriveImage XML è ora più veloce che mai e offre due diversi livelli di compressione. ## EASEUS Disk Copy EASEUS Disk Copy è un'ottima alternativa se non si desidera un backup "a caldo" eseguito da Windows. La recensione di Lifehacker è buona ed è alla pari con DriveImage XML. Si afferma chiaramente che è ideale per lo spostamento da un disco a uno più grande. Come altri suggerimenti, richiede la creazione di un CD di avvio. > EASEUS Disk Copy è un potente software gratuito che fornisce la clonazione di dischi/partizioni settore per settore, indipendentemente dal sistema operativo, dai file system e dallo schema delle partizioni, creando un CD di avvio. Il metodo settore per settore vi assicura una copia identica al 100% all'originale. Disk Copy può essere utilizzato per copiare, clonare o aggiornare il disco rigido originale di piccole dimensioni con un nuovo disco più grande. In poche parole, può copiare qualsiasi cosa dal vecchio disco rigido, compresi i file cancellati, persi e i dati inaccessibili. Il freeware è quindi uno strumento perfetto per Data Recovery Wizard per recuperare i file da un disco di backup.
120
What's the difference between ASCII and Unicode?
ASCII has 128 code points, 0 through 127. It can fit in a single 8-bit byte, the values 128 through 255 tended to be used for other characters. With incompatible choices, causing the code page disaster. Text encoded in one code page cannot be read correctly by a program that assumes or guessed at another code page. Unicode came about to solve this disaster. Version 1 started out with 65536 code points, commonly encoded in 16 bits. Later extended in version 2 to 1.1 million code points. The current version is 6.3, using 110,187 of the available 1.1 million code points. That doesn't fit in 16 bits anymore. Encoding in 16-bits was common when v2 came around, used by Microsoft and Apple operating systems for example. And language runtimes like Java. The v2 spec came up with a way to map those 1.1 million code points into 16-bits. An encoding called UTF-16, a variable length encoding where one code point can take either 2 or 4 bytes. The original v1 code points take 2 bytes, added ones take 4. Another variable length encoding that's very common, used in *nix operating systems and tools is UTF-8, a code point can take between 1 and 4 bytes, the original ASCII codes take 1 byte the rest take more. The only non-variable length encoding is UTF-32, takes 4 bytes for a code point. Not often used since it is pretty wasteful. There are other ones, like UTF-1 and UTF-7, widely ignored. An issue with the UTF-16/32 encodings is that the order of the bytes will depend on the endian-ness of the machine that created the text stream. So add to the mix UTF-16BE, UTF-16LE, UTF-32BE and UTF-32LE. Having these different encoding choices brings back the code page disaster to some degree, along with heated debates among programmers which UTF choice is "best". Their association with operating system defaults pretty much draws the lines. One counter-measure is the definition of a BOM, the Byte Order Mark, a special codepoint (U+FEFF, zero width space) at the beginning of a text stream that indicates how the rest of the stream is encoded. It indicates both the UTF encoding and the endianess and is neutral to a text rendering engine. Unfortunately it is optional and many programmers claim their right to omit it so accidents are still pretty common.
Was ist der Unterschied zwischen ASCII und Unicode?
ASCII hat 128 Codepunkte, 0 bis 127. Es kann in ein einziges 8-Bit-Byte passen, die Werte 128 bis 255 werden eher für andere Zeichen verwendet. Bei inkompatiblen Entscheidungen führt dies zu einem Desaster der Codepage. Text, der in einer Codepage kodiert ist, kann von einem Programm, das eine andere Codepage annimmt oder vermutet, nicht korrekt gelesen werden. Unicode wurde entwickelt, um dieses Problem zu lösen. Version 1 begann mit 65536 Codepunkten, die in der Regel in 16 Bit kodiert waren. Später wurde sie in Version 2 auf 1,1 Millionen Codepunkte erweitert. Die aktuelle Version ist 6.3, die 110.187 der verfügbaren 1,1 Millionen Codepunkte verwendet. Das passt nicht mehr in 16 Bit. Als v2 aufkam, war die Kodierung in 16 Bit üblich und wurde z. B. von den Betriebssystemen von Microsoft und Apple verwendet. Und von Sprach-Laufzeiten wie Java. Die v2-Spezifikation hat einen Weg gefunden, diese 1,1 Millionen Codepunkte in 16 Bits abzubilden. Eine Kodierung namens UTF-16, eine Kodierung mit variabler Länge, bei der ein Codepunkt entweder 2 oder 4 Bytes umfassen kann. Die ursprünglichen v1-Codepunkte benötigen 2 Byte, die hinzugefügten 4 Byte. Eine weitere, sehr verbreitete Kodierung mit variabler Länge, die in *nix-Betriebssystemen und -Tools verwendet wird, ist UTF-8. Ein Codepunkt kann zwischen 1 und 4 Byte groß sein, die ursprünglichen ASCII-Codes benötigen 1 Byte, die übrigen mehr. Die einzige Kodierung mit nicht variabler Länge ist UTF-32, die 4 Bytes für einen Codepunkt benötigt. Sie wird nicht oft verwendet, da sie ziemlich verschwenderisch ist. Es gibt andere, wie UTF-1 und UTF-7, die weitgehend ignoriert werden. Ein Problem bei den UTF-16/32-Kodierungen ist, dass die Reihenfolge der Bytes von der Endian-Zugehörigkeit des Rechners abhängt, der den Textstrom erzeugt. Es kommen also noch UTF-16BE, UTF-16LE, UTF-32BE und UTF-32LE hinzu. Diese verschiedenen Kodierungsmöglichkeiten bringen das Codepage-Desaster bis zu einem gewissen Grad zurück, zusammen mit hitzigen Debatten unter Programmierern, welche UTF-Wahl die "beste" ist. Ihre Verbindung mit den Standardeinstellungen des Betriebssystems macht die Grenzen deutlich. Eine Gegenmaßnahme ist die Definition eines BOM, der Byte Order Mark, ein spezieller Codepunkt (U+FEFF, Leerzeichen mit Nullbreite) am Anfang eines Textstroms, der anzeigt, wie der Rest des Stroms kodiert ist. Er gibt sowohl die UTF-Kodierung als auch die Endianess an und ist für eine Text-Rendering-Engine neutral. Leider ist es optional und viele Programmierer nehmen sich das Recht heraus, es wegzulassen, so dass es immer noch häufig zu Unfällen kommt.
¿Cuál es la diferencia entre ASCII y Unicode?
ASCII tiene 128 puntos de código, del 0 al 127. Puede caber en un solo byte de 8 bits, los valores 128 a 255 tendían a ser utilizados para otros caracteres. Con opciones incompatibles, provocando el desastre de la página de códigos. El texto codificado en una página de códigos no puede ser leído correctamente por un programa que suponga o adivine otra página de códigos. Unicode surgió para solucionar este desastre. La versión 1 comenzó con 65536 puntos de código, codificados comúnmente en 16 bits. Más tarde se amplió en la versión 2 a 1,1 millones de puntos de código. La versión actual es la 6.3, que utiliza 110.187 de los 1,1 millones de puntos de código disponibles. Eso ya no cabe en 16 bits. La codificación en 16 bits era habitual cuando apareció la v2 y la utilizaban, por ejemplo, los sistemas operativos de Microsoft y Apple. Y los tiempos de ejecución de lenguajes como Java. La especificación v2 ideó una forma de mapear esos 1,1 millones de puntos de código en 16 bits. Una codificación llamada UTF-16, de longitud variable, en la que un punto de código puede ocupar 2 o 4 bytes. Los puntos de código originales de la v1 ocupan 2 bytes, los añadidos ocupan 4. Otra codificación de longitud variable muy común, utilizada en sistemas operativos y herramientas *nix es UTF-8, un punto de código puede ocupar entre 1 y 4 bytes, los códigos ASCII originales ocupan 1 byte y el resto más. La única codificación de longitud no variable es UTF-32, toma 4 bytes para un punto de código. No se utiliza a menudo porque es bastante derrochadora. Hay otras, como UTF-1 y UTF-7, ampliamente ignoradas. Un problema con las codificaciones UTF-16/32 es que el orden de los bytes dependerá del sistema endian de la máquina que creó el flujo de texto. Así que añade a la mezcla UTF-16BE, UTF-16LE, UTF-32BE y UTF-32LE. Tener estas diferentes opciones de codificación trae de vuelta el desastre de la página de código hasta cierto punto, junto con acalorados debates entre programadores sobre cuál es la "mejor" opción UTF. Su asociación con los valores por defecto del sistema operativo traza prácticamente las líneas. Una contramedida es la definición de una BOM (Byte Order Mark), un punto de código especial (U+FEFF, espacio de anchura cero) al principio de un flujo de texto que indica cómo está codificado el resto del flujo. Indica tanto la codificación UTF como el endianess y es neutral para un motor de renderizado de texto. Por desgracia, es opcional y muchos programadores reclaman su derecho a omitirlo, por lo que los accidentes siguen siendo bastante comunes.
Quelle est la différence entre ASCII et Unicode ?
L'ASCII comporte 128 points de code, de 0 à 127. Ils peuvent tenir dans un seul octet de 8 bits, les valeurs 128 à 255 étant généralement utilisées pour d'autres caractères. Avec des choix incompatibles, la page de code est un désastre. Un texte codé dans une page de code ne peut pas être lu correctement par un programme qui suppose ou devine une autre page de code. L'Unicode a été créé pour résoudre ce problème. La version 1 a commencé avec 65536 points de code, communément encodés en 16 bits. Elle a ensuite été étendue à 1,1 million de points de code dans la version 2. La version actuelle est la 6.3, qui utilise 110 187 des 1,1 million de points de code disponibles. Cela ne tient plus dans 16 bits. Le codage en 16 bits était courant à l'époque de la v2, utilisé par exemple par les systèmes d'exploitation de Microsoft et d'Apple. Et les moteurs d'exécution de langages comme Java. La spécification v2 a proposé un moyen de faire correspondre ces 1,1 million de points de code à 16 bits. Il s'agit d'un encodage appelé UTF-16, un encodage de longueur variable dans lequel un point de code peut prendre 2 ou 4 octets. Les points de code originaux de la v1 prennent 2 octets, les points ajoutés en prennent 4. Un autre encodage de longueur variable très courant, utilisé dans les systèmes d'exploitation et les outils *nix, est l'UTF-8. Un point de code peut prendre entre 1 et 4 octets, les codes ASCII d'origine prennent 1 octet, les autres en prennent davantage. Le seul encodage à longueur non variable est l'UTF-32, qui prend 4 octets pour un point de code. Il n'est pas souvent utilisé, car il est plutôt inutile. Il en existe d'autres, comme UTF-1 et UTF-7, largement ignorés. Un problème avec les encodages UTF-16/32 est que l'ordre des octets dépend de l'endianité de la machine qui a créé le flux de texte. Il faut donc ajouter au mélange UTF-16BE, UTF-16LE, UTF-32BE et UTF-32LE. Le fait d'avoir ces différents choix d'encodage ramène dans une certaine mesure le désastre des pages de code, ainsi que des débats animés entre les programmeurs pour savoir quel est le "meilleur" choix d'UTF. Leur association avec les valeurs par défaut des systèmes d'exploitation est une source de tensions. Une contre-mesure consiste à définir un BOM (Byte Order Mark), un point de code spécial (U+FEFF, espace de largeur nulle) au début d'un flux de texte qui indique comment le reste du flux est codé. Il indique à la fois le codage UTF et l'endianage et est neutre pour un moteur de rendu de texte. Malheureusement, il est facultatif et de nombreux programmeurs revendiquent le droit de l'omettre, de sorte que les accidents sont encore assez fréquents.
Qual è la differenza tra ASCII e Unicode?
L'ASCII ha 128 punti di codice, da 0 a 127. I valori da 128 a 255 tendono a essere utilizzati per altri caratteri. Con scelte incompatibili, causando il disastro della pagina di codice. Il testo codificato in una pagina di codice non può essere letto correttamente da un programma che presuppone o indovina un'altra pagina di codice. Unicode è nato per risolvere questo disastro. La versione 1 ha iniziato con 65536 punti di codice, comunemente codificati in 16 bit. Successivamente, la versione 2 è stata estesa a 1,1 milioni di punti di codice. La versione attuale è la 6.3, che utilizza 110.187 degli 1,1 milioni di punti di codice disponibili. Questo non si adatta più a 16 bit. La codifica a 16 bit era comune quando è arrivata la v2, utilizzata ad esempio dai sistemi operativi di Microsoft e Apple. E dai runtime di linguaggi come Java. La specifica v2 ha trovato un modo per mappare questi 1,1 milioni di punti di codice in 16 bit. Una codifica chiamata UTF-16, una codifica a lunghezza variabile in cui un punto di codice può richiedere 2 o 4 byte. I punti di codice originali della v1 occupano 2 byte, quelli aggiunti ne occupano 4. Un'altra codifica a lunghezza variabile molto comune, utilizzata nei sistemi operativi e negli strumenti *nix, è UTF-8: un punto di codice può occupare da 1 a 4 byte, i codici ASCII originali occupano 1 byte, gli altri ne occupano di più. L'unica codifica di lunghezza non variabile è UTF-32, che richiede 4 byte per un punto di codice. Non viene usata spesso perché è piuttosto dispendiosa. Ce ne sono altre, come UTF-1 e UTF-7, ampiamente ignorate. Un problema con le codifiche UTF-16/32 è che l'ordine dei byte dipende dall'endianità della macchina che ha creato il flusso di testo. Si aggiungono quindi UTF-16BE, UTF-16LE, UTF-32BE e UTF-32LE. La presenza di queste diverse scelte di codifica riporta in qualche modo al disastro delle pagine di codice, insieme ad accesi dibattiti tra i programmatori su quale sia la scelta UTF "migliore". La loro associazione con le impostazioni predefinite del sistema operativo traccia le linee di demarcazione. Una contromisura è la definizione di un BOM, il Byte Order Mark, un punto di codifica speciale (U+FEFF, spazio a larghezza zero) all'inizio di un flusso di testo che indica come è codificato il resto del flusso. Indica sia la codifica UTF che l'endianess ed è neutrale per il motore di rendering del testo. Purtroppo è opzionale e molti programmatori rivendicano il diritto di ometterlo, per cui gli incidenti sono ancora piuttosto comuni.
121
Reasons why healthy people would intentionally want to get infected?
Because some self-proclaimed health guru claims that it's good for you to have that disease. The miracle-virus causes your body to absorb free cosmic energies. Your constantly raising body temperature is proof that it works. The headache you feel is because your brain is reconfiguring itself to become more effective. When the process is over, you will be far more intelligent. Some of our patients even gained psychic powers. The vomiting, blood-coughing, explosive diarrhea and the open sores you have all over your body are actually all the poisons your body accumulated over your life which are now leaving your body. The weakness you feel and the periodical blackouts are also part of the cleansing process. Your body is concentrating all its energy on cleaning you. That's in fact a good sign and shows that it works. Some of us were even able to communicate with alien angel-spirits during these intensive cleaning phases. All of that is of course bullshit. The infected are simply sick. The guru just claims all those pseudo-scientific benefits exist to get people to pay them ridiculous amounts of money for infecting them with the disease. Sounds ridiculous? Then you might want to take a look at the community of people drinking bleach.
Warum sollten sich gesunde Menschen absichtlich anstecken wollen?
Weil irgendein selbsternannter Gesundheitsguru behauptet, dass es gut für Sie ist, diese Krankheit zu haben. Das Wundervirus bewirkt, dass Ihr Körper freie kosmische Energien aufnimmt. Ihre ständig steigende Körpertemperatur ist der Beweis dafür, dass es funktioniert. Die Kopfschmerzen, die Sie verspüren, kommen daher, dass sich Ihr Gehirn neu konfiguriert, um effektiver zu werden. Wenn der Prozess abgeschlossen ist, werden Sie viel intelligenter sein. Einige unserer Patienten haben sogar übersinnliche Kräfte entwickelt. Das Erbrechen, der Bluthusten, der explosive Durchfall und die offenen Wunden, die Sie am ganzen Körper haben, sind in Wirklichkeit all die Gifte, die Ihr Körper im Laufe Ihres Lebens angesammelt hat und die nun Ihren Körper verlassen. Die Schwäche, die Sie empfinden, und die periodischen Blackouts sind ebenfalls Teil des Reinigungsprozesses. Ihr Körper konzentriert seine ganze Energie darauf, Sie zu reinigen. Das ist in der Tat ein gutes Zeichen und zeigt, dass es funktioniert. Einige von uns konnten während dieser intensiven Reinigungsphasen sogar mit außerirdischen Engelsgeistern kommunizieren. All das ist natürlich Blödsinn. Die Infizierten sind einfach krank. Der Guru behauptet all diese pseudowissenschaftlichen Vorteile nur, um die Leute dazu zu bringen, ihm lächerliche Geldsummen dafür zu zahlen, dass er sie mit der Krankheit infiziert. Klingt lächerlich? Dann sollten Sie einen Blick auf die Gemeinschaft der Bleichmittel trinkenden Menschen werfen.
¿Razones por las que las personas sanas querrían infectarse intencionadamente?
Porque algún autoproclamado gurú de la salud afirma que es bueno que tengas esa enfermedad. El virus milagroso hace que tu cuerpo absorba energías cósmicas gratuitas. Tu temperatura corporal en constante aumento es la prueba de que funciona. El dolor de cabeza que sientes se debe a que tu cerebro se está reconfigurando para ser más eficaz. Cuando termine el proceso, será mucho más inteligente. Algunos de nuestros pacientes incluso han adquirido poderes psíquicos. Los vómitos, la tos sanguinolenta, la diarrea explosiva y las llagas abiertas que tiene por todo el cuerpo son en realidad todos los venenos que su organismo acumuló a lo largo de su vida y que ahora están saliendo de su cuerpo. La debilidad que sientes y los desmayos periódicos también forman parte del proceso de limpieza. Tu cuerpo está concentrando toda su energía en limpiarte. De hecho, eso es una buena señal y demuestra que funciona. Algunos de nosotros incluso pudimos comunicarnos con ángeles-espíritus extraterrestres durante estas fases de limpieza intensiva. Todo eso es, por supuesto, mentira. Los infectados están simplemente enfermos. El gurú sólo afirma que todos esos beneficios pseudocientíficos existen para conseguir que la gente le pague cantidades ridículas de dinero por infectarlos con la enfermedad. ¿Le parece ridículo? Entonces quizá quieras echar un vistazo a la comunidad de personas que beben lejía.
Quelles sont les raisons pour lesquelles des personnes en bonne santé voudraient intentionnellement être infectées ?
Parce qu'un gourou de la santé autoproclamé prétend qu'il est bon pour vous d'avoir cette maladie. Le virus miracle fait absorber à votre corps des énergies cosmiques gratuites. L'augmentation constante de ta température corporelle est la preuve que cela fonctionne. Le mal de tête que vous ressentez est dû au fait que votre cerveau se reconfigure pour devenir plus efficace. À la fin du processus, vous serez beaucoup plus intelligent. Certains de nos patients ont même acquis des pouvoirs psychiques. Les vomissements, les toux sanguines, les diarrhées explosives et les plaies ouvertes que vous avez sur tout le corps sont en fait tous les poisons que votre corps a accumulés au cours de votre vie et qui quittent maintenant votre corps. La faiblesse que vous ressentez et les trous de mémoire périodiques font également partie du processus de nettoyage. Votre corps concentre toute son énergie à vous nettoyer. C'est en fait un bon signe et cela montre qu'il fonctionne. Certains d'entre nous ont même pu communiquer avec des esprits anges extraterrestres pendant ces phases intensives de nettoyage. Tout cela n'est bien sûr que des conneries. Les personnes infectées sont tout simplement malades. Le gourou prétend simplement que tous ces avantages pseudo-scientifiques existent pour que les gens les paient des sommes ridicules pour les infecter avec la maladie. Cela vous semble ridicule ? Dans ce cas, vous devriez peut-être jeter un coup d'œil à la communauté des personnes qui boivent de l'eau de Javel.
Motivi per cui le persone sane vorrebbero intenzionalmente infettarsi?
Perché qualche sedicente guru della salute sostiene che è un bene avere quella malattia. Il virus miracoloso fa sì che il vostro corpo assorba energie cosmiche gratuite. Il costante aumento della temperatura corporea è la prova che funziona. Il mal di testa che sentite è dovuto al fatto che il vostro cervello si sta riconfigurando per diventare più efficace. Quando il processo sarà terminato, sarete molto più intelligenti. Alcuni dei nostri pazienti hanno persino acquisito poteri psichici. Il vomito, la tosse sanguigna, la diarrea esplosiva e le piaghe aperte su tutto il corpo sono in realtà tutti i veleni che il vostro organismo ha accumulato nel corso della vita e che ora stanno lasciando il vostro corpo. Anche la debolezza e i periodici vuoti di memoria fanno parte del processo di purificazione. Il vostro corpo sta concentrando tutte le sue energie per pulirvi. Questo è un buon segno e dimostra che funziona. Alcuni di noi hanno persino potuto comunicare con spiriti-angeli alieni durante queste fasi di pulizia intensiva. Tutto questo è ovviamente una stronzata. Gli infetti sono semplicemente malati. Il guru sostiene che tutti questi benefici pseudo-scientifici esistono solo per convincere le persone a pagarli con cifre ridicole per infettarli con la malattia. Vi sembra ridicolo? Allora potreste dare un'occhiata alla comunità di persone che bevono candeggina.
122
In The Avengers, the Council contacted Nick Fury and supposedly, they want to nuke Manhattan. Nick didn't agree so they contacted a S.H.I.E.L.D. operative to nuke Manhattan. When they found out that an unauthorized jet was trying to fly, Nick grabbed a rocket launcher and fired it at the jet, which was a decoy and the real jet was able to escape. However, why would he do that? If that was the real plane carrying a nuke enough to level Manhattan, wouldn't the nuke explode and destroy the base along with them if he fired a rocket launcher at it?
If that was the real plane carrying a nuke enough to level Manhattan, wouldn't the nuke explode and destroy the base along with them if he fired a rocket launcher at it? No. Detonating a modern nuclear device is, in fact, incredibly difficult and merely shooting down the aircraft carrying it would not be sufficient. In fact, several aircraft carrying older nuclear devices have either crashed or otherwise been lost without the device on board detonating. It's likely that the crash might cause a release of nuclear material but detonation is practically impossible. In 1966... ...another B-52 carrying four hydrogen bombs crashed near the Spanish town of Palomares on Spain’s southeast coast after colliding with a refueling tanker. One of the four bombs was recovered virtually intact, according to The Washington Post, but two others released plutonium when their explosive triggers detonated. A fourth bomb fell into the sea, prompting a search that involved thousands of uniformed personnel, millions of dollars and 20 ships that ranged from submarines to minesweepers. The fourth bomb was eventually recovered, but radiation released by the damaged weapons required a U.S.-led effort to decontaminate 640 acres of topsoil in the farmland around Palomares, Tad Sczulc reported in the Times. Military personnel initially wore face masks and gloves as they removed the soil, according to Sczulc’s account, and more than 1,600 tons of contaminated soil were sealed in steel drums and shipped to the U.S. for disposal. Washington Post 1964 In 1964, a B-52 carrying two unarmed atomic bombs crashed in western Maryland. In 1961, two nuclear-laden B-52s went down — one near Yuba City, Calif., and another north of Goldsboro, N.C. The bombs survived both crashes without detonating
In The Avengers nahm der Rat Kontakt zu Nick Fury auf und wollte angeblich Manhattan atomar zerstören. Nick war damit nicht einverstanden, also kontaktierten sie einen S.H.I.E.L.D.-Agenten, um Manhattan zu vernichten. Als sie herausfanden, dass ein nicht autorisierter Jet zu fliegen versuchte, schnappte sich Nick einen Raketenwerfer und feuerte ihn auf den Jet ab, der eine Attrappe war, und der echte Jet konnte entkommen. Aber warum sollte er das tun? Wenn es sich um das echte Flugzeug handelte, das eine Atombombe an Bord hatte, die ausgereicht hätte, um Manhattan in Schutt und Asche zu legen, würde die Atombombe dann nicht explodieren und den Stützpunkt zusammen mit ihnen zerstören, wenn er einen Raketenwerfer darauf abschießt?
Wenn es sich um das echte Flugzeug handelte, das eine Atombombe an Bord hatte, die ausgereicht hätte, Manhattan auszulöschen, würde die Atombombe dann nicht explodieren und den Stützpunkt zusammen mit ihnen zerstören, wenn er einen Raketenwerfer darauf abfeuert? Nein. Die Detonation eines modernen Nuklearsprengkörpers ist in der Tat unglaublich schwierig, und ein bloßer Abschuss des Flugzeugs, das ihn an Bord hat, würde nicht ausreichen. Tatsächlich sind mehrere Flugzeuge mit älteren Nuklearsprengkörpern entweder abgestürzt oder anderweitig verloren gegangen, ohne dass der Sprengkörper an Bord detoniert wäre. Es ist wahrscheinlich, dass beim Absturz Kernmaterial freigesetzt wird, aber eine Detonation ist praktisch unmöglich. Im Jahr 1966... ...stürzte eine weitere B-52 mit vier Wasserstoffbomben an Bord in der Nähe der spanischen Stadt Palomares an der Südostküste Spaniens ab, nachdem sie mit einem Tankflugzeug zusammengestoßen war. Eine der vier Bomben wurde nach Angaben der Washington Post praktisch unversehrt geborgen, aber zwei andere setzten Plutonium frei, als ihre explosiven Auslöser detonierten. Eine vierte Bombe fiel ins Meer und löste eine Suchaktion aus, an der Tausende von Uniformierten, Millionen von Dollar und 20 Schiffe - von U-Booten bis zu Minensuchbooten - beteiligt waren. Die vierte Bombe wurde schließlich geborgen, aber die von den beschädigten Waffen freigesetzte Strahlung erforderte eine von den USA geleitete Anstrengung zur Dekontaminierung von 640 Hektar Mutterboden im Ackerland um Palomares, berichtete Tad Sczulc in der Times. Dem Bericht von Sczulc zufolge trugen die Militärangehörigen anfangs Gesichtsmasken und Handschuhe, als sie den Boden abtrugen. Mehr als 1.600 Tonnen kontaminierten Bodens wurden in Stahlfässern versiegelt und zur Entsorgung in die USA transportiert. Washington Post 1964 1964 stürzte eine B-52 mit zwei unbewaffneten Atombomben an Bord im westlichen Maryland ab. 1961 stürzten zwei nuklear beladene B-52 ab - eine in der Nähe von Yuba City, Kalifornien, und eine weitere nördlich von Goldsboro, N.C. Die Bomben überlebten beide Abstürze, ohne zu explodieren.
En Los Vengadores, el Consejo contactó con Nick Fury y supuestamente querían destruir Manhattan. Nick no estaba de acuerdo, así que contactaron con un agente de S.H.I.E.L.D. para que bombardeara Manhattan. Cuando descubrieron que un jet no autorizado estaba intentando volar, Nick cogió un lanzacohetes y lo disparó contra el jet, que era un señuelo y el jet real pudo escapar. Sin embargo, ¿por qué haría eso? Si ese era el avión real que llevaba una bomba nuclear suficiente para arrasar Manhattan, ¿no explotaría la bomba y destruiría la base junto con ellos si le disparaba con un lanzacohetes?
Si ése fuera el avión real que transportaba una bomba nuclear suficiente para arrasar Manhattan, ¿no explotaría la bomba y destruiría la base junto con ellos si disparara un lanzacohetes contra él? No. Detonar un artefacto nuclear moderno es, de hecho, increíblemente difícil y simplemente derribar el avión que lo transporta no sería suficiente. De hecho, varios aviones que transportaban dispositivos nucleares más antiguos se han estrellado o se han perdido sin que detonara el dispositivo que llevaban a bordo. Es probable que el accidente provoque la liberación de material nuclear, pero la detonación es prácticamente imposible. En 1966... ...otro B-52 que transportaba cuatro bombas de hidrógeno se estrelló cerca de la ciudad española de Palomares, en la costa sureste de España, tras colisionar con un avión cisterna de reabastecimiento. Una de las cuatro bombas se recuperó prácticamente intacta, según The Washington Post, pero otras dos liberaron plutonio al detonar sus detonadores explosivos. Una cuarta bomba cayó al mar, lo que dio lugar a una búsqueda en la que participaron miles de uniformados, millones de dólares y 20 buques, desde submarinos hasta dragaminas. La cuarta bomba fue finalmente recuperada, pero la radiación liberada por las armas dañadas requirió un esfuerzo liderado por Estados Unidos para descontaminar 640 acres de tierra vegetal en las tierras de cultivo alrededor de Palomares, informó Tad Sczulc en el Times. Según el relato de Sczulc, el personal militar utilizó inicialmente mascarillas y guantes para retirar la tierra, y más de 1.600 toneladas de tierra contaminada fueron selladas en bidones de acero y enviadas a Estados Unidos para su eliminación. Washington Post 1964 En 1964, un B-52 que transportaba dos bombas atómicas desarmadas se estrelló en el oeste de Maryland. En 1961, dos B-52 cargados de armas nucleares cayeron, uno cerca de Yuba City (California) y otro al norte de Goldsboro (Carolina del Norte). Las bombas sobrevivieron a ambos accidentes sin detonar.
Dans The Avengers, le Conseil a contacté Nick Fury et a prétendument voulu faire exploser Manhattan. Nick n'étant pas d'accord, ils ont contacté un agent du S.H.I.E.L.D. pour faire exploser Manhattan. Lorsqu'ils ont découvert qu'un jet non autorisé essayait de voler, Nick a saisi un lance-roquettes et l'a tiré sur le jet, qui était un leurre, et le vrai jet a pu s'échapper. Mais pourquoi a-t-il fait cela ? S'il s'agissait du véritable avion transportant une bombe nucléaire suffisante pour raser Manhattan, la bombe n'exploserait-elle pas et ne détruirait-elle pas la base en même temps qu'eux s'il tirait avec un lance-roquettes ?
S'il s'agissait du véritable avion transportant une charge nucléaire suffisante pour raser Manhattan, la charge nucléaire n'exploserait-elle pas et ne détruirait-elle pas la base en même temps qu'eux s'il tirait un lance-roquettes sur celle-ci ? Non. Faire exploser un engin nucléaire moderne est, en fait, incroyablement difficile et il ne suffirait pas d'abattre l'avion qui le transporte. En fait, plusieurs avions transportant des dispositifs nucléaires plus anciens se sont écrasés ou ont été perdus sans que le dispositif à bord n'explose. Il est probable que l'écrasement puisse entraîner la libération de matières nucléaires, mais la détonation est pratiquement impossible. En 1966... ...un autre B-52 transportant quatre bombes à hydrogène s'est écrasé près de la ville espagnole de Palomares, sur la côte sud-est de l'Espagne, après être entré en collision avec un ravitailleur. Selon le Washington Post, l'une des quatre bombes a été récupérée pratiquement intacte, mais deux autres ont libéré du plutonium lorsque leurs gâchettes explosives se sont déclenchées. Une quatrième bombe est tombée en mer, entraînant des recherches qui ont mobilisé des milliers de personnes en uniforme, des millions de dollars et 20 navires allant des sous-marins aux dragueurs de mines. La quatrième bombe a finalement été récupérée, mais les radiations libérées par les armes endommagées ont nécessité un effort mené par les États-Unis pour décontaminer 640 acres de terre arable dans les terres agricoles autour de Palomares, a rapporté Tad Sczulc dans le Times. Le personnel militaire a d'abord porté des masques et des gants pour enlever la terre, selon le récit de Sczulc, et plus de 1 600 tonnes de terre contaminée ont été scellées dans des fûts en acier et expédiées aux États-Unis pour être éliminées. Washington Post 1964 En 1964, un B-52 transportant deux bombes atomiques non armées s'est écrasé dans l'ouest du Maryland. En 1961, deux B-52 chargés d'armes nucléaires s'étaient écrasés, l'un près de Yuba City (Californie) et l'autre au nord de Goldsboro (Caroline du Nord). Les bombes avaient survécu aux deux crashs sans exploser
In The Avengers, il Consiglio contatta Nick Fury e, a quanto pare, vuole bombardare Manhattan. Nick non era d'accordo e così contattarono un agente dello S.H.I.E.L.D. per bombardare Manhattan. Quando scoprirono che un jet non autorizzato stava cercando di volare, Nick prese un lanciarazzi e lo sparò contro il jet, che era un'esca e il vero jet riuscì a fuggire. Ma perché l'avrebbe fatto? Se quello era il vero aereo che trasportava una bomba atomica sufficiente a radere al suolo Manhattan, la bomba non sarebbe esplosa e non avrebbe distrutto la base insieme a loro se avesse sparato con un lanciarazzi?
Se quello era il vero aereo che trasportava una testata nucleare sufficiente a radere al suolo Manhattan, la testata non sarebbe esplosa e avrebbe distrutto la base insieme a loro se avesse sparato con un lanciarazzi? No. Far esplodere un ordigno nucleare moderno è infatti incredibilmente difficile e non sarebbe sufficiente abbattere l'aereo che lo trasporta. In effetti, diversi aerei che trasportavano dispositivi nucleari più vecchi si sono schiantati o sono andati perduti senza che il dispositivo a bordo esplodesse. È probabile che l'incidente possa causare un rilascio di materiale nucleare, ma la detonazione è praticamente impossibile. Nel 1966... ... un altro B-52 che trasportava quattro bombe all'idrogeno si schiantò vicino alla città spagnola di Palomares, sulla costa sudorientale della Spagna, dopo essersi scontrato con un'autocisterna di rifornimento. Secondo il Washington Post, una delle quattro bombe fu recuperata praticamente intatta, ma altre due rilasciarono plutonio quando i loro inneschi esplosivi detonarono. Una quarta bomba è caduta in mare, dando il via a una ricerca che ha coinvolto migliaia di persone in uniforme, milioni di dollari e 20 navi, dai sottomarini ai dragamine. La quarta bomba è stata infine recuperata, ma le radiazioni rilasciate dalle armi danneggiate hanno richiesto uno sforzo guidato dagli Stati Uniti per decontaminare 640 acri di terreno nei dintorni di Palomares, come ha riportato Tad Sczulc sul Times. Secondo il resoconto di Sczulc, il personale militare ha inizialmente indossato maschere e guanti per rimuovere il terreno e più di 1.600 tonnellate di terreno contaminato sono state sigillate in fusti d'acciaio e spedite negli Stati Uniti per lo smaltimento. Washington Post 1964 Nel 1964, un B-52 che trasportava due bombe atomiche disarmate si schiantò nel Maryland occidentale. Nel 1961, due B-52 a carica nucleare sono precipitati: uno vicino a Yuba City, in California, e l'altro a nord di Goldsboro, in N.C. Le bombe sono sopravvissute a entrambi gli incidenti senza esplodere.
123
Since I created my repository it appears that the tags I have been creating are not pushed to the repository. When I do ```git tag``` on the local directory all the tags are present, but when I logon to the remote repository and do a ```git tag```, only the first few show up. What could the problem be?.
In default git remote configuration you have to push tags explicitly (while they are fetched automatically together with commits they point to). You need to use ``` $ git push <remote> tag <tagname> ``` to push a single tag, ``` $ git push <remote> --tags ``` to push all tags (or ```git push --tags``` to push to default remote, usually ```origin```). This is very much intended behavior, to make pushing tags explicit. Pushing tags should be usually conscious choice.
Seit ich mein Repository erstellt habe, scheint es, dass die von mir erstellten Tags die ich erstellt habe, nicht in das Repository übertragen werden. Wenn ich ```git tag`` auf dem lokalen Verzeichnis ausführe, sind alle Tags vorhanden, aber wenn ich mich in das Repository anmelde und einen ``git tag`` ausführe, werden nur die ersten paar angezeigt. Was könnte das Problem sein?
In der Standardkonfiguration von Git Remote müssen Sie Tags explizit pushen (während sie automatisch zusammen mit den Commits geholt werden, auf die sie verweisen). Sie müssen ``` $ git push <remote> tag <tagname> ``` um einen einzelnen Tag zu pushen, ``` $ git push <remote> --tags ``` um alle Tags zu pushen (oder ```git push --tags``, um zum Standard-Remote zu pushen, normalerweise ```origin``). Dies ist ein beabsichtigtes Verhalten, um das Pushen von Tags explizit zu machen. Tags zu pushen sollte normalerweise eine bewusste Entscheidung sein.
Desde que creé mi repositorio parece que las etiquetas que he estado que he estado creando no se envían al repositorio. Cuando hago ``git tag`` en el directorio directorio local todas las etiquetas están presentes, pero cuando me conecto al repositorio remoto y hago ``git tag``, sólo aparecen las primeras. ¿Cuál puede ser el problema?
En la configuración remota por defecto de git tienes que insertar las etiquetas explícitamente (mientras que se obtienen automáticamente junto con los commits a los que apuntan). Tienes que usar ``` $ git push <remote> etiqueta <tagname> ``` para empujar una sola etiqueta, ``` $ git push <remote> --tags ``` para enviar todas las etiquetas (o ```git push --tags``` para enviarlas al remoto por defecto, normalmente ```origin``). Este es el comportamiento que se pretende, hacer explícito el envío de etiquetas. Empujar etiquetas debería ser una elección consciente.
Depuis que j'ai créé mon référentiel, il apparaît que les balises que j'ai créées ne sont pas poussées vers le référentiel. ne sont pas poussées vers le dépôt. Lorsque je fais ``git tag`` sur le répertoire local, toutes les balises sont présentes. local, tous les tags sont présents, mais quand je me connecte au dépôt distant et que je fais un Mais lorsque je me connecte au dépôt distant et que je fais un ``git tag``, seuls les premiers apparaissent. Quel peut être le problème ?
Dans la configuration par défaut de git remote, vous devez pousser les tags explicitement (alors qu'ils sont récupérés automatiquement avec les commits vers lesquels ils pointent). Vous devez utiliser ``` $ git push <remote> tag <tagname> ``` pour pousser une seule balise, ``` $ git push <remote> --tags ``` pour pousser tous les tags (ou ``git push --tags`` pour pousser vers le remote par défaut, habituellement ``origin``). C'est un comportement tout à fait voulu, pour rendre explicite le fait de pousser des balises. Pousser les balises devrait être un choix conscient.
Da quando ho creato il mio repository sembra che i tag che ho creati non vengono inviati al repository. Quando eseguo ```git tag`` sulla directory locale, tutti i tag sono presenti. directory locale tutti i tag sono presenti, ma quando mi collego al repository repository remoto e faccio un ```git tag``, vengono visualizzati solo i primi. Quale potrebbe essere il problema?
Nella configurazione predefinita di git remote è necessario spingere esplicitamente i tag (mentre vengono recuperati automaticamente insieme ai commit a cui puntano). È necessario usare ``` $ git push <remote> tag <tagname> ``` per spingere un singolo tag, ``` $ git push <remote> --tags ``` per spingere tutti i tag (o ```git push --tags`` per spingere sul remoto predefinito, di solito ```origine``). Questo è un comportamento voluto, per rendere esplicito il push dei tag. Il push dei tag dovrebbe essere di solito una scelta consapevole.
124
How do I add Git submodule to a sub-directory?
You go into ~/.janus and run: ```git submodule add <git@github ...> snipmate-snippets/snippets/``` If you need more information about submodules (or git in general) ProGit is pretty useful.
Wie füge ich Git-Submodule zu einem Unterverzeichnis hinzu?
Sie gehen in ~/.janus und führen aus: <git submodule add <git@github ...> snipmate-snippets/snippets/``` Wenn Sie mehr Informationen über Submodule (oder Git im Allgemeinen) benötigen, ist ProGit sehr nützlich.
¿Cómo añado un submódulo Git a un subdirectorio?
Entras en ~/.janus y ejecutas: ```git submodule add <git@github ...> snipmate-snippets/snippets/```` Si necesitas más información sobre submódulos (o sobre git en general) ProGit es bastante útil.
Comment ajouter un sous-module Git à un sous-répertoire ?
Vous allez dans ~/.janus et vous lancez : ```git submodule add <git@github ...> snipmate-snippets/snippets/``` Si vous avez besoin de plus d'informations sur les submodules (ou sur git en général), ProGit est très utile.
Come si aggiunge un sottomodulo Git a una sottodirectory?
Andate in ~/.janus ed eseguite: ```git submodule add <git@github ...> snipmate-snippets/snippets/``` Se avete bisogno di maggiori informazioni sui sottomoduli (o su git in generale) ProGit è molto utile.
125
Given that Kohn-Sham DFT is strictly a ground-state method (at 0 K), how is it sufficient to describe materials in real-life applications?
These are a few extra points to complement Andrew Rosen's comprehensive response: * To be absolutely clear, typical DFT calculations are not performed at 0K, a better description of what happens is that they are performed "for a static crystal". Static crystal means that the atoms are fixed at their crystallographic positions (which is what a typical DFT calculation does), but this situation is different from 0K. Even at 0K, the atomic nuclei move due to quantum zero-point motion (also called quantum fluctuations). This quantum zero-point motion is very small for compounds containing heavy elements, which means that in these cases "0K" and "static crystal" are almost the same and many people use the terms interchangeably. However, quantum zero-point motion can be very large for light elements, for example in solid hydrogen (the lightest of all compounds) it dominates even at room temperature. To perform a calculation at 0K (as opposed to a static crystal calculation), the strategy that Andrew Rosen proposed would still work if you use quantum statistics. For example, solving the vibrational problem within the harmonic approximation at the quantum mechanical level with give you the zero-point energy as the ground state of a quantum harmonic oscillator. A good reference for hydrogen is this review article. * Although Andrew Rosen is correct in that the potential energy surface is largely temperature independent, there are a few situations in which the potential energy surface does vary significantly with temperature. An example of this is provided by many perovskite crystals (e.g. $\ce{BaTiO_3}$), which undergo a series of temperature-induced structural phase transitions. For example, at very high temperatures the structure is cubic, and this structure sits at a minimum of the potential free energy surface. However, if you calculated the potential energy surface (instead of the free energy surface), then it has a double-well shape and the cubic structure is at the saddle point, so the structure will lower its energy by distorting and going to one of the minima. This is precisely what happens at low temperatures because the corresponding free energy surface acquires a double-well shape, and the system undergoes a structural phase transition. A good early DFT reference for this is this paper. * As already pointed out by others, the differences between DFT and TDDFT or $GW$-BSE are not related to the inclusion or exclusion of temperature. In this language, both TDDFT and $GW$-BSE have no temperature for the behaviour of the nuclei, and you could incoporate it in a similar fashion to what Andrew Rosen described for DFT.
Da es sich bei der Kohn-Sham-DFT um eine reine Grundzustandsmethode (bei 0 K) handelt, stellt sich die Frage, inwieweit sie zur Beschreibung von Materialien in realen Anwendungen ausreicht.
Dies sind einige zusätzliche Punkte, die die umfassende Antwort von Andrew Rosen ergänzen: * Um es ganz klar zu sagen: Typische DFT-Berechnungen werden nicht bei 0 K durchgeführt; eine bessere Beschreibung dessen, was passiert, ist, dass sie "für einen statischen Kristall" durchgeführt werden. Statischer Kristall bedeutet, dass die Atome an ihren kristallographischen Positionen fixiert sind (was bei einer typischen DFT-Berechnung der Fall ist), aber diese Situation ist anders als bei 0 K. Selbst bei 0 K bewegen sich die Atomkerne aufgrund von Quanten-Nullpunktsbewegungen (auch Quantenfluktuationen genannt). Diese Quanten-Nullpunktsbewegung ist bei Verbindungen, die schwere Elemente enthalten, sehr gering, was bedeutet, dass in diesen Fällen "0K" und "statischer Kristall" fast dasselbe sind und viele Leute die Begriffe austauschbar verwenden. Bei leichten Elementen kann die Quanten-Nullpunktsbewegung jedoch sehr groß sein, z. B. bei festem Wasserstoff (der leichtesten aller Verbindungen) dominiert sie sogar bei Raumtemperatur. Um eine Berechnung bei 0K durchzuführen (im Gegensatz zu einer statischen Kristallberechnung), würde die von Andrew Rosen vorgeschlagene Strategie immer noch funktionieren, wenn man Quantenstatistiken verwendet. Die Lösung des Schwingungsproblems im Rahmen der harmonischen Näherung auf quantenmechanischer Ebene liefert zum Beispiel die Nullpunktenergie als Grundzustand eines quantenharmonischen Oszillators. Eine gute Referenz für Wasserstoff ist dieser Übersichtsartikel. * Obwohl Andrew Rosen Recht hat, dass die Oberfläche der potenziellen Energie weitgehend temperaturunabhängig ist, gibt es einige Situationen, in denen die Oberfläche der potenziellen Energie erheblich von der Temperatur abhängt. Ein Beispiel hierfür sind viele Perowskitkristalle (z. B. $\ce{BaTiO_3}$), die eine Reihe von temperaturbedingten strukturellen Phasenübergängen durchlaufen. Bei sehr hohen Temperaturen ist die Struktur beispielsweise kubisch, und diese Struktur befindet sich auf einem Minimum der Oberfläche der potenziellen freien Energie. Berechnet man jedoch die Oberfläche der potenziellen Energie (anstelle der Oberfläche der freien Energie), so hat sie die Form einer Doppelmulde, und die kubische Struktur befindet sich am Sattelpunkt, so dass die Struktur ihre Energie senkt, indem sie sich verformt und zu einem der Minima geht. Genau dies geschieht bei niedrigen Temperaturen, da die entsprechende Oberfläche der freien Energie die Form einer Doppelmulde annimmt und das System einen strukturellen Phasenübergang erfährt. Eine gute frühe DFT-Referenz für diesen Sachverhalt ist diese Arbeit. * Wie bereits von anderen hervorgehoben, hängen die Unterschiede zwischen DFT und TDDFT oder $GW$-BSE nicht mit der Einbeziehung oder dem Ausschluss der Temperatur zusammen. In dieser Sprache haben sowohl TDDFT als auch $GW$-BSE keine Temperatur für das Verhalten der Kerne, und man könnte sie auf ähnliche Weise einbeziehen, wie Andrew Rosen es für DFT beschrieben hat.
Dado que la DFT de Kohn-Sham es estrictamente un método de estado básico (a 0 K), ¿es suficiente para describir materiales en aplicaciones reales?
Estos son algunos puntos adicionales para complementar la exhaustiva respuesta de Andrew Rosen: * Para ser absolutamente claros, los cálculos DFT típicos no se realizan a 0K, una mejor descripción de lo que ocurre es que se realizan "para un cristal estático". Cristal estático significa que los átomos están fijos en sus posiciones cristalográficas (que es lo que hace un cálculo DFT típico), pero esta situación es diferente a 0K. Incluso a 0K, los núcleos atómicos se mueven debido al movimiento cuántico de punto cero (también llamado fluctuaciones cuánticas). Este movimiento cuántico de punto cero es muy pequeño para los compuestos que contienen elementos pesados, lo que significa que en estos casos "0K" y "cristal estático" son casi lo mismo y mucha gente utiliza los términos indistintamente. Sin embargo, el movimiento cuántico del punto cero puede ser muy grande para los elementos ligeros; por ejemplo, en el hidrógeno sólido (el más ligero de todos los compuestos) domina incluso a temperatura ambiente. Para realizar un cálculo a 0K (a diferencia de un cálculo estático de cristales), la estrategia que propuso Andrew Rosen seguiría funcionando si se utiliza la estadística cuántica. Por ejemplo, resolviendo el problema vibracional dentro de la aproximación armónica a nivel de mecánica cuántica se obtiene la energía de punto cero como estado fundamental de un oscilador armónico cuántico. Una buena referencia para el hidrógeno es este artículo de revisión. * Aunque Andrew Rosen tiene razón en que la superficie de energía potencial es en gran medida independiente de la temperatura, hay algunas situaciones en las que la superficie de energía potencial varía significativamente con la temperatura. Un ejemplo de ello son muchos cristales de perovskita (por ejemplo, $\ce{BaTiO_3}$), que experimentan una serie de transiciones de fase estructurales inducidas por la temperatura. Por ejemplo, a temperaturas muy altas la estructura es cúbica, y esta estructura se sitúa en un mínimo de la superficie de energía potencial libre. Sin embargo, si se calcula la superficie de energía potencial (en lugar de la superficie de energía libre), entonces tiene una forma de doble pozo y la estructura cúbica se encuentra en el punto de silla de montar, por lo que la estructura reducirá su energía distorsionándose y yendo a uno de los mínimos. Esto es precisamente lo que ocurre a bajas temperaturas porque la superficie de energía libre correspondiente adquiere una forma de doble pozo, y el sistema experimenta una transición de fase estructural. Una buena referencia temprana de DFT para esto es este artículo. * Como ya han señalado otros, las diferencias entre DFT y TDDFT o $GW$-BSE no están relacionadas con la inclusión o exclusión de la temperatura. En este lenguaje, tanto TDDFT como $GW$-BSE no tienen temperatura para el comportamiento de los núcleos, y se podría incoporar de forma similar a lo que Andrew Rosen describió para DFT.
Étant donné que la méthode DFT de Kohn-Sham est strictement une méthode de l'état fondamental (à 0 K), comment est-elle suffisante pour décrire les matériaux dans les applications de la vie réelle ?
Il s'agit de quelques points supplémentaires pour compléter la réponse complète d'Andrew Rosen : * Pour être tout à fait clair, les calculs DFT typiques ne sont pas effectués à 0K, une meilleure description de ce qui se passe est qu'ils sont effectués "pour un cristal statique". Un cristal statique signifie que les atomes sont fixés à leur position cristallographique (ce que fait un calcul DFT typique), mais cette situation est différente de 0K. Même à 0K, les noyaux atomiques se déplacent en raison du mouvement quantique du point zéro (également appelé fluctuations quantiques). Ce mouvement quantique du point zéro est très faible pour les composés contenant des éléments lourds, ce qui signifie que dans ces cas, "0K" et "cristal statique" sont presque identiques et que de nombreuses personnes utilisent ces termes de manière interchangeable. Cependant, le mouvement du point zéro quantique peut être très important pour les éléments légers, par exemple dans l'hydrogène solide (le plus léger de tous les composés), où il domine même à température ambiante. Pour effectuer un calcul à 0K (par opposition à un calcul de cristal statique), la stratégie proposée par Andrew Rosen fonctionnerait toujours si l'on utilisait les statistiques quantiques. Par exemple, la résolution du problème vibrationnel dans le cadre de l'approximation harmonique au niveau de la mécanique quantique vous donnera l'énergie du point zéro en tant qu'état fondamental d'un oscillateur harmonique quantique. Cet article de synthèse constitue une bonne référence pour l'hydrogène. * Bien qu'Andrew Rosen ait raison de dire que la surface d'énergie potentielle est largement indépendante de la température, il existe quelques situations dans lesquelles la surface d'énergie potentielle varie de manière significative avec la température. Un exemple de cette situation est fourni par de nombreux cristaux de pérovskite (par exemple $\ce{BaTiO_3}$), qui subissent une série de transitions de phase structurelles induites par la température. Par exemple, à très haute température, la structure est cubique, et cette structure se situe à un minimum de la surface d'énergie libre potentielle. Cependant, si vous calculez la surface d'énergie potentielle (au lieu de la surface d'énergie libre), elle a une forme de double puits et la structure cubique se trouve au point de selle, de sorte que la structure abaisse son énergie en se déformant et en allant vers l'un des minima. C'est précisément ce qui se produit à basse température, car la surface d'énergie libre correspondante acquiert une forme de double puits et le système subit une transition de phase structurelle. Ce document constitue une bonne référence DFT pour cette question. * Comme d'autres l'ont déjà souligné, les différences entre DFT et TDDFT ou $GW$-BSE ne sont pas liées à l'inclusion ou à l'exclusion de la température. Dans ce langage, TDDFT et $GW$-BSE n'ont pas de température pour le comportement des noyaux, et vous pouvez l'inclure d'une manière similaire à ce qu'Andrew Rosen a décrit pour DFT.
Dato che la DFT di Kohn-Sham è strettamente un metodo allo stato fondamentale (a 0 K), come può essere sufficiente per descrivere i materiali nelle applicazioni reali?
Questi sono alcuni punti aggiuntivi per completare la risposta esauriente di Andrew Rosen: * Per essere assolutamente chiari, i calcoli DFT tipici non vengono eseguiti a 0K, una descrizione migliore di ciò che accade è che vengono eseguiti "per un cristallo statico". Cristallo statico significa che gli atomi sono fissati nelle loro posizioni cristallografiche (che è ciò che fa un tipico calcolo DFT), ma questa situazione è diversa da 0K. Anche a 0K, i nuclei atomici si muovono a causa del moto quantistico del punto zero (chiamato anche fluttuazioni quantistiche). Questo moto quantico del punto zero è molto piccolo per i composti contenenti elementi pesanti, il che significa che in questi casi "0K" e "cristallo statico" sono quasi la stessa cosa e molti usano i termini in modo intercambiabile. Tuttavia, il moto quantico del punto zero può essere molto grande per gli elementi leggeri, ad esempio nell'idrogeno solido (il più leggero di tutti i composti) domina anche a temperatura ambiente. Per eseguire un calcolo a 0K (rispetto a un calcolo statico del cristallo), la strategia proposta da Andrew Rosen funzionerebbe ancora se si utilizzasse la statistica quantistica. Ad esempio, risolvendo il problema vibrazionale con l'approssimazione armonica a livello quantomeccanico si ottiene l'energia di punto zero come stato fondamentale di un oscillatore armonico quantistico. Un buon riferimento per l'idrogeno è questo articolo di revisione. * Sebbene Andrew Rosen abbia ragione nel dire che la superficie di energia potenziale è in gran parte indipendente dalla temperatura, ci sono alcune situazioni in cui la superficie di energia potenziale varia significativamente con la temperatura. Un esempio di ciò è fornito da molti cristalli di perovskite (ad esempio, $\ce{BaTiO_3}$), che subiscono una serie di transizioni di fase strutturali indotte dalla temperatura. Ad esempio, a temperature molto elevate la struttura è cubica e si trova al minimo della superficie di energia potenziale libera. Tuttavia, se si calcola la superficie dell'energia potenziale (anziché quella dell'energia libera), questa ha una forma a doppio pozzo e la struttura cubica si trova nel punto di sella, per cui la struttura abbasserà la sua energia distorcendosi e andando verso uno dei minimi. Questo è esattamente ciò che accade a basse temperature, perché la corrispondente superficie di energia libera acquisisce una forma a doppio pozzo e il sistema subisce una transizione di fase strutturale. Un buon riferimento per la DFT è questo articolo. * Come già sottolineato da altri, le differenze tra DFT e TDDFT o $GW$-BSE non sono legate all'inclusione o all'esclusione della temperatura. In questo linguaggio, sia TDDFT che $GW$-BSE non prevedono la temperatura per il comportamento dei nuclei, e la si potrebbe includere in modo simile a quanto descritto da Andrew Rosen per la DFT.
126
I don't really get the difference between gain and volume boost. So if I understand correctly, gain directly boosts a signal from a line or input while volume handles the output. Volume isn't really for boosting either. Would this mean, in most settings, getting 'close to' as much gain as possible without any hiss/background noise is ideal?
Here's a brief overview to get you started. Hopefully this helps! * 'Gain' controls are typically used to get a good input level. So for example if you had a microphone with a very low output signal, you would boost the gain to get a better level into your mixing desk or audio interface. If you had a synthesizer plugged in you might need to turn the gain down to stop the signal distorting. Gain controls are often controlling an amplifier behind the scenes - i.e. your signal can 'gain' strength after going through the gain stage of your audio equipment. So gain is usually the first control in the signal path of your recording equipment. * 'Volume' controls on the other hand tend to be at the end of the signal chain and are more likely to be attenuating rather than amplifying the signal. So on a mixing desk, having got a good level from each input at the gain stage, you use the volume faders to adjust the relative volumes of each channel to achieve a good mix. You are not typically amplifying those signals any more though. A guitar amp is a good example of how this works. The first control is often called "Gain" or 'drive' and guitarists often deliberately turn this really high to get a nice distorted sound from a tube preamp. However, the final control is called Volume and governs simply how loud the sound coming out of your speaker is. With gain right up and volume low you can play distorted sounds without annoying the neighbours. With gain low and volume high you get a loud sound but no distortion.
Ich verstehe den Unterschied zwischen Gain und Volume Boost nicht wirklich. Wenn ich das richtig verstehe, verstärkt Gain direkt ein Signal von einer Leitung oder einem Eingang, während Volume den Ausgang bearbeitet. Volume ist auch nicht wirklich zum Verstärken gedacht. Würde das bedeuten, dass es in den meisten Einstellungen ideal ist, so viel Gain wie möglich zu bekommen, ohne dass es zu Rauschen kommt?
Hier ist ein kurzer Überblick, der Ihnen den Einstieg erleichtern soll. Hoffentlich hilft das! * Gain"-Regler werden normalerweise verwendet, um einen guten Eingangspegel zu erhalten. Wenn Sie zum Beispiel ein Mikrofon mit einem sehr niedrigen Ausgangssignal haben, würden Sie die Verstärkung erhöhen, um einen besseren Pegel in Ihr Mischpult oder Audio-Interface zu bekommen. Wenn Sie einen Synthesizer angeschlossen haben, müssen Sie möglicherweise die Verstärkung herunterdrehen, damit das Signal nicht verzerrt wird. Verstärkungsregler steuern oft einen Verstärker im Hintergrund - d. h. Ihr Signal kann an Stärke gewinnen, nachdem es die Verstärkungsstufe Ihrer Audioausrüstung durchlaufen hat. Die Verstärkung ist also in der Regel der erste Regler im Signalweg Ihres Aufnahmegeräts. * Lautstärkeregler hingegen befinden sich meist am Ende der Signalkette und dienen eher der Abschwächung als der Verstärkung des Signals. Wenn Sie also an einem Mischpult einen guten Pegel von jedem Eingang in der Verstärkungsstufe erhalten haben, verwenden Sie die Lautstärkeregler, um die relativen Lautstärken der einzelnen Kanäle einzustellen und eine gute Mischung zu erzielen. In der Regel verstärken Sie diese Signale jedoch nicht mehr. Ein Gitarrenverstärker ist ein gutes Beispiel dafür, wie dies funktioniert. Der erste Regler wird oft als "Gain" oder "Drive" bezeichnet, und Gitarristen drehen ihn oft absichtlich sehr hoch, um einen schönen verzerrten Sound aus einem Röhrenvorverstärker zu erhalten. Der letzte Regler heißt jedoch "Volume" und bestimmt einfach, wie laut der Sound aus dem Lautsprecher ist. Wenn Sie den Gain-Regler ganz aufdrehen und die Lautstärke niedrig halten, können Sie verzerrte Töne abspielen, ohne die Nachbarn zu stören. Bei niedriger Verstärkung und hoher Lautstärke erhalten Sie einen lauten Klang, aber keine Verzerrung.
No entiendo muy bien la diferencia entre ganancia y aumento de volumen. Si lo he entendido bien, la ganancia aumenta directamente la señal de una línea o entrada, mientras que el volumen se encarga de la salida. El volumen tampoco sirve realmente para realzar. ¿Significaría esto que, en la mayoría de los casos, lo ideal es obtener la mayor ganancia posible sin ruido de fondo?
Aquí tienes un breve resumen para empezar. Espero que le sirva de ayuda. * Los controles de ganancia se utilizan normalmente para obtener un buen nivel de entrada. Por ejemplo, si tienes un micrófono con una señal de salida muy baja, debes aumentar la ganancia para obtener un mejor nivel en tu mesa de mezclas o interfaz de audio. Si tienes un sintetizador conectado, puede que necesites bajar la ganancia para evitar que la señal se distorsione. Los controles de ganancia suelen controlar un amplificador entre bastidores, es decir, la señal puede "ganar" fuerza después de pasar por la etapa de ganancia del equipo de audio. Por tanto, la ganancia suele ser el primer control en la ruta de la señal del equipo de grabación. * Por otro lado, los controles de volumen suelen estar al final de la cadena de señal y es más probable que atenúen la señal en lugar de amplificarla. Así que en una mesa de mezclas, una vez obtenido un buen nivel de cada entrada en la etapa de ganancia, utilizas los deslizadores de volumen para ajustar los volúmenes relativos de cada canal y conseguir una buena mezcla. Sin embargo, ya no amplificas esas señales. Un amplificador de guitarra es un buen ejemplo de cómo funciona esto. El primer control suele llamarse "Ganancia" o "drive" y los guitarristas suelen subirlo deliberadamente para obtener un bonito sonido distorsionado de un preamplificador de válvulas. Sin embargo, el último control se llama Volumen y regula simplemente el volumen del sonido que sale del altavoz. Con la ganancia bien alta y el volumen bajo puedes reproducir sonidos distorsionados sin molestar a los vecinos. Con la ganancia baja y el volumen alto se obtiene un sonido fuerte pero sin distorsión.
Je ne comprends pas vraiment la différence entre le gain et l'augmentation du volume. Si je comprends bien, le gain augmente directement le signal d'une ligne ou d'une entrée, tandis que le volume gère la sortie. Le volume ne sert pas vraiment à augmenter le volume non plus. Cela signifie-t-il que, dans la plupart des cas, l'idéal est d'obtenir un gain aussi élevé que possible sans bruit de fond ?
Voici un bref aperçu pour vous aider à démarrer. J'espère que cela vous aidera ! * Les commandes de gain sont généralement utilisées pour obtenir un bon niveau d'entrée. Par exemple, si vous avez un microphone avec un signal de sortie très faible, vous devez augmenter le gain pour obtenir un meilleur niveau dans votre table de mixage ou votre interface audio. Si vous avez branché un synthétiseur, vous devrez peut-être réduire le gain pour éviter que le signal ne soit déformé. Les commandes de gain contrôlent souvent un amplificateur en coulisses, c'est-à-dire que votre signal peut "gagner" en puissance après être passé par l'étage de gain de votre équipement audio. Le gain est donc généralement le premier contrôle dans le chemin du signal de votre équipement d'enregistrement. * En revanche, les commandes de "volume" se trouvent généralement à la fin de la chaîne du signal et sont plus susceptibles d'atténuer le signal que de l'amplifier. Ainsi, sur une table de mixage, après avoir obtenu un bon niveau de chaque entrée à l'étape de gain, vous utilisez les curseurs de volume pour ajuster les volumes relatifs de chaque canal afin d'obtenir un bon mixage. En règle générale, vous n'amplifiez plus ces signaux. Un amplificateur de guitare est un bon exemple de ce fonctionnement. Le premier réglage est souvent appelé "Gain" ou "drive" et les guitaristes le règlent délibérément très haut pour obtenir un beau son distordu à partir d'un préampli à lampes. Cependant, la dernière commande est appelée "Volume" et régit simplement l'intensité du son qui sort de votre haut-parleur. Avec un gain élevé et un volume faible, vous pouvez jouer des sons distordus sans ennuyer vos voisins. Avec un gain faible et un volume élevé, vous obtenez un son fort mais sans distorsion.
Non capisco la differenza tra guadagno e aumento di volume. Se ho capito bene, il guadagno aumenta direttamente il segnale da una linea o da un ingresso, mentre il volume gestisce l'uscita. Anche il volume non serve a potenziare il segnale. Ciò significa che, nella maggior parte delle impostazioni, l'ideale è ottenere un guadagno "vicino" al massimo possibile senza sibili/rumore di fondo?
Ecco una breve panoramica per iniziare. Speriamo che sia d'aiuto! * I controlli di "guadagno" sono in genere utilizzati per ottenere un buon livello di ingresso. Ad esempio, se avete un microfono con un segnale di uscita molto basso, dovrete aumentare il guadagno per ottenere un livello migliore nel mixer o nell'interfaccia audio. Se invece avete collegato un sintetizzatore, potreste dover abbassare il guadagno per evitare che il segnale si distorca. I controlli di guadagno spesso controllano un amplificatore dietro le quinte, cioè il segnale può "guadagnare" forza dopo essere passato attraverso lo stadio di guadagno dell'apparecchiatura audio. Quindi il guadagno è di solito il primo controllo nel percorso del segnale dell'apparecchio di registrazione. * I controlli di volume, invece, tendono a trovarsi alla fine della catena del segnale ed è più probabile che attenuino piuttosto che amplificare il segnale. Quindi, su un banco di missaggio, dopo aver ottenuto un buon livello da ogni ingresso allo stadio di guadagno, si usano i fader del volume per regolare i volumi relativi di ogni canale per ottenere un buon mix. In genere, però, non si amplificano più i segnali. Un amplificatore per chitarra è un buon esempio di come funziona. Il primo controllo è spesso chiamato "Gain" o "drive" e i chitarristi spesso lo impostano deliberatamente molto alto per ottenere un bel suono distorto da un preamplificatore valvolare. Tuttavia, il controllo finale si chiama Volume e regola semplicemente il volume del suono che esce dal diffusore. Con il guadagno alto e il volume basso è possibile riprodurre suoni distorti senza infastidire i vicini. Con il guadagno basso e il volume alto si ottiene un suono forte ma senza distorsione.
127
I recently had someone claim (on an unrelated SE site I won't link to) that it is the responsibility of a player to correctly identify their hand, that what you &quot;call&quot; your hand determines the winner: For example, you have an Ace, King, Queen, Jack, and Ten. You call your hand and say, &quot;I have a Straight!&quot; But that was a bad move on your part because you are a novice player and you did not notice that all of your cards are Spades. You actually had a Straight Flush, but now you have lost because one of the remaining players had a Full House. Your hand has not been determined until you call your hand. Is this true? Clearly you might play your hand differently if you misunderstand what you have, but I always thought that the cards speak for themselves once they are revealed. Or would it depend on the specific poker variation/house rules?
Casinos in the US generally have the "cards speak" rule. That is, when a hand is properly tabled--exposed to everyone at showdown--it is the responsibility of all players, the dealer, floormen, and anyone else present to see that the pot is awarded to the best hand shown, regardless of what the players might say. Some players object to this rule: they believe that if a player or railbird says "Wait, Bob has a flush", that's unfairly helping a player. But the rule is clear: once the hand is tabled, others have not only the right but the obligation to help ensure the pot is awarded correctly. There are a couple of caveats: if a player only shows his hand to another player, or to the dealer, or to any other person, without properly tabling it for everyone, that player has no rights yet and those to whom the hand was shown should remain silent to protect other players' properly shown hands. But once the hand is tabled, it's fair game and everyone can and should assist in reading the hands. Finally, in some cases, if a floorman feels that a player has deliberately overcalled his hand to induce a player with a better hand to fold, he may penalize that player by awarding the pot to someone else, even possibly to a folded hand. Some California lowball clubs even had a rule that a player who remained silent rather than explicitly calling out a pair could be ruled against in this way.
Kürzlich behauptete jemand (auf einer nicht verwandten SE-Website, die ich nicht verlinken werde), dass es in der Verantwortung eines Spielers liegt, sein Blatt korrekt zu identifizieren, dass das, was man "nennt", über den Gewinner entscheidet: Ein Beispiel: Sie haben ein Ass, einen König, eine Dame, einen Buben und eine Zehn. Sie nennen Ihr Blatt und sagen: &quot;Ich habe eine Straße!&quot; Aber das war ein schlechter Zug von Ihnen, denn Sie sind ein Anfänger und haben nicht bemerkt, dass alle Ihre Karten Pik sind. Sie hatten eigentlich einen Straight Flush, aber jetzt haben Sie verloren, weil einer der übrigen Spieler ein Full House hatte. Ihr Blatt steht erst fest, wenn Sie Ihr Blatt nennen. Stimmt das? Natürlich könnten Sie Ihr Blatt anders spielen, wenn Sie nicht wissen, was Sie haben, aber ich dachte immer, dass die Karten für sich selbst sprechen, sobald sie aufgedeckt werden. Oder hängt das von der jeweiligen Pokervariante/Hausregel ab?
In Casinos in den USA gilt in der Regel die Regel "Cards speak". Das heißt, wenn ein Blatt ordnungsgemäß auf den Tisch gelegt wird - beim Showdown für alle sichtbar -, sind alle Spieler, der Dealer, die Floormen und alle anderen Anwesenden dafür verantwortlich, dass der Pott an das beste gezeigte Blatt vergeben wird, unabhängig davon, was die Spieler sagen. Einige Spieler sind gegen diese Regel: Sie glauben, dass ein Spieler oder Railbird, der sagt "Warte, Bob hat einen Flush", einem Spieler unfair hilft. Die Regel ist jedoch eindeutig: Sobald das Blatt auf dem Tisch liegt, haben andere nicht nur das Recht, sondern auch die Pflicht, bei der korrekten Vergabe des Pots zu helfen. Es gibt ein paar Einschränkungen: Wenn ein Spieler sein Blatt nur einem anderen Spieler, dem Dealer oder einer anderen Person zeigt, ohne es ordnungsgemäß für alle auf den Tisch zu legen, hat dieser Spieler noch keine Rechte, und diejenigen, denen das Blatt gezeigt wurde, sollten schweigen, um die ordnungsgemäß gezeigten Blätter der anderen Spieler zu schützen. Sobald das Blatt jedoch auf dem Tisch liegt, ist es ein faires Spiel und jeder kann und sollte beim Lesen der Blätter helfen. Wenn ein Floorman das Gefühl hat, dass ein Spieler sein Blatt absichtlich überruft, um einen Spieler mit einem besseren Blatt zum Aussteigen zu bewegen, kann er diesen Spieler bestrafen, indem er den Pott einem anderen Spieler zuspricht, möglicherweise sogar mit einem gefalteten Blatt. In einigen kalifornischen Lowball-Clubs gab es sogar eine Regel, nach der ein Spieler, der schwieg, anstatt ausdrücklich ein Paar zu nennen, auf diese Weise bestraft werden konnte.
Hace poco alguien afirmó (en un sitio de SE no relacionado que no voy a enlazar) que es responsabilidad de un jugador identificar correctamente su mano, que lo que usted &quot;llama&quot; su mano determina el ganador: Por ejemplo, tienes un As, un Rey, una Reina, una Jota y un Diez. Llamas a tu mano y dices, &quot;¡Tengo una Escalera!&quot; Pero esa fue una mala jugada de tu parte porque eres un jugador novato y no te diste cuenta que todas tus cartas son Picas. En realidad tenías una Escalera de Color, pero ahora has perdido porque uno de los jugadores restantes tenía Full. Su mano no se ha determinado hasta que usted pide la mano. ¿Es esto cierto? Está claro que podrías jugar tu mano de forma diferente si no entiendes bien lo que tienes, pero siempre he pensado que las cartas hablan por sí solas una vez que se revelan. ¿O dependerá de la variante de póquer o de las reglas de la casa?
En los casinos de EE.UU. se suele aplicar la regla de "las cartas hablan". Es decir, cuando una mano se presenta correctamente (se expone a todo el mundo en el showdown), es responsabilidad de todos los jugadores, el crupier, los floormen y cualquier otra persona presente asegurarse de que el bote se concede a la mejor mano mostrada, independientemente de lo que digan los jugadores. Algunos jugadores se oponen a esta regla: creen que si un jugador o un railbird dice "Espera, Bob tiene color", está ayudando injustamente a un jugador. Pero la regla es clara: una vez que se presenta la mano, los demás tienen no sólo el derecho sino la obligación de ayudar a que el bote se adjudique correctamente. Hay un par de advertencias: si un jugador sólo muestra su mano a otro jugador, o al crupier, o a cualquier otra persona, sin presentarla correctamente a todo el mundo, ese jugador aún no tiene derechos y aquellos a los que se mostró la mano deben guardar silencio para proteger las manos correctamente mostradas de otros jugadores. Pero una vez que la mano se presenta, es un juego limpio y todo el mundo puede y debe ayudar a leer las manos. Por último, en algunos casos, si un floorman considera que un jugador ha sobrevalorado deliberadamente su mano para inducir a retirarse a un jugador con una mano mejor, puede penalizar a ese jugador adjudicando el bote a otro, incluso posiblemente a una mano retirada. Algunos clubes de lowball de California tenían incluso la norma de que un jugador que permaneciera en silencio en lugar de pedir explícitamente una pareja podía ser penalizado de esta forma.
J'ai récemment entendu quelqu'un prétendre (sur un site SE sans rapport avec le sujet et dont je ne donnerai pas le lien) qu'il est de la responsabilité d'un joueur d'identifier correctement sa main, que ce que vous appelez votre main détermine le vainqueur : Par exemple, vous avez un As, un Roi, une Reine, un Valet et un Dix. Vous appelez votre main et dites : " J'ai une Quinte " ; Mais c'était une mauvaise décision de votre part, car vous êtes un joueur novice et vous n'avez pas remarqué que toutes vos cartes sont des Piques. Vous aviez en fait une Quinte Flush, mais vous avez perdu parce que l'un des joueurs restants avait un Full House. Votre main n'a pas été déterminée tant que vous ne l'avez pas annoncée. Est-ce vrai ? Il est évident que vous pouvez jouer votre main différemment si vous ne comprenez pas ce que vous avez, mais j'ai toujours pensé que les cartes parlaient d'elles-mêmes une fois qu'elles étaient révélées. Ou bien cela dépend-il de la variante spécifique du poker ou des règles de la maison ?
Les casinos américains appliquent généralement la règle "cards speak" (les cartes parlent). En d'autres termes, lorsqu'une main est correctement déposée, c'est-à-dire exposée à tout le monde au moment de l'abattage, il incombe à tous les joueurs, au croupier, aux floormen et à toute autre personne présente de veiller à ce que le pot soit attribué à la meilleure main présentée, indépendamment de ce que les joueurs peuvent dire. Certains joueurs s'opposent à cette règle : ils pensent que si un joueur ou un railbird dit " Attendez, Bob a une couleur ", il aide injustement un joueur. Mais la règle est claire : une fois que la main est déposée, les autres joueurs ont non seulement le droit, mais aussi l'obligation d'aider à faire en sorte que le pot soit attribué correctement. Il y a quelques mises en garde : si un joueur ne montre sa main qu'à un autre joueur, au croupier ou à toute autre personne, sans la présenter correctement à tout le monde, ce joueur n'a encore aucun droit et ceux à qui la main a été montrée doivent rester silencieux pour protéger les mains des autres joueurs qui ont été montrées correctement. Mais une fois que la main est déposée, le jeu est équitable et tout le monde peut et doit aider à lire les mains. Enfin, dans certains cas, si un floorman estime qu'un joueur a délibérément sur-relancé sa main pour inciter un joueur ayant une meilleure main à se coucher, il peut pénaliser ce joueur en attribuant le pot à quelqu'un d'autre, voire à une main couchée. Certains clubs de lowball californiens avaient même une règle selon laquelle un joueur qui restait silencieux au lieu d'annoncer explicitement une paire pouvait être pénalisé de cette manière.
Recentemente qualcuno ha sostenuto (su un sito SE non correlato che non linkerò) che è responsabilità di un giocatore identificare correttamente la propria mano, che ciò che si &quot;chiama&quot; la propria mano determina il vincitore: Per esempio, avete un Asso, un Re, una Regina, un Fante e un Dieci. Chiamate la vostra mano e dite: &quot;Ho una scala!&quot; Ma è stata una mossa sbagliata da parte vostra perché siete un giocatore inesperto e non avete notato che tutte le vostre carte sono picche. In realtà avevate una scala reale, ma ora avete perso perché uno dei giocatori rimasti aveva un Full. La mano non è stata determinata finché non viene chiamata. È vero? È chiaro che si potrebbe giocare la mano in modo diverso se si fraintende ciò che si ha, ma ho sempre pensato che le carte parlino da sole una volta scoperte. Oppure dipende dalla specifica variante del poker o dalle regole della casa?
Nei casinò statunitensi vige generalmente la regola "le carte parlano". In altre parole, quando una mano viene correttamente presentata - esposta a tutti al momento dello showdown - è responsabilità di tutti i giocatori, del croupier, dei floormen e di chiunque altro presente assicurarsi che il piatto venga assegnato alla mano migliore mostrata, indipendentemente da ciò che i giocatori potrebbero dire. Alcuni giocatori obiettano a questa regola: ritengono che se un giocatore o un railbird dice "Aspetta, Bob ha un colore", questo aiuti ingiustamente un giocatore. Ma la regola è chiara: una volta che la mano è stata presentata, gli altri hanno non solo il diritto ma anche l'obbligo di aiutare a garantire che il piatto sia assegnato correttamente. Ci sono un paio di avvertenze: se un giocatore mostra la sua mano solo a un altro giocatore, o al croupier, o a qualsiasi altra persona, senza presentarla correttamente a tutti, quel giocatore non ha ancora alcun diritto e coloro ai quali è stata mostrata la mano devono rimanere in silenzio per proteggere le mani correttamente mostrate dagli altri giocatori. Ma una volta che la mano è stata presentata, il gioco è libero e tutti possono e devono contribuire alla lettura delle mani. Infine, in alcuni casi, se un floorman ritiene che un giocatore abbia deliberatamente overcallato la sua mano per indurre un giocatore con una mano migliore a foldare, può penalizzare quel giocatore assegnando il piatto a qualcun altro, anche eventualmente a una mano foldata. In alcuni club lowball californiani vigeva addirittura la regola secondo cui un giocatore che fosse rimasto in silenzio invece di chiamare esplicitamente una coppia poteva essere penalizzato in questo modo.
128
How to get the first item from an associative PHP array?
PHP If you don't know enough about the array (you're not sure whether the first key is foo or bar) then the array might well also be, maybe, empty. So it would be best to check, especially if there is the chance that the returned value might be the boolean FALSE: ```$value = empty($arr) ? $default : reset($arr); ``` The above code uses ```reset``` and so has side effects (it resets the internal pointer of the array), so you might prefer using ```array_slice``` to quickly access a copy of the first element of the array: ```$value = $default; foreach(array_slice($arr, 0, 1) as $value); ``` Assuming you want to get both the key and the value separately, you need to add the fourth parameter to ```array_slice```: ```foreach(array_slice($arr, 0, 1, true) as $key => $value); ``` To get the first item as a pair (```key => value```): ```$item = array_slice($arr, 0, 1, true); ``` Simple modification to get the last item, key and value separately: ```foreach(array_slice($arr, -1, 1, true) as $key => $value); ``` performance If the array is not really big, you don't actually need ```array_slice``` and can rather get a copy of the whole keys array, then get the first item: ```$key = count($arr) ? array_keys($arr)[0] : null; ``` If you have a very big array, though, the call to ```array_keys``` will require significant time and memory more than ```array_slice``` (both functions walk the array, but the latter terminates as soon as it has gathered the required number of items - which is one). A notable exception is when you have the first key which points to a very large and convoluted object. In that case ```array_slice``` will duplicate that first large object, while ```array_keys``` will only grab the keys. PHP 7.3+ PHP 7.3 onwards implements ```array_key_first()``` as well as ```array_key_last()```. These are explicitly provided to access first and last keys efficiently without resetting the array's internal state as a side effect. So since PHP 7.3 the first value of ```$array``` may be accessed with ```$array[array_key_first($array)]; ``` You still had better check that the array is not empty though, or you will get an error: ```$firstKey = array_key_first($array); if (null === $firstKey) { $value = &quot;Array is empty&quot;; // An error should be handled here } else { $value = $array[$firstKey]; } ```
Wie erhält man das erste Element aus einem assoziativen PHP-Array?
PHP Wenn Sie nicht genug über das Array wissen (Sie sind nicht sicher, ob der erste Schlüssel foo oder bar ist), dann könnte das Array vielleicht auch leer sein. Es wäre also am besten zu prüfen, besonders wenn die Möglichkeit besteht, dass der zurückgegebene Wert der boolesche Wert FALSE sein könnte: ```$value = empty($arr) ? $default : reset($arr); ``` Der obige Code benutzt ```Reset`` und hat daher Seiteneffekte (er setzt den internen Zeiger des Arrays zurück). Sie sollten daher lieber ```array_slice`` benutzen, um schnell auf eine Kopie des ersten Elements des Arrays zuzugreifen: ```$value = $default; foreach(array_slice($arr, 0, 1) as $value); ``` Angenommen, Sie wollen sowohl den Schlüssel als auch den Wert separat erhalten, dann müssen Sie den vierten Parameter zu ```array_slice``` hinzufügen: ```foreach(array_slice($arr, 0, 1, true) as $key => $value); ``` Um das erste Element als Paar zu erhalten (```Schlüssel => Wert``): ```$item = array_slice($arr, 0, 1, true); ``` Einfache Modifikation, um das letzte Element, Schlüssel und Wert separat zu erhalten: ```foreach(array_slice($arr, -1, 1, true) as $key => $value); ``` Leistung Wenn das Array nicht sehr groß ist, braucht man ```array_slice``` nicht wirklich und kann stattdessen eine Kopie des gesamten Schlüssel-Arrays erhalten und dann das erste Element auslesen: ```$key = count($arr) ? array_keys($arr)[0] : null; ``` Wenn Sie allerdings ein sehr großes Array haben, wird der Aufruf von ```array_keys`` deutlich mehr Zeit und Speicher benötigen als ```array_slice`` (beide Funktionen durchlaufen das Array, aber letztere bricht ab, sobald sie die erforderliche Anzahl von Einträgen gesammelt hat - und das ist einer). Eine bemerkenswerte Ausnahme ist, wenn der erste Schlüssel auf ein sehr großes und verworrenes Objekt zeigt. In diesem Fall wird ```array_slice`` das erste große Objekt duplizieren, während ```array_keys`` nur die Schlüssel erfasst. PHP 7.3+ PHP 7.3+ implementiert ```array_key_first()``` sowie ```array_key_last()```. Diese werden explizit zur Verfügung gestellt, um effizient auf den ersten und letzten Schlüssel zuzugreifen, ohne als Nebeneffekt den internen Zustand des Arrays zurückzusetzen. So kann seit PHP 7.3 auf den ersten Wert von ```$array`` zugegriffen werden mit ```$array[array_key_first($array)]; ``` Sie sollten aber trotzdem überprüfen, dass das Array nicht leer ist, sonst bekommen Sie einen Fehler: ```$firstKey = array_key_first($array); if (null === $firstKey) { $value = &quot;Array ist leer&quot;; // Hier sollte ein Fehler behandelt werden } else { $value = $array[$firstKey]; } ```
¿Cómo obtener el primer elemento de un array asociativo PHP?
PHP Si no sabe lo suficiente sobre el array (no está seguro de si la primera clave es foo o bar) entonces el array también podría estar, tal vez, vacío. Así que sería mejor comprobarlo, especialmente si existe la posibilidad de que el valor devuelto sea el booleano FALSE: ```$valor = empty($arr) ? $por defecto : reset($arr); ``` El código anterior utiliza ```reset`` y tiene efectos secundarios (reinicia el puntero interno del array), por lo que es preferible utilizar ```array_slice`` para acceder rápidamente a una copia del primer elemento del array: ```$valor = $pordefecto; foreach(array_slice($arr, 0, 1) as $valor); ``` Suponiendo que quieras obtener la clave y el valor por separado, tienes que añadir el cuarto parámetro a ```array_slice``: ```foreach(array_slice($arr, 0, 1, true) as $key => $value); ``` Para obtener el primer elemento como un par (``clave => valor``): ```$item = array_slice($arr, 0, 1, true); ``` Modificación sencilla para obtener el último elemento, clave y valor por separado: ``foreach(array_slice($arr, -1, 1, true) as $clave => $valor); ``` rendimiento Si el array no es muy grande, no necesitas ``array_slice`` y puedes obtener una copia de todo el array de claves, y luego obtener el primer elemento: ```$key = count($arr) ? array_keys($arr)[0] : null; ``` Sin embargo, si tienes un array muy grande, la llamada a ``array_keys`` requerirá bastante más tiempo y memoria que ``array_slice`` (ambas funciones recorren el array, pero esta última termina en cuanto ha reunido el número de elementos necesario, que es uno). Una excepción notable es cuando tienes la primera clave que apunta a un objeto muy grande y enrevesado. En ese caso ``array_slice`` duplicará ese primer objeto grande, mientras que ``array_keys`` sólo cogerá las claves. PHP 7.3+ PHP 7.3 en adelante implementa ``array_key_first()`` así como ``array_key_last()``. Éstas se proporcionan explícitamente para acceder a las claves primera y última de forma eficiente sin reiniciar el estado interno del array como efecto secundario. Así que desde PHP 7.3 el primer valor de ```$array`` puede ser accedido con ```$array[array_key_first($array)]; ``` Sin embargo, es mejor que compruebes que el array no está vacío, o obtendrás un error: ```$firstKey = array_key_first($array); if (null === $firstKey) { $value = &quot;La matriz está vacía&quot;; // Aquí debería producirse un error } else { $valor = $array[$primeraClave]; } ```
Comment récupérer le premier élément d'un tableau associatif en PHP ?
PHP Si vous n'en savez pas assez sur le tableau (vous n'êtes pas sûr que la première clé soit foo ou bar), alors le tableau peut aussi être, peut-être, vide. Il est donc préférable de vérifier, surtout s'il y a une chance que la valeur retournée soit le booléen FALSE : ```$value = empty($arr) ? $default : reset($arr) ; ``` Le code ci-dessus utilise ``reset`` et a donc des effets de bord (il réinitialise le pointeur interne du tableau), vous préférerez donc utiliser ``array_slice`` pour accéder rapidement à une copie du premier élément du tableau : ``$value = $default ; foreach(array_slice($arr, 0, 1) as $value) ; ``` En supposant que vous souhaitiez obtenir la clé et la valeur séparément, vous devez ajouter le quatrième paramètre à ``array_slice`` : ```foreach(array_slice($arr, 0, 1, true) as $key => $value) ; ``` Pour obtenir le premier élément sous forme de paire (``clé => valeur``) : ```$item = array_slice($arr, 0, 1, true) ; ``` Modification simple pour obtenir le dernier élément, la clé et la valeur séparément : ```foreach(array_slice($arr, -1, 1, true) as $key => $value) ; ``` performance Si le tableau n'est pas très grand, vous n'avez pas besoin de ``array_slice`` et vous pouvez plutôt obtenir une copie de tout le tableau de clés, puis récupérer le premier élément : ```$key = count($arr) ? array_keys($arr)[0] : null ; ``` Si vous avez un très gros tableau, l'appel à ``array_keys`` nécessitera plus de temps et de mémoire que ``array_slice`` (les deux fonctions parcourent le tableau, mais la dernière se termine dès qu'elle a rassemblé le nombre requis d'éléments - c'est-à-dire un). Une exception notable est lorsque vous avez la première clé qui pointe vers un objet très grand et très compliqué. Dans ce cas, ``array_slice`` dupliquera ce premier grand objet, alors que ``array_keys`` ne récupérera que les clés. PHP 7.3+ PHP 7.3+ implémente ``array_key_first()`` ainsi que ``array_key_last()``. Elles sont explicitement fournies pour accéder aux premières et dernières clés de manière efficace sans réinitialiser l'état interne du tableau. Ainsi, depuis PHP 7.3, la première valeur de ``$array`` peut être accédée avec ``$array[array_key_first($array)] ; ``` Vous devez cependant vérifier que le tableau n'est pas vide, sinon vous obtiendrez une erreur : ```$firstKey = array_key_first($array) ; if (null === $firstKey) { $value = &quot;Array is empty&quot; ; // Une erreur doit être gérée ici } else { $value = $array[$firstKey] ; } ```
Come ottenere il primo elemento da un array associativo in PHP?
PHP Se non si conosce abbastanza l'array (non si è sicuri che la prima chiave sia foo o bar), allora l'array potrebbe anche essere, forse, vuoto. Quindi sarebbe meglio controllare, soprattutto se c'è la possibilità che il valore restituito sia il booleano FALSE: ```$value = empty($arr) ? $default : reset($arr); ``` Il codice precedente utilizza ```reset`` e quindi ha effetti collaterali (azzera il puntatore interno dell'array), quindi si potrebbe preferire l'uso di ```array_slice`` per accedere rapidamente a una copia del primo elemento dell'array: ```$value = $default; foreach(array_slice($arr, 0, 1) as $value); ``` Supponendo di voler ottenere separatamente sia la chiave che il valore, è necessario aggiungere il quarto parametro a ``array_slice``: ```foreach(array_slice($arr, 0, 1, true) as $key => $value); ``` Per ottenere il primo elemento come coppia (``chiave => valore``): ```$item = array_slice($arr, 0, 1, true); ``` Semplice modifica per ottenere l'ultimo elemento, la chiave e il valore separatamente: ```foreach(array_slice($arr, -1, 1, true) as $key => $value); ``` prestazioni Se l'array non è molto grande, non c'è bisogno di ```array_slice`` e si può piuttosto ottenere una copia dell'intero array di chiavi, quindi ottenere il primo elemento: ```$key = count($arr) ? array_keys($arr)[0] : null; ``` Se si ha un array molto grande, però, la chiamata a ``array_keys`` richiederà molto più tempo e memoria rispetto a ``array_slice`` (entrambe le funzioni percorrono l'array, ma la seconda termina non appena ha raccolto il numero di elementi richiesto, cioè uno). Un'eccezione degna di nota si ha quando la prima chiave punta a un oggetto molto grande e contorto. In questo caso ``array_slice`` duplicherà il primo grande oggetto, mentre ``array_keys`` prenderà solo le chiavi. PHP 7.3+ PHP 7.3 in poi implementa ``array_key_first()`` e ``array_key_last()``. Questi sono forniti esplicitamente per accedere alla prima e all'ultima chiave in modo efficiente, senza resettare lo stato interno dell'array come effetto collaterale. Quindi, a partire da PHP 7.3, il primo valore di ```$array`` può essere accessibile con ```$array[array_key_first($array)]; ``` È comunque meglio controllare che l'array non sia vuoto, altrimenti si otterrà un errore: ```$firstKey = array_key_first($array); se (null === $firstKey) { $value = &quot;L'array è vuoto&quot;; // In questo caso si dovrebbe gestire un errore. } else { $value = $array[$firstKey]; } ```
129
Why do people write #!/usr/bin/env python on the first line of a Python script?
In order to run the python script, we need to tell the shell three things: * That the file is a script * Which interpreter we want to execute the script * The path of said interpreter The shebang ```#!``` accomplishes (1.). The shebang begins with a ```#``` because the ```#``` character is a comment marker in many scripting languages. The contents of the shebang line are therefore automatically ignored by the interpreter. The ```env``` command accomplishes (2.) and (3.). To quote &quot;grawity,&quot; > A common use of the ```env``` command is to launch interpreters, by making use of the fact that env will search $PATH for the command it is told to launch. Since the shebang line requires an absolute path to be specified, and since the location of various interpreters (perl, bash, python) may vary a lot, it is common to use: ```#!/usr/bin/env perl``` instead of trying to guess whether it is /bin/perl, /usr/bin/perl, /usr/local/bin/perl, /usr/local/pkg/perl, /fileserver/usr/bin/perl, or /home/MrDaniel/usr/bin/perl on the user's system... > On the other hand, env is almost always in /usr/bin/env. (Except in cases when it isn't; some systems might use /bin/env, but that's a fairly rare occassion and only happens on non-Linux systems.)
Warum schreibt man #!/usr/bin/env python in die erste Zeile eines Python-Skripts?
Um das Python-Skript ausführen zu können, müssen wir der Shell drei Dinge mitteilen: * dass die Datei ein Skript ist * Welcher Interpreter das Skript ausführen soll * den Pfad des Interpreters Der Shebang ```#!``` erfüllt (1.). Der shebang beginnt mit einem ```#```, weil das ```#```-Zeichen in vielen Skriptsprachen ein Kommentarzeichen ist. Der Inhalt der shebang-Zeile wird daher vom Interpreter automatisch ignoriert. Der Befehl ```env`` erfüllt (2.) und (3.). Um &quot;grawity,&quot zu zitieren; > Eine übliche Anwendung des ```env```-Befehls ist es, Interpreter zu starten, indem man die Tatsache ausnutzt, dass env den $PATH nach dem Befehl durchsucht, den es starten soll. Da die shebang-Zeile die Angabe eines absoluten Pfades erfordert und der Speicherort verschiedener Interpreter (perl, bash, python) stark variieren kann, ist es üblich, diesen zu verwenden: ```#!/usr/bin/env perl``, anstatt zu versuchen zu erraten, ob es sich um /bin/perl, /usr/bin/perl, /usr/local/bin/perl, /usr/local/pkg/perl, /fileserver/usr/bin/perl oder /home/MrDaniel/usr/bin/perl auf dem System des Benutzers handelt... > Andererseits ist env fast immer in /usr/bin/env. (Außer in den Fällen, in denen es das nicht ist; einige Systeme könnten /bin/env benutzen, aber das ist ein ziemlich seltener Fall und passiert nur auf Nicht-Linux-Systemen).
¿Por qué la gente escribe #!/usr/bin/env python en la primera línea de un script Python?
Para ejecutar el script python, necesitamos decirle al shell tres cosas: * Que el archivo es un script * Qué intérprete queremos que ejecute el script * La ruta de dicho intérprete El shebang ```#!`` cumple (1.). El shebang comienza con un ```#`` porque el carácter ```#`` es un marcador de comentario en muchos lenguajes de scripting. Por lo tanto, el intérprete ignora automáticamente el contenido de la línea shebang. El comando ```env`` cumple (2.) y (3.). Citando a ``grawity``; > Un uso común del comando ```env`` es lanzar intérpretes, haciendo uso del hecho de que env buscará en $PATH el comando que se le dice que lance. Dado que la línea shebang requiere que se especifique una ruta absoluta, y dado que la ubicación de varios intérpretes (perl, bash, python) puede variar mucho, es común usar: ```#!/usr/bin/env perl`` en lugar de intentar adivinar si es /bin/perl, /usr/bin/perl, /usr/local/bin/perl, /usr/local/pkg/perl, /fileserver/usr/bin/perl, o /home/MrDaniel/usr/bin/perl en el sistema del usuario... > Por otro lado, env está casi siempre en /usr/bin/env. (Excepto en los casos en que no lo está; algunos sistemas pueden usar /bin/env, pero eso es una ocasión bastante rara y sólo ocurre en sistemas que no son Linux).
Pourquoi les gens écrivent-ils #!/usr/bin/env python sur la première ligne d'un script Python ?
Afin d'exécuter le script python, nous devons indiquer trois choses à l'interpréteur de commandes : * que le fichier est un script * L'interpréteur que nous voulons utiliser pour exécuter le script * Le chemin de cet interpréteur Le shebang ``#!`` accomplit (1.). Le shebang commence par un ``#`` car le caractère ``#`` est un marqueur de commentaire dans de nombreux langages de script. Le contenu de la ligne shebang est donc automatiquement ignoré par l'interpréteur. La commande ``env`` accomplit (2.) et (3.). Pour citer &quot;grawity,&quot ; > Une utilisation courante de la commande ``env`` est de lancer des interpréteurs, en utilisant le fait que env cherchera dans $PATH la commande qu'on lui demande de lancer. Comme la ligne shebang nécessite de spécifier un chemin absolu, et que l'emplacement des différents interpréteurs (perl, bash, python) peut varier considérablement, il est courant d'utiliser la commande ``env`` : ``#!/usr/bin/env perl`` au lieu d'essayer de deviner si c'est /bin/perl, /usr/bin/perl, /usr/local/bin/perl, /usr/local/pkg/perl, /fileserver/usr/bin/perl, ou /home/MrDaniel/usr/bin/perl sur le système de l'utilisateur... > D'autre part, env est presque toujours dans /usr/bin/env (sauf dans les cas où ce n'est pas le cas ; certains systèmes peuvent utiliser /bin/env, mais c'est assez rare et cela n'arrive que sur les systèmes non-Linux).
Perché le persone scrivono #!/usr/bin/env python sulla prima riga di uno script Python?
Per eseguire lo script python, dobbiamo dire alla shell tre cose: * Che il file è uno script * Quale interprete vogliamo per l'esecuzione dello script * Il percorso di tale interprete Lo shebang ```#!``` realizza (1.). Lo shebang inizia con un ```#``` perché il carattere ```#`` è un marcatore di commento in molti linguaggi di scripting. Il contenuto della riga shebang viene quindi automaticamente ignorato dall'interprete. Il comando ```env`` realizza (2.) e (3.). Per citare &quot;grawity,&quot; > Un uso comune del comando ```env`` è quello di lanciare interpreti, sfruttando il fatto che env cercherà in $PATH il comando che gli viene detto di lanciare. Poiché la linea shebang richiede che venga specificato un percorso assoluto e poiché la posizione dei vari interpreti (perl, bash, python) può variare molto, è comune usare: ```#!/usr/bin/env perl`` invece di cercare di indovinare se è /bin/perl, /usr/bin/perl, /usr/local/bin/perl, /usr/local/pkg/perl, /fileserver/usr/bin/perl o /home/MrDaniel/usr/bin/perl sul sistema dell'utente... > D'altra parte, env è quasi sempre in /usr/bin/env (tranne nei casi in cui non lo è; alcuni sistemi potrebbero usare /bin/env, ma è un'occasione piuttosto rara e accade solo su sistemi non-Linux).
130
Nowadays each graphic card has some driver in operating system that translates some (typically) standard API such as OpenGL, so that programmers use some standardized API code to tell graphics cards how and what they want to render. (Actually that's already a bit hard-core most programmers really use various game engines that do this for them). In times of old computers - how was this done? Did every programmer of every game implemented all possible various API's that old graphic cards supported? Or did the old game studios from MS-DOS times had their own "game engines" that provided some abstraction when it came to these graphic cards? I remember there were many various card vendors and I remember old games asked me which one I have - so I suppose these games contained code / drivers for all these cards?
> Did every programmer of every game implemented all possible various API's that old graphic cards supported? Yes - but it went even deeper than that. Early graphics cards had virtually no callable code associated with them at all, the concept of "drivers" had not quite become a reality yet. There was the concept of a Video BIOS, which were extensions to the ```INT 10h``` BIOS video services, that were effectively limited to initialization and switching video modes. Instead, graphics cards, at least in DOS land, all had memory mapped display RAM, and extensive documentation was available about exactly how setting various bits in display RAM would affect the pixels that appeared on the screen. There were no drawing APIs to call, if you wanted something to appear on the screen (whether it be a pixel, a character, a line, a circle, a sprite, etc) you would write the code to move the bytes into the right places in display RAM. Entire books were written about how to write efficient code to draw graphics. There were some systems like the Borland Graphics Interface that abstracted graphics drawing primitives into an API with different drivers that one could call to draw things on different graphics cards. However, these were typically slower than what would be required for building action type games. An action game would typically be optimized for a particular graphics display mode on a particular card. For example, a popular display mode was VGA 640x480 with 16 colors. This would be listed in the software requirements, and you needed to have the right hardware to support the game. If you bought a VGA game but you only had an EGA card, then the game would not work at all. As you said, some games would ask what you had and you had to know what the right answer was, otherwise the game would not work.
Heutzutage hat jede Grafikkarte einen Treiber im Betriebssystem, der eine (typischerweise) Standard-API wie OpenGL übersetzt, so dass Programmierer einen standardisierten API-Code verwenden, um den Grafikkarten mitzuteilen, wie und was sie rendern wollen. (Eigentlich ist das schon etwas schwierig, denn die meisten Programmierer verwenden verschiedene Spiel-Engines, die dies für sie erledigen). Wie wurde das in den Zeiten der alten Computer gemacht? Hat jeder Programmierer eines jeden Spiels alle möglichen verschiedenen APIs implementiert, die alte Grafikkarten unterstützten? Oder hatten die alten Spielestudios aus MS-DOS-Zeiten ihre eigenen "Game-Engines", die eine gewisse Abstraktion in Bezug auf diese Grafikkarten boten? Ich erinnere mich, dass es viele verschiedene Kartenhersteller gab und ich erinnere mich, dass alte Spiele mich fragten, welche Karte ich habe - also nehme ich an, dass diese Spiele Code/Treiber für all diese Karten enthielten?
> Hat jeder Programmierer jedes Spiels alle möglichen verschiedenen APIs implementiert, die alte Grafikkarten unterstützen? Ja - aber es ging sogar noch tiefer als das. Frühe Grafikkarten hatten so gut wie gar keinen aufrufbaren Code, das Konzept der "Treiber" war noch nicht ganz verwirklicht. Es gab das Konzept eines Video-BIOS, das Erweiterungen zu den ``INT 10h``-BIOS-Videodiensten darstellte, die sich im Grunde auf die Initialisierung und das Umschalten des Videomodus beschränkten. Stattdessen besaßen alle Grafikkarten, zumindest in der DOS-Welt, ein Display-RAM, das dem Speicher zugeordnet war, und es gab eine ausführliche Dokumentation darüber, wie das Setzen verschiedener Bits im Display-RAM die auf dem Bildschirm erscheinenden Pixel beeinflussen würde. Es gab keine Zeichen-APIs, die man aufrufen musste. Wenn man wollte, dass etwas auf dem Bildschirm erschien (sei es ein Pixel, ein Zeichen, eine Linie, ein Kreis, ein Sprite usw.), musste man den Code schreiben, um die Bytes an die richtigen Stellen im Display-RAM zu verschieben. Ganze Bücher wurden darüber geschrieben, wie man effizienten Code zum Zeichnen von Grafiken schreibt. Es gab einige Systeme wie die Borland-Grafikschnittstelle, die Grafikzeichnungsprimitive in eine API mit verschiedenen Treibern abstrahierte, die man aufrufen konnte, um Dinge auf verschiedenen Grafikkarten zu zeichnen. Diese waren jedoch in der Regel langsamer als für die Entwicklung von Actionspielen erforderlich. Ein Actionspiel wird in der Regel für einen bestimmten Grafikanzeigemodus auf einer bestimmten Karte optimiert. Ein beliebter Anzeigemodus war zum Beispiel VGA 640x480 mit 16 Farben. Dies wurde in den Softwareanforderungen aufgeführt, und Sie mussten die richtige Hardware haben, um das Spiel zu unterstützen. Wenn Sie ein VGA-Spiel kauften, aber nur eine EGA-Karte besaßen, funktionierte das Spiel überhaupt nicht. Wie Sie schon sagten, fragten einige Spiele nach der Hardware, und man musste die richtige Antwort wissen, sonst funktionierte das Spiel nicht.
Hoy en día cada tarjeta gráfica tiene algún controlador en el sistema operativo que traduce alguna API (típicamente) estándar como OpenGL, de modo que los programadores utilizan algún código API estandarizado para decirle a las tarjetas gráficas cómo y qué quieren renderizar. (En realidad, esto ya es un poco difícil, la mayoría de los programadores utilizan varios motores de juego que hacen esto por ellos). En los tiempos de los ordenadores antiguos, ¿cómo se hacía esto? ¿Cada programador de cada juego implementaba todas las posibles APIs que soportaban las antiguas tarjetas gráficas? ¿O los viejos estudios de juegos de los tiempos de MS-DOS tenían sus propios "motores de juego" que proporcionaban cierta abstracción cuando se trataba de estas tarjetas gráficas? Recuerdo que habia muchos vendedores de tarjetas y recuerdo que los juegos antiguos me preguntaban cual tenia - asi que supongo que estos juegos contenian codigo / drivers para todas estas tarjetas?
> ¿Todos los programadores de todos los juegos han implementado todas las API posibles que admitían las tarjetas gráficas antiguas? Sí, pero la cosa iba más allá. Las primeras tarjetas gráficas no tenían prácticamente ningún código invocable asociado, el concepto de "controladores" aún no era una realidad. Existía el concepto de BIOS de vídeo, que eran extensiones de los servicios de vídeo de la BIOS ```INT 10h``, que se limitaban efectivamente a la inicialización y el cambio de modos de vídeo. En su lugar, las tarjetas gráficas, al menos en la tierra del DOS, todas tenían memoria RAM de pantalla mapeada, y había una extensa documentación disponible sobre cómo exactamente el ajuste de varios bits en la RAM de pantalla afectaría a los píxeles que aparecían en la pantalla. No había que llamar a ninguna API de dibujo, si querías que algo apareciera en la pantalla (ya fuera un píxel, un carácter, una línea, un círculo, un sprite, etc.) tenías que escribir el código para mover los bytes a los lugares adecuados en la RAM de pantalla. Se escribieron libros enteros sobre cómo escribir código eficiente para dibujar gráficos. Había algunos sistemas como el Borland Graphics Interface que abstraía las primitivas de dibujo de gráficos en una API con diferentes controladores que uno podía llamar para dibujar cosas en diferentes tarjetas gráficas. Sin embargo, solían ser más lentos de lo necesario para crear juegos de acción. Un juego de acción suele estar optimizado para un determinado modo de visualización de gráficos en una tarjeta concreta. Por ejemplo, un modo de visualización popular era VGA 640x480 con 16 colores. Esto se indicaba en los requisitos del software y era necesario tener el hardware adecuado para el juego. Si comprabas un juego VGA pero sólo tenías una tarjeta EGA, el juego no funcionaría. Como has dicho, algunos juegos te preguntaban qué tenías y tenías que saber cuál era la respuesta correcta, de lo contrario el juego no funcionaba.
De nos jours, chaque carte graphique dispose d'un pilote dans le système d'exploitation qui traduit une API (généralement) standard telle qu'OpenGL, de sorte que les programmeurs utilisent un code API standardisé pour indiquer aux cartes graphiques comment et ce qu'ils veulent rendre. (En fait, c'est déjà un peu dur, la plupart des programmeurs utilisent des moteurs de jeu qui font cela pour eux). À l'époque des anciens ordinateurs, comment cela se faisait-il ? Chaque programmeur de chaque jeu implémentait-il toutes les API possibles et imaginables que les anciennes cartes graphiques supportaient ? Ou bien les studios de jeux de l'époque MS-DOS avaient-ils leurs propres "moteurs de jeu" qui fournissaient une certaine abstraction en ce qui concerne ces cartes graphiques ? Je me souviens qu'il y avait de nombreux vendeurs de cartes et je me souviens que les anciens jeux me demandaient laquelle j'avais - je suppose donc que ces jeux contenaient du code / des pilotes pour toutes ces cartes ?
> Est-ce que tous les programmeurs de tous les jeux ont implémenté toutes les API possibles que les anciennes cartes graphiques supportaient ? Oui, mais cela va encore plus loin. Les premières cartes graphiques n'avaient pratiquement aucun code appelable qui leur était associé, le concept de "pilotes" n'était pas encore tout à fait devenu une réalité. Il y avait le concept d'un BIOS vidéo, qui était une extension des services vidéo du BIOS ``INT 10h``, qui étaient effectivement limités à l'initialisation et à la commutation des modes vidéo. Au lieu de cela, les cartes graphiques, du moins sous DOS, disposaient toutes d'une RAM d'affichage mappée en mémoire, et une documentation complète était disponible sur la manière dont le réglage des différents bits de la RAM d'affichage affectait les pixels qui apparaissaient à l'écran. Il n'y avait pas d'API de dessin à appeler, si vous vouliez que quelque chose apparaisse à l'écran (qu'il s'agisse d'un pixel, d'un caractère, d'une ligne, d'un cercle, d'un sprite, etc), vous deviez écrire le code pour déplacer les octets aux bons endroits dans la mémoire vive. Des livres entiers ont été écrits sur la manière d'écrire un code efficace pour dessiner des graphiques. Il existait des systèmes tels que l'interface graphique Borland qui abstrayait les primitives de dessin graphique dans une API avec différents pilotes que l'on pouvait appeler pour dessiner des choses sur différentes cartes graphiques. Cependant, ces systèmes étaient généralement plus lents que ceux nécessaires à la création de jeux d'action. Un jeu d'action est généralement optimisé pour un mode d'affichage graphique particulier sur une carte particulière. Par exemple, un mode d'affichage courant est VGA 640x480 avec 16 couleurs. Ce mode d'affichage est indiqué dans la configuration logicielle requise, et vous devez disposer du matériel adéquat pour prendre en charge le jeu. Si vous achetiez un jeu VGA mais que vous n'aviez qu'une carte EGA, le jeu ne fonctionnerait pas du tout. Comme vous l'avez dit, certains jeux vous demandaient ce que vous aviez et vous deviez connaître la bonne réponse, sinon le jeu ne fonctionnait pas.
Al giorno d'oggi ogni scheda grafica ha un driver nel sistema operativo che traduce alcune API (tipicamente) standard come OpenGL, in modo che i programmatori usino un codice API standardizzato per dire alle schede grafiche come e cosa vogliono renderizzare. (In realtà questo è già un po' difficile da capire, la maggior parte dei programmatori usa vari motori di gioco che fanno questo per loro). Ai tempi dei vecchi computer, come si faceva? Ogni programmatore di ogni gioco implementava tutte le possibili API che le vecchie schede grafiche supportavano? Oppure i vecchi studi di giochi ai tempi dell'MS-DOS avevano i loro "motori di gioco" che fornivano qualche astrazione quando si trattava di queste schede grafiche? Ricordo che c'erano molti fornitori di schede e che i vecchi giochi mi chiedevano quale avessi - quindi suppongo che questi giochi contenessero codice / driver per tutte queste schede?
> Ogni programmatore di ogni gioco ha implementato tutte le possibili API che le vecchie schede grafiche supportavano? Sì, ma la questione è ancora più profonda. Le prime schede grafiche non avevano praticamente alcun codice richiamabile associato ad esse, il concetto di "driver" non era ancora diventato una realtà. Esisteva il concetto di BIOS video, che era un'estensione dei servizi video del BIOS ```INT 10h``, che si limitava all'inizializzazione e alla commutazione delle modalità video. Invece, le schede grafiche, almeno nella terra del DOS, avevano tutte una RAM display mappata in memoria, ed era disponibile un'ampia documentazione su come l'impostazione dei vari bit nella RAM display avrebbe influenzato i pixel che apparivano sullo schermo. Non c'erano API di disegno da richiamare, se si voleva che qualcosa apparisse sullo schermo (che fosse un pixel, un carattere, una linea, un cerchio, uno sprite e così via) si doveva scrivere il codice per spostare i byte nei punti giusti della RAM del display. Sono stati scritti interi libri su come scrivere codice efficiente per disegnare la grafica. Esistevano alcuni sistemi, come la Borland Graphics Interface, che astraevano le primitive di disegno grafico in un'API con diversi driver che si potevano chiamare per disegnare su diverse schede grafiche. Tuttavia, questi sistemi erano in genere più lenti di quelli richiesti per la creazione di giochi d'azione. Un gioco d'azione è tipicamente ottimizzato per una particolare modalità di visualizzazione grafica su una particolare scheda. Ad esempio, una modalità di visualizzazione popolare era VGA 640x480 con 16 colori. Questa modalità è elencata nei requisiti del software ed è necessario disporre dell'hardware giusto per supportare il gioco. Se si acquistava un gioco VGA ma si disponeva solo di una scheda EGA, il gioco non avrebbe funzionato affatto. Come hai detto tu, alcuni giochi ti chiedevano che cosa avevi e dovevi sapere qual era la risposta giusta, altrimenti il gioco non avrebbe funzionato.
131
Why is it "behead" and not "dehead"?
We didn’t use de-head because we already had a verb behead by the time we started using de- to create verbs: behead was a verb in Old English, behéafdian. So behead was already used long before the de- privative prefix came to be used productively in English. That didn’t happen until Modern English with a few productive examples in the 17ᵗʰ century but most coming from the 19ᵗʰ century or after. As Janus mentions in comments, the de- word meaning the same thing, decapitate, was imported in full with the de- already there, from Latin via French, in the 17ᵗʰ century. There are many different possible senses of be- in verbs; the OED lists six different primary senses with subsenses. This here in behead is one of the rarer ones. Under be- sense 6c, it says that this privative sense of be- used to create behead is an ancient sense that means bereave of: Forming trans. verbs on substantives used in an instrumental relation; the primary idea being; * a. To surround, cover, or bedaub with, as in becloud, to put clouds about, cover with clouds, bedew. Thence, by extension, * b. To affect with in any way, as in benight, beguile, befriend. In both sets there is often an accompanying notion of ‘thoroughly, excessively,’ as in 2. * c. An ancient application, no longer in living use, was to express the sense of ‘bereave of,’ as in behead, belimb, etc., q.v. Cf. 3, above. Although 6a and 6b are still productive, 6c no longer is so in the living language. Another Old English verb formed using 6c was belandian, meaning to deprive of one’s land. However, this verb did not survive into Modern English. El destierro Apropos de nada, the Spanish equivalent of the obsolete verb beland still very much exists in the verb desterrar, which combines the privative des‑ prefix with the noun tierra meaning land then puts that into an infinitive verb form. This is normally translated as “exile” in English, but sometime as “expel” or as a noun “expulsion”. There is also a substantive version, destierro, is famously found in “Cantar del destierro”, which is the title of the first canto from that most ancient of Castilian epic poems, El Cantar de Mio Cid. Truly, el Cid was belanded of his lands by the King.
Warum heißt es "behead" und nicht "dehead"?
Wir haben de-head nicht verwendet, weil wir bereits ein Verb behead hatten, als wir anfingen, de- zur Bildung von Verben zu verwenden: behead war ein Verb im Altenglischen, behéafdian. Behead wurde also bereits verwendet, lange bevor die Vorsilbe de- im Englischen produktiv eingesetzt wurde. Das geschah erst im modernen Englisch mit einigen produktiven Beispielen im 17ᵗʰ Jahrhundert, aber die meisten stammen aus dem 19ᵗʰ Jahrhundert oder danach. Wie Janus in den Kommentaren erwähnt, wurde das Wort de-, das dasselbe bedeutet, decapitate, im 17ᵗʰ Jahrhundert aus dem Lateinischen über das Französische vollständig mit dem de- importiert. Es gibt viele verschiedene mögliche Bedeutungen von be- in Verben; das OED listet sechs verschiedene Hauptbedeutungen mit Unterbedeutungen auf. Dieser hier in behead ist einer der selteneren. Unter be- sense 6c heißt es, dass der Privativ von be-, der zur Bildung von behead verwendet wird, eine alte Bedeutung ist, die beraubt bedeutet: Bildung von trans. Verben auf Substantiven, die in einer instrumentellen Beziehung verwendet werden; die Hauptidee ist; * a. Umgeben, bedecken oder betäuben, wie in becloud, Wolken um sich legen, mit Wolken bedecken, betäuben. Von da an, durch Erweiterung, * b. In irgendeiner Weise beeinflussen, wie in benight, beguile, befriend. In beiden Sätzen gibt es oft einen begleitenden Begriff von 'gründlich, übermäßig', wie in 2. * c. Eine alte, nicht mehr gebräuchliche Anwendung war, den Sinn von 'berauben' auszudrücken, wie in behead, belimb, usw., siehe 3. Obwohl 6a und 6b immer noch produktiv sind, ist 6c in der lebenden Sprache nicht mehr produktiv. Ein weiteres altes englisches Verb, das mit 6c gebildet wurde, war belandian, was soviel bedeutet wie "seinem Land entziehen". Dieses Verb hat jedoch nicht im modernen Englisch überlebt. El destierro Apropos nada, das spanische Äquivalent des veralteten Verbs beland existiert noch immer in dem Verb desterrar, das die Vorsilbe des- mit dem Substantiv tierra (Land) kombiniert und dieses dann in eine Infinitivform bringt. Im Englischen wird dies normalerweise mit "exile" übersetzt, manchmal aber auch mit "vertreiben" oder als Substantiv "expulsion". Es gibt auch eine substantivische Version, destierro, die berühmt ist in "Cantar del destierro", dem Titel des ersten Gesangs des ältesten kastilischen Epos, El Cantar de Mio Cid. In der Tat wurde el Cid vom König um sein Land gebracht.
¿Por qué se dice "decapitar" y no "decapitar"?
No usamos de-head porque ya teníamos un verbo behead cuando empezamos a usar de- para crear verbos: behead era un verbo del inglés antiguo, behéafdian. Así que behead ya se utilizaba mucho antes de que el prefijo privativo de- empezara a usarse de forma productiva en inglés. Eso no ocurrió hasta el inglés moderno, con unos pocos ejemplos productivos en el siglo XVII, pero la mayoría a partir del siglo XIX o después. Como menciona Janus en los comentarios, la palabra de-, que significa lo mismo, decapitar, se importó íntegramente con el de- ya presente, del latín a través del francés, en el siglo XVII. Hay muchos sentidos posibles de be- en los verbos; el OED enumera seis sentidos primarios diferentes con subsentidos. Este aquí en behead es uno de los más raros. En be- sentido 6c, se dice que este sentido privativo de be- utilizado para crear behead es un sentido antiguo que significa despojar de: Formando verbos trans. sobre sustantivos usados en una relación instrumental; siendo la idea primaria; * a. Rodear, cubrir o embadurnar, como en becloud, poner nubes alrededor, cubrir con nubes, bedew. De ahí, por extensión, * b. Afectar de alguna manera, como en benight, beguile, befriend. En ambos conjuntos hay a menudo una noción acompañante de 'completamente, excesivamente', como en 2. * c. Una antigua aplicación, ya en desuso, era expresar el sentido de 'privar de', como en decapitar, belimb, etc., q.v. Cf. 3, arriba. Aunque 6a y 6b siguen siendo productivos, 6c ya no lo es en la lengua viva. Otro verbo del inglés antiguo que se formó usando 6c fue belandian, que significa privar de la propia tierra. Sin embargo, este verbo no sobrevivió al inglés moderno. El destierro A propósito de nada, el equivalente español del obsoleto verbo beland sigue existiendo en el verbo desterrar, que combina el prefijo privativo des- con el sustantivo tierra y lo pone en infinitivo. Normalmente se traduce como "exiliar" en español, pero a veces como "expulsar" o como sustantivo "expulsión". También existe una versión sustantiva, destierro, famosa en el "Cantar del destierro", título del primer canto del más antiguo de los poemas épicos castellanos, El Cantar de Mio Cid. Verdaderamente, el Cid fue despojado de sus tierras por el Rey.
Pourquoi parle-t-on de "décapitation" et non de "décapitation" ?
Nous n'avons pas utilisé de-head parce que nous avions déjà un verbe behead au moment où nous avons commencé à utiliser de- pour créer des verbes : behead était un verbe en vieil anglais, behéafdian. Behead était donc déjà utilisé bien avant que le préfixe privatif de- ne soit utilisé de manière productive en anglais. Cela ne s'est produit qu'en anglais moderne, avec quelques exemples productifs au 17ᵗʰ siècle, mais la plupart datant du 19ᵗʰ siècle ou d'après. Comme Janus le mentionne dans ses commentaires, le mot de- signifiant la même chose, decapitate, a été importé en entier avec le de- déjà présent, du latin via le français, au 17ᵗʰ siècle. Il existe de nombreux sens possibles pour be- dans les verbes ; l'OED répertorie six sens primaires différents avec des sous-sens. Ce sens dans behead est l'un des plus rares. Sous le sens 6c de be-, il est dit que ce sens privatif de be- utilisé pour créer behead est un sens ancien qui signifie bereave of : Former des verbes trans. sur des substantifs utilisés dans une relation instrumentale ; l'idée première étant ; * a. Entourer, couvrir ou coucher avec, comme dans becloud, mettre des nuages autour, couvrir de nuages, coucher. D'où, par extension, * b. Affecter de quelque manière que ce soit, comme dans benight, beguile, befriend. Dans les deux ensembles, il y a souvent une notion d'accompagnement de " complètement, excessivement ", comme dans 2. * c. Une application ancienne, qui n'est plus en usage, était d'exprimer le sens de " privé de ", comme dans behead, belimb, etc. Bien que 6a et 6b soient encore productifs, 6c ne l'est plus dans la langue vivante. Un autre verbe vieil anglais formé à l'aide de 6c était belandian, signifiant priver de sa terre. Cependant, ce verbe n'a pas survécu à l'anglais moderne. El destierro Apropos de nada, l'équivalent espagnol du verbe obsolète beland existe toujours dans le verbe desterrar, qui combine le préfixe privatif des- avec le nom tierra signifiant terre, puis le met sous la forme d'un verbe infinitif. Ce verbe est normalement traduit par "exiler" en anglais, mais parfois par "expel" ou par le substantif "expulsion". Il existe également une version substantive, destierro, célèbre dans "Cantar del destierro", qui est le titre du premier canto du plus ancien des poèmes épiques castillans, El Cantar de Mio Cid. En vérité, le Cid a été dépossédé de ses terres par le roi.
Perché si dice "decapitare" e non "decapitare"?
Non abbiamo usato de-head perché avevamo già un verbo behead quando abbiamo iniziato a usare de- per creare i verbi: behead era un verbo in inglese antico, behéafdian. Quindi behead era già usato molto prima che il prefisso privativo de- venisse usato in modo produttivo in inglese. Ciò è avvenuto solo nell'inglese moderno, con alcuni esempi produttivi nel 17ᵗʰ secolo, ma la maggior parte di essi risale al 19ᵗʰ secolo o dopo. Come menziona Janus nei commenti, la parola de- che significa la stessa cosa, decapitare, è stata importata per intero con il de- già presente, dal latino attraverso il francese, nel 17ᵗʰ secolo. Ci sono molti sensi possibili di be- nei verbi; l'OED elenca sei diversi sensi primari con relativi subsenses. Questo qui in behead è uno dei più rari. Sotto il senso 6c di be-, si legge che il senso privativo di be- usato per creare behead è un senso antico che significa "privare di": Formare verbi trans. su sostantivi usati in una relazione strumentale; l'idea primaria è; * a. Circondare, coprire o avvolgere con, come in becloud, mettere le nuvole intorno, coprire con le nuvole, bedew. Quindi, per estensione, * b. influenzare in qualsiasi modo, come in benight, beguile, befriend. In entrambi gli insiemi c'è spesso una nozione accompagnatoria di "completamente, eccessivamente", come nel caso della 2a. * c. Un'antica applicazione, non più in uso, era quella di esprimere il senso di "privare di", come in behead, belimb, etc., q.v. Cfr. 3, sopra. Sebbene 6a e 6b siano ancora produttivi, 6c non lo è più nella lingua viva. Un altro verbo inglese antico che si forma con 6c è belandian, che significa privare della propria terra. Tuttavia, questo verbo non è sopravvissuto nell'inglese moderno. El destierro A proposito di nulla, l'equivalente spagnolo del verbo obsoleto beland esiste ancora nel verbo desterrar, che combina il prefisso privativo des- con il sostantivo tierra, che significa terra, e lo inserisce in una forma verbale infinitiva. In inglese viene normalmente tradotto come "esilio", ma talvolta anche come "espulsione" o come sostantivo "expulsion". Esiste anche una versione sostanziale, destierro, che si trova notoriamente nel "Cantar del destierro", titolo del primo canto del più antico dei poemi epici castigliani, El Cantar de Mio Cid. In verità, el Cid fu privato delle sue terre dal re.
132
Why do many vinyl albums of classical music have Sides 1 / 4 on the first record and 2 / 3 on the second? An example of this is the RCA Red Seal recording of Beethoven's 9th Symphony by the Boston Symphony Orchestra.
Many phonographs were able to play multiple records in sequence with a mechanism that would hold one or more records on the turntable, and one or more additional records elevated on the center post. At the end of one record, the mechanism sensed the tone arm reaching close to the center of the record, and then lifted it, pulled it out beyond the edge of the records. The system then dropped the bottom record of those on the center post, leaving the rest of them. Then the tone arm mechanism moved the tone arm to the outside of the record and lowered it to the record. The mechanism was pretty ingenious, but it couldn't flip records over. So, to play a long piece, it would play one side of each record until the stack was exhausted. Then it was up to a person to flip the stack to play the opposite sides in sequence. So, when playing records 1A/1B, 2A/2B, 3A/3B, 4A/4B in such a mechanism, the play order would be 1A, 2A, 3A, 4A, (flip), 4B, 3B, 2B, 1B. The "B" sides would go the other way because flipping the whole stack would put them in the opposite order. Purists would take offense at the idea of letting records drop like that, but it was an irresistible convenience to people who could tolerance slightly quicker wear of their records.
Warum haben viele Vinyl-Alben mit klassischer Musik die Seiten 1 / 4 auf der ersten Platte und 2 / 3 auf der zweiten? Ein Beispiel dafür ist die RCA Red Seal Aufnahme von Beethovens 9. Symphonie durch das Boston Symphony Orchestra.
Viele Phonographen waren in der Lage, mehrere Schallplatten nacheinander abzuspielen, und zwar mit einem Mechanismus, der eine oder mehrere Schallplatten auf dem Plattenteller und eine oder mehrere weitere Schallplatten erhöht auf dem Mittelpfosten hielt. Am Ende einer Schallplatte erkannte der Mechanismus, dass der Tonarm nahe an die Mitte der Schallplatte heranreichte, hob ihn an und zog ihn über den Rand der Schallplatte hinaus. Das System ließ dann die unterste Platte von den Platten auf dem Mittelpfosten fallen, während die übrigen Platten stehen blieben. Dann bewegte der Tonarmmechanismus den Tonarm an die Außenseite der Schallplatte und senkte ihn auf die Schallplatte ab. Der Mechanismus war ziemlich ausgeklügelt, aber er konnte die Platten nicht umdrehen. Um ein langes Stück abzuspielen, wurde also eine Seite jeder Schallplatte abgespielt, bis der Stapel aufgebraucht war. Dann musste eine Person den Stapel umdrehen, um die gegenüberliegenden Seiten der Reihe nach abzuspielen. Beim Abspielen der Platten 1A/1B, 2A/2B, 3A/3B, 4A/4B in einem solchen Mechanismus wäre die Abspielreihenfolge 1A, 2A, 3A, 4A, (umdrehen), 4B, 3B, 2B, 1B. Die "B"-Seiten würden in die andere Richtung gehen, weil das Umdrehen des gesamten Stapels sie in die entgegengesetzte Reihenfolge bringen würde. Puristen würden sich an der Idee stören, Schallplatten auf diese Weise fallen zu lassen, aber es war eine unwiderstehliche Bequemlichkeit für Leute, die eine etwas schnellere Abnutzung ihrer Platten tolerieren konnten.
¿Por qué muchos discos de vinilo de música clásica tienen las caras 1 / 4 en el primer disco y 2 / 3 en el segundo? Un ejemplo de ello es la grabación RCA Red Seal de la 9ª Sinfonía de Beethoven por la Orquesta Sinfónica de Boston.
Muchos fonógrafos eran capaces de reproducir varios discos en secuencia con un mecanismo que sostenía uno o más discos en el plato giratorio, y uno o más discos adicionales elevados en el poste central. Al final de un disco, el mecanismo detectaba que el brazo de tono se acercaba al centro del disco y, entonces, lo levantaba y lo sacaba más allá del borde de los discos. El sistema dejaba caer el disco inferior de los que estaban en el poste central, dejando el resto. Entonces, el mecanismo del brazo de tono movía el brazo de tono hacia el exterior del disco y lo bajaba hasta el disco. El mecanismo era bastante ingenioso, pero no podía voltear los discos. Así que, para tocar una pieza larga, tocaba una cara de cada disco hasta que se agotaba la pila. Entonces, una persona tenía que dar la vuelta a la pila para tocar las caras opuestas en secuencia. Así, al tocar los discos 1A/1B, 2A/2B, 3A/3B, 4A/4B en un mecanismo de este tipo, el orden de reproducción sería 1A, 2A, 3A, 4A, (voltear), 4B, 3B, 2B, 1B. Los lados "B" irían al revés porque voltear toda la pila los pondría en el orden opuesto. Los puristas se ofenderían ante la idea de dejar caer los discos así, pero era una comodidad irresistible para la gente que toleraba un desgaste algo más rápido de sus discos.
Pourquoi de nombreux albums de musique classique en vinyle ont-ils les faces 1 / 4 sur le premier disque et les faces 2 / 3 sur le second ? L'enregistrement de la 9e symphonie de Beethoven par l'orchestre symphonique de Boston, réalisé par RCA Red Seal, en est un exemple.
De nombreux phonographes pouvaient lire plusieurs disques en séquence grâce à un mécanisme qui maintenait un ou plusieurs disques sur la platine et un ou plusieurs autres disques surélevés sur le montant central. À la fin d'un disque, le mécanisme détectait que le bras de lecture s'approchait du centre du disque, puis le soulevait et le tirait au-delà du bord des disques. Le système a alors fait tomber le disque inférieur de ceux qui se trouvaient sur le poteau central, laissant les autres. Le mécanisme du bras de lecture déplaçait ensuite le bras de lecture vers l'extérieur du disque et l'abaissait sur le disque. Le mécanisme était assez ingénieux, mais il ne pouvait pas retourner les disques. Ainsi, pour jouer un long morceau, il jouait une face de chaque disque jusqu'à ce que la pile soit épuisée. Il appartenait alors à une personne de retourner la pile pour jouer les faces opposées dans l'ordre. Ainsi, lorsque l'on joue les disques 1A/1B, 2A/2B, 3A/3B, 4A/4B dans un tel mécanisme, l'ordre de jeu est le suivant : 1A, 2A, 3A, 4A, (retournement), 4B, 3B, 2B, 1B. Les faces "B" seraient jouées dans l'autre sens, car le fait de retourner toute la pile les placerait dans l'ordre inverse. Les puristes s'offusqueraient de l'idée de laisser tomber les disques de cette manière, mais c'était une commodité irrésistible pour les personnes qui pouvaient tolérer une usure un peu plus rapide de leurs disques.
Perché molti album di musica classica in vinile hanno i lati 1 / 4 sul primo disco e 2 / 3 sul secondo? Un esempio è la registrazione RCA Red Seal della Nona Sinfonia di Beethoven della Boston Symphony Orchestra.
Molti fonografi erano in grado di riprodurre più dischi in sequenza grazie a un meccanismo che teneva uno o più dischi sul giradischi e uno o più dischi aggiuntivi sollevati sul palo centrale. Alla fine di un disco, il meccanismo rilevava che il braccio del tono si avvicinava al centro del disco e lo sollevava, facendolo uscire oltre il bordo dei dischi. Il sistema ha quindi fatto cadere il disco inferiore di quelli sul palo centrale, lasciando gli altri. Poi il meccanismo del braccio di tono spostava il braccio di tono all'esterno del disco e lo abbassava sul disco. Il meccanismo era piuttosto ingegnoso, ma non poteva capovolgere i dischi. Perciò, per suonare un pezzo lungo, suonava un lato di ogni disco finché la pila non si esauriva. A quel punto spettava a una persona girare la pila per suonare i lati opposti in sequenza. Quindi, quando si suonano i dischi 1A/1B, 2A/2B, 3A/3B, 4A/4B in un meccanismo di questo tipo, l'ordine di riproduzione sarebbe 1A, 2A, 3A, 4A, (flip), 4B, 3B, 2B, 1B. I lati "B" andrebbero nella direzione opposta, perché capovolgendo l'intera pila si troverebbero nell'ordine opposto. I puristi si sarebbero offesi all'idea di lasciare cadere i dischi in questo modo, ma era una comodità irresistibile per chi poteva tollerare un'usura leggermente più rapida dei propri dischi.
133
Why isn't the market dropping like a stone with all the bad news?
Market reactions to information are not always timely, proportional, or rational. We don't know the full impact of our current situation; we're feeling it out. * Some people (bulls), believe that the initial dip was an over-reaction, that the government response will prevent further decline, and/or that things will go back to normal pretty quickly, so they are buying the dip. * On the other side you have people (bears) that believe the initial reaction was just a start but not enough to price-in the full impact, that the government can't prop up the economy, and/or that this will drag on for a long while, so they are betting on further decline. The problem with this idea of information being priced-in is that we all know there's a global pandemic, but there are very different opinions about how much that should affect the market. Consider unemployment levels: We have projections about unemployment rate potentially hitting a peak over 30%. Meanwhile, the current unemployment rate is 4.4% and projected to hit double digits in April. The only way all of that information could be appropriately priced in is if everyone agreed about the reasonableness of the projections and had the economic prowess to understand the actual impact of those figures. Instead, what happens is that some people will see the actual April unemployment numbers as surprising new information to react to, while others will see it as old information in line with their expectations. Add in thousands of other pieces of information about which people have conflicting opinions, and it becomes pretty much impossible to know in advance if that information was all priced in appropriately. The most recent comparable event is the subprime mortgage crash. Many people thought bottom was hit around November 2008 and there was a brief counter-trend rally before actual bottom was hit around March 2009. We don't know at this time if the market has bottomed out yet or not; nor do we know how long recovery could take.
Warum fällt der Markt bei all den schlechten Nachrichten nicht wie ein Stein?
Die Marktreaktionen auf Informationen erfolgen nicht immer rechtzeitig, proportional oder rational. Wir kennen die Auswirkungen unserer aktuellen Situation nicht in vollem Umfang; wir spüren sie. * Einige Leute (Bullen) glauben, dass der anfängliche Einbruch eine Überreaktion war, dass die Reaktion der Regierung einen weiteren Rückgang verhindern wird und/oder dass sich die Dinge schnell wieder normalisieren werden, also kaufen sie den Einbruch. * Auf der anderen Seite gibt es Leute (Bären), die glauben, dass die anfängliche Reaktion nur ein Anfang war, aber nicht genug, um die volle Auswirkung einzupreisen, dass die Regierung die Wirtschaft nicht stützen kann und/oder dass sich das Ganze noch lange hinziehen wird, so dass sie auf einen weiteren Rückgang wetten. Das Problem bei dieser Vorstellung, dass Informationen eingepreist werden, ist, dass wir alle wissen, dass es eine globale Pandemie gibt, aber es gibt sehr unterschiedliche Meinungen darüber, wie stark sich dies auf den Markt auswirken sollte. Nehmen wir die Arbeitslosenquote: Es gibt Prognosen, wonach die Arbeitslosenquote einen Höchststand von über 30 % erreichen könnte. Die aktuelle Arbeitslosenquote liegt bei 4,4 % und wird im April voraussichtlich zweistellig werden. All diese Informationen könnten nur dann angemessen eingepreist werden, wenn sich alle über die Angemessenheit der Prognosen einig wären und über die wirtschaftlichen Fähigkeiten verfügten, die tatsächlichen Auswirkungen dieser Zahlen zu verstehen. Stattdessen werden einige Leute die tatsächlichen Arbeitslosenzahlen vom April als überraschende neue Informationen ansehen, auf die sie reagieren müssen, während andere sie als alte Informationen ansehen, die ihren Erwartungen entsprechen. Wenn man dann noch Tausende anderer Informationen hinzufügt, zu denen die Menschen widersprüchliche Meinungen haben, wird es so gut wie unmöglich, im Voraus zu wissen, ob diese Informationen alle angemessen eingepreist wurden. Das jüngste vergleichbare Ereignis ist der Absturz der Subprime-Hypotheken. Viele glaubten, der Tiefpunkt sei im November 2008 erreicht worden, und es gab eine kurze Gegenbewegung, bevor der tatsächliche Tiefpunkt im März 2009 erreicht wurde. Wir wissen derzeit nicht, ob der Markt die Talsohle erreicht hat oder nicht, und wir wissen auch nicht, wie lange die Erholung dauern könnte.
¿Por qué el mercado no está cayendo como una piedra con todas las malas noticias?
Las reacciones del mercado a la información no siempre son oportunas, proporcionales o racionales. No conocemos el impacto total de nuestra situación actual; lo estamos tanteando. * Algunas personas (alcistas) creen que la caída inicial fue una reacción exagerada, que la respuesta del Gobierno evitará un mayor declive y/o que las cosas volverán a la normalidad con bastante rapidez, por lo que están comprando la caída. * Por otro lado, hay personas (los bajistas) que creen que la reacción inicial fue sólo el comienzo, pero no lo suficiente como para valorar el impacto total, que el gobierno no puede apuntalar la economía y/o que esto se prolongará durante mucho tiempo, por lo que apuestan por un mayor declive. El problema con esta idea de que la información tiene un precio es que todos sabemos que hay una pandemia mundial, pero hay opiniones muy diferentes sobre cuánto debería afectar al mercado. Consideremos los niveles de desempleo: Tenemos proyecciones sobre una tasa de desempleo que podría alcanzar un máximo superior al 30%. Mientras tanto, la tasa de desempleo actual es del 4,4% y se prevé que alcance los dos dígitos en abril. La única forma de que toda esa información se valore adecuadamente es que todo el mundo esté de acuerdo en que las previsiones son razonables y tenga la capacidad económica de comprender el impacto real de esas cifras. En lugar de eso, lo que ocurre es que algunas personas verán las cifras reales de desempleo de abril como una información nueva y sorprendente ante la que reaccionar, mientras que otras las verán como una información antigua en línea con sus expectativas. Si a esto se añaden otros miles de datos sobre los que la gente tiene opiniones encontradas, resulta prácticamente imposible saber de antemano si toda esa información se ha valorado adecuadamente. El acontecimiento comparable más reciente es la quiebra de las hipotecas de alto riesgo. Muchos pensaron que se había tocado fondo en noviembre de 2008 y hubo un breve repunte antes de que se tocara fondo en marzo de 2009. En estos momentos no sabemos si el mercado ha tocado fondo o no, ni cuánto tiempo podría tardar en recuperarse.
Pourquoi le marché ne s'effondre-t-il pas avec toutes ces mauvaises nouvelles ?
Les réactions du marché à l'information ne sont pas toujours opportunes, proportionnelles ou rationnelles. Nous ne connaissons pas toutes les conséquences de notre situation actuelle ; nous la ressentons. * Certaines personnes (les "haussiers") pensent que la baisse initiale était une réaction excessive, que la réponse du gouvernement empêchera une nouvelle baisse et/ou que les choses reviendront à la normale assez rapidement, et elles achètent donc la baisse. * De l'autre côté, il y a des gens (les "bears") qui pensent que la réaction initiale n'était qu'un début, mais pas assez pour prendre en compte tout l'impact, que le gouvernement ne peut pas soutenir l'économie, et/ou que la situation va s'éterniser, donc ils parient sur un nouveau déclin. Le problème avec cette idée d'intégration de l'information est que nous savons tous qu'il y a une pandémie mondiale, mais il y a des opinions très différentes sur l'ampleur de l'impact sur le marché. Prenons l'exemple du chômage : Nous disposons de projections selon lesquelles le taux de chômage pourrait atteindre un pic de plus de 30 %. Parallèlement, le taux de chômage actuel est de 4,4 % et devrait atteindre un taux à deux chiffres en avril. Toutes ces informations ne pourraient être correctement prises en compte que si tout le monde s'accordait sur le caractère raisonnable des projections et avait les compétences économiques nécessaires pour comprendre l'impact réel de ces chiffres. Au lieu de cela, certains verront les chiffres du chômage d'avril comme une nouvelle information surprenante à laquelle réagir, tandis que d'autres y verront une ancienne information conforme à leurs attentes. Si l'on ajoute des milliers d'autres informations au sujet desquelles les gens ont des opinions divergentes, il devient pratiquement impossible de savoir à l'avance si toutes ces informations ont été prises en compte de manière appropriée. L'événement comparable le plus récent est le krach des prêts hypothécaires à risque. Nombreux sont ceux qui pensaient que le plancher avait été atteint en novembre 2008 et qu'il y avait eu une brève reprise à contre-courant avant que le plancher ne soit réellement atteint vers mars 2009. À l'heure actuelle, nous ne savons pas si le marché a déjà touché le fond ou non, ni combien de temps la reprise pourrait prendre.
Perché il mercato non crolla come una pietra con tutte le cattive notizie?
Le reazioni del mercato alle informazioni non sono sempre tempestive, proporzionali o razionali. Non conosciamo l'impatto completo della nostra situazione attuale; la stiamo percependo. * Alcune persone (tori) credono che il calo iniziale sia stato una reazione eccessiva, che la risposta del governo impedirà un ulteriore calo e/o che le cose torneranno alla normalità abbastanza rapidamente, quindi comprano il calo. * Dall'altra parte ci sono persone (orsi) che credono che la reazione iniziale sia stata solo un inizio ma non sufficiente a prezzare l'impatto completo, che il governo non sia in grado di sostenere l'economia e/o che la situazione si trascinerà a lungo, quindi scommettono su un ulteriore calo. Il problema di questa idea di informazione prezzata è che tutti sappiamo che c'è una pandemia globale, ma ci sono opinioni molto diverse su quanto questo dovrebbe influenzare il mercato. Consideriamo i livelli di disoccupazione: Le proiezioni parlano di un tasso di disoccupazione che potrebbe raggiungere un picco superiore al 30%. Nel frattempo, l'attuale tasso di disoccupazione è del 4,4% e si prevede che ad aprile raggiungerà la doppia cifra. L'unico modo in cui tutte queste informazioni potrebbero essere valutate in modo appropriato è se tutti fossero d'accordo sulla ragionevolezza delle proiezioni e avessero la capacità economica di comprendere l'impatto effettivo di queste cifre. Invece, alcuni vedranno i numeri effettivi della disoccupazione di aprile come nuove informazioni sorprendenti a cui reagire, mentre altri li vedranno come vecchie informazioni in linea con le loro aspettative. Se a ciò si aggiungono migliaia di altre informazioni su cui le persone hanno opinioni contrastanti, diventa praticamente impossibile sapere in anticipo se tutte queste informazioni sono state prezzate in modo appropriato. L'evento paragonabile più recente è il crollo dei mutui subprime. Molti pensavano che il fondo fosse stato toccato intorno al novembre 2008 e c'è stato un breve rally in controtendenza prima che il fondo effettivo fosse toccato intorno al marzo 2009. Al momento non sappiamo se il mercato abbia già toccato il fondo o meno, né quanto potrebbe durare la ripresa.
134
What are Null Pointer Exceptions (```java.lang.NullPointerException```) and what causes them? What methods/tools can be used to determine the cause so that you stop the exception from causing the program to terminate prematurely?
There are two overarching types of variables in Java: 1. Primitives: variables that contain data. If you want to manipulate the data in a primitive variable you can manipulate that variable directly. By convention primitive types start with a lowercase letter. For example variables of type `int` or `char` are primitives. 2. References: variables that contain the memory address of an `Object` i.e. variables that refer to an `Object`. If you want to manipulate the `Object` that a reference variable refers to you must dereference it. Dereferencing usually entails using `.` to access a method or field, or using `[` to index an array. By convention reference types are usually denoted with a type that starts in uppercase. For example variables of type `Object` are references. Consider the following code where you declare a variable of primitive type `int` and don't initialize it: ``` int x; int y = x + x; ``` These two lines will crash the program because no value is specified for `x` and we are trying to use `x`'s value to specify `y`. All primitives have to be initialized to a usable value before they are manipulated. Now here is where things get interesting. Reference variables can be set to `null` which means "I am referencing nothing". You can get a `null` value in a reference variable if you explicitly set it that way, or a reference variable is uninitialized and the compiler does not catch it (Java will automatically set the variable to `null`). If a reference variable is set to null either explicitly by you or through Java automatically, and you attempt to dereference it you get a `NullPointerException`. The `NullPointerException` (NPE) typically occurs when you declare a variable but did not create an object and assign it to the variable before trying to use the contents of the variable. So you have a reference to something that does not actually exist. Take the following code: ``` Integer num; num = new Integer(10); ``` The first line declares a variable named `num`, but it does not actually contain a reference value yet. Since you have not yet said what to point to, Java sets it to `null`. In the second line, the `new` keyword is used to instantiate (or create) an object of type `Integer`, and the `reference` variable `num` is assigned to that `Integer` object. If you attempt to dereference `num` before creating the object you get a `NullPointerException`. In the most trivial cases, the compiler will catch the problem and let you know that "`num may not have been initialized`," but sometimes you may write code that does not directly create the object. For instance, you may have a method as follows: ``` public void doSomething(SomeObject obj) { // Do something to obj, assumes obj is not null obj.myMethod(); } ``` In which case, you are not creating the object `obj`, but rather assuming that it was created before the `doSomething()` method was called. Note, it is possible to call the method like this: ``` doSomething(null); ``` In which case, `obj` is `null`, and the statement `obj.myMethod()` will throw a `NullPointerException`. If the method is intended to do something to the passed-in object as the above method does, it is appropriate to throw the `NullPointerException` because it's a programmer error and the programmer will need that information for debugging purposes. In addition to `NullPointerException`'s thrown as a result of the method's logic, you can also check the method arguments for `null` values and throw NPEs explicitly by adding something like the following near the beginning of a method: ``` // Throws an NPE with a custom error message if obj is null Objects.requireNonNull(obj, "obj must not be null"); ``` Note that it's helpful to say in your error message clearly which object cannot be `null`. The advantage of validating this is that 1) you can return your own clearer error messages and 2) for the rest of the method you know that unless `obj` is reassigned, it is not null and can be dereferenced safely. Alternatively, there may be cases where the purpose of the method is not solely to operate on the passed in object, and therefore a null parameter may be acceptable. In this case, you would need to check for a null parameter and behave differently. You should also explain this in the documentation. For example, `doSomething()` could be written as: ``` /** * @param obj An optional foo for ____. May be null, in which case * the result will be ____. */ public void doSomething(SomeObject obj) { if(obj == null) { // Do something } else { // Do something else } } ``` Finally, how to pinpoint the exception & cause using Stack Trace: > What methods/tools can be used to determine the cause so that you stop the exception from causing the program to terminate prematurely? Sonar with find bugs can detect NPE. Can sonar catch null pointer exceptions caused by JVM Dynamically Now Java 14 has added a new language feature to show the root cause of NullPointerException. This language feature has been part of SAP commercial JVM since 2006. In Java 14, the following is a sample NullPointerException Exception message: > in thread "main" java.lang.NullPointerException: Cannot invoke "java.util.List.size()" because "list" is null
Was sind Null Pointer Exceptions (```java.lang.NullPointerException``) und was verursacht sie? Welche Methoden/Werkzeuge können verwendet werden, um die Ursache zu ermitteln, damit die Ausnahme nicht zu einem vorzeitigen Abbruch des Programms führt?
In Java gibt es zwei übergreifende Arten von Variablen: 1. Primitive: Variablen, die Daten enthalten. Wenn Sie die Daten in einer primitiven Variablen manipulieren wollen, können Sie diese Variable direkt manipulieren. Konventionell beginnen primitive Typen mit einem Kleinbuchstaben. Zum Beispiel sind Variablen vom Typ `int` oder `char` Primitive. 2. Referenzen: Variablen, die die Speicheradresse eines "Objekts" enthalten, d.h. Variablen, die auf ein "Objekt" verweisen. Wenn Sie das `Objekt`, auf das eine Referenzvariable verweist, manipulieren wollen, müssen Sie es dereferenzieren. Die Dereferenzierung beinhaltet normalerweise die Verwendung von `.`, um auf eine Methode oder ein Feld zuzugreifen, oder die Verwendung von `[`, um ein Array zu indizieren. Konventionell werden Referenztypen mit einem Typ bezeichnet, der mit einem Großbuchstaben beginnt. Zum Beispiel sind Variablen vom Typ `Object` Referenzen. Betrachten Sie den folgenden Code, in dem Sie eine Variable vom primitiven Typ `int` deklarieren und sie nicht initialisieren: ``` int x; int y = x + x; ``` Diese beiden Zeilen werden das Programm zum Absturz bringen, da kein Wert für `x` angegeben ist und wir versuchen, den Wert von `x` zur Angabe von `y` zu verwenden. Alle Primitive müssen auf einen brauchbaren Wert initialisiert werden, bevor sie manipuliert werden. Hier wird es nun interessant. Referenzvariablen können auf `null` gesetzt werden, was bedeutet "Ich referenziere nichts". Sie können einen "Null"-Wert in einer Referenzvariablen erhalten, wenn Sie sie explizit so setzen, oder eine Referenzvariable nicht initialisiert ist und der Compiler dies nicht erkennt (Java setzt die Variable automatisch auf "Null"). Wenn eine Referenzvariable entweder explizit von Ihnen oder durch Java automatisch auf null gesetzt wird und Sie versuchen, sie zu derefenzieren, erhalten Sie eine `NullPointerException`. Die `NullPointerException` (NPE) tritt typischerweise auf, wenn Sie eine Variable deklarieren, aber kein Objekt erstellt haben und es der Variable zuweisen, bevor Sie versuchen, den Inhalt der Variable zu verwenden. Sie haben also einen Verweis auf etwas, das eigentlich nicht existiert. Nehmen Sie den folgenden Code: ``` Integer num; num = new Integer(10); ``` Die erste Zeile deklariert eine Variable mit dem Namen `num`, aber sie enthält noch keinen Referenzwert. Da Sie noch nicht gesagt haben, worauf sie zeigen soll, setzt Java sie auf `null`. In der zweiten Zeile wird das Schlüsselwort `new` verwendet, um ein Objekt des Typs `Integer` zu instanziieren (oder zu erstellen), und die `reference`-Variable `num` wird diesem `Integer`-Objekt zugewiesen. Wenn Sie versuchen, `num` zu derefenzieren, bevor Sie das Objekt erstellen, erhalten Sie eine `NullPointerException`. In den trivialsten Fällen wird der Compiler das Problem erkennen und Sie darauf hinweisen, dass "`num may not have been initialized`", aber manchmal können Sie Code schreiben, der das Objekt nicht direkt erzeugt. Sie können zum Beispiel eine Methode wie die folgende haben: ``` public void doSomething(SomeObject obj) { // Etwas mit obj machen, vorausgesetzt obj ist nicht null obj.myMethod(); } ``` In diesem Fall wird das Objekt `obj` nicht erstellt, sondern es wird angenommen, dass es erstellt wurde, bevor die Methode `doSomething()` aufgerufen wurde. Beachten Sie, dass es möglich ist, die Methode wie folgt aufzurufen: ``` doSomething(null); ``` In diesem Fall ist `obj` `null`, und die Anweisung `obj.myMethod()` wird eine `NullPointerException` auslösen. Wenn die Methode dazu gedacht ist, etwas mit dem übergebenen Objekt zu tun, wie es die obige Methode tut, ist es angemessen, eine `NullPointerException` zu werfen, da es sich um einen Programmfehler handelt und der Programmierer diese Information für Debugging-Zwecke benötigt. Zusätzlich zu den `NullPointerException`'s, die als Ergebnis der Methodenlogik geworfen werden, können Sie auch die Methodenargumente auf `null` Werte überprüfen und NPEs explizit werfen, indem Sie etwas wie das Folgende am Anfang einer Methode hinzufügen: ``` // Wirft eine NPE mit einer eigenen Fehlermeldung, wenn obj null ist Objects.requireNonNull(obj, "obj darf nicht null sein"); ``` Beachten Sie, dass es hilfreich ist, in Ihrer Fehlermeldung klar zu sagen, welches Objekt nicht "null" sein darf. Der Vorteil der Validierung ist, dass Sie 1) Ihre eigenen klareren Fehlermeldungen zurückgeben können und 2) für den Rest der Methode wissen, dass `obj` nicht null ist und sicher dereferenziert werden kann, solange es nicht neu zugewiesen wird. Es kann aber auch Fälle geben, in denen der Zweck der Methode nicht ausschließlich darin besteht, das übergebene Objekt zu bearbeiten, und daher ein Null-Parameter akzeptabel sein kann. In diesem Fall müssten Sie auf einen Null-Parameter prüfen und sich anders verhalten. Sie sollten dies auch in der Dokumentation erklären. Zum Beispiel könnte `doSomething()` wie folgt geschrieben werden: ``` /** * @param obj Ein optionaler foo für ____. Kann null sein, in diesem Fall * wird das Ergebnis ____ sein. */ public void doSomething(SomeObject obj) { if(obj == null) { // Etwas tun } else { // Etwas anderes tun } } ``` Schließlich, wie man die Ausnahme und die Ursache mit Stack Trace zu lokalisieren: > Welche Methoden/Werkzeuge können verwendet werden, um die Ursache zu ermitteln, damit die Ausnahme nicht zu einem vorzeitigen Abbruch des Programms führt? Sonar mit Find Bugs kann NPE erkennen. Kann Sonar Null-Pointer-Ausnahmen abfangen, die durch JVM Dynamically Mit Java 14 wurde eine neue Sprachfunktion hinzugefügt, die die Ursache von NullPointerException aufzeigt. Dieses Sprachfeature ist seit 2006 Bestandteil der kommerziellen SAP JVM. In Java 14 ist das folgende Beispiel eine NullPointerException-Ausnahmemeldung: > im Thread "main" java.lang.NullPointerException: Kann "java.util.List.size()" nicht aufrufen, da "list" null ist
¿Qué son las excepciones de puntero nulo (```java.lang.NullPointerException``) y qué las provoca? ¿Qué métodos/herramientas se pueden utilizar para determinar la causa y así evitar que la excepción haga que el programa termine prematuramente?
Existen dos tipos principales de variables en Java: 1. Primitivas: variables que contienen datos. Si quieres manipular los datos de una variable primitiva puedes manipular esa variable directamente. Por convención, los tipos primitivos comienzan con una letra minúscula. Por ejemplo las variables de tipo `int` o `char` son primitivas. 2. Referencias: variables que contienen la dirección de memoria de un `Objeto`, es decir, variables que hacen referencia a un `Objeto`. Si quieres manipular el `Objeto` al que hace referencia una variable de referencia debes desreferenciarlo. La desreferencia suele implicar el uso de `.` para acceder a un método o campo, o el uso de `[` para indexar un array. Por convención, los tipos de referencia se denotan normalmente con un tipo que empieza en mayúsculas. Por ejemplo, las variables de tipo `Objeto` son referencias. Considera el siguiente código donde declaras una variable de tipo primitivo `int` y no la inicializas: ``` int x; int y = x + x; ``` Estas dos líneas bloquearán el programa porque no se especifica ningún valor para `x` y estamos intentando usar el valor de `x` para especificar `y`. Todas las primitivas tienen que ser inicializadas a un valor utilizable antes de ser manipuladas. Aquí es donde las cosas se ponen interesantes. Las variables de referencia se pueden establecer a `null`, que significa "no estoy haciendo referencia a nada". Puedes obtener un valor `null` en una variable de referencia si la estableces explícitamente de esa manera, o una variable de referencia no está inicializada y el compilador no lo detecta (Java automáticamente establecerá la variable a `null`). Si una variable de referencia se establece a null, ya sea explícitamente por usted o a través de Java de forma automática, y se intenta hacer referencia a ella se obtiene un `NullPointerException`. La `NullPointerException` (NPE) se produce normalmente cuando se declara una variable pero no se crea un objeto y se asigna a la variable antes de intentar utilizar el contenido de la variable. Entonces tienes una referencia a algo que en realidad no existe. Tome el siguiente código: ``` Número entero num; num = new Integer(10); ``` La primera línea declara una variable llamada `num`, pero aún no contiene un valor de referencia. Dado que aún no ha dicho lo que debe apuntar, Java establece a `null`. En la segunda línea, la palabra clave `new` se utiliza para instanciar (o crear) un objeto de tipo `Integer`, y la variable `reference` `num` se asigna a ese objeto `Integer`. Si intentas desreferenciar `num` antes de crear el objeto obtendrás una `NullPointerException`. En los casos más triviales, el compilador detectará el problema y te avisará de que "`num puede no haber sido inicializado`", pero a veces puedes escribir código que no cree directamente el objeto. Por ejemplo, puedes tener un método como el siguiente: ``` public void hacerAlgo(CiertoObjeto obj) { // Hacer algo a obj, asumiendo que obj no es null obj.miMétodo(); } ``` En este caso, no estás creando el objeto `obj`, sino asumiendo que fue creado antes de llamar al método `doSomething()`. Nota, es posible llamar al método así: ``` hacerAlgo(null); ``` En cuyo caso, `obj` es `null`, y la sentencia `obj.myMethod()` lanzará una `NullPointerException`. Si el método pretende hacer algo al objeto pasado como hace el método anterior, es apropiado lanzar la `NullPointerException` porque es un error de programación y el programador necesitará esa información para propósitos de depuración. Además de las `NullPointerException` lanzadas como resultado de la lógica del método, también puedes comprobar los argumentos del método en busca de valores `null` y lanzar NPEs explícitamente añadiendo algo como lo siguiente cerca del principio de un método: ``` // Lanza un NPE con un mensaje de error personalizado si obj es null Objects.requireNonNull(obj, "obj must not be null"); ``` Ten en cuenta que es útil decir claramente en tu mensaje de error qué objeto no puede ser `null`. La ventaja de validar esto es que 1) puedes devolver tus propios mensajes de error más claros y 2) para el resto del método sabes que a menos que `obj` sea reasignado, no es null y puede ser dereferenciado con seguridad. Alternativamente, puede haber casos en los que el propósito del método no sea únicamente operar sobre el objeto pasado, y por lo tanto un parámetro nulo puede ser aceptable. En este caso, deberá comprobar si el parámetro es nulo y comportarse de forma diferente. También debería explicarlo en la documentación. Por ejemplo, `doSomething()` podría escribirse como: ``` /** * @param obj Un foo opcional para ____. Puede ser null, en cuyo caso * el resultado será ____. */ public void hacerAlgo(CiertoObjeto obj) { if(obj == null) { // Hacer algo } else { // Haz otra cosa } } ``` Finalmente, cómo localizar la excepción y la causa usando Stack Trace: > ¿Qué métodos/herramientas se pueden usar para determinar la causa de modo que se impida que la excepción haga que el programa termine prematuramente? Sonar con find bugs puede detectar NPE. ¿Puede sonar las excepciones de puntero nulo causadas por JVM Dynamically Ahora Java 14 ha añadido una nueva característica de lenguaje para mostrar la causa raíz de NullPointerException. Esta característica del lenguaje ha sido parte de SAP JVM comercial desde 2006. En Java 14, el siguiente es un ejemplo de mensaje de Excepción NullPointerException: > in thread "main" java.lang.NullPointerException: No se puede invocar "java.util.List.size()" porque "list" es null
Que sont les Null Pointer Exceptions (``java.lang.NullPointerException``) et quelles en sont les causes ? Quels méthodes/outils peuvent être utilisés pour déterminer la cause de l'exception afin de l'empêcher de provoquer la fin prématurée du programme ?
Il existe deux grands types de variables en Java : 1. Primitives : variables contenant des données. Si vous souhaitez manipuler les données d'une variable primitive, vous pouvez manipuler cette variable directement. Par convention, les types primitifs commencent par une lettre minuscule. Par exemple, les variables de type `int` ou `char` sont des primitives. 2. Références : variables qui contiennent l'adresse mémoire d'un `Objet`, c'est-à-dire des variables qui font référence à un `Objet`. Si vous voulez manipuler l'objet auquel une variable de référence fait référence, vous devez la déréférencer. Le déréférencement implique généralement l'utilisation de `.` pour accéder à une méthode ou à un champ, ou l'utilisation de `[` pour indexer un tableau. Par convention, les types de référence sont généralement désignés par un type commençant par une majuscule. Par exemple, les variables de type `Objet` sont des références. Considérez le code suivant où vous déclarez une variable de type primitif `int` et ne l'initialisez pas : ``` int x ; int y = x + x ; ``` Ces deux lignes vont faire planter le programme car aucune valeur n'est spécifiée pour `x` et nous essayons d'utiliser la valeur de `x` pour spécifier `y`. Toutes les primitives doivent être initialisées à une valeur utilisable avant d'être manipulées. C'est ici que les choses deviennent intéressantes. Les variables de référence peuvent être initialisées à `null`, ce qui signifie "je ne fais référence à rien". Vous pouvez obtenir une valeur `null` dans une variable de référence si vous la définissez explicitement de cette façon, ou si une variable de référence n'est pas initialisée et que le compilateur ne le détecte pas (Java définira automatiquement la variable à `null`). Si une variable de référence est définie comme nulle, soit explicitement par vous, soit automatiquement par Java, et que vous tentez de la déréférencer, vous obtenez une `NullPointerException`. La `NullPointerException` (NPE) se produit typiquement lorsque vous déclarez une variable mais que vous n'avez pas créé un objet et que vous ne l'avez pas assigné à la variable avant d'essayer d'utiliser le contenu de la variable. Vous avez donc une référence à quelque chose qui n'existe pas réellement. Prenons le code suivant : ``` Integer num ; num = new Integer(10) ; ``` La première ligne déclare une variable nommée `num`, mais elle ne contient pas encore de valeur de référence. Puisque vous n'avez pas encore dit vers quoi pointer, Java lui donne la valeur `null`. Dans la deuxième ligne, le mot-clé `new` est utilisé pour instancier (ou créer) un objet de type `Integer`, et la variable `reference` `num` est assignée à cet objet `Integer`. Si vous essayez de déréférencer `num` avant de créer l'objet, vous obtenez une `NullPointerException`. Dans les cas les plus triviaux, le compilateur détectera le problème et vous indiquera que "`num n'a peut-être pas été initialisé`", mais vous pouvez parfois écrire du code qui ne crée pas directement l'objet. Par exemple, vous pouvez avoir une méthode comme suit : ``` public void doSomething(SomeObject obj) { // Fait quelque chose à obj, en supposant qu'obj n'est pas nul obj.myMethod() ; } ``` Dans ce cas, vous ne créez pas l'objet `obj`, mais vous supposez qu'il a été créé avant que la méthode `doSomething()` ne soit appelée. Notez qu'il est possible d'appeler la méthode comme ceci : ``` doSomething(null) ; ``` Dans ce cas, `obj` est `null`, et la déclaration `obj.myMethod()` lancera une `NullPointerException`. Si la méthode est destinée à faire quelque chose à l'objet passé comme le fait la méthode ci-dessus, il est approprié de lancer une `NullPointerException` parce que c'est une erreur du programmeur et que le programmeur aura besoin de cette information à des fins de débogage. En plus des `NullPointerException` lancées comme résultat de la logique de la méthode, vous pouvez aussi vérifier les arguments de la méthode pour les valeurs `null` et lancer les NPEs explicitement en ajoutant quelque chose comme ce qui suit près du début d'une méthode : ``` // Lance un NPE avec un message d'erreur personnalisé si obj est null Objects.requireNonNull(obj, "obj must not be null") ; ``` Notez qu'il est utile d'indiquer clairement dans votre message d'erreur quel objet ne peut pas être `null`. L'avantage de valider ceci est que 1) vous pouvez renvoyer vos propres messages d'erreur plus clairs et 2) pour le reste de la méthode, vous savez qu'à moins que `obj` ne soit réassigné, il n'est pas null et peut être déréférencé en toute sécurité. Alternativement, il peut y avoir des cas où le but de la méthode n'est pas seulement d'opérer sur l'objet passé, et donc un paramètre nul peut être acceptable. Dans ce cas, vous devrez vérifier la présence d'un paramètre nul et vous comporter différemment. Vous devez également expliquer cela dans la documentation. Par exemple, `doSomething()` pourrait être écrit comme suit : ``` /** * @param obj Un foo optionnel pour ____. Peut être nul, dans ce cas * le résultat sera ____. */ public void doSomething(SomeObject obj) { if(obj == null) { // Fait quelque chose } else { // Fait quelque chose d'autre } } ``` Enfin, comment identifier l'exception et sa cause à l'aide de la trace de la pile : > Quelles méthodes/outils peuvent être utilisés pour déterminer la cause afin d'empêcher l'exception de provoquer l'arrêt prématuré du programme ? Sonar avec find bugs peut détecter les NPE. Est-ce que sonar peut attraper les exceptions de pointeur nul causées par la JVM Dynamically Java 14 a ajouté une nouvelle fonctionnalité linguistique permettant de montrer la cause première d'une exception de type NullPointerException. Cette fonctionnalité de langage fait partie de la JVM commerciale SAP depuis 2006. Dans Java 14, voici un exemple de message d'exception NullPointerException : > dans le thread "main" java.lang.NullPointerException : Impossible d'invoquer "java.util.List.size()" car "list" est nul.
Cosa sono le eccezioni del puntatore nullo (``java.lang.NullPointerException``) e quali sono le cause? Quali metodi/strumenti possono essere utilizzati per determinare la causa, in modo da impedire che l'eccezione provochi la terminazione prematura del programma?
In Java esistono due tipi principali di variabili: 1. Primitive: variabili che contengono dati. Se si desidera manipolare i dati di una variabile primitiva, si può manipolare direttamente quella variabile. Per convenzione, i tipi primitivi iniziano con una lettera minuscola. Ad esempio, le variabili di tipo `int` o `char` sono primitive. 2. Riferimenti: variabili che contengono l'indirizzo di memoria di un `Oggetto`, cioè variabili che fanno riferimento a un `Oggetto`. Se si vuole manipolare l'`Oggetto` a cui si riferisce una variabile di riferimento, è necessario dereferenziarla. La dereferenziazione di solito comporta l'uso di `.` per accedere a un metodo o a un campo, o l'uso di `[` per indicizzare un array. Per convenzione, i tipi di riferimento sono solitamente indicati con un tipo che inizia in maiuscolo. Ad esempio, le variabili di tipo `Object` sono riferimenti. Si consideri il seguente codice in cui si dichiara una variabile di tipo primitivo `int` e non la si inizializza: ``` int x; int y = x + x; ``` Queste due righe manderanno in crash il programma perché non è stato specificato alcun valore per `x` e si sta cercando di usare il valore di `x` per specificare `y`. Tutte le primitive devono essere inizializzate a un valore utilizzabile prima di essere manipolate. Qui le cose si fanno interessanti. Le variabili di riferimento possono essere impostate a `null`, che significa "non sto facendo riferimento a nulla". È possibile ottenere un valore `null` in una variabile di riferimento se la si imposta esplicitamente in quel modo, oppure se una variabile di riferimento non è inizializzata e il compilatore non lo rileva (Java imposterà automaticamente la variabile a `null`). Se una variabile di riferimento è impostata a null, esplicitamente dall'utente o automaticamente da Java, e si tenta di dereferenziarla, si ottiene una `NullPointerException`. La `NullPointerException` (NPE) si verifica tipicamente quando si dichiara una variabile, ma non si è creato un oggetto e non lo si è assegnato alla variabile prima di provare a utilizzarne il contenuto. In questo modo si ha un riferimento a qualcosa che in realtà non esiste. Prendete il seguente codice: ``` Numero intero num; num = new Integer(10); ``` La prima riga dichiara una variabile chiamata `num`, ma non contiene ancora un valore di riferimento. Poiché non è ancora stato detto a cosa puntare, Java la imposta a `null`. Nella seconda riga, la parola chiave `new` viene usata per istanziare (o creare) un oggetto di tipo `Integer` e la variabile `reference` `num` viene assegnata a tale oggetto `Integer`. Se si tenta di dereferenziare `num` prima di creare l'oggetto, si ottiene una `NullPointerException`. Nei casi più banali, il compilatore individuerà il problema e comunicherà che "`num potrebbe non essere stato inizializzato", ma a volte si può scrivere codice che non crea direttamente l'oggetto. Per esempio, si può avere un metodo come il seguente: ``` public void doSomething(SomeObject obj) { // Fa qualcosa a obj, supponendo che obj non sia nullo obj.myMethod(); } ``` In questo caso, non si sta creando l'oggetto `obj`, ma si assume che sia stato creato prima che il metodo `doSomething()` sia stato chiamato. Si noti che è possibile chiamare il metodo in questo modo: ``` doSomething(null); ``` In questo caso, `obj` è `null` e l'istruzione `obj.myMethod()` lancerà una `NullPointerException`. Se il metodo è destinato a fare qualcosa all'oggetto passato, come fa il metodo di cui sopra, è appropriato lanciare la `NullPointerException`, perché è un errore del programmatore e il programmatore avrà bisogno di questa informazione per il debug. Oltre alle `NullPointerException` lanciate come risultato della logica del metodo, si può anche controllare che i parametri del metodo non contengano valori `null` e lanciare gli NPE in modo esplicito, aggiungendo qualcosa come il seguente all'inizio di un metodo: ``` // Lancia un NPE con un messaggio di errore personalizzato se obj è null Objects.requireNonNull(obj, "obj non deve essere null"); ``` Si noti che è utile indicare chiaramente nel messaggio di errore quale oggetto non può essere `null`. Il vantaggio della validazione è che 1) si possono restituire messaggi di errore più chiari e 2) per il resto del metodo si sa che, a meno che `obj` non venga riassegnato, non è nullo e può essere dereferenziato in modo sicuro. In alternativa, ci possono essere casi in cui lo scopo del metodo non è solo quello di operare sull'oggetto passato e quindi un parametro nullo può essere accettabile. In questo caso, è necessario verificare la presenza di un parametro nullo e comportarsi in modo diverso. Questo dovrebbe essere spiegato anche nella documentazione. Per esempio, `doSomething()` potrebbe essere scritto come: ``` /** * @param obj Un oggetto opzionale per ____. Può essere nullo, nel qual caso * il risultato sarà ____. */ public void doSomething(SomeObject obj) { if(obj == null) { // Fa' qualcosa } else { // Fa' qualcos'altro } } ``` Infine, come individuare l'eccezione e la causa utilizzando lo Stack Trace: > Quali metodi/strumenti possono essere utilizzati per determinare la causa, in modo da impedire che l'eccezione provochi la terminazione prematura del programma? Sonar con find bugs può rilevare NPE. Sonar è in grado di rilevare le eccezioni del puntatore nullo causate da JVM Dynamically Ora Java 14 ha aggiunto una nuova funzione linguistica per mostrare la causa principale della NullPointerException. Questa funzione linguistica fa parte della JVM commerciale di SAP dal 2006. In Java 14, il seguente è un esempio di messaggio di eccezione NullPointerException: > nel thread "main" java.lang.NullPointerException: Impossibile invocare "java.util.List.size()" perché "list" è nullo.
135
In Raiders of the Lost Ark, at the Ark opening ceremony the Nazi troops brings the Ark of the Covenant to the top of the mountain as Belloq said something before opening the Ark. Then they took the sand from the Ark and suddenly spirits coming out from the Ark and they're all killed (except Indy and Marion) by the freed-spirits which came from the Ark. Meanwhile, Indy asks Marion to keep her eyes shut. They didn't see the Ark when it was opened, so they're survived. In that scene what I don't understand is how did Indy know not to look into the Ark when it was opened?
There was a deleted scene that explained it: A plot element involving the Ark of the Covenant was cut from the film and is only hinted at during the finale when the Ark is opened. Basically, there were 2 rules about the Ark not mentioned in the final cut of the film: * If you touch the Ark, you die * If you look at the Ark when it is opened, you die This is first explained in additional dialogue for the scene when Indy and Sallah visit Imam. Before translating the writings on the headpiece that give the height of the Staff of Ra, Imam warns Indy not to touch the Ark or look at it when it is opened. [Source] The next scene involving this Ark subplot is when Sallah and Indy remove the Ark from the Well of the Souls. When Sallah first sees it he reaches out to touch it. Indy stops him before he does and reminds him of Imam's warning. Then they insert long poles through each side of the Ark to lift it out of its crypt. [Source] Notice that nobody ever touches the Ark throughout the rest of the film until the finale. And from the Bible (King James Version): 1 Samuel 6:19: And he smote the men of Bethshemesh, because they had looked into the ark of the Lord, even he smote of the people fifty thousand and threescore and ten men... 2 Samuel 6:6-7 And when they came to Nachon's threshingfloor, Uzzah put forth his hand to the ark of God, and took hold of it; for the oxen shook it. And the anger of the Lord was kindled against Uzzah; and God smote him there for his error; and there he died by the ark of God.
In Raiders of the Lost Ark (Jäger der verlorenen Arche) bringen die Nazi-Truppen bei der Öffnungszeremonie der Arche die Bundeslade auf den Gipfel des Berges, da Belloq vor der Öffnung der Arche etwas sagte. Dann nahmen sie den Sand aus der Lade und plötzlich kamen Geister aus der Lade und sie wurden alle (außer Indy und Marion) von den befreiten Geistern, die aus der Lade kamen, getötet. In der Zwischenzeit bittet Indy Marion, ihre Augen geschlossen zu halten. Sie haben die Arche nicht gesehen, als sie geöffnet wurde, also haben sie überlebt. Was ich in dieser Szene nicht verstehe, ist, woher Indy wusste, dass er nicht in die Arche schauen durfte, als sie geöffnet wurde?
Es gab eine gelöschte Szene, in der dies erklärt wurde: Ein Handlungselement, das mit der Bundeslade zu tun hat, wurde aus dem Film herausgeschnitten und wird im Finale nur angedeutet, wenn die Bundeslade geöffnet wird. Im Grunde gab es 2 Regeln über die Bundeslade, die in der endgültigen Fassung des Films nicht erwähnt wurden: * Wenn man die Lade berührt, stirbt man. * Wenn du die Lade ansiehst, wenn sie geöffnet wird, stirbst du Dies wird erstmals in einem zusätzlichen Dialog in der Szene erklärt, in der Indy und Sallah den Imam besuchen. Bevor er die Schrift auf dem Kopfstück übersetzt, die die Höhe des Stabes von Ra angibt, warnt Imam Indy davor, die Lade zu berühren oder sie anzusehen, wenn sie geöffnet ist. [Quelle] Die nächste Szene, die mit dieser Nebenhandlung zu tun hat, ist die, in der Sallah und Indy die Lade aus dem Brunnen der Seelen holen. Als Sallah sie zum ersten Mal sieht, will er sie anfassen. Indy hält ihn davon ab und erinnert ihn an die Warnung des Imams. Dann stecken sie lange Stangen durch jede Seite der Lade, um sie aus ihrer Krypta zu heben. [Quelle] Man beachte, dass niemand die Lade während des restlichen Films bis zum Finale berührt. Und aus der Bibel (King James Version): 1 Samuel 6:19: Und er schlug die Männer von Beth-Semes, weil sie in die Lade des Herrn geschaut hatten, und er schlug aus dem Volk fünfzigtausend und siebzig Männer... 2 Samuel 6:6-7 Und als sie zur Tenne des Nachon kamen, streckte Usa seine Hand nach der Lade Gottes aus und ergriff sie; denn die Rinder rüttelten an ihr. Da entbrannte der Zorn des Herrn über Usa, und Gott schlug ihn dort wegen seines Fehlers, und er starb dort bei der Lade Gottes.
En En busca del arca perdida, en la ceremonia de apertura del Arca, las tropas nazis llevan el Arca de la Alianza a la cima de la montaña mientras Belloq dice algo antes de abrir el Arca. Entonces sacan la arena del Arca y de repente salen espíritus del Arca y todos son asesinados (excepto Indy y Marion) por los espíritus liberados que salieron del Arca. Mientras tanto, Indy le pide a Marion que mantenga los ojos cerrados. No vieron el Arca cuando se abrió, así que sobrevivieron. En esa escena lo que no entiendo es ¿cómo sabía Indy que no debía mirar el Arca cuando se abrió?
Había una escena eliminada que lo explicaba: Un elemento de la trama que implicaba el Arca de la Alianza fue eliminado de la película y sólo se insinúa durante el final, cuando se abre el Arca. Básicamente, había 2 reglas sobre el Arca que no se mencionaban en el montaje final de la película: * Si tocas el Arca, mueres * Si miras el Arca cuando se abre, mueres. Esto se explica por primera vez en el diálogo adicional de la escena en la que Indy y Sallah visitan a Imam. Antes de traducir las escrituras del casco que indican la altura del Báculo de Ra, Imam advierte a Indy que no toque el Arca ni la mire cuando esté abierta. [Fuente] La siguiente escena que involucra esta subtrama del Arca es cuando Sallah e Indy sacan el Arca del Pozo de las Almas. Cuando Sallah la ve por primera vez, intenta tocarla. Indy lo detiene antes de que lo haga y le recuerda la advertencia de Imam. Luego introducen largas varas por cada lado del Arca para sacarla de su cripta. [Fuente] Nótese que nadie toca el Arca en el resto de la película hasta el final. Y de la Biblia (versión King James): 1 Samuel 6:19: E hirió a los de Bet-semes, porque habían mirado en el arca de Jehová, e hirió del pueblo a cincuenta mil sesenta hombres... 2 Samuel 6:6-7 Cuando llegaron a la era de Najón, Uza extendió su mano hacia el arca de Dios y se asió de ella, pues los bueyes la sacudían. Y la ira del Señor se encendió contra Uza, y Dios lo hirió allí por su error; y allí murió junto al arca de Dios.
Dans Les Aventuriers de l'Arche perdue, lors de la cérémonie d'ouverture de l'Arche, les troupes nazies amènent l'Arche d'Alliance au sommet de la montagne alors que Belloq a dit quelque chose avant d'ouvrir l'Arche. Puis ils prennent le sable de l'Arche et soudain des esprits sortent de l'Arche et ils sont tous tués (sauf Indy et Marion) par les esprits libérés qui sont sortis de l'Arche. Pendant ce temps, Indy demande à Marion de garder les yeux fermés. Ils n'ont pas vu l'Arche quand elle a été ouverte, donc ils ont survécu. Dans cette scène, ce que je ne comprends pas, c'est comment Indy a pu savoir qu'il ne fallait pas regarder dans l'Arche quand elle a été ouverte ?
Une scène supprimée l'explique : Un élément de l'intrigue impliquant l'Arche d'Alliance a été supprimé du film et n'est évoqué que dans le final, lorsque l'Arche est ouverte. En fait, deux règles concernant l'Arche n'ont pas été mentionnées dans le montage final du film : * Si vous touchez l'Arche, vous mourrez * Si vous regardez l'Arche lorsqu'elle est ouverte, vous mourrez. Ceci est expliqué pour la première fois dans un dialogue supplémentaire lors de la scène où Indy et Sallah rendent visite à l'Imam. Avant de traduire les écritures sur la coiffe qui donnent la hauteur du Bâton de Râ, l'Imam avertit Indy de ne pas toucher l'Arche ni de la regarder lorsqu'elle est ouverte. [Source] La scène suivante impliquant cette intrigue secondaire de l'Arche est celle où Sallah et Indy retirent l'Arche du Puits des Âmes. Lorsque Sallah la voit pour la première fois, il tend la main pour la toucher. Indy l'arrête avant qu'il ne le fasse et lui rappelle l'avertissement de l'Imam. Ils insèrent ensuite de longues perches de chaque côté de l'Arche pour la sortir de sa crypte. [Source] Remarquez que personne ne touche l'Arche dans le reste du film, jusqu'au final. Et de la Bible (version King James) : 1 Samuel 6:19 : Il frappa les hommes de Bethsabée, parce qu'ils avaient regardé dans l'arche de l'Éternel, et il frappa cinquante mille soixante-dix hommes du peuple... 2 Samuel 6:6-7 Lorsqu'ils furent arrivés à l'aire de Nachon, Ozza étendit la main vers l'arche de Dieu et la saisit, car les boeufs la secouaient. La colère de l'Éternel s'enflamma contre Ozza ; Dieu le frappa là pour sa faute, et il mourut près de l'arche de Dieu.
Ne I predatori dell'arca perduta, durante la cerimonia di apertura dell'Arca, le truppe naziste portano l'Arca dell'Alleanza in cima alla montagna, mentre Belloq dice qualcosa prima di aprire l'Arca. Poi prendono la sabbia dall'Arca e improvvisamente gli spiriti escono dall'Arca e vengono tutti uccisi (tranne Indy e Marion) dagli spiriti liberati che provengono dall'Arca. Nel frattempo, Indy chiede a Marion di tenere gli occhi chiusi. Non hanno visto l'Arca quando è stata aperta, quindi sono sopravvissuti. In questa scena, quello che non capisco è come faceva Indy a sapere di non guardare nell'Arca quando è stata aperta?
C'era una scena eliminata che lo spiegava: Un elemento della trama che coinvolgeva l'Arca dell'Alleanza è stato tagliato dal film e viene solo accennato durante il finale, quando l'Arca viene aperta. In pratica, c'erano due regole sull'Arca non menzionate nel montaggio finale del film: * Se tocchi l'Arca, muori * Se si guarda l'Arca quando viene aperta, si muore. Questo viene spiegato per la prima volta nel dialogo aggiuntivo della scena in cui Indy e Sallah fanno visita all'Imam. Prima di tradurre le scritte sul copricapo che indicano l'altezza del Bastone di Ra, l'Imam avverte Indy di non toccare l'Arca e di non guardarla quando è aperta. [Fonte] La scena successiva che coinvolge questa sottotrama dell'Arca è quando Sallah e Indy rimuovono l'Arca dal Pozzo delle Anime. Quando Sallah la vede per la prima volta, allunga la mano per toccarla. Indy lo ferma prima che lo faccia e gli ricorda l'avvertimento dell'Imam. Poi inseriscono dei lunghi pali in ogni lato dell'Arca per sollevarla dalla sua cripta. [Fonte] Si noti che nessuno tocca l'Arca per tutto il resto del film fino al finale. E dalla Bibbia (King James Version): 1 Samuele 6:19: E colpì gli uomini di Beth-Semesh, perché avevano guardato l'arca del Signore; colpì anche cinquantamila e sessanta uomini del popolo... 2 Samuele 6:6-7 Quando giunsero all'aia di Nachon, Uzzah mise la mano all'arca di Dio e l'afferrò, perché i buoi la scuotevano. L'ira del Signore si accese contro Uzza; Dio lo colpì per il suo errore e lì morì accanto all'arca di Dio.
136
What is likely to happen when you plug two ends of a network cable to a single switch/router? Will this create problems on the network, or just be ignored?
It depends on the router/switch. If it's "Managed" - Like decent Netgear, Cisco or HP Procurve, or has STP (Spanning Tree Protocol) or one of its variants enabled, there's a few seconds of absolute insanity, then the switch realises that there's a loop in the network topology, and blocks one of the ports. (I've only described the STP re-convergence as "absolute insanity" because if you're using old-style, slow, STP then re-convergence can take 30s or more, depending on network complexity. Vendor specific STP extensions such as BackboneFast and so on will decrease this, but you might still end up with a short period of a slightly unstable network. Rapid STP is a lot quicker to converge, due to a different algorithm) If it's "Unmanaged"- Like pretty much all SOHO grade gear, and a fair proportion of small 4-8 port switches, then all hell breaks loose, as you've just created a loop in a network, and all the traffic tends to just bounce about inside the loop. The reason this happens is because switches rely on a process of MAC address learning to map MAC addresses to physical ports. In a non-looped network, one MAC address will only be visible to the switch on a given physical port. If you have a loop, then the switch will see multiple paths to the same MAC address, and possibly multiple MAC addresses on multiple ports, so instead of the traffic being switched efficiently, it will be broadcast to wherever it sees the MACs. This is known as a "Broadcast Storm". This can quickly use up all of a switch's CPU power, fill the transmit and receive buffers, as well as polluting the MAC address table. Basically, if you create a loop in the network, you'll know about it, either through monitoring (detecting a change in the STP topology [you do have monitoring, right?]), or in everything falling over dramatically. If you look at a switch that has a broadcast storm on it, you tend to find that all of the port activity lights are blinking all at the same time.
Was wird wahrscheinlich passieren, wenn man zwei Enden eines Netzwerkkabels an einen einzigen Switch/Router anschließt? Wird dies zu Problemen im Netzwerk führen oder einfach ignoriert werden?
Das hängt vom Router/Switch ab. Wenn es sich um einen "verwalteten" Router handelt - wie z. B. einen anständigen Netgear, Cisco oder HP Procurve - oder wenn STP (Spanning Tree Protocol) oder eine seiner Varianten aktiviert ist, dauert es ein paar Sekunden des absoluten Wahnsinns, dann erkennt der Switch, dass eine Schleife in der Netzwerktopologie vorliegt, und blockiert einen der Ports. (Ich habe die STP-Neukonvergenz nur deshalb als "absoluten Wahnsinn" bezeichnet, weil die Neukonvergenz bei Verwendung eines langsamen STP alten Typs je nach Netzwerkkomplexität 30 Sekunden oder länger dauern kann. Herstellerspezifische STP-Erweiterungen wie BackboneFast usw. verkürzen diese Zeitspanne, aber es kann immer noch zu einem kurzen Zeitraum mit einem leicht instabilen Netzwerk kommen. Rapid STP konvergiert aufgrund eines anderen Algorithmus viel schneller) Wenn es sich um "Unmanaged"-Geräte handelt - wie so ziemlich alle SOHO-Geräte und ein Großteil der kleinen 4-8-Port-Switches - ist die Hölle los, da Sie gerade eine Schleife im Netzwerk geschaffen haben und der gesamte Datenverkehr innerhalb der Schleife hin und her springt. Der Grund dafür ist, dass sich Switches auf einen Prozess des MAC-Adresslernens verlassen, um MAC-Adressen physischen Anschlüssen zuzuordnen. In einem Netzwerk ohne Schleife ist eine MAC-Adresse für den Switch nur an einem bestimmten physischen Port sichtbar. Wenn Sie eine Schleife haben, sieht der Switch mehrere Pfade zu derselben MAC-Adresse und möglicherweise mehrere MAC-Adressen an mehreren Ports, so dass der Datenverkehr nicht effizient geschaltet wird, sondern überall dorthin gesendet wird, wo er die MACs sieht. Dies wird als "Broadcast Storm" bezeichnet. Dies kann schnell die gesamte CPU-Leistung eines Switches verbrauchen, die Sende- und Empfangspuffer füllen und die MAC-Adresstabelle verschmutzen. Grundsätzlich gilt: Wenn Sie eine Schleife im Netzwerk erzeugen, werden Sie davon erfahren, entweder durch Überwachung (Erkennung einer Änderung in der STP-Topologie [Sie haben doch eine Überwachung, oder?]) oder dadurch, dass alles dramatisch umkippt. Wenn Sie sich einen Switch ansehen, der von einem Broadcast Storm betroffen ist, werden Sie feststellen, dass alle Port-Aktivitätsanzeigen gleichzeitig blinken.
¿Qué puede ocurrir si se conectan dos extremos de un cable de red a un único conmutador/enrutador? ¿Creará esto problemas en la red, o simplemente se ignorará?
Depende del router/switch. Si es "gestionado" - como Netgear decente, Cisco o HP Procurve, o tiene STP (Spanning Tree Protocol) o una de sus variantes habilitadas, hay unos segundos de locura absoluta, entonces el interruptor se da cuenta de que hay un bucle en la topología de la red, y bloquea uno de los puertos. (Sólo he descrito la re-convergencia STP como "locura absoluta" porque si estás usando el viejo estilo, lento, STP entonces la re-convergencia puede tardar 30s o más, dependiendo de la complejidad de la red. Las extensiones STP específicas de un proveedor, como BackboneFast, entre otras, reducirán este tiempo, pero es posible que la red siga siendo ligeramente inestable durante un breve periodo. El STP rápido es mucho más rápido en converger, debido a un algoritmo diferente.) Si es "no gestionado" - Como casi todos los equipos de grado SOHO, y una buena proporción de pequeños conmutadores de 4-8 puertos, entonces se desata el infierno, ya que acabas de crear un bucle en una red, y todo el tráfico tiende a rebotar dentro del bucle. La razón de que esto ocurra es que los conmutadores se basan en un proceso de aprendizaje de direcciones MAC para asignar direcciones MAC a puertos físicos. En una red sin bucles, una dirección MAC sólo será visible para el switch en un puerto físico determinado. Si tienes un bucle, entonces el switch verá múltiples caminos a la misma dirección MAC, y posiblemente múltiples direcciones MAC en múltiples puertos, por lo que en lugar de que el tráfico sea conmutado eficientemente, será difundido a donde sea que vea las MACs. Esto se conoce como "tormenta de difusión". Esto puede consumir rápidamente toda la potencia de la CPU de un switch, llenar los buffers de transmisión y recepción, así como contaminar la tabla de direcciones MAC. Básicamente, si creas un bucle en la red, lo sabrás, ya sea a través de la monitorización (detectando un cambio en la topología STP [tienes monitorización, ¿verdad?]), o en que todo se caiga dramáticamente. Si miras un switch que tiene una tormenta de broadcast, verás que todas las luces de actividad de los puertos parpadean al mismo tiempo.
Que se passera-t-il si vous branchez les deux extrémités d'un câble réseau sur un seul commutateur/routeur ? Cela créera-t-il des problèmes sur le réseau ou sera-t-il simplement ignoré ?
Cela dépend du routeur/commutateur. S'il est "géré" - comme un Netgear, un Cisco ou un HP Procurve décent, ou si le STP (Spanning Tree Protocol) ou l'une de ses variantes est activé, il y a quelques secondes de folie absolue, puis le commutateur se rend compte qu'il y a une boucle dans la topologie du réseau et bloque l'un des ports. (Je n'ai qualifié la reconversion STP que de "folie absolue", car si vous utilisez un STP lent de type ancien, la reconversion peut prendre 30 secondes ou plus, en fonction de la complexité du réseau. Les extensions STP spécifiques aux fournisseurs, telles que BackboneFast, réduisent ce délai, mais il se peut que le réseau reste légèrement instable pendant une courte période. Le STP rapide converge beaucoup plus rapidement, grâce à un algorithme différent.) S'il s'agit d'un réseau "non géré" - Comme pratiquement tous les équipements de type SOHO et une bonne partie des petits commutateurs à 4-8 ports, alors tout s'écroule, car vous venez de créer une boucle dans un réseau, et tout le trafic a tendance à rebondir à l'intérieur de la boucle. La raison pour laquelle cela se produit est que les commutateurs s'appuient sur un processus d'apprentissage de l'adresse MAC pour faire correspondre les adresses MAC aux ports physiques. Dans un réseau sans boucle, une adresse MAC ne sera visible par le commutateur que sur un port physique donné. Si vous avez une boucle, le commutateur verra plusieurs chemins vers la même adresse MAC, et peut-être plusieurs adresses MAC sur plusieurs ports. C'est ce qu'on appelle une "tempête de diffusion". Ce phénomène peut rapidement utiliser toute la puissance du processeur d'un commutateur, remplir les tampons d'émission et de réception et polluer la table d'adresses MAC. En fait, si vous créez une boucle dans le réseau, vous le saurez, soit par la surveillance (en détectant un changement dans la topologie STP [vous avez une surveillance, n'est-ce pas ?]), soit par la chute spectaculaire de tout le réseau. Si vous observez un commutateur en proie à une tempête de diffusion, vous constaterez que tous les voyants d'activité des ports clignotent en même temps.
Cosa può succedere quando si collegano due estremità di un cavo di rete a un singolo switch/router? Questo creerà problemi alla rete o verrà semplicemente ignorato?
Dipende dal router/switch. Se è "gestito", come un Netgear, un Cisco o un HP Procurve decenti, o se ha attivato il protocollo STP (Spanning Tree Protocol) o una delle sue varianti, ci sono alcuni secondi di follia assoluta, poi lo switch si rende conto che c'è un loop nella topologia della rete e blocca una delle porte. (Ho descritto la riconversione STP come una "follia assoluta" solo perché se si utilizza un STP vecchio stile, lento, la riconversione può richiedere 30 o più secondi, a seconda della complessità della rete. Le estensioni STP specifiche del fornitore, come BackboneFast e così via, riducono questo tempo, ma si potrebbe comunque avere un breve periodo di rete leggermente instabile. Rapid STP converge molto più rapidamente, grazie a un algoritmo diverso). Se è "non gestito" - Come praticamente tutti i dispositivi di tipo SOHO e una discreta percentuale di piccoli switch a 4-8 porte, allora si scatena l'inferno, poiché si è appena creato un loop nella rete e tutto il traffico tende a rimbalzare all'interno del loop. Questo accade perché gli switch si affidano a un processo di apprendimento degli indirizzi MAC per mappare gli indirizzi MAC sulle porte fisiche. In una rete senza loop, un indirizzo MAC sarà visibile allo switch solo su una determinata porta fisica. Se c'è un loop, lo switch vedrà più percorsi per lo stesso indirizzo MAC e possibilmente più indirizzi MAC su più porte, per cui il traffico, invece di essere smistato in modo efficiente, verrà trasmesso a tutti i punti in cui vede i MAC. Questo fenomeno è noto come "Broadcast Storm". Questo può consumare rapidamente tutta la potenza della CPU di uno switch, riempire i buffer di trasmissione e ricezione e inquinare la tabella degli indirizzi MAC. In pratica, se si crea un loop nella rete, lo si saprà o attraverso il monitoraggio (rilevando un cambiamento nella topologia STP [avete il monitoraggio, vero?]), o perché tutto cade in modo drammatico. Se si osserva uno switch con una tempesta di broadcast, si nota che tutte le spie di attività delle porte lampeggiano contemporaneamente.
137
What command do I use to find the size of all the files (recursively) in a Linux or Mac OS X directory?
The BSD version of ```du``` used in OS X reports size with 512-byte blocks -- the sizes are essentially rounded up to the next 512-byte value. This tells you the space on disk, which is larger than the amount of data. If you have a lot of small files, the difference can be large. Here's an example. This is the value with regular ```du```. It's in 512-byte blocks: ```$ du -s 248 . ``` The ```-h``` flag results in a more readable number, in kilobytes. As expected, it's half the number of 512-byte blocks: ```$ du -hs 124K . ``` Finally, you can use ```find``` and ```awk``` to give you the sum of actual bytes in the files. This is kind of slow, but it works: ```$ find . -type f -exec ls -l {} \; | awk '{sum += $5} END {print sum}' 60527 ``` This value matches exactly the number reported by Finder's Get Info window. (There are no weird forks or xattrs in this set of files.) It's significantly smaller than the value reported by ```du```. Here's how it works: it gets a list of all the files, and passes them to ```ls -l```; then ```awk``` is used to count up the bytes. The ```-type f``` flag is there so that only files (and not directories) get sent to ```ls```. Without that flag, it'll also send directory names to ```ls```, and each file will be listed twice : once as an individual file, and once as an item in the directory. The GNU version of ```du``` can give values in actual bytes instead of blocks. It's unfortunate that the BSD version of ```du``` is not as flexible.
Mit welchem Befehl kann ich die Größe aller Dateien (rekursiv) in einem Linux- oder Mac OS X-Verzeichnis ermitteln?
Die BSD-Version von ```du``, die in OS X verwendet wird, gibt die Größe mit 512-Byte-Blöcken an -- die Größen werden grundsätzlich auf den nächsten 512-Byte-Wert aufgerundet. Das sagt Ihnen den Platz auf der Festplatte, der größer ist als die Datenmenge. Wenn Sie viele kleine Dateien haben, kann der Unterschied sehr groß sein. Hier ist ein Beispiel. Dies ist der Wert mit regulärem ```du```. Er ist in 512-Byte-Blöcken: ```$ du -s 248 . ``` Das ````-h``-Flag ergibt eine besser lesbare Zahl in Kilobytes. Wie erwartet ist es die halbe Anzahl von 512-Byte-Blöcken: ```$ du -hs 124K . ``` Schließlich können Sie ```find`` und ```awk`` benutzen, um die Summe der tatsächlichen Bytes in den Dateien zu erhalten. Dies ist etwas langsam, aber es funktioniert: ```$ find . -type f -exec ls -l {} \; | awk '{sum += $5} END {print sum}' 60527 ``` Dieser Wert stimmt genau mit der Zahl überein, die vom Finder-Fenster Get Info gemeldet wird. (Es gibt keine seltsamen Gabelungen oder xattrs in dieser Gruppe von Dateien.) Er ist deutlich kleiner als der Wert, der von ```du``` gemeldet wird. Es funktioniert folgendermaßen: Es holt sich eine Liste aller Dateien und übergibt sie an ```ls -l```; dann wird ```awk``` benutzt, um die Bytes zu zählen. Das ```-type f``` Flag ist da, damit nur Dateien (und nicht Verzeichnisse) an ```ls``` geschickt werden. Ohne dieses Flag werden auch Verzeichnisnamen an ```ls``` gesendet, und jede Datei wird zweimal aufgelistet: einmal als einzelne Datei und einmal als ein Element im Verzeichnis. Die GNU-Version von ```du`` kann Werte in tatsächlichen Bytes statt in Blöcken angeben. Es ist bedauerlich, daß die BSD-Version von ```du``` nicht so flexibel ist.
¿Qué comando debo utilizar para averiguar el tamaño de todos los archivos (de forma recursiva) de un directorio de Linux o Mac OS X?
La versión BSD de ```du`` utilizada en OS X informa del tamaño con bloques de 512 bytes -- los tamaños se redondean esencialmente al siguiente valor de 512 bytes. Esto le indica el espacio en disco, que es mayor que la cantidad de datos. Si tienes muchos archivos pequeños, la diferencia puede ser grande. He aquí un ejemplo. Este es el valor con ``du`` normal. Está en bloques de 512 bytes: ```$ du -s 248 . ``` El indicador ```-h`` da como resultado un número más legible, en kilobytes. Como era de esperar, es la mitad del número de bloques de 512 bytes: ```$ du -hs 124K . ``` Finalmente, puedes usar ```find`` y ```awk`` para obtener la suma de bytes reales en los ficheros. Esto es un poco lento, pero funciona: ```$ find . -type f -exec ls -l {} | awk '{suma += $5} END {imprime suma}' 60527 ``` Este valor coincide exactamente con el número reportado por la ventana Get Info de Finder. (No hay bifurcaciones extrañas o xattrs en este conjunto de archivos.) Es significativamente menor que el valor reportado por ```du```. Así es como funciona: obtiene una lista de todos los ficheros, y los pasa a ``ls -l``; entonces se usa ``awk`` para contar los bytes. El indicador ```-type f`` está ahí para que sólo se envíen ficheros (y no directorios) a ```ls``. Sin esta opción, también se enviarán los nombres de los directorios a ```ls``, y cada fichero se listará dos veces: una como fichero individual, y otra como elemento del directorio. La versión GNU de ```du`` puede dar valores en bytes reales en lugar de bloques. Es una pena que la versión BSD de ```du`` no sea tan flexible.
Quelle commande dois-je utiliser pour connaître la taille de tous les fichiers (de manière récursive) dans un répertoire Linux ou Mac OS X ?
La version BSD de ``du``` utilisée dans OS X indique la taille par blocs de 512 octets -- les tailles sont essentiellement arrondies à la valeur supérieure de 512 octets. Cela vous indique l'espace disponible sur le disque, qui est plus grand que la quantité de données. Si vous avez beaucoup de petits fichiers, la différence peut être importante. Voici un exemple. Il s'agit de la valeur avec le ``du`` régulier. Il s'agit de blocs de 512 octets : ``$ du -s 248 . ``` Le drapeau ``-h`` résulte en un nombre plus lisible, en kilo-octets. Comme prévu, c'est la moitié du nombre de blocs de 512 octets : ``$ du -hs 124K . ``` Enfin, vous pouvez utiliser ``find`` et ``awk`` pour obtenir la somme des octets contenus dans les fichiers. C'est un peu lent, mais ça marche : ```$ find . -type f -exec ls -l {} \N ; | awk '{sum += $5} END {print sum}' 60527 ``` Cette valeur correspond exactement au nombre rapporté par la fenêtre Get Info de Finder. (Il n'y a pas de fourches ou de xattrs bizarres dans ce jeu de fichiers.) Elle est significativement plus petite que la valeur rapportée par ``du``. Voici comment il fonctionne : il obtient une liste de tous les fichiers, et les passe à ``ls -l`` ; ensuite ``awk`` est utilisé pour compter les octets. Le drapeau ``type f`` est là pour que seuls les fichiers (et non les répertoires) soient envoyés à ``ls``. Sans ce drapeau, les noms de répertoires seront également envoyés à ``ls``, et chaque fichier sera listé deux fois : une fois en tant que fichier individuel, et une fois en tant qu'élément du répertoire. La version GNU de ``du`` peut donner des valeurs en octets réels au lieu de blocs. Il est dommage que la version BSD de ``du``` ne soit pas aussi flexible.
Quale comando si usa per trovare la dimensione di tutti i file (ricorsivamente) in una directory di Linux o Mac OS X?
La versione BSD di ```du``` utilizzata in OS X riporta le dimensioni con blocchi da 512 byte; le dimensioni sono essenzialmente arrotondate al valore successivo di 512 byte. Questo indica lo spazio su disco, che è maggiore della quantità di dati. Se si hanno molti file piccoli, la differenza può essere notevole. Ecco un esempio. Questo è il valore con ```du``` regolare. È in blocchi da 512 byte: ```$ du -s 248 . ``` Il flag ```-h`` risulta in un numero più leggibile, in kilobyte. Come previsto, è la metà del numero di blocchi da 512 byte: ```$ du -hs 124K . ``` Infine, si possono usare ```find`` e ```awk`` per ottenere la somma dei byte effettivi nei file. È un po' lento, ma funziona: ```$ find . -type f -exec ls -l {} \; | awk '{somma += $5} END {stampa somma}' 60527 ``` Questo valore corrisponde esattamente al numero riportato dalla finestra Get Info di Finder. (È significativamente più piccolo del valore riportato da ```du''. Ecco come funziona: ottiene un elenco di tutti i file e li passa a ```ls -l```; poi ```awk`` viene usato per contare i byte. Il flag ```-type f``` è presente in modo che solo i file (e non le directory) vengano inviati a ```ls```. Senza questo flag, invierà a ```ls``` anche i nomi delle directory, e ogni file sarà elencato due volte: una volta come singolo file e una volta come elemento della directory. La versione GNU di ```du``` può fornire valori in byte effettivi invece che in blocchi. È un peccato che la versione BSD di ```du``` non sia altrettanto flessibile.
138
I've been writing C and C++ code for almost twenty years, but there's one aspect of these languages that I've never really understood. I've obviously used regular casts i.e. ```MyClass *m = (MyClass *)ptr; ``` all over the place, but there seem to be two other types of casts, and I don't know the difference. What's the difference between the following lines of code? ```MyClass *m = (MyClass *)ptr; MyClass *m = static_cast(ptr); MyClass *m = dynamic_cast(ptr); ```
## static_cast `static_cast` is used for cases where you basically want to reverse an implicit conversion, with a few restrictions and additions. `static_cast` performs no runtime checks. This should be used if you know that you refer to an object of a specific type, and thus a check would be unnecessary. Here is an example: ``` void func(void *data) { // Conversion from MyClass* -> void* is implicit MyClass *c = static_cast<MyClass*>(data); ... } int main() { MyClass c; start_thread(&func, &c) // func(&c) will be called .join(); } ``` In this example, you know that you passed a `MyClass` object, and thus there isn't any need for a runtime check to ensure this. ## dynamic_cast `dynamic_cast` is useful when you don't know what the dynamic type of the object is. It returns a null pointer if the object referred to doesn't contain the type casted to as a base class (when you cast to a reference, a `bad_cast` exception is thrown in that case). ``` if (JumpStm *j = dynamic_cast<JumpStm*>(&stm)) { ... } else if (ExprStm *e = dynamic_cast<ExprStm*>(&stm)) { ... } ``` An "up-cast" (cast to the base class) is always valid with both `static_cast` and `dynamic_cast`, and also without any cast, as an "up-cast" is an implicit conversion (assuming the base class is accessible, i.e. it's a `public` inheritance). ## Regular Cast These casts are also called C-style cast. A C-style cast is basically identical to trying out a range of sequences of C++ casts, and taking the first C++ cast that works, without ever considering `dynamic_cast`. Needless to say, this is much more powerful as it combines all of `const_cast`, `static_cast` and `reinterpret_cast`, but it's also unsafe, because it does not use `dynamic_cast`. In addition, C-style casts not only allow you to do this, but they also allow you to safely cast to a private base-class, while the "equivalent" `static_cast` sequence would give you a compile-time error for that. Some people prefer C-style casts because of their brevity. I use them for numeric casts only, and use the appropriate C++ casts when user defined types are involved, as they provide stricter checking.
Ich schreibe seit fast zwanzig Jahren C- und C++-Code, aber es gibt einen Aspekt dieser Sprachen, den ich nie wirklich verstanden habe. Ich habe natürlich regelmäßige Casts verwendet, z.B. ```MyClass *m = (MyClass *)ptr; ``` überall verwendet, aber es scheint zwei andere Arten von Casts zu geben, und ich kenne den Unterschied nicht. Was ist der Unterschied zwischen den folgenden Codezeilen? ```MyClass *m = (MyClass *)ptr; MyClass *m = static_cast(ptr); MyClass *m = dynamic_cast(ptr); ```
## static_cast `static_cast` wird für Fälle verwendet, in denen man grundsätzlich eine implizite Konvertierung rückgängig machen will, mit einigen Einschränkungen und Ergänzungen. `static_cast` führt keine Laufzeitprüfungen durch. Dies sollte verwendet werden, wenn man weiß, dass man sich auf ein Objekt eines bestimmten Typs bezieht und somit eine Prüfung unnötig wäre. Hier ist ein Beispiel: ``` void func(void *Daten) { // Konvertierung von MyClass* -> void* ist implizit MyClass *c = static_cast<MyClass*>(data); ... } int main() { MyClass c; start_thread(&func, &c) // func(&c) wird aufgerufen .join(); } ``` In diesem Beispiel wissen Sie, dass Sie ein `MyClass`-Objekt übergeben haben, und daher ist keine Laufzeitprüfung erforderlich, um dies sicherzustellen. ## dynamic_cast `dynamic_cast` ist nützlich, wenn man den dynamischen Typ des Objekts nicht kennt. Es gibt einen Null-Zeiger zurück, wenn das Objekt, auf das verwiesen wird, den Typ, auf den gecastet wurde, nicht als Basisklasse enthält (wenn Sie auf eine Referenz casten, wird in diesem Fall eine "bad_cast"-Ausnahme geworfen). ``` if (JumpStm *j = dynamic_cast<JumpStm*>(&stm)) { ... } else if (ExprStm *e = dynamic_cast<ExprStm*>(&stm)) { ... } ``` Ein "up-cast" (Cast zur Basisklasse) ist immer gültig, sowohl mit `static_cast` als auch mit `dynamic_cast`, und auch ohne Cast, da ein "up-cast" eine implizite Konvertierung ist (vorausgesetzt, die Basisklasse ist zugänglich, d.h. es handelt sich um eine `public` Vererbung). ## Regulärer Cast Diese Casts werden auch als C-style cast bezeichnet. Ein Cast im C-Stil ist im Grunde genommen identisch mit dem Ausprobieren einer Reihe von Sequenzen von C++-Casts und dem ersten C++-Cast, der funktioniert, ohne jemals `dynamic_cast` zu berücksichtigen. Unnötig zu sagen, dass dies viel mächtiger ist, da es alle Funktionen von `const_cast`, `static_cast` und `reinterpret_cast` kombiniert, aber es ist auch unsicher, weil es `dynamic_cast` nicht benutzt. Darüber hinaus erlauben C-style casts nicht nur, dies zu tun, sondern sie erlauben es auch, sicher auf eine private Basisklasse zu casten, während die "äquivalente" `static_cast`-Sequenz dafür einen Kompilierfehler liefern würde. Manche Leute bevorzugen Casts im C-Stil, weil sie so kurz sind. Ich verwende sie nur für numerische Casts und verwende die entsprechenden C++-Casts, wenn benutzerdefinierte Typen beteiligt sind, da sie eine strengere Überprüfung bieten.
Llevo casi veinte años escribiendo código en C y C++, pero hay un aspecto de estos lenguajes que nunca he entendido bien. Obviamente he usado castings regulares, por ejemplo ```MyClass *m = (MyClass *)ptr; ``` por todas partes, pero parece que hay otros dos tipos de cast, y no sé cuál es la diferencia. ¿Cuál es la diferencia entre las siguientes líneas de código? ```MyClass *m = (MyClass *)ptr; MyClass *m = static_cast(ptr); MyClass *m = dynamic_cast(ptr); ```
## static_cast `static_cast` se utiliza para casos en los que básicamente se quiere revertir una conversión implícita, con algunas restricciones y añadidos. `static_cast` no realiza comprobaciones en tiempo de ejecución. Debería usarse si sabes que te refieres a un objeto de un tipo específico, y por lo tanto una comprobación sería innecesaria. He aquí un ejemplo: ``` void func(void *data) { // La conversión de MyClass* -> void* es implícita MyClass *c = static_cast<MyClass*>(datos); ... } int main() { MyClass c; start_thread(&func, &c) // se llamará a func(&c) .join(); } ``` En este ejemplo, sabes que has pasado un objeto `MyClass`, y por tanto no hay necesidad de una comprobación en tiempo de ejecución para asegurarlo. ## dynamic_cast `dynamic_cast` es útil cuando no sabes cuál es el tipo dinámico del objeto. Devuelve un puntero nulo si el objeto al que se hace referencia no contiene el tipo al que se hace cast como clase base (cuando se hace cast a una referencia, se lanza una excepción `bad_cast` en ese caso). ``` if (JumpStm *j = dynamic_cast<JumpStm*>(&stm)) { ... } else if (ExprStm *e = dynamic_cast<ExprStm*>(&stm)) { ... } ``` Un "up-cast" (conversión a la clase base) es siempre válido tanto con `static_cast` como con `dynamic_cast`, y también sin ningún cast, ya que un "up-cast" es una conversión implícita (asumiendo que la clase base es accesible, es decir, es una herencia `public`). ## Cast Regular Estos cast también se llaman cast estilo C. Una conversión estilo C es básicamente idéntica a probar un rango de secuencias de conversiones C++, y tomar la primera conversión C++ que funcione, sin considerar nunca `dynamic_cast`. No hace falta decir que esto es mucho más potente, ya que combina todas las funciones de `const_cast`, `static_cast` y `reinterpret_cast`, pero también es inseguro, porque no utiliza `dynamic_cast`. Además, los cast al estilo C no sólo te permiten hacer esto, sino que también te permiten hacer un cast seguro a una clase base privada, mientras que la secuencia "equivalente" `static_cast` te daría un error de compilación. Algunas personas prefieren el estilo C por su brevedad. Yo los utilizo sólo para los moldes numéricos, y utilizo los moldes apropiados de C++ cuando se trata de tipos definidos por el usuario, ya que proporcionan una comprobación más estricta.
J'écris du code C et C++ depuis près de vingt ans, mais il y a un aspect de ces langages que je n'ai jamais vraiment compris. J'ai évidemment utilisé des casts réguliers, c'est-à-dire ```MyClass *m = (MyClass *)ptr ; ``` mais il semble y avoir deux autres types de casts, et je ne connais pas la différence. Quelle est la différence entre les lignes de code suivantes ? ```MyClass *m = (MyClass *)ptr ; MyClass *m = static_cast(ptr) ; MyClass *m = dynamic_cast(ptr) ; ```
## static_cast `static_cast` est utilisé dans les cas où vous voulez inverser une conversion implicite, avec quelques restrictions et ajouts. `static_cast` n'effectue aucune vérification à l'exécution. Elle devrait être utilisée si vous savez que vous faites référence à un objet d'un type spécifique, et qu'une vérification serait donc inutile. Voici un exemple : ``` void func(void *data) { // La conversion de MyClass* -> void* est implicite MyClass *c = static_cast<MyClass*>(data) ; ... } int main() { MyClass c ; start_thread(&func, &c) // func(&c) sera appelé .join() ; } ``` Dans cet exemple, vous savez que vous avez passé un objet `MyClass`, et il n'y a donc pas besoin d'une vérification à l'exécution pour s'en assurer. ## dynamic_cast `dynamic_cast` est utile lorsque vous ne connaissez pas le type dynamique de l'objet. Elle renvoie un pointeur nul si l'objet auquel on se réfère ne contient pas le type casté comme classe de base (lorsque vous castez vers une référence, une exception `bad_cast` est levée dans ce cas). ``` if (JumpStm *j = dynamic_cast<JumpStm*>(&stm)) { ... } else if (ExprStm *e = dynamic_cast<ExprStm*>(&stm)) { ... } ``` Un "up-cast" (cast vers la classe de base) est toujours valide à la fois avec `static_cast` et `dynamic_cast`, et aussi sans aucun cast, car un "up-cast" est une conversion implicite (en supposant que la classe de base soit accessible, c'est-à-dire qu'il s'agisse d'un héritage `public`). ## Cast régulier Ces castings sont aussi appelés castings de style C. Un cast de style C est fondamentalement identique à l'essai d'une série de séquences de cast C++, et à la prise du premier cast C++ qui fonctionne, sans jamais prendre en compte `dynamic_cast`. Inutile de dire que c'est beaucoup plus puissant car il combine tous les `const_cast`, `static_cast` et `reinterpret_cast`, mais c'est aussi peu sûr, parce qu'il n'utilise pas `dynamic_cast`. De plus, les castings de style C ne vous permettent pas seulement de faire cela, mais ils vous permettent aussi de cast vers une classe de base privée, alors que la séquence `static_cast` "équivalente" vous donnerait une erreur de compilation pour cela. Certaines personnes préfèrent les castings de style C à cause de leur brièveté. Je les utilise uniquement pour les casts numériques, et j'utilise les casts C++ appropriés lorsque des types définis par l'utilisateur sont impliqués, car ils fournissent une vérification plus stricte.
Scrivo codice in C e C++ da quasi vent'anni, ma c'è un aspetto di questi linguaggi che non ho mai capito bene. Ho ovviamente usato i cast regolari, ad esempio ```MyClass *m = (MyClass *)ptr; ``` ma sembrano esserci altri due tipi di cast e non so quale sia la differenza. Qual è la differenza tra le seguenti righe di codice? ```MyClass *m = (MyClass *)ptr; MyClass *m = static_cast(ptr); MyClass *m = dynamic_cast(ptr); ```
## static_cast `static_cast` è usato per i casi in cui si vuole invertire una conversione implicita, con alcune restrizioni e aggiunte. `static_cast` non esegue alcun controllo a runtime. Dovrebbe essere usato se si sa che si fa riferimento a un oggetto di un tipo specifico e quindi un controllo non sarebbe necessario. Ecco un esempio: ``` void func(void *data) { // La conversione da MyClass* -> void* è implicita MyClass *c = static_cast<MyClass*>(data); ... } int main() { MyClass c; start_thread(&func, &c) // func(&c) verrà richiamato .join(); } ``` In questo esempio, si sa che è stato passato un oggetto `MyClass` e quindi non c'è bisogno di un controllo a runtime per assicurarlo. ## dynamic_cast `dynamic_cast` è utile quando non si conosce il tipo dinamico dell'oggetto. Restituisce un puntatore nullo se l'oggetto a cui si fa riferimento non contiene il tipo lanciato come classe base (quando si esegue il cast su un riferimento, in questo caso viene lanciata un'eccezione `bad_cast`). ``` if (JumpStm *j = dynamic_cast<JumpStm*>(&stm)) { ... } else if (ExprStm *e = dynamic_cast<ExprStm*>(&stm)) { ... } ``` Un "up-cast" (cast verso la classe base) è sempre valido sia con `static_cast` che con `dynamic_cast`, e anche senza alcun cast, poiché un "up-cast" è una conversione implicita (supponendo che la classe base sia accessibile, cioè che sia un'eredità `pubblica`). ## Cast regolare Questi cast sono chiamati anche cast in stile C. Un cast in stile C è sostanzialmente identico a provare una serie di sequenze di cast in C++ e a prendere il primo cast in C++ che funziona, senza mai considerare `dynamic_cast`. Inutile dire che è molto più potente, perché combina tutte le funzioni di `const_cast`, `static_cast` e `reinterpret_cast`, ma è anche insicuro, perché non usa `dynamic_cast`. Inoltre, i cast in stile C non solo permettono di fare questo, ma permettono anche di fare un cast sicuro verso una classe base privata, mentre la sequenza "equivalente" `static_cast` darebbe un errore in fase di compilazione. Alcuni preferiscono i cast in stile C per la loro brevità. Io li uso solo per i cast numerici e uso i cast C ++ appropriati quando sono coinvolti tipi definiti dall'utente, perché forniscono un controllo più rigoroso.
139
Why don't toilets use saltwater?
The main answer is logistical. Building a network of pipes to convey water to houses is a major effort, and most places where that's been done found it extremely expensive. Providing a second set of pipes to bring salt water to houses would probably cost about the same. Except that cities go to considerable lengths to put their water reservoirs above the city as far as possible so they don't have to use as much energy for pumping. The few cities with seawater above them pay a lot to pump water out. A minor secondary problem is that sewage treatment plants are fairly heavily biological. They grow things in the sewage to break it down. But most of those things won't grow in salt water. It's already a challenge keeping toxic chemicals out of the sewage. For this to work it might be necessary to add a second set of sewer pipes to carry the water away, and develop new methods of treating that salty sewage (the treated sewage couldn't be spread on farmland, for example). It would be far simpler, cheaper and more reliable to simply buy everyone a composting toilet to replace each toilet they currently have. As a halfway measure, mandating more economical toilets would help, as would education campaigns like the ones encouraging people not to flush at all when they urinate. Even with a sensible cistern that has a 2 litre &quot;half flush&quot;, that's two litres wasted every time someone pees. Additionally, salt is not good for pipes. A lot of pipes, even today, are clay or concrete, and salt water is bad for both of these. It's not impossible to get around that, just expensive.
Warum wird für Toiletten kein Salzwasser verwendet?
Die Hauptantwort ist logistischer Natur. Der Bau eines Rohrnetzes, um Wasser zu den Häusern zu leiten, ist ein großer Aufwand, und die meisten Orte, an denen dies bereits geschehen ist, waren extrem teuer. Der Bau eines zweiten Rohrnetzes, um Salzwasser zu den Häusern zu leiten, würde wahrscheinlich ungefähr das Gleiche kosten. Abgesehen davon, dass die Städte erhebliche Anstrengungen unternehmen, um ihre Wasserreservoirs so weit wie möglich über der Stadt anzulegen, damit sie nicht so viel Energie für das Pumpen aufwenden müssen. Die wenigen Städte, die über Meerwasser verfügen, zahlen viel Geld für das Abpumpen des Wassers. Ein kleines Nebenproblem ist, dass die Kläranlagen ziemlich stark biologisch arbeiten. Sie züchten Dinge im Abwasser, um es abzubauen. Aber die meisten dieser Pflanzen wachsen nicht in Salzwasser. Es ist bereits eine Herausforderung, giftige Chemikalien aus dem Abwasser herauszuhalten. Damit das funktioniert, müsste man vielleicht eine zweite Reihe von Abwasserrohren einbauen, um das Wasser abzutransportieren, und neue Methoden zur Behandlung des salzigen Abwassers entwickeln (das behandelte Abwasser könnte zum Beispiel nicht auf Ackerland ausgebracht werden). Es wäre viel einfacher, billiger und zuverlässiger, einfach eine Komposttoilette für alle zu kaufen, um jede Toilette, die sie derzeit haben, zu ersetzen. Auf halbem Weg wäre es hilfreich, sparsamere Toiletten vorzuschreiben und Aufklärungskampagnen durchzuführen, die die Menschen dazu ermutigen, beim Urinieren überhaupt nicht zu spülen. Selbst bei einem vernünftigen Spülkasten mit einer 2-Liter-Halbspülung werden jedes Mal zwei Liter verschwendet, wenn jemand pinkelt. Außerdem ist Salz nicht gut für Rohre. Viele Rohre bestehen auch heute noch aus Ton oder Beton, und Salzwasser ist für beides schlecht. Es ist nicht unmöglich, das zu umgehen, nur teuer.
¿Por qué los sanitarios no utilizan agua salada?
La principal respuesta es logística. Construir una red de tuberías para llevar el agua a las casas es un gran esfuerzo, y en la mayoría de los lugares donde se ha hecho resulta extremadamente caro. Instalar una segunda red de tuberías para llevar el agua salada a las casas costaría probablemente más o menos lo mismo. Además, las ciudades se esfuerzan mucho por situar sus depósitos de agua lo más arriba posible para no tener que utilizar tanta energía en el bombeo. Las pocas ciudades que tienen agua de mar encima pagan mucho por bombearla. Un problema secundario menor es que las plantas de tratamiento de aguas residuales son bastante biológicas. Cultivan cosas en las aguas residuales para descomponerlas. Pero la mayoría de esas cosas no crecen en agua salada. Ya es un reto mantener los productos químicos tóxicos fuera de las aguas residuales. Para que esto funcione, sería necesario añadir un segundo conjunto de tuberías de alcantarillado para llevar el agua lejos, y desarrollar nuevos métodos de tratamiento de las aguas residuales saladas (las aguas residuales tratadas no podrían ser esparcidas en las tierras de cultivo, por ejemplo). Sería mucho más sencillo, barato y fiable simplemente comprar a todo el mundo un inodoro de compostaje para sustituir a cada inodoro que tienen actualmente. Como medida intermedia, obligar a usar inodoros más económicos ayudaría, al igual que campañas educativas como las que animan a la gente a no tirar de la cadena cuando orina. Incluso con una cisterna sensata que tenga una "media descarga" de 2 litros, son dos litros desperdiciados cada vez que alguien orina. Además, la sal no es buena para las tuberías. Muchas tuberías, incluso hoy en día, son de arcilla u hormigón, y el agua salada es mala para ambos materiales. No es imposible evitarlo, pero es caro.
Pourquoi les toilettes n'utilisent-elles pas de l'eau salée ?
La principale réponse est d'ordre logistique. La construction d'un réseau de canalisations pour acheminer l'eau jusqu'aux habitations représente un effort considérable, et la plupart des endroits où cela a été fait l'ont trouvé extrêmement coûteux. La mise en place d'un second réseau de canalisations pour acheminer l'eau salée jusqu'aux habitations coûterait probablement à peu près la même chose. Sauf que les villes se donnent beaucoup de mal pour placer leurs réservoirs d'eau au-dessus de la ville, le plus loin possible, afin de ne pas avoir à utiliser autant d'énergie pour le pompage. Les quelques villes qui ont de l'eau de mer au-dessus d'elles paient cher pour pomper l'eau. Un problème secondaire mineur est que les stations d'épuration des eaux usées sont assez fortement biologiques. Elles cultivent des éléments dans les eaux usées pour les décomposer. Mais la plupart de ces éléments ne poussent pas dans l'eau salée. Il est déjà difficile d'empêcher les produits chimiques toxiques de pénétrer dans les eaux usées. Pour que cela fonctionne, il faudrait peut-être ajouter un deuxième réseau de canalisations pour évacuer l'eau et mettre au point de nouvelles méthodes de traitement des eaux usées salées (les eaux usées traitées ne pourraient pas être épandues sur les terres agricoles, par exemple). Il serait beaucoup plus simple, moins coûteux et plus fiable d'acheter à chacun des toilettes à compostage pour remplacer toutes les toilettes actuelles. À mi-chemin, il serait utile d'imposer des toilettes plus économiques, tout comme des campagnes d'éducation telles que celles qui encouragent les gens à ne pas tirer la chasse d'eau lorsqu'ils urinent. Même avec une chasse d'eau raisonnable de 2 litres, cela fait deux litres gaspillés à chaque fois que quelqu'un fait pipi. En outre, le sel n'est pas bon pour les canalisations. Beaucoup de tuyaux, même aujourd'hui, sont en argile ou en béton, et l'eau salée est mauvaise pour ces deux matériaux. Il n'est pas impossible d'y remédier, mais cela coûte cher.
Perché i bagni non usano l'acqua salata?
La risposta principale è di tipo logistico. Costruire una rete di tubature per portare l'acqua alle case è uno sforzo notevole e la maggior parte dei luoghi in cui è stato fatto lo ha reso estremamente costoso. Fornire una seconda serie di tubature per portare l'acqua salata alle case avrebbe probabilmente lo stesso costo. Se non fosse che le città fanno di tutto per mettere i loro serbatoi d'acqua il più possibile al di sopra della città, in modo da non dover usare tanta energia per il pompaggio. Le poche città che hanno acqua di mare sopra di loro pagano molto per pompare l'acqua fuori. Un piccolo problema secondario è che gli impianti di trattamento delle acque reflue sono piuttosto biologici. Coltivano le sostanze nelle acque reflue per decomporle. Ma la maggior parte di queste cose non cresce in acqua salata. È già una sfida tenere le sostanze chimiche tossiche fuori dalle acque reflue. Per far funzionare questa soluzione potrebbe essere necessario aggiungere una seconda serie di tubi fognari per portare via l'acqua e sviluppare nuovi metodi di trattamento delle acque reflue salate (le acque reflue trattate non potrebbero essere sparse sui terreni agricoli, per esempio). Sarebbe molto più semplice, economico e affidabile comprare a tutti un gabinetto a compostaggio per sostituire tutti i gabinetti che hanno attualmente. Come misura intermedia, l'imposizione di gabinetti più economici sarebbe utile, così come campagne educative come quelle che incoraggiano le persone a non tirare lo sciacquone quando urinano. Anche con una cassetta ragionevole che ha un &quot;mezzo sciacquone&quot; di 2 litri, sono due litri sprecati ogni volta che si fa pipì. Inoltre, il sale non fa bene alle tubature. Molte tubature, ancora oggi, sono in argilla o in cemento e l'acqua salata è dannosa per entrambe. Non è impossibile aggirare questo problema, ma è solo costoso.
140
How do I modify fields inside the new PostgreSQL JSON datatype?
With Postgresql 9.5 it can be done by following- ```UPDATE test SET data = data - 'a' || '{"a":5}' WHERE data->>'b' = '2'; ``` OR ```UPDATE test SET data = jsonb_set(data, '{a}', '5'::jsonb); ``` Somebody asked how to update many fields in jsonb value at once. Suppose we create a table: ```CREATE TABLE testjsonb ( id SERIAL PRIMARY KEY, object JSONB ); ``` Then we INSERT a experimental row: ```INSERT INTO testjsonb VALUES (DEFAULT, '{"a":"one", "b":"two", "c":{"c1":"see1","c2":"see2","c3":"see3"}}'); ``` Then we UPDATE the row: ```UPDATE testjsonb SET object = object - 'b' || '{"a":1,"d":4}'; ``` Which does the following: * Updates the a field * Removes the b field * Add the d field Selecting the data: ```SELECT jsonb_pretty(object) FROM testjsonb; ``` Will result in: ``` jsonb_pretty ------------------------- { + "a": 1, + "c": { + "c1": "see1", + "c2": "see2", + "c3": "see3", + }, + "d": 4 + } (1 row) ``` To update field inside, Dont use the concat operator ```||```. Use jsonb_set instead. Which is not simple: ```UPDATE testjsonb SET object = jsonb_set(jsonb_set(object, '{c,c1}','"seeme"'),'{c,c2}','"seehim"'); ``` Using the concat operator for {c,c1} for example: ```UPDATE testjsonb SET object = object || '{"c":{"c1":"seedoctor"}}'; ``` Will remove {c,c2} and {c,c3}. For more power, seek power at postgresql json functions documentation. One might be interested in the ```#-``` operator, ```jsonb_set``` function and also ```jsonb_insert``` function.
Wie ändere ich Felder innerhalb des neuen PostgreSQL JSON Datentyps?
Mit Postgresql 9.5 kann dies wie folgt durchgeführt werden ```UPDATE test SET daten = daten - 'a' || '{"a":5}' WHERE daten->>'b' = '2'; ``` OR ```UPDATE test SET data = jsonb_set(data, '{a}', '5'::jsonb); ``` Jemand fragte, wie man viele Felder in einem jsonb-Wert auf einmal aktualisieren kann. Nehmen wir an, wir erstellen eine Tabelle: ```CREATE TABLE testjsonb ( id SERIAL PRIMARY KEY, object JSONB ); ``` Dann fügen wir eine experimentelle Zeile ein: ```INSERT INTO testjsonb VALUES (DEFAULT, '{"a": "eins", "b": "zwei", "c":{"c1": "siehe1", "c2": "siehe2", "c3": "siehe3"}}'); ``` Dann wird die Zeile UPDATE: ```UPDATE testjsonb SET object = object - 'b' || '{"a":1, "d":4}'; ``` Dies bewirkt Folgendes: * Aktualisiert das Feld a * Entfernt das Feld b * Hinzufügen des Feldes d Auswählen der Daten: ```SELECT jsonb_pretty(object) FROM testjsonb; ``` Das Ergebnis ist: ```` jsonb_pretty ------------------------- { + "a": 1, + "c": { + "c1": "see1", + "c2": "siehe2", + "c3": "siehe3", + }, + "d": 4 + } (1 Zeile) ``` Um ein Feld innerhalb zu aktualisieren, verwenden Sie nicht den Konkat-Operator ```||```. Verwenden Sie stattdessen jsonb_set. Was nicht einfach ist: ```UPDATE testjsonb SET object = jsonb_set(jsonb_set(object, '{c,c1}','"seeme"'),'{c,c2}','"seehim"'); ``` Verwenden Sie den Konkat-Operator zum Beispiel für {c,c1}: ```UPDATE testjsonb SET object = object || '{"c":{"c1": "seedoctor"}}'; ``` Wird {c,c2} und {c,c3} entfernen. Für mehr Macht, suchen Sie in der postgresql json functions Dokumentation. Man könnte an dem ```#-`` Operator, der ```jsonb_set`` Funktion und auch der ```jsonb_insert`` Funktion interessiert sein.
¿Cómo modifico los campos dentro del nuevo tipo de datos PostgreSQL JSON?
Con Postgresql 9.5 se puede hacer de la siguiente manera- ```UPDATE test SET data = data - 'a' || '{"a":5}'' WHERE data->>'b' = '2'; ``` O ```UPDATE test SET datos = jsonb_set(datos, '{a}', '5'::jsonb); ``` Alguien preguntó cómo actualizar muchos campos en valor jsonb a la vez. Supongamos que creamos una tabla: ```CREATE TABLE testjsonb ( id SERIAL PRIMARY KEY, object JSONB ); ``` Luego INSERTAMOS una fila experimental: ``INSERT INTO testjsonb VALUES (DEFAULT, '{"a": "uno", "b": "dos", "c":{"c1": "ver1", "c2": "ver2", "c3": "ver3"}}'); ``` A continuación, ACTUALIZAMOS la fila: ```UPDATE testjsonb SET object = object - 'b' || '{"a":1, "d":4}'; ``` Que hace lo siguiente: * Actualiza el campo a * Elimina el campo b * Añade el campo d Seleccionar los datos: ``SELECT jsonb_pretty(object) FROM testjsonb; ``` Dará como resultado: ``` jsonb_pretty ------------------------- { + "a": 1, + "c": { + "c1": "see1", + "c2": "see2", + "c3": "see3", + }, + "d": 4 + } (1 fila) ``` Para actualizar el campo dentro, No utilice el operador concat ```||```. Utilice jsonb_set en su lugar. Que no es simple: ```UPDATE testjsonb SET objeto = jsonb_set(jsonb_set(object, '{c,c1}','"seeme"'),'{c,c2}','"seehim"'); ``` Usando el operador concat para {c,c1} por ejemplo: ```UPDATE testjsonb SET object = object || '{"c":{"c1": "seedoctor"}}'; ``` Eliminará {c,c2} y {c,c3}. Para más potencia, busca potencia en la documentación de las funciones json de postgresql. Uno podría estar interesado en el ```#-`` operador, ```jsonb_set`` función y también ```jsonb_insert`` función.
Comment modifier les champs dans le nouveau type de données JSON de PostgreSQL ?
Avec Postgresql 9.5, cela peut se faire de la manière suivante ```MISE A JOUR du test SET data = data - 'a' || '{"a":5}' WHERE data->>'b' = '2' ; ``` OU ``UPDATE test SET data = jsonb_set(data, '{a}', '5'::jsonb) ; ``` Quelqu'un m'a demandé comment mettre à jour plusieurs champs dans une valeur jsonb à la fois. Supposons que nous créions une table : ```CREATE TABLE testjsonb ( id SERIAL PRIMARY KEY, object JSONB ) ; ``` Puis nous INSERONS une ligne expérimentale : ``INSERT INTO testjsonb VALUES (DEFAULT, '{"a" : "one", "b" : "two", "c":{"c1" : "see1", "c2" : "see2", "c3" : "see3"}}') ; ``` Ensuite, nous mettons à jour la ligne : ```UPDATE testjsonb SET object = object - 'b' || '{"a":1, "d":4}' ; ``` Ce qui donne les résultats suivants : * met à jour le champ a * Supprime le champ b * Ajoute le champ d Sélection des données : ```SELECT jsonb_pretty(object) FROM testjsonb ; ``` Le résultat est le suivant : ``` jsonb_pretty ------------------------- { + "a" : 1, + "c" : { + "c1" : "see1", + "c2" : "see2", + "c3" : "see3", + }, + "d" : 4 + } (1 ligne) ``` Pour mettre à jour un champ à l'intérieur, n'utilisez pas l'opérateur concat ```||```. Utilisez plutôt jsonb_set. Ce qui n'est pas simple : ```UPDATE testjsonb SET object = jsonb_set(jsonb_set(object, '{c,c1}',''seeme''), '{c,c2}',''seehim'') ; ``` En utilisant l'opérateur concat pour {c,c1} par exemple : ```UPDATE testjsonb SET object = object || '{"c":{"c1" : "seedoctor"}}' ; ``` Supprime {c,c2} et {c,c3}. Pour plus de puissance, consultez la documentation des fonctions json de postgresql. On peut être intéressé par l'opérateur ``#-``, la fonction ``jsonb_set`` et aussi la fonction ``jsonb_insert``.
Come si modificano i campi nel nuovo tipo di dati JSON di PostgreSQL?
Con Postgresql 9.5 si può fare come segue. ```Oggi il test SET data = data - 'a' || '{"a":5}' DOVE dati->>'b' = '2'; ``` OPPURE ```UPDATE test SET dati = jsonb_set(dati, '{a}', '5'::jsonb); ``` Qualcuno ha chiesto come aggiornare molti campi in un valore jsonb contemporaneamente. Supponiamo di creare una tabella: ```CREATE TABLE testjsonb ( id SERIAL PRIMARY KEY, object JSONB ); ``` Poi inseriamo una riga sperimentale: ```INSERISCI INTO testjsonb VALUES (DEFAULT, '{"a": "uno", "b": "due", "c":{"c1": "see1", "c2": "see2", "c3": "see3"}}'); ``` Quindi aggiorniamo la riga: ```UPDATE testjsonb SET object = object - 'b' || '{"a":1, "d":4}'; ``` Il che fa quanto segue: * aggiorna il campo a * Rimuove il campo b * Aggiunge il campo d Selezione dei dati: ```SELECT jsonb_pretty(object) FROM testjsonb; ``` Il risultato sarà: ``` jsonb_pretty ------------------------- { + "a": 1, + "c": { + "c1": "see1", + "c2": "see2", + "c3": "see3", + }, + "d": 4 + } (1 riga) ``` Per aggiornare un campo all'interno, non usare l'operatore concat ```||```. Usare invece jsonb_set. Che non è semplice: ```UPDATE testjsonb SET object = jsonb_set(jsonb_set(oggetto, '{c,c1}','"seeme"'),'{c,c2}','"seehim"'); ``` Utilizzando l'operatore concat per {c,c1}, ad esempio: ```UPDATE testjsonb SET object = object || '{"c":{"c1": "seedoctor"}}'; ``` Rimuoverà {c,c2} e {c,c3}. Per maggiori informazioni, consultare la documentazione sulle funzioni json di postgresql. Si potrebbe essere interessati all'operatore ```#-``, alla funzione ``jsonb_set`` e anche alla funzione ``jsonb_insert``.
141
I find that the survivability and general performance of my party increases massively from levels 1 to 2. At times, level 1 feels like a completely different game from level 2. However, I can't fathom how or why. I think that the availability of healing has something to do with it. From a mechanical perspective, is there any deep reason why level 1 and level 2 seem so radically different? Furthermore, why I do find no similar differences between later levels, such as 6 and 7?
Welcome to Rusty Dagger Shanktown! What you have noticed is very widely commented upon—1st level is often called “rusty dagger shanktown.” It’s hyper-lethal, rather than the kind of heroic fantasy Dungeons & Dragons pitches itself as. It is very, very difficult for 1st-level PCs to actually really adventure at all. Many, many groups avoid 1st for this reason (many skip 2nd too, even though it is already dramatically different). Personally, I’ll include 1st level often, but the PCs basically always level-up to 2nd almost entirely on roleplaying XP. Note that this isn’t unique to 3.5e; it goes back to the earliest days of D&D. Pathfinder, of course, inherited it from 3.5e (I don’t know about PF 2e). It’s also very much still true in 5e—after 4e actually managed to avoid it, which may mean that this is considered a “feature” by some, enough that Wizards of the Coast felt the need to restore it as part of 5e’s general “return to form” after the divisive fourth edition. Anyway, the primary causes of rusty dagger shanktown: Hit points Almost anyone can one-shot almost any 1st-level character. It’s very, very easy to have 6 hp in a world where a decent, but basic, weapon’s base damage averages 7. Even smaller weapons can easily deal that much damage, either through luck or skill. We expect 1st-level characters to often go down in one hit. A 2nd-level character can have nearly twice as much hp. Actually, could easily be twice as much, if they multiclass from a small-HD class to a large-HD class. That drastically changes the game, because suddenly you can feel reasonably confident that you aren’t going to just suddenly die before anyone can do anything. Healing actually becomes relevant, where at 1st it’s often too little, too late. Notably, this only has this effect because damage doesn’t grow at the same rate. The base damage of weapons is fixed, and ability scores start at double digits but grow very slowly from there. That’s the biggest chunk of early damage for most characters. Even beyond that, a lot of damage boosts—inspire courage, rage, sneak attack—come at 1st anyway. And monsters tend to kind of mirror these trends. So what ends up happening is that a 1st-level character can’t really take a chance in order to get something accomplished. A 2nd-level character can feel reasonably comfortable taking a chance at least once. That dramatically affects the style of play. At 2nd-level D&D literally feels like a different game. Really, it is a different game. Wealth Characters start with less than 200 gp worth of gear. That’s not enough for a masterwork weapon, not enough even for non-masterwork medium or heavy armors, definitely not enough for any kind of magic item beyond maybe an extremely basic consumable. No 1st-level character has even their complete basic kit yet. The expected wealth of a 2nd-level character is 900 gp. That can afford masterwork armor of anything short of full-plate, and for many armors leave enough left over for a masterwork weapon. Most importantly, that is enough money for a party of 4 to trivially afford a wand of cure light wounds. A wand of cure light wounds is a game-changer. It means you can easily start every fight at full hp. And with 2nd-level hp, that means you can actually take a few risks. 2nd-level features This varies considerably from one class to the next, but several classes get major class features at 2nd level. The paladin’s 2nd-level feature, divine grace, might be the single greatest class feature in the game (assuming we don’t count “spells” and the like as a singular feature). Rangers don’t get their combat style until 2nd. Bards get 1st-level spells at 2nd (though inspire courage from 1st level is probably more important). Outside of core, meldshapers don’t get any chakra binds until 2nd, which can leave them with zero offense at 1st. Swordsages don’t get Wis-to-AC until 2nd. But plenty of characters are fine from 1st, so this can vary a lot.
Ich finde, dass sich die Überlebensfähigkeit und die allgemeine Leistung meiner Gruppe von Stufe 1 auf 2 massiv verbessert. Manchmal fühlt sich Stufe 1 wie ein völlig anderes Spiel an als Stufe 2. Ich kann allerdings nicht ergründen, wie oder warum. Ich denke, dass die Verfügbarkeit von Heilung etwas damit zu tun hat. Gibt es aus mechanischer Sicht einen tieferen Grund, warum sich Stufe 1 und Stufe 2 so radikal unterscheiden? Und warum finde ich keine ähnlichen Unterschiede zwischen späteren Stufen, wie 6 und 7?
Willkommen in Rusty Dagger Shanktown! Was du bemerkt hast, wird sehr häufig kommentiert - die erste Stufe wird oft "Rusty Dagger Shanktown" genannt. Es ist hyper-tödlich, eher als die Art von heroischer Fantasy, als die sich Dungeons & Dragons selbst anpreist. Es ist sehr, sehr schwierig für PCs der 1. Stufe, überhaupt ein Abenteuer zu bestehen. Viele, viele Gruppen meiden die 1. Stufe aus diesem Grund (viele überspringen auch die 2. Stufe, obwohl sie sich bereits drastisch unterscheidet). Ich persönlich werde die 1. Stufe oft einbeziehen, aber die PCs steigen im Grunde immer auf die 2. Beachten Sie, dass dies nicht nur in 3.5e der Fall ist, sondern schon in den frühesten Tagen von D&D. Pathfinder hat es natürlich von 3.5e geerbt (ich weiß nichts über PF 2e). Es ist auch in 5e noch sehr präsent, nachdem 4e es tatsächlich geschafft hat, es zu vermeiden, was bedeuten könnte, dass es von einigen als "Feature" angesehen wird, so dass Wizards of the Coast das Bedürfnis hatte, es als Teil der allgemeinen "Rückkehr zur Form" von 5e nach der spalterischen vierten Edition wiederherzustellen. Wie auch immer, die Hauptursachen für rostige Dolche in Shanktown: Trefferpunkte Fast jeder kann fast jeden Charakter der ersten Stufe mit einem Schuss töten. Es ist sehr, sehr einfach, 6 PS in einer Welt zu haben, in der der Grundschaden einer anständigen, aber einfachen Waffe im Durchschnitt 7 beträgt. Selbst kleinere Waffen können leicht so viel Schaden verursachen, entweder durch Glück oder durch Geschick. Wir erwarten, dass Charaktere der 1. Stufe oft mit einem Treffer zu Boden gehen. Ein Charakter der 2. Stufe kann fast doppelt so viel Lebensenergie haben. Eigentlich könnte er sogar doppelt so viel haben, wenn er von einer Klasse mit kleinem HD zu einer Klasse mit großem HD wechselt. Das verändert das Spiel drastisch, denn plötzlich kann man sich einigermaßen sicher sein, dass man nicht plötzlich stirbt, bevor jemand etwas tun kann. Heilung wird tatsächlich relevant, wo sie bei 1. oft zu wenig und zu spät ist. Vor allem hat dies nur diesen Effekt, weil der Schaden nicht mit der gleichen Rate ansteigt. Der Grundschaden von Waffen ist fix, und Fähigkeitswertungen beginnen im zweistelligen Bereich, wachsen aber von da an sehr langsam. Das ist bei den meisten Charakteren der größte Teil des frühen Schadens. Selbst darüber hinaus gibt es viele Schadenserhöhungen - Mut anspornen, Wut, Schleichangriff - ohnehin erst ab dem 1. Und Monster neigen dazu, diese Trends irgendwie zu spiegeln. Das Ergebnis ist also, dass ein Charakter der 1. Stufe nicht wirklich ein Risiko eingehen kann, um etwas zu erreichen. Ein Charakter der 2. Stufe kann sich einigermaßen sicher fühlen, zumindest einmal ein Risiko einzugehen. Das wirkt sich dramatisch auf den Spielstil aus. Auf der 2. Stufe fühlt sich D&D buchstäblich wie ein anderes Spiel an. Es ist wirklich ein anderes Spiel. Reichtum Charaktere beginnen mit Ausrüstung im Wert von weniger als 200 Goldstücken. Das reicht nicht für eine Meisterwaffe, nicht einmal für eine mittelschwere oder schwere Rüstung, die keine Meisterarbeit ist, und schon gar nicht für irgendeinen magischen Gegenstand, der über ein extrem einfaches Verbrauchsmaterial hinausgeht. Kein Charakter der 1. Stufe hat bisher auch nur seine komplette Grundausstattung. Der erwartete Reichtum eines Charakters der 2. Stufe beträgt 900 Gp. Das reicht aus, um sich eine Meisterwerk-Rüstung zu leisten, und für viele Rüstungen bleibt noch genug übrig für eine Meisterwerk-Waffe. Vor allem aber ist das genug Geld für eine 4-köpfige Gruppe, um sich einen Zauberstab zur Heilung leichter Wunden leisten zu können. Ein Zauberstab, der leichte Wunden heilt, verändert das Spiel. Er bedeutet, dass man jeden Kampf mit vollen Lebenspunkten beginnen kann. Und mit den PS der 2. Stufe kannst du tatsächlich ein paar Risiken eingehen. Eigenschaften der 2. Stufe Dies ist von Klasse zu Klasse sehr unterschiedlich, aber einige Klassen erhalten wichtige Klassenmerkmale auf Stufe 2. Die Eigenschaft des Paladins auf der 2. Stufe, göttliche Gnade, ist vielleicht die größte Klasseneigenschaft im Spiel (vorausgesetzt, wir zählen "Zauber" und dergleichen nicht als eine einzelne Eigenschaft). Waldläufer erhalten ihren Kampfstil erst ab der 2. Barden erhalten Zauber der 1. Stufe mit der 2. Stufe (obwohl Mut anspornen ab der 1. Stufe wahrscheinlich wichtiger ist). Außerhalb des Kerns erhalten Schweißer erst auf Stufe 2 Chakrabindungen, was dazu führen kann, dass sie auf Stufe 1 keinen Angriff haben. Schwertkämpfer bekommen Wis-to-AC nicht vor der 2. Aber viele Charaktere sind gut von 1., so kann dies eine Menge variieren.
Me parece que la capacidad de supervivencia y el rendimiento general de mi grupo aumenta enormemente de los niveles 1 a 2. A veces, el nivel 1 parece un juego completamente diferente del nivel 2. Sin embargo, no puedo entender cómo o por qué. Sin embargo, no sé cómo ni por qué. Creo que la disponibilidad de curación tiene algo que ver. Desde una perspectiva mecánica, ¿hay alguna razón profunda por la que el nivel 1 y el nivel 2 parezcan tan radicalmente diferentes? Además, ¿por qué no encuentro diferencias similares entre los niveles posteriores, como el 6 y el 7?
¡Bienvenido a Rusty Dagger Shanktown! Lo que has notado es muy comentado: al primer nivel se le suele llamar "Rusty Dagger Shanktown". Es hiper-letal, más que el tipo de fantasía heroica que Dungeons & Dragons se presenta a sí mismo como. Es muy, muy difícil para los PCs de 1er nivel aventurarse realmente. Muchos, muchos grupos evitan el 1er nivel por esta razón (muchos se saltan el 2º también, aunque ya es dramáticamente diferente). Personalmente, yo incluyo el nivel 1 a menudo, pero los PJ suben de nivel hasta el 2 casi siempre gracias a su experiencia en el juego de rol. Ten en cuenta que esto no es exclusivo de 3.5e; se remonta a los primeros días de D&D. Pathfinder, por supuesto, heredó esta costumbre. Pathfinder, por supuesto, lo heredó de 3.5e (no sé nada de PF 2e). También sigue siendo cierto en 5e, después de que 4e consiguiera evitarlo, lo que puede significar que algunos lo consideran una "característica", lo suficiente como para que Wizards of the Coast sintiera la necesidad de restaurarlo como parte del "retorno a la forma" general de 5e tras la divisiva cuarta edición. De todos modos, las principales causas de shanktown daga oxidada: Puntos de vida Casi cualquiera puede disparar a casi cualquier personaje de 1er nivel. Es muy, muy fácil tener 6 hp en un mundo en el que el daño base de un arma decente, pero básica, es de 7 de media. Incluso las armas más pequeñas pueden causar fácilmente tanto daño, ya sea por suerte o por habilidad. Esperamos que los personajes de primer nivel caigan de un solo golpe. Un personaje de 2º nivel puede tener casi el doble de hp. En realidad, podría ser fácilmente el doble, si se multiclase de una clase de pequeño-HD a una clase de gran-HD. Eso cambia drásticamente el juego, porque de repente puedes sentirte razonablemente seguro de que no vas a morir de repente antes de que nadie pueda hacer nada. La curación se convierte en algo relevante, mientras que al principio era demasiado poco y demasiado tarde. Notablemente, esto sólo tiene este efecto porque el daño no crece al mismo ritmo. El daño base de las armas es fijo, y las puntuaciones de habilidad empiezan con dos dígitos pero crecen muy lentamente a partir de ahí. Esa es la mayor parte del daño inicial de la mayoría de los personajes. Incluso más allá de eso, muchos de los potenciadores de daño -Inspirar coraje, Rabia, Ataque furtivo- vienen en 1º de todos modos. Y los monstruos tienden a reflejar estas tendencias. Así que lo que acaba ocurriendo es que un personaje de nivel 1 no puede arriesgarse para conseguir algo. Un personaje de 2º nivel puede sentirse razonablemente cómodo arriesgándose al menos una vez. Esto afecta dramáticamente al estilo de juego. En el 2º nivel D&D parece literalmente un juego diferente. Realmente, es un juego diferente. Riqueza Los personajes empiezan con menos de 200 gp de equipo. Eso no es suficiente para un arma maestra, ni siquiera para armaduras medianas o pesadas no maestras, definitivamente no es suficiente para ningún tipo de objeto mágico más allá de un consumible extremadamente básico. Ningún personaje de 1er nivel tiene aún su equipo básico completo. La riqueza esperada de un personaje de 2º nivel es de 900 gp. Eso puede permitirse una armadura maestra de cualquier cosa que no sea una armadura completa, y para muchas armaduras deja suficiente para un arma maestra. Y lo que es más importante, es suficiente dinero para que un grupo de 4 pueda permitirse una varita de curar heridas leves. Una varita de curar heridas leves cambia el juego. Significa que puedes empezar fácilmente cada combate con todos tus PV. Y con el 2º nivel de PV, eso significa que puedes correr algunos riesgos. Características de 2º nivel Esto varía considerablemente de una clase a otra, pero varias clases obtienen rasgos de clase importantes en el 2º nivel. El rasgo de 2º nivel del paladín, gracia divina, puede que sea el mayor rasgo de clase del juego (suponiendo que no contemos los "hechizos" y similares como un rasgo singular). Los montaraces no obtienen su estilo de combate hasta el 2º nivel. Los bardos obtienen hechizos de 1º nivel en 2º (aunque inspirar coraje de 1º nivel es probablemente más importante). Fuera del núcleo, los meldshapers no obtienen ningún vínculo de chakra hasta el 2º nivel, lo que puede dejarlos con cero ofensiva en el 1º nivel. Los espadachines no tienen Wis-to-AC hasta el 2º nivel. Pero muchos personajes están bien desde la 1ª, así que esto puede variar mucho.
Je trouve que la capacité de survie et les performances générales de mon groupe augmentent considérablement entre les niveaux 1 et 2. Parfois, le niveau 1 donne l'impression d'être un jeu complètement différent du niveau 2. Cependant, je n'arrive pas à comprendre comment et pourquoi. Je pense que la disponibilité des soins y est pour quelque chose. D'un point de vue mécanique, y a-t-il une raison profonde pour laquelle le niveau 1 et le niveau 2 semblent si radicalement différents ? De plus, pourquoi je ne trouve pas de différences similaires entre les niveaux suivants, comme le 6 et le 7 ?
Bienvenue à Rusty Dagger Shanktown ! Ce que vous avez remarqué est très largement commenté - le premier niveau est souvent appelé "rusty dagger shanktown". C'est une ville hyper meurtrière, plutôt que le genre d'heroic fantasy que propose Donjons et Dragons. Il est très, très difficile pour les PJ de 1er niveau de partir à l'aventure. De très nombreux groupes évitent le 1er niveau pour cette raison (beaucoup sautent aussi le 2ème niveau, même s'il est déjà très différent). Personnellement, j'inclurai souvent le 1er niveau, mais les PJ passeront toujours au 2ème niveau presque entièrement grâce à l'XP de jeu de rôle. Notez que ce n'est pas propre à 3.5e ; cela remonte aux premiers jours de D&D. Pathfinder, bien sûr, l'a hérité de 3.5e (je ne sais pas pour PF 2e). C'est également toujours le cas dans 5e - après que 4e ait réussi à l'éviter, ce qui peut signifier que c'est considéré comme une "caractéristique" par certains, au point que Wizards of the Coast a ressenti le besoin de la restaurer dans le cadre du "retour à la forme" général de 5e après la quatrième édition qui a suscité des divisions. Quoi qu'il en soit, les principales causes de rusty dagger shanktown : Points de vie Presque n'importe qui peut toucher n'importe quel personnage de 1er niveau. Il est très, très facile d'avoir 6 pv dans un monde où les dégâts de base d'une arme décente, mais basique, sont en moyenne de 7. Même des armes plus petites peuvent facilement infliger autant de dégâts, que ce soit par chance ou par compétence. Nous nous attendons à ce que les personnages de 1er niveau soient souvent tués en un seul coup. Un personnage de 2e niveau peut avoir presque deux fois plus de pv. En fait, il pourrait facilement en avoir deux fois plus, s'il passe d'une classe de petite DH à une classe de grande DH. Cela change radicalement le jeu, car soudain vous pouvez être raisonnablement sûr que vous n'allez pas mourir soudainement avant que quelqu'un ne puisse faire quoi que ce soit. Les soins deviennent vraiment pertinents, alors qu'au début ils étaient souvent trop peu et trop tard. Notamment, cela n'a cet effet que parce que les dégâts n'augmentent pas à la même vitesse. Les dégâts de base des armes sont fixes, et les scores de capacité commencent à deux chiffres mais augmentent très lentement à partir de là. C'est la plus grande partie des dégâts initiaux pour la plupart des personnages. Même au-delà de cela, beaucoup d'augmentations de dégâts - inspirer le courage, la rage, l'attaque sournoise - arrivent de toute façon au premier niveau. Et les monstres ont tendance à refléter ces tendances. En fin de compte, un personnage de 1er niveau ne peut pas vraiment prendre de risque pour accomplir quelque chose. Un personnage de 2e niveau peut raisonnablement se sentir à l'aise en prenant un risque au moins une fois. Cela affecte considérablement le style de jeu. Au 2e niveau, D&D semble littéralement être un jeu différent. C'est vraiment un jeu différent. Richesse Les personnages commencent avec moins de 200 gp d'équipement. Ce n'est pas assez pour une arme de maître, pas assez même pour des armures moyennes ou lourdes qui ne sont pas de maître, et certainement pas assez pour un objet magique quelconque, à part peut-être un consommable extrêmement basique. Aucun personnage de 1er niveau n'a encore son kit de base complet. La richesse attendue d'un personnage de 2e niveau est de 900 gp. Ce montant permet d'acheter une armure de maître pour tout ce qui n'est pas une plaque complète, et pour de nombreuses armures, il reste suffisamment d'argent pour une arme de maître. Plus important encore, c'est assez d'argent pour qu'un groupe de 4 personnes puisse s'offrir une baguette de guérison des blessures légères. Une baguette de guérison des blessures légères change la donne. Cela signifie que vous pouvez facilement commencer chaque combat à pleine puissance. Et avec un niveau 2, cela signifie que vous pouvez prendre quelques risques. Caractéristiques de 2e niveau Cela varie considérablement d'une classe à l'autre, mais plusieurs classes obtiennent des caractéristiques de classe majeures au 2e niveau. La caractéristique de 2e niveau du paladin, la grâce divine, est peut-être la plus grande caractéristique de classe du jeu (si l'on ne compte pas les "sorts" et autres comme une caractéristique singulière). Les Rangers n'obtiennent leur style de combat qu'au 2ème niveau. Les bardes obtiennent des sorts de 1er niveau au 2ème (bien qu'inspirer le courage au 1er niveau soit probablement plus important). En dehors du noyau, les meldshapers n'obtiennent pas de chakra bind avant le 2ème niveau, ce qui peut les laisser avec une attaque nulle au 1er niveau. Les épéistes n'ont pas de Wis-to-AC avant le 2ème niveau. Mais beaucoup de personnages sont très bien dès la première année, donc cela peut varier beaucoup.
Trovo che la sopravvivenza e le prestazioni generali del mio gruppo aumentino in modo massiccio dal livello 1 al livello 2. A volte, il livello 1 sembra un gioco completamente diverso dal livello 2. Tuttavia, non riesco a capire come e perché. Penso che la disponibilità di cure abbia qualcosa a che fare con questo. Da un punto di vista meccanico, c'è qualche ragione profonda per cui il livello 1 e il livello 2 sembrano così radicalmente diversi? Inoltre, perché non trovo differenze simili tra i livelli successivi, come il 6 e il 7?
Benvenuti a Rusty Dagger Shanktown! Quello che avete notato è stato ampiamente commentato: il primo livello è spesso chiamato "Rusty Dagger Shanktown". È iper-letale, piuttosto che il tipo di fantasy eroico che Dungeons & Dragons si propone. È molto, molto difficile per i PC di 1° livello vivere davvero un'avventura. Molti, moltissimi gruppi evitano il 1° livello per questo motivo (molti saltano anche il 2°, anche se è già drammaticamente diverso). Personalmente, includo spesso il 1° livello, ma i PC salgono sempre di livello fino al 2° quasi esclusivamente grazie alla XP del gioco di ruolo. Si noti che questo non è un fenomeno esclusivo della 3.5e; risale ai primi giorni di D&D. Pathfinder, ovviamente, l'ha ereditato dalla 3.5e (non so se PF 2e). È ancora presente nella 5e, dopo che la 4e è riuscita a evitarlo, il che potrebbe significare che questa è considerata una "caratteristica" da alcuni, tanto che la Wizards of the Coast ha sentito il bisogno di ripristinarla come parte del generale "ritorno alla forma" della 5e dopo la divisiva quarta edizione. In ogni caso, le cause primarie del pugnale arrugginito di Shanktown: Punti ferita Quasi tutti possono colpire quasi tutti i personaggi di 1° livello. È molto, molto facile avere 6 hp in un mondo in cui il danno base di un'arma decente, ma di base, è in media di 7. Anche le armi più piccole possono facilmente infliggere una tale quantità di danni. Anche le armi più piccole possono facilmente infliggere tanti danni, grazie alla fortuna o all'abilità. Ci aspettiamo che i personaggi di 1° livello vadano spesso al tappeto con un solo colpo. Un personaggio di 2° livello può avere quasi il doppio degli hp. Anzi, potrebbe facilmente raddoppiare, se si multiclasse da una classe a piccola densità a una a grande densità. Questo cambia drasticamente il gioco, perché improvvisamente ci si può sentire ragionevolmente sicuri di non morire all'improvviso prima che qualcuno possa fare qualcosa. La guarigione diventa davvero importante, mentre nel primo caso era spesso troppo poco e troppo tardi. In particolare, l'effetto è dovuto al fatto che i danni non crescono allo stesso ritmo. Il danno base delle armi è fisso e i punteggi delle abilità iniziano a due cifre, ma crescono molto lentamente. Questa è la fetta più grande dei danni iniziali per la maggior parte dei personaggi. Anche al di là di questo, molti potenziamenti del danno - ispirare coraggio, rabbia, attacco furtivo - arrivano comunque al 1°. E i mostri tendono a rispecchiare queste tendenze. Quindi, ciò che finisce per accadere è che un personaggio di 1° livello non può davvero rischiare per ottenere qualcosa. Un personaggio di 2° livello può sentirsi ragionevolmente a suo agio nel rischiare almeno una volta. Questo influenza drasticamente lo stile di gioco. Al 2° livello D&D sembra letteralmente un gioco diverso. Davvero, è un gioco diverso. Ricchezza I personaggi iniziano con meno di 200 gp di equipaggiamento. Non è abbastanza per un'arma masterwork, non è abbastanza nemmeno per un'armatura media o pesante non masterwork, sicuramente non è abbastanza per qualsiasi tipo di oggetto magico, a parte forse un consumabile di base. Nessun personaggio di 1° livello ha ancora il suo kit di base completo. La ricchezza prevista per un personaggio di 2° livello è di 900 gp. Con questa cifra ci si può permettere un'armatura da maestro di qualsiasi tipo, a meno che non si tratti di un'armatura completa, e per molte armature rimane abbastanza denaro per un'arma da maestro. Soprattutto, sono abbastanza soldi per un gruppo di 4 persone per permettersi banalmente una bacchetta per curare le ferite leggere. Una bacchetta per curare le ferite leggere è un vero e proprio cambio di rotta. Significa che potete facilmente iniziare ogni combattimento con gli hp pieni. E con i CV di 2° livello, questo significa che si può correre qualche rischio. Caratteristiche di 2° livello Questo aspetto varia notevolmente da una classe all'altra, ma diverse classi ottengono importanti caratteristiche di classe al 2° livello. La caratteristica di 2° livello del paladino, la grazia divina, potrebbe essere la più grande caratteristica di classe del gioco (supponendo di non contare gli "incantesimi" e simili come una singola caratteristica). I ranger ottengono il loro stile di combattimento solo al 2° livello. I bardi ottengono incantesimi di 1° livello al 2° (anche se ispirare coraggio dal 1° livello è probabilmente più importante). Al di fuori del nucleo, i meldshapers non ottengono alcun legame di chakra fino al 2°, il che può lasciarli con zero attacco al 1°. Gli spadaccini non ottengono Wis-to-AC fino al 2°. Ma molti personaggi sono a posto fin dal 1°, quindi la situazione può variare molto.
142
In my table view I have to scroll to the top. But I cannot guarantee that the first object is going to be section 0, row 0. May be that my table view will start from section number 5. So I get an exception, when I call: ```[mainTableView scrollToRowAtIndexPath:[NSIndexPath indexPathForRow:0 inSection:0] atScrollPosition:UITableViewScrollPositionTop animated:NO]; ``` Is there another way to scroll to the top of table view?
Possible Actions: 1 ```func scrollToFirstRow() { let indexPath = NSIndexPath(forRow: 0, inSection: 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition: .Top, animated: true) } ``` 2 ```func scrollToLastRow() { let indexPath = NSIndexPath(forRow: objects.count - 1, inSection: 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition: .Bottom, animated: true) } ``` 3 ```func scrollToSelectedRow() { let selectedRows = self.tableView.indexPathsForSelectedRows if let selectedRow = selectedRows?[0] as? NSIndexPath { self.tableView.scrollToRowAtIndexPath(selectedRow, atScrollPosition: .Middle, animated: true) } } ``` 4 ```func scrollToHeader() { self.tableView.scrollRectToVisible(CGRect(x: 0, y: 0, width: 1, height: 1), animated: true) } ``` 5 ```func scrollToTop(){ self.tableView.setContentOffset(CGPointMake(0, UIApplication.sharedApplication().statusBarFrame.height ), animated: true) } ``` Disable Scroll To Top: ```func disableScrollsToTopPropertyOnAllSubviewsOf(view: UIView) { for subview in view.subviews { if let scrollView = subview as? UIScrollView { (scrollView as UIScrollView).scrollsToTop = false } self.disableScrollsToTopPropertyOnAllSubviewsOf(subview as UIView) } } ``` Modify and use it as per requirement. Swift 4 ``` func scrollToFirstRow() { let indexPath = IndexPath(row: 0, section: 0) self.tableView.scrollToRow(at: indexPath, at: .top, animated: true) } ```
In meiner Tabellenansicht muss ich nach oben blättern. Aber ich kann nicht garantieren, dass das erste Objekt Abschnitt 0, Zeile 0 sein wird. Es kann sein, dass meine Tabellenansicht mit Abschnitt Nummer 5 beginnt. Ich erhalte also eine Ausnahme, wenn ich aufrufe: ```[mainTableView scrollToRowAtIndexPath:[NSIndexPath indexPathForRow:0 inSection:0] atScrollPosition:UITableViewScrollPositionTop animated:NO]; ``` Gibt es eine andere Möglichkeit, in der Tabellenansicht nach oben zu blättern?
Mögliche Maßnahmen: 1 ```func scrollToFirstRow() { let indexPath = NSIndexPath(forRow: 0, inSection: 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition: .Top, animated: true) } ``` 2 ```func scrollToLastRow() { let indexPath = NSIndexPath(forRow: objects.count - 1, inSection: 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition: .Bottom, animated: true) } ``` 3 ```func scrollToSelectedRow() { let selectedRows = self.tableView.indexPathsForSelectedRows if let selectedRow = selectedRows?[0] as? NSIndexPath { self.tableView.scrollToRowAtIndexPath(selectedRow, atScrollPosition: .Middle, animated: true) } } ``` 4 ```func scrollToHeader() { self.tableView.scrollRectToVisible(CGRect(x: 0, y: 0, width: 1, height: 1), animated: true) } ``` 5 ```func scrollToTop(){ self.tableView.setContentOffset(CGPointMake(0, UIApplication.sharedApplication().statusBarFrame.height ), animated: true) } ``` Scroll To Top deaktivieren: ```func disableScrollsToTopPropertyOnAllSubviewsOf(view: UIView) { for subview in view.subviews { if let scrollView = subview as? UIScrollView { (scrollView as UIScrollView).scrollsToTop = false } self.disableScrollsToTopPropertyOnAllSubviewsOf(subview as UIView) } } ``` Ändern und verwenden Sie es je nach Anforderung. Swift 4 ```` func scrollToFirstRow() { let indexPath = IndexPath(row: 0, section: 0) self.tableView.scrollToRow(at: indexPath, at: .top, animated: true) } ```
En mi vista de tabla tengo que desplazarme hasta la parte superior. Pero no puedo garantizar que el primer objeto vaya a ser la sección 0, fila 0. Puede ser que mi vista de tabla empiece desde la sección número 5. Así que obtengo una excepción, cuando llamo a ```[mainTableView scrollToRowAtIndexPath:[NSIndexPath indexPathForRow:0 inSection:0] atScrollPosition:UITableViewScrollPositionTop animated:NO]; ``` ¿Hay alguna otra forma de desplazarse a la parte superior de la vista tabla?
Posibles acciones: 1 ```func scrollToFirstRow() { let indexPath = NSIndexPath(forRow: 0, inSection: 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition: .Top, animated: true) } ``` 2 ```func scrollToLastRow() { let indexPath = NSIndexPath(forRow: objects.count - 1, inSection: 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition: .Bottom, animated: true) } ``` 3 ```func scrollToSelectedRow() { let selectedRows = self.tableView.indexPathsForSelectedRows if let selectedRow = selectedRows?[0] as? NSIndexPath { self.tableView.scrollToRowAtIndexPath(selectedRow, atScrollPosition: .Middle, animated: true) } } ``` 4 ```func scrollToHeader() { self.tableView.scrollRectToVisible(CGRect(x: 0, y: 0, width: 1, height: 1), animated: true) } ``` 5 ```func scrollToTop(){ self.tableView.setContentOffset(CGPointMake(0, UIApplication.sharedApplication().statusBarFrame.height ), animated: true) } ``` Desactivar Scroll To Top: ```func disableScrollsToTopPropertyOnAllSubviewsOf(view: UIView) { para subvista en vista.subvistas { if let scrollView = subview as? UIScrollView { (scrollView as UIScrollView).scrollsToTop = false } self.disableScrollsToTopPropertyOnAllSubviewsOf(subview as UIView) } } ``` Modifícalo y utilízalo según tus necesidades. Swift 4 ``` func scrollToFirstRow() { let indexPath = IndexPath(fila: 0, sección: 0) self.tableView.scrollToRow(at: indexPath, at: .top, animated: true) } ```
Dans ma vue de tableau, je dois faire défiler l'écran jusqu'en haut. Mais je ne peux pas garantir que le premier objet sera la section 0, ligne 0. Il se peut que ma vue de tableau commence à partir de la section 5. J'obtiens donc une exception lorsque j'appelle : ```[mainTableView scrollToRowAtIndexPath :[NSIndexPath indexPathForRow:0 inSection:0] atScrollPosition:UITableViewScrollPositionTop animated:NO] ; ``` Existe-t-il un autre moyen de faire défiler la vue de table vers le haut ?
Actions possibles : 1 ```func scrollToFirstRow() { let indexPath = NSIndexPath(forRow : 0, inSection : 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition : .Top, animated : true) } ``` 2 ```func scrollToLastRow() { let indexPath = NSIndexPath(forRow : objects.count - 1, inSection : 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition : .Bottom, animated : true) } ``` 3 ```func scrollToSelectedRow() { let selectedRows = self.tableView.indexPathsForSelectedRows if let selectedRow = selectedRows ?[0] as ? NSIndexPath { self.tableView.scrollToRowAtIndexPath(selectedRow, atScrollPosition : .Middle, animated : true) } } ``` 4 ```func scrollToHeader() { self.tableView.scrollRectToVisible(CGRect(x : 0, y : 0, width : 1, height : 1), animated : true) } ``` 5 ```func scrollToTop(){ self.tableView.setContentOffset(CGPointMake(0, UIApplication.sharedApplication().statusBarFrame.height ), animated : true) } ``` Désactiver le défilement vers le haut : ```func disableScrollsToTopPropertyOnAllSubviewsOf(view : UIView) { for subview in view.subviews { if let scrollView = subview as ? UIScrollView { (scrollView as UIScrollView).scrollsToTop = false } self.disableScrollsToTopPropertyOnAllSubviewsOf(subview as UIView) } } ``` Modifiez-le et utilisez-le selon vos besoins. Swift 4 ```` func scrollToFirstRow() { let indexPath = IndexPath(row : 0, section : 0) self.tableView.scrollToRow(at : indexPath, at : .top, animated : true) } ```
Nella mia vista tabella devo scorrere fino all'inizio. Ma non posso garantire che il primo oggetto sarà la sezione 0, riga 0. Può darsi che la mia vista tabella inizi dalla sezione numero 5. Quindi ottengo un'eccezione, quando chiamo: "Non è possibile". Quindi ottengo un'eccezione, quando chiamo: ```[mainTableView scrollToRowAtIndexPath:[NSIndexPath indexPathForRow:0 inSection:0] atScrollPosition:UITableViewScrollPositionTop animated:NO]; ``` C'è un altro modo per scorrere all'inizio della vista tabella?
Possibili azioni: 1 ```func scrollToFirstRow() { let indexPath = NSIndexPath(forRow: 0, inSection: 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition: .Top, animated: true) } ``` 2 ```func scrollToLastRow() { indexPath = NSIndexPath(forRow: objects.count - 1, inSection: 0) self.tableView.scrollToRowAtIndexPath(indexPath, atScrollPosition: .Bottom, animated: true) } ``` 3 ```func scrollToSelectedRow() { let selectedRows = self.tableView.indexPathsForSelectedRows if let selectedRow = selectedRows?[0] as? NSIndexPath { self.tableView.scrollToRowAtIndexPath(selectedRow, atScrollPosition: .Middle, animated: true) } } ``` 4 ```func scrollToHeader() { self.tableView.scrollRectToVisible(CGRect(x: 0, y: 0, width: 1, height: 1), animated: true) } ``` 5 ```func scrollToTop(){ self.tableView.setContentOffset(CGPointMake(0, UIApplication.sharedApplication().statusBarFrame.height ), animated: true) } ``` Disabilitare lo scorrimento verso l'alto: ```func disableScrollsToTopPropertyOnAllSubviewsOf(view: UIView) { for subview in view.subviews { if let scrollView = subview as? UIScrollView { (scrollView as UIScrollView).scrollsToTop = false } self.disableScrollsToTopPropertyOnAllSubviewsOf(subview as UIView) } } ``` Modificare e utilizzare secondo le proprie esigenze. Swift 4 ``` func scrollToFirstRow() { let indexPath = IndexPath(row: 0, section: 0) self.tableView.scrollToRow(at: indexPath, at: .top, animated: true) } ```
143
While in Phd I developed a lot of code that I want to turn into start-up. Can I do this?
I'm not aware of any blanket prohibition, anywhere, that say that you can't use code developed during a PhD for a commercial venture - but most Universities in the US will have some kind of intellectual property agreement in place to state what the process is for doing this. You will need to check with officials at your University to see what agreements you are subject to - but you should go a step farther than this. Specifically, you should see what departments might exist that can actually help you. In the US at least - and I'm sure many other institutions around the world - there are departments specializing in intellectual property, "knowledge transfer", corporate spin-offs, start-ups, entrepreneurship, etc. These can be a rich source of support and networking, if they are available to you, even if you have intellectual property agreements that assign various rights to the University. Universities want to earn money for these projects, as I'm sure you do as well, and 100% of $0 is $0. Universities often heavily facilitate the process of converting this work into money, and it is not abnormal for even a place that has heavily restricted intellectual rights assignments agreements to assign use rights and royalty agreements that have zero cost for the first $200,000+ US dollars in income. There are often even startup grants available, accelerators (even if they are not called that - places that provide space and equipment to help starting businesses), introductions to investors, showcases, and more. You won't know until you ask and look for them, as where they are located tends to vary heavily by institution. For the exact nature of the agreements that apply to you, we can't say; I've seen everything from "the student owns their own work" to "anyone funded assigns all rights and ownership to the University", and I'm sure there are agreements everywhere in between. You are right to check them out in advance of a major decision, but this is so specific that you'll need to talk with multiple people are your specific institution to see what applies to you. You may also need to speak with an outside legal professional (lawyer experienced in this area, etc) to verify, but your local administrators are your best first point of contact to see how things work.
Während meiner Promotion habe ich eine Menge Code entwickelt, den ich in ein Start-up verwandeln möchte. Kann ich das tun?
Mir ist kein generelles Verbot bekannt, das besagt, dass man den im Rahmen einer Promotion entwickelten Code nicht für ein kommerzielles Unternehmen verwenden darf - aber die meisten Universitäten in den USA haben eine Art Vereinbarung über geistiges Eigentum, in der festgelegt ist, wie dies zu geschehen hat. Sie müssen sich bei den Verantwortlichen Ihrer Universität erkundigen, welche Vereinbarungen für Sie gelten - aber Sie sollten noch einen Schritt weiter gehen. Insbesondere sollten Sie sich erkundigen, welche Abteilungen es gibt, die Ihnen tatsächlich helfen können. Zumindest in den USA - und sicher auch an vielen anderen Hochschulen weltweit - gibt es Abteilungen, die sich auf geistiges Eigentum, "Wissenstransfer", Unternehmensausgründungen, Start-ups, Unternehmertum usw. spezialisiert haben. Diese können eine ergiebige Quelle der Unterstützung und Vernetzung sein, wenn sie Ihnen zur Verfügung stehen, selbst wenn Sie Vereinbarungen über geistiges Eigentum haben, die verschiedene Rechte an die Universität abtreten. Universitäten wollen mit diesen Projekten Geld verdienen, und ich bin mir sicher, dass Sie das auch wollen, und 100 % von 0 $ sind 0 $. Universitäten erleichtern oft den Prozess, diese Arbeit in Geld umzuwandeln, und es ist nicht ungewöhnlich, dass selbst eine Einrichtung, die Vereinbarungen über die Abtretung von geistigen Eigentumsrechten stark eingeschränkt hat, Nutzungsrechte und Lizenzvereinbarungen abtritt, die für die ersten 200.000 US-Dollar und mehr an Einnahmen keine Kosten verursachen. Oft gibt es sogar Zuschüsse für Start-ups, Beschleuniger (auch wenn sie nicht so heißen - Orte, die Räume und Ausrüstung zur Verfügung stellen, um Start-ups zu unterstützen), Kontakte zu Investoren, Präsentationen und vieles mehr. Sie werden es erst erfahren, wenn Sie nachfragen und danach suchen, denn die Standorte variieren stark von Institution zu Institution. Ich habe alles gesehen, von "der Student ist Eigentümer seiner eigenen Arbeit" bis hin zu "jeder, der eine Finanzierung erhält, tritt alle Rechte und das Eigentum an die Universität ab", und ich bin sicher, dass es überall dazwischen Vereinbarungen gibt. Es ist richtig, dass Sie sich vor einer wichtigen Entscheidung darüber informieren sollten, aber dies ist so spezifisch, dass Sie mit mehreren Personen an Ihrer Hochschule sprechen müssen, um herauszufinden, was für Sie gilt. Möglicherweise müssen Sie auch mit einem externen Juristen (einem in diesem Bereich erfahrenen Anwalt usw.) sprechen, um dies zu überprüfen, aber Ihre lokale Verwaltung ist die beste erste Anlaufstelle, um herauszufinden, wie die Dinge funktionieren.
Mientras estaba en el doctorado desarrollé mucho código que quiero convertir en start-up. ¿Puedo hacerlo?
No conozco ninguna prohibición general, en ningún sitio, que diga que no se puede utilizar el código desarrollado durante un doctorado para una empresa comercial, pero la mayoría de las universidades de EE.UU. tienen algún tipo de acuerdo de propiedad intelectual que establece el proceso para hacerlo. Tendrás que consultar a los funcionarios de tu universidad para ver a qué acuerdos estás sujeto, pero deberías ir un paso más allá. En concreto, debería ver qué departamentos pueden existir que realmente puedan ayudarle. Al menos en EE.UU., y estoy seguro de que en muchas otras instituciones del mundo, existen departamentos especializados en propiedad intelectual, "transferencia de conocimientos", escisiones de empresas, creación de empresas, espíritu empresarial, etcétera. Pueden ser una gran fuente de apoyo y creación de redes, si están a tu disposición, incluso si tienes acuerdos de propiedad intelectual que ceden diversos derechos a la Universidad. Las universidades quieren ganar dinero con estos proyectos, como seguro que tú también quieres, y el 100% de 0 dólares son 0 dólares. Las universidades a menudo facilitan mucho el proceso de convertir este trabajo en dinero, y no es raro que incluso un lugar que tiene acuerdos de cesión de derechos intelectuales muy restringidos ceda derechos de uso y acuerdos de royalties que tienen coste cero para los primeros 200.000 dólares de ingresos. A menudo hay incluso subvenciones para empresas incipientes, aceleradores (aunque no se llamen así: lugares que proporcionan espacio y equipos para ayudar a las empresas incipientes), presentaciones a inversores, escaparates y mucho más. No lo sabrás hasta que preguntes y los busques, ya que su ubicación suele variar mucho según la institución. En cuanto a la naturaleza exacta de los acuerdos que se aplican en tu caso, no podemos decirlo; he visto de todo, desde "el estudiante es dueño de su propio trabajo" hasta "cualquier persona financiada cede todos los derechos y la propiedad a la Universidad", y estoy seguro de que hay acuerdos por todas partes en el medio. Haces bien en consultarlos antes de tomar una decisión importante, pero esto es tan específico que tendrás que hablar con varias personas de tu institución para ver qué se aplica a tu caso. Puede que también necesites hablar con un profesional jurídico externo (abogado con experiencia en este campo, etc.) para verificarlo, pero los administradores locales son tu mejor primer punto de contacto para ver cómo funcionan las cosas.
Pendant ma thèse, j'ai développé un grand nombre de codes que je souhaite transformer en start-up. Puis-je le faire ?
Je n'ai connaissance d'aucune interdiction générale, où que ce soit, qui stipule que vous ne pouvez pas utiliser le code développé au cours d'un doctorat pour une entreprise commerciale - mais la plupart des universités aux États-Unis auront mis en place une sorte d'accord sur la propriété intellectuelle pour indiquer la procédure à suivre pour ce faire. Vous devrez vérifier auprès des responsables de votre université quels sont les accords auxquels vous êtes soumis, mais vous devriez aller plus loin. En particulier, vous devriez voir quels sont les départements qui peuvent vous aider. Aux États-Unis au moins - et, j'en suis sûr, dans de nombreuses autres institutions dans le monde - il existe des départements spécialisés dans la propriété intellectuelle, le "transfert de connaissances", les entreprises dérivées, les start-ups, l'esprit d'entreprise, etc. Ces services peuvent constituer une source importante de soutien et de mise en réseau, s'ils sont à votre disposition, même si vous avez conclu des accords de propriété intellectuelle qui cèdent divers droits à l'université. Les universités veulent gagner de l'argent pour ces projets, tout comme vous, j'en suis sûr, et 100 % de 0 $, c'est 0 $. Les universités facilitent souvent grandement le processus de conversion de ce travail en argent, et il n'est pas anormal que même un établissement qui a des accords de cession de droits intellectuels très restreints cède des droits d'utilisation et des accords de redevance dont le coût est nul pour les premiers 200 000 $ US ou plus de revenus. Il existe même souvent des bourses de démarrage, des accélérateurs (même s'ils ne s'appellent pas ainsi - il s'agit d'endroits qui fournissent des locaux et des équipements pour aider les entreprises en phase de démarrage), des présentations aux investisseurs, des vitrines, et bien d'autres choses encore. Vous ne le saurez pas tant que vous n'aurez pas demandé et cherché, car l'endroit où ils se trouvent tend à varier fortement d'une institution à l'autre. J'ai vu des accords allant de "l'étudiant est propriétaire de son travail" à "toute personne financée cède tous les droits et la propriété à l'université", et je suis sûr qu'il y a des accords partout entre les deux. Vous avez raison de les consulter avant de prendre une décision importante, mais il s'agit d'une question tellement spécifique que vous devrez vous adresser à plusieurs personnes de votre établissement pour savoir ce qui s'applique à vous. Il se peut que vous deviez également vous adresser à un professionnel du droit extérieur (avocat expérimenté dans ce domaine, etc.) pour vérifier, mais vos administrateurs locaux sont votre meilleur premier point de contact pour voir comment les choses fonctionnent.
Durante il dottorato ho sviluppato molto codice che voglio trasformare in start-up. Posso farlo?
Non sono a conoscenza di alcun divieto generale, da nessuna parte, che vieti di utilizzare il codice sviluppato durante un dottorato di ricerca per un'iniziativa commerciale - ma la maggior parte delle università statunitensi avrà un qualche tipo di accordo sulla proprietà intellettuale che indicherà la procedura da seguire per farlo. Dovrete verificare con i funzionari della vostra università quali sono gli accordi a cui siete soggetti, ma dovreste fare un passo avanti. In particolare, dovreste vedere quali sono i dipartimenti che possono aiutarvi. Almeno negli Stati Uniti - e sono sicuro che in molte altre istituzioni del mondo - esistono dipartimenti specializzati in proprietà intellettuale, "trasferimento di conoscenze", spin-off aziendali, start-up, imprenditorialità, ecc. Questi possono essere una ricca fonte di supporto e di networking, se sono disponibili per voi, anche se avete accordi di proprietà intellettuale che assegnano vari diritti all'Università. Le università vogliono guadagnare per questi progetti, come sono sicuro che lo vogliate anche voi, e il 100% di 0 dollari è 0. Le università spesso facilitano fortemente il processo di conversione di questo lavoro in denaro, e non è anormale che anche un luogo che ha accordi di cessione di diritti intellettuali fortemente limitati possa assegnare diritti di utilizzo e accordi di royalty che hanno un costo zero per i primi 200.000 dollari in più di reddito. Spesso sono disponibili anche sovvenzioni per le startup, acceleratori (anche se non si chiamano così - luoghi che mettono a disposizione spazi e attrezzature per aiutare le imprese in fase di avvio), introduzioni agli investitori, vetrine e altro ancora. Non lo saprete finché non lo chiederete e non lo cercherete, poiché la loro ubicazione tende a variare notevolmente a seconda dell'istituzione. Per quanto riguarda la natura esatta degli accordi che si applicano a voi, non possiamo dirlo; ho visto di tutto, da "lo studente è proprietario del proprio lavoro" a "chiunque sia finanziato cede tutti i diritti e la proprietà all'Università", e sono sicuro che ci sono accordi ovunque in mezzo. Hai fatto bene a informarti prima di prendere una decisione importante, ma questo è talmente specifico che dovrai parlare con più persone della tua specifica istituzione per vedere cosa si applica a te. Potrebbe anche essere necessario parlare con un professionista legale esterno (avvocato esperto in questo settore, ecc.) per verificare, ma i vostri amministratori locali sono il miglior punto di contatto per vedere come funzionano le cose.
144
I have heard multiple times in photography, the words Bokeh, and Gaussian Blur. To me, it seems that the words are used almost interchangeably, but in some instances, I have heard them contrasted. What's the difference, and what are the definitions of each of them?
Bokeh is specifically the out-of-focus areas of an image. Gaussian blur is an algorithm to fog selected image areas, to hide details or make them look out of focus. The main differences: * bokeh is created optically, gaussian blur in post-production; * in bokeh, the amount of how wide an out-of-focus point will be smeared is determined by its relative distance from focal plane, whereas gaussian blur is applied to a two-dimensional image where no distance information is present, thus all points are smeared equally; * in bokeh, the smearing characteristics depend on configuration and aperture shape of the lens, whereas gaussian blur is always smooth; * a small light source will be rendered as an aperture-shaped figure with quite well-defined edges in bokeh; but gaussian blur renders it as a spot with fading edges; * in bokeh, noise is present at the same level as in in-focus parts of image with same luminance; gaussian blur kills noise, so there'll be less noise than in non-blurred parts of image; * in bokeh, light areas will dominate over dark ones, while gaussian blur gives preserves the ratio of dark-light areas. So, all in all, you can use one to fake another, but the result will be similar only for low-noise bokeh containing items on roughly a plane parallel to focal plane, not including any significantly lighter areas or light sources, and taken with a lens that has a smooth bokeh.
Ich habe in der Fotografie schon mehrfach die Begriffe Bokeh und Gaußsche Unschärfe gehört. Mir scheint, dass die Begriffe fast austauschbar verwendet werden, aber in einigen Fällen habe ich sie auch im Gegensatz zueinander gehört. Was ist der Unterschied, und wie lauten die Definitionen der beiden Begriffe?
Bokeh sind insbesondere die unscharfen Bereiche eines Bildes. Der Gaußsche Weichzeichner ist ein Algorithmus, der ausgewählte Bildbereiche verschleiert, um Details zu verbergen oder sie unscharf aussehen zu lassen. Die Hauptunterschiede: * Bokeh wird optisch erzeugt, Gaußscher Weichzeichner in der Nachbearbeitung; * Beim Bokeh wird die Breite, mit der ein unscharfer Punkt verwischt wird, durch seinen relativen Abstand von der Fokusebene bestimmt, während der Gaußsche Weichzeichner auf ein zweidimensionales Bild angewendet wird, in dem keine Entfernungsinformationen vorhanden sind, so dass alle Punkte gleichmäßig verwischt werden; * Beim Bokeh hängen die Verwischungseigenschaften von der Konfiguration und der Blendenform des Objektivs ab, während die gaußsche Unschärfe immer gleichmäßig ist; * eine kleine Lichtquelle wird im Bokeh als blendenförmige Figur mit recht gut definierten Rändern wiedergegeben, während die Gaußsche Unschärfe sie als Fleck mit verblassenden Rändern wiedergibt; * Im Bokeh ist das Rauschen genauso stark wie in den unscharfen Teilen des Bildes mit derselben Leuchtdichte; die Gaußsche Unschärfe tötet das Rauschen, so dass weniger Rauschen als in den unscharfen Teilen des Bildes vorhanden ist; * Im Bokeh überwiegen die hellen Bereiche gegenüber den dunklen, während der Gaußsche Weichzeichner das Verhältnis zwischen dunklen und hellen Bereichen beibehält. Alles in allem kann man also das eine verwenden, um das andere zu fälschen, aber das Ergebnis wird nur bei einem rauscharmen Bokeh ähnlich sein, das Objekte enthält, die sich ungefähr auf einer Ebene parallel zur Brennebene befinden, keine wesentlich helleren Bereiche oder Lichtquellen enthält und mit einem Objektiv aufgenommen wurde, das ein glattes Bokeh hat.
He oído muchas veces en fotografía, las palabras Bokeh, y Desenfoque Gaussiano. Para mí, parece que las palabras se utilizan casi indistintamente, pero en algunos casos, las he oído contrastar. ¿Cuál es la diferencia, y cuáles son las definiciones de cada una de ellas?
Bokeh es específicamente las áreas desenfocadas de una imagen. El desenfoque gaussiano es un algoritmo para empañar zonas seleccionadas de la imagen, para ocultar detalles o hacer que parezcan desenfocadas. Las principales diferencias: * El bokeh se crea ópticamente, el desenfoque gaussiano en postproducción; * En el bokeh, la amplitud de un punto desenfocado se determina por su distancia relativa al plano focal, mientras que el desenfoque gaussiano se aplica a una imagen bidimensional en la que no hay información de distancia, por lo que todos los puntos se desenfocan por igual; * En el efecto bokeh, las características del difuminado dependen de la configuración y la forma de la abertura del objetivo, mientras que el desenfoque gaussiano es siempre suave; * en el bokeh, una pequeña fuente de luz se representa como una figura en forma de abertura con bordes bien definidos, mientras que el desenfoque gaussiano la representa como una mancha con bordes difuminados; * en el bokeh, el ruido está presente al mismo nivel que en las partes enfocadas de la imagen con la misma luminancia; el desenfoque gaussiano elimina el ruido, por lo que habrá menos ruido que en las partes no desenfocadas de la imagen; * En el bokeh, las zonas claras dominan sobre las oscuras, mientras que el desenfoque gaussiano preserva la relación entre zonas oscuras y claras. Así que, en definitiva, puedes usar uno para falsear el otro, pero el resultado será similar sólo para un bokeh con poco ruido que contenga elementos en aproximadamente un plano paralelo al plano focal, que no incluya zonas significativamente más claras ni fuentes de luz, y que se haya tomado con un objetivo que tenga un bokeh suave.
En photographie, j'ai entendu à de nombreuses reprises les mots "Bokeh" et "flou gaussien". Il me semble que ces mots sont utilisés de manière presque interchangeable, mais dans certains cas, j'ai entendu qu'ils étaient opposés. Quelle est la différence et quelles sont les définitions de chacun d'entre eux ?
Le bokeh désigne spécifiquement les zones floues d'une image. Le flou gaussien est un algorithme qui permet de brouiller des zones sélectionnées de l'image, afin de masquer les détails ou de les rendre flous. Les principales différences : * le bokeh est créé optiquement, le flou gaussien en post-production ; * Dans le bokeh, l'ampleur de l'étalement d'un point hors foyer est déterminée par sa distance relative par rapport au plan focal, alors que le flou gaussien est appliqué à une image bidimensionnelle où aucune information de distance n'est présente, ce qui fait que tous les points sont étouffés de la même manière ; * dans le bokeh, les caractéristiques de l'étalement dépendent de la configuration et de la forme de l'ouverture de l'objectif, alors que le flou gaussien est toujours lisse ; * une petite source lumineuse sera représentée par une figure en forme d'ouverture avec des bords bien définis dans le bokeh, alors que le flou gaussien la représente comme une tache dont les bords s'estompent ; * Dans le bokeh, le bruit est présent au même niveau que dans les parties nettes de l'image avec la même luminance ; le flou gaussien tue le bruit, il y aura donc moins de bruit que dans les parties non floues de l'image ; * dans le bokeh, les zones claires dominent les zones sombres, alors que le flou gaussien préserve le rapport entre les zones sombres et les zones claires. Ainsi, dans l'ensemble, vous pouvez utiliser l'un pour simuler l'autre, mais le résultat sera similaire uniquement pour un bokeh à faible bruit contenant des éléments sur un plan à peu près parallèle au plan focal, n'incluant pas de zones significativement plus claires ou de sources lumineuses, et pris avec un objectif qui a un bokeh lisse.
Ho sentito più volte in fotografia le parole Bokeh e Sfocatura gaussiana. A me sembra che le parole siano usate in modo quasi intercambiabile, ma in alcuni casi le ho sentite contrapposte. Qual è la differenza e quali sono le definizioni di ciascuna di esse?
Il bokeh è specificamente l'area fuori fuoco di un'immagine. La sfocatura gaussiana è un algoritmo che consente di sfocare aree selezionate dell'immagine, per nascondere i dettagli o farli sembrare fuori fuoco. Le principali differenze: * il bokeh viene creato otticamente, la sfocatura gaussiana in post-produzione; * nel bokeh, l'ampiezza della sfocatura di un punto fuori fuoco è determinata dalla sua distanza relativa dal piano focale, mentre la sfocatura gaussiana viene applicata a un'immagine bidimensionale in cui non sono presenti informazioni sulla distanza, quindi tutti i punti vengono sfocati allo stesso modo; * nel bokeh, le caratteristiche della sfocatura dipendono dalla configurazione e dalla forma dell'apertura dell'obiettivo, mentre la sfocatura gaussiana è sempre uniforme; * una piccola sorgente di luce sarà resa come una figura a forma di apertura con bordi ben definiti nel bokeh, mentre la sfocatura gaussiana la rende come un punto con bordi sfumati; * nel bokeh, il rumore è presente allo stesso livello delle parti a fuoco dell'immagine con la stessa luminanza; la sfocatura gaussiana elimina il rumore, quindi ci sarà meno rumore che nelle parti non sfocate dell'immagine; * Nel bokeh, le aree chiare predominano su quelle scure, mentre la sfocatura gaussiana preserva il rapporto tra aree chiare e scure. Quindi, tutto sommato, si può usare uno per falsificare l'altro, ma il risultato sarà simile solo per bokeh a basso rumore contenenti elementi su un piano approssimativamente parallelo al piano focale, che non includano aree significativamente più chiare o sorgenti luminose, e ripresi con un obiettivo che abbia un bokeh uniforme.
145
In 1969, NASA not only went to the moon, but broadcast the whole thing live on TV. How did they achieve the TV broadcast? What technology did they need to use to send a video and audio signal from the moon to earth? Was there much of a lag?
Apollo 11 mission had two modules * Lunar module - which descent to moon carrying two astronauts * command / service module- CSM was designed to return astronauts from the lunar surface on a direct-descent mission to earth and splash down. Direct telecast from the Command service module is not possible but CSM stored the recording of conversation which is transmitted by LM (which occur once in a rotation because the LM is stationary while CSM is orbiting the moon) then CSM sents to earth. Regarding the actual camera used in Apollo > Originally, these slow-scan television (SSTV) cameras, running at 10 frames-per-second (fps), produced only black and white pictures and first flew on the Apollo 7 mission in October 1968. NASA states as > The equipment onboard the Apollo Command Module that was used to make the recordings was called the Data Storage Equipment (DSE). Its contents were transmitted to the ground periodically during the mission. Also, the Command Module DSE had the capability to record data live during certain periods from the Lunar Module as it flew separately in lunar orbit. The equipment used aboard the Lunar Module to make the recordings was called the Data Storage Electronics Assembly (DSEA). It made recordings onboard the Lunar Module, but the DSEA flown on the Eagle during Apollo 11 malfunctioned. As a result, many of its recordings are barely, if at all, audible, with a constant high-pitched background tone. In the attached database, the recordings that are virtually inaudible are highlighted, but they are available on the web to ensure a complete release of the recordings made during the mission. and > The portion of the broadcast spectrum traditionally used for video was sending vital ship data to Earth, and there was no room left for the standard black-and- white video format of the era: 525 scan lines of data at 30 frames per second, transmitted at 4.5 MHz. So Lebar helped devise a smaller "oddball format" – 320 scan lines at 10 fps, transmitted at a meager 500 kHz. Tracking stations back on Earth would take this so-called slow-scan footage, convert it for TV broadcast, and beam it to Mission Control, which would send it out for the world to see. Transmission stations > To ensure a direct transmission signal from the moon, NASA had to maintain stations in three continents – two in Australia (the Honeysuckle Creek Tracking Station near Canberra and the Parkes Radio Observatory surrounded by sheep paddocks west of Sydney); one at the Goldstone Deep Space Communications Complex in the Mojave Desert of California; and one at the Madrid Manned Flight Tracking Site in Spain........ the tracking stations with a direct line on the Apollo 's signal were the ones in Australia. The 200-foot-diameter radio dish at the Parkes facility manag to withstand freak 70 mph gusts of wind and successfully captured the footage, which was converted and relayed to Houston.
1969 flog die NASA nicht nur zum Mond, sondern übertrug das Ganze auch live im Fernsehen. Wie wurde die TV-Übertragung erreicht? Welche Technologie musste verwendet werden, um ein Video- und Audiosignal vom Mond zur Erde zu senden? Gab es eine große Verzögerung?
Die Apollo 11-Mission hatte zwei Module * Mondlandefähre - für den Abstieg zum Mond mit zwei Astronauten * Kommando-/Servicemodul - das CSM sollte die Astronauten von der Mondoberfläche im direkten Abstieg zur Erde zurückbringen und dort abspritzen. Direkte Fernsehübertragungen vom Kommando-/Servicemodul sind nicht möglich, aber das CSM speicherte die Aufzeichnung des Gesprächs, das vom LM übertragen wird (was einmal in einer Rotation geschieht, weil das LM stationär ist, während das CSM den Mond umkreist) und dann vom CSM zur Erde gesendet wird. Was die in Apollo verwendete Kamera betrifft > Ursprünglich produzierten diese Slow-Scan-TV-Kameras (SSTV), die mit 10 Bildern pro Sekunde arbeiten, nur Schwarz-Weiß-Bilder und wurden erstmals bei der Apollo-7-Mission im Oktober 1968 eingesetzt. Die NASA erklärt dazu > Das Gerät an Bord der Apollo-Kommandokapsel, mit dem die Aufnahmen gemacht wurden, hieß Data Storage Equipment (DSE). Sein Inhalt wurde während der Mission in regelmäßigen Abständen an den Boden übertragen. Außerdem konnte das DSE der Kommandokapsel während bestimmter Zeiträume Daten live von der Mondlandefähre aufzeichnen, während diese separat in der Mondumlaufbahn flog. Die Ausrüstung, die an Bord der Mondlandefähre für die Aufzeichnungen verwendet wurde, hieß Data Storage Electronics Assembly (DSEA). Sie machte die Aufnahmen an Bord der Mondlandefähre, aber die DSEA, die während Apollo 11 mit der Eagle geflogen wurde, hatte eine Fehlfunktion. Infolgedessen sind viele der Aufzeichnungen kaum oder gar nicht hörbar, sondern mit einem konstanten hohen Hintergrundton versehen. In der beigefügten Datenbank sind die praktisch unhörbaren Aufnahmen hervorgehoben, aber sie sind im Internet verfügbar, um eine vollständige Veröffentlichung der während der Mission gemachten Aufnahmen zu gewährleisten. und > Der Teil des Rundfunkspektrums, der traditionell für Videos genutzt wurde, sendete wichtige Schiffsdaten zur Erde, und es gab keinen Platz mehr für das damalige Standard-Schwarzweiß-Videoformat: 525 Zeilen mit 30 Bildern pro Sekunde, übertragen mit 4,5 MHz. Also half Lebar bei der Entwicklung eines kleineren "Oddball-Formats" - 320 Zeilen mit 10 Bildern pro Sekunde, die mit mageren 500 kHz übertragen wurden. Diese so genannten Slow-Scan-Aufnahmen wurden von den Verfolgungsstationen auf der Erde für die TV-Ausstrahlung konvertiert und an die Missionskontrolle weitergeleitet, die sie dann der ganzen Welt vorführte. Übertragungsstationen > Um ein direktes Übertragungssignal vom Mond zu gewährleisten, musste die NASA Stationen auf drei Kontinenten unterhalten - zwei in Australien (die Honeysuckle Creek Tracking Station in der Nähe von Canberra und das Parkes Radio Observatory inmitten von Schafsweiden westlich von Sydney), eine im Goldstone Deep Space Communications Complex in der kalifornischen Mojave-Wüste und eine in der Madrid Manned Flight Tracking Site in Spanien. ........ Die Tracking-Stationen mit einer direkten Verbindung zum Apollo-Signal waren die in Australien. Die 200-Fuß-Durchmesser-Funkantenne in der Parkes-Anlage hielt den extremen Windböen von 70 mph stand und erfasste erfolgreich das Filmmaterial, das umgewandelt und nach Houston weitergeleitet wurde.
En 1969, la NASA no sólo fue a la Luna, sino que lo retransmitió todo en directo por televisión. ¿Cómo lo consiguieron? ¿Qué tecnología necesitaron para enviar una señal de vídeo y audio desde la Luna a la Tierra? ¿Hubo mucho retraso?
La misión Apolo 11 tenía dos módulos * módulo lunar - que descendió a la luna llevando a dos astronautas * módulo de mando / servicio- CSM fue diseñado para devolver a los astronautas desde la superficie lunar en una misión de descenso directo a la tierra y amerizar. La transmisión directa desde el módulo de mando/servicio no es posible, pero el CSM almacena la grabación de la conversación que transmite el LM (que se produce una vez por rotación, ya que el LM está parado mientras el CSM orbita alrededor de la Luna) y la envía a la Tierra. En cuanto a la cámara utilizada en el Apolo > Originalmente, estas cámaras de televisión de barrido lento (SSTV), que funcionaban a 10 fotogramas por segundo (fps), sólo producían imágenes en blanco y negro y volaron por primera vez en la misión Apolo 7 en octubre de 1968. La NASA afirma que > El equipo a bordo del Módulo de Mando Apolo que se utilizó para realizar las grabaciones se denominó Equipo de Almacenamiento de Datos (DSE). Su contenido se transmitía a tierra periódicamente durante la misión. Además, el DSE del Módulo de Mando tenía la capacidad de grabar datos en directo durante ciertos periodos desde el Módulo Lunar mientras volaba por separado en órbita lunar. El equipo utilizado a bordo del Módulo Lunar para realizar las grabaciones se denominaba Conjunto Electrónico de Almacenamiento de Datos (DSEA). En el módulo lunar se realizaron grabaciones, pero el DSEA que voló en el Eagle durante el Apolo 11 funcionó mal. Como resultado, muchas de sus grabaciones apenas se oyen, si es que se oyen, con un tono de fondo agudo y constante. En la base de datos adjunta se destacan las grabaciones que son prácticamente inaudibles, pero están disponibles en la web para garantizar una difusión completa de las grabaciones realizadas durante la misión. y > La porción del espectro de radiodifusión utilizada tradicionalmente para el vídeo estaba enviando datos vitales de la nave a la Tierra, y no quedaba espacio para el formato de vídeo en blanco y negro estándar de la época: 525 líneas de barrido de datos a 30 fotogramas por segundo, transmitidos a 4,5 MHz. Lebar ayudó a crear un formato más pequeño: 320 líneas de barrido a 10 fps, transmitidas a 500 kHz. Las estaciones de seguimiento de la Tierra tomaban estas imágenes de barrido lento, las convertían para su transmisión por televisión y las enviaban al Control de la Misión, que las difundía para que las viera todo el mundo. Estaciones de transmisión > Para garantizar una señal de transmisión directa desde la Luna, la NASA tuvo que mantener estaciones en tres continentes: dos en Australia (la estación de seguimiento de Honeysuckle Creek, cerca de Canberra, y el radioobservatorio de Parkes, rodeado de prados de ovejas al oeste de Sydney); una en el Complejo de Comunicaciones del Espacio Profundo de Goldstone, en el desierto californiano de Mojave; y otra en el Sitio de Seguimiento de Vuelos Tripulados de Madrid, en España......... Las estaciones de seguimiento con línea directa sobre la señal del Apolo eran las de Australia. La antena parabólica de 200 pies de diámetro de las instalaciones de Parkes resistió las ráfagas de viento de 70 mph y captó las imágenes, que fueron convertidas y retransmitidas a Houston.
En 1969, la NASA s'est non seulement rendue sur la Lune, mais elle a également retransmis l'événement en direct à la télévision. Comment ont-ils réussi à diffuser l'événement à la télévision ? Quelle technologie a-t-elle dû utiliser pour envoyer un signal vidéo et audio de la lune à la terre ? Y a-t-il eu un décalage important ?
La mission Apollo 11 comportait deux modules * le module lunaire, qui descendait sur la lune avec deux astronautes à son bord * Le module de commande et de service (CSM), conçu pour ramener les astronautes de la surface lunaire en mission de descente directe vers la Terre et pour les faire s'écraser sur le sol. La télédiffusion directe depuis le module de commande et de service n'est pas possible, mais le CSM stocke l'enregistrement de la conversation qui est transmise par le LM (ce qui se produit une fois par rotation car le LM est stationnaire pendant que le CSM est en orbite autour de la lune), puis le CSM l'envoie vers la Terre. En ce qui concerne la caméra utilisée dans Apollo > À l'origine, ces caméras de télévision à balayage lent (SSTV), fonctionnant à 10 images par seconde (ips), ne produisaient que des images en noir et blanc et ont été utilisées pour la première fois lors de la mission Apollo 7 en octobre 1968. La NASA déclare > L'équipement à bord du module de commande Apollo utilisé pour réaliser les enregistrements était appelé Data Storage Equipment (DSE). Son contenu a été transmis au sol périodiquement au cours de la mission. De plus, le DSE du module de commande avait la capacité d'enregistrer des données en direct pendant certaines périodes à partir du module lunaire qui volait séparément en orbite lunaire. L'équipement utilisé à bord du module lunaire pour effectuer les enregistrements était appelé Data Storage Electronics Assembly (DSEA). Il effectuait des enregistrements à bord du module lunaire, mais le DSEA embarqué sur l'Eagle lors d'Apollo 11 a connu des dysfonctionnements. Par conséquent, nombre de ses enregistrements sont à peine audibles, voire pas du tout, avec une tonalité de fond aiguë constante. Dans la base de données ci-jointe, les enregistrements qui sont pratiquement inaudibles sont mis en évidence, mais ils sont disponibles sur le web afin de garantir une diffusion complète des enregistrements réalisés au cours de la mission. et > La partie du spectre de diffusion traditionnellement utilisée pour la vidéo envoyait des données vitales du vaisseau vers la Terre, et il n'y avait plus de place pour le format vidéo noir et blanc standard de l'époque : 525 lignes de balayage de données à 30 images par seconde, transmises à 4,5 MHz. Lebar a donc contribué à la conception d'un "format bizarre" plus petit : 320 lignes de balayage à 10 images par seconde, transmises à un maigre 500 kHz. Les stations de repérage sur Terre prenaient ces images à balayage lent, les convertissaient pour la télédiffusion et les transmettaient au centre de contrôle de la mission, qui les diffusait pour que le monde entier puisse les voir. Stations de transmission > Pour assurer une transmission directe du signal lunaire, la NASA a dû installer des stations sur trois continents : deux en Australie (la station de poursuite de Honeysuckle Creek, près de Canberra, et l'observatoire radio de Parkes, entouré d'enclos à moutons, à l'ouest de Sydney), une au complexe de communications Goldstone Deep Space, dans le désert de Mojave, en Californie, et une au site de poursuite des vols habités de Madrid, en Espagne (........). Les stations de poursuite qui avaient une ligne directe sur le signal d'Apollo étaient celles d'Australie. L'antenne parabolique de 200 pieds de diamètre du site de Parkes a résisté à des rafales de vent de 70 mph et a réussi à capturer les images, qui ont été converties et relayées à Houston.
Nel 1969, la NASA non solo andò sulla Luna, ma trasmise il tutto in diretta televisiva. Come è stato possibile ottenere la trasmissione televisiva? Quale tecnologia hanno dovuto utilizzare per inviare un segnale video e audio dalla Luna alla Terra? C'era molto ritardo?
La missione Apollo 11 aveva due moduli * Modulo lunare - che scendeva sulla Luna trasportando due astronauti. * Modulo di comando/servizio: il CSM era stato progettato per riportare gli astronauti dalla superficie lunare in una missione di discesa diretta verso la Terra e per schizzare a terra. La telecronaca diretta dal modulo di comando non è possibile, ma il CSM ha memorizzato la registrazione della conversazione che viene trasmessa dal LM (che avviene una volta a rotazione perché il LM è fermo mentre il CSM è in orbita intorno alla luna) e poi il CSM la invia a terra. Per quanto riguarda l'effettiva telecamera utilizzata nell'Apollo > In origine, queste telecamere a scansione lenta (SSTV), che funzionavano a 10 fotogrammi al secondo (fps), producevano solo immagini in bianco e nero e hanno volato per la prima volta nella missione Apollo 7 nell'ottobre 1968. La NASA afferma che > L'apparecchiatura a bordo del modulo di comando Apollo utilizzata per effettuare le registrazioni era chiamata Data Storage Equipment (DSE). Il suo contenuto veniva trasmesso a terra periodicamente durante la missione. Inoltre, il DSE del Modulo di Comando aveva la capacità di registrare dati in diretta durante alcuni periodi dal Modulo Lunare mentre volava separatamente nell'orbita lunare. L'apparecchiatura utilizzata a bordo del Modulo Lunare per effettuare le registrazioni era chiamata Data Storage Electronics Assembly (DSEA). Il DSEA effettuava le registrazioni a bordo del Modulo Lunare, ma il DSEA che volava sull'Aquila durante l'Apollo 11 funzionava male. Di conseguenza, molte delle sue registrazioni sono a malapena, se non del tutto, udibili, con un tono di fondo costantemente acuto. Nel database allegato, le registrazioni praticamente inudibili sono evidenziate, ma sono disponibili sul web per garantire una pubblicazione completa delle registrazioni effettuate durante la missione. e > La porzione dello spettro di trasmissione tradizionalmente utilizzata per i video stava inviando alla Terra i dati vitali dell'astronave, e non c'era più spazio per il formato video in bianco e nero standard dell'epoca: 525 linee di scansione di dati a 30 fotogrammi al secondo, trasmessi a 4,5 MHz. Lebar contribuì quindi a ideare un "formato strano" più piccolo: 320 linee di scansione a 10 fps, trasmesse a una misera frequenza di 500 kHz. Le stazioni di tracciamento sulla Terra prendevano queste cosiddette riprese a scansione lenta, le convertivano per la trasmissione televisiva e le trasmettevano al Controllo Missione, che le inviava al mondo intero. Stazioni di trasmissione > Per garantire un segnale di trasmissione diretto dalla Luna, la NASA ha dovuto mantenere stazioni in tre continenti: due in Australia (la stazione di rilevamento di Honeysuckle Creek, vicino a Canberra, e l'osservatorio radio di Parkes, circondato da pascoli di pecore a ovest di Sydney), una presso il Goldstone Deep Space Communications Complex nel deserto del Mojave in California e una presso il Madrid Manned Flight Tracking Site in Spagna. L'antenna parabolica di 200 piedi di diametro della struttura di Parkes ha resistito a raffiche di vento di 70 miglia orarie ed è riuscita a catturare il filmato, che è stato convertito e trasmesso a Houston.
146
Why does "elite" rhyme with "beet" rather than "bite"?
This has everything to do with the following: * The language of origin of the word and * The point at which the word entered the English language. The reason that the words &quot;light&quot; and &quot;might&quot; and &quot;site&quot; have a diphthong is because they were present in spoken English during the Great Vowel Shift, which started in the 1400s and continued for a few hundred years. So words that had already entered the English language underwent that change in pronunciation. Those words could be of Anglo-Saxon, Norman French, or Latin origin. We see it across the board. However, the word elite entered English towards the end of the period of the Great Vowel shift. The first attestation is in the mid 1700s (1738 in the OED). This is probably further complicated by the fact that French has long been the language of nobility, so there are certain pressures to maintain the pronunciation patterns of the origin language. &quot;Elite&quot; joined the party a little bit late, so its pronunciation remained rather stable. As Rjpond points out, elite is a modern borrowing. Words like crime, sublime, mime, etc. are older borrowings. To note: There are early occurrences of the word &quot;elite&quot; in around 1400, with the meaning of a &quot;bishop elect&quot;. This sense of the word died out and is now marked as archaic. So when &quot;elite&quot; was re-introduced (directly from French) in the 1700s, there was no existing pronunciation. Small addendum: Already existing in English is another word that already occupies the same lexical space that elite would occupy, if the pronunciation were analogized to bite: alight, which dates back to Old English. (It's a lovely word.) You might say that there is some linguistic pressure to avoid creating homophones: elite vs. alight.
Warum reimt sich "elite" auf "beet" und nicht auf "bite"?
Dies hat vor allem mit Folgendem zu tun: * die Ursprungssprache des Wortes und * dem Zeitpunkt, an dem das Wort in die englische Sprache eingegangen ist. Der Grund dafür, dass die Wörter &quot;light&quot; und &quot;might&quot; und &quot;site&quot; einen Diphthong haben, ist, dass sie im gesprochenen Englisch während der großen Vokalverschiebung (Great Vowel Shift) vorkamen, die um 1400 begann und einige hundert Jahre andauerte. So wurden Wörter, die bereits in die englische Sprache eingegangen waren, dieser Änderung in der Aussprache unterzogen. Diese Wörter können angelsächsischen, normannisch-französischen oder lateinischen Ursprungs sein. Das ist überall der Fall. Das Wort elite kam jedoch erst gegen Ende des Zeitraums der großen Vokalverschiebung ins Englische. Die erste Erwähnung stammt aus der Mitte des 17. Jahrhunderts (1738 im OED). Dies wird wahrscheinlich dadurch erschwert, dass das Französische lange Zeit die Sprache des Adels war, so dass ein gewisser Druck besteht, die Aussprachemuster der Ursprungssprache beizubehalten. &quot;Elite&quot; kam erst etwas später dazu, so dass seine Aussprache ziemlich stabil blieb. Wie Rjpond anmerkt, ist Elite eine moderne Entlehnung. Wörter wie crime, sublime, mime usw. sind ältere Entlehnungen. Zu beachten: Es gibt frühe Vorkommen des Wortes &quot;Elite&quot; um 1400, mit der Bedeutung eines &quot;gewählten Bischofs&quot;. Diese Bedeutung des Wortes ist ausgestorben und wird heute als archaisch bezeichnet. Als &quot;elite&quot; um 1700 (direkt aus dem Französischen) wieder eingeführt wurde, gab es keine bestehende Aussprache. Kleiner Nachtrag: Im Englischen gibt es bereits ein anderes Wort, das denselben lexikalischen Platz einnimmt, den elite einnehmen würde, wenn man die Aussprache mit bite vergleichen würde: alight, das auf Altenglisch zurückgeht. (Es ist ein schönes Wort.) Man könnte sagen, dass es einen gewissen sprachlichen Druck gibt, die Bildung von Homophonen zu vermeiden: elite vs. alight.
¿Por qué "elite" rima con "beet" y no con "bite"?
Esto tiene todo que ver con lo siguiente: * La lengua de origen de la palabra y * El momento en que la palabra entró en la lengua inglesa. La razón por la que las palabras &quot;light&quot; y &quot;might&quot; y &quot;site&quot; tienen un diptongo es que estaban presentes en el inglés hablado durante el Gran Cambio Vocal, que comenzó en el siglo XIV y continuó durante unos cientos de años. Así que las palabras que ya habían entrado en la lengua inglesa sufrieron ese cambio de pronunciación. Esas palabras podían ser de origen anglosajón, francés normando o latino. Lo vemos en todas partes. Sin embargo, la palabra elite entró en inglés hacia el final del periodo del Gran Cambio Vocal. La primera atestación data de mediados del siglo XVIII (1738 en el OED). Probablemente esto se complique aún más por el hecho de que el francés ha sido durante mucho tiempo la lengua de la nobleza, por lo que existen ciertas presiones para mantener los patrones de pronunciación de la lengua de origen. &quot;Élite&quot; se unió a la fiesta un poco tarde, por lo que su pronunciación se mantuvo bastante estable. Como señala Rjpond, élite es un préstamo moderno. Palabras como crimen, sublime, mimo, etc. son préstamos más antiguos. A tener en cuenta: hay apariciones tempranas de la palabra &quot;élite&quot; hacia 1400, con el significado de &quot;obispo electo&quot;. Este sentido de la palabra se extinguió y ahora se considera arcaico. Por eso, cuando se reintrodujo (directamente del francés) en el siglo XVIII, no existía pronunciación alguna. Pequeña adición: Ya existe en inglés otra palabra que ya ocupa el mismo espacio léxico que ocuparía elite, si la pronunciación fuera análoga a bite: alight, que se remonta al inglés antiguo. (Es una palabra preciosa). Se podría decir que existe cierta presión lingüística para evitar la creación de homófonos: elite frente a alight.
Pourquoi "élite" rime-t-il avec "betterave" plutôt qu'avec "morsure" ?
Cela a tout à voir avec ce qui suit : * la langue d'origine du mot et * Le moment où le mot est entré dans la langue anglaise. La raison pour laquelle les mots &quot;light&quot ; et &quot;might&quot ; et &quot;site&quot ; ont une diphtongue est qu'ils étaient présents dans l'anglais parlé pendant le Great Vowel Shift, qui a commencé dans les années 1400 et s'est poursuivi pendant quelques centaines d'années. Les mots qui étaient déjà entrés dans la langue anglaise ont donc subi ce changement de prononciation. Ces mots peuvent être d'origine anglo-saxonne, française normande ou latine. C'est le cas partout. Toutefois, le mot elite est entré dans la langue anglaise vers la fin de la période du grand changement de voyelles. La première attestation date du milieu des années 1700 (1738 dans l'OED). Cette situation est probablement compliquée par le fait que le français a longtemps été la langue de la noblesse et qu'il existe donc certaines pressions pour maintenir les modèles de prononciation de la langue d'origine. Elite a rejoint la fête un peu tard, et sa prononciation est donc restée plutôt stable. Comme le souligne Rjpond, élite est un emprunt moderne. Des mots comme crime, sublime, mime, etc. sont des emprunts plus anciens. À noter : on trouve des occurrences précoces du mot "élite" vers 1400, avec le sens d'"évêque élu". Ce sens du mot s'est éteint et est aujourd'hui considéré comme archaïque. Ainsi, lorsque le mot "élite" a été réintroduit (directement du français) dans les années 1700, il n'y avait pas de prononciation existante. Petit ajout : Il existe déjà en anglais un autre mot qui occupe déjà le même espace lexical qu'elite, si la prononciation était analogue à mordre : alight, qui remonte au vieil anglais. (C'est un mot charmant.) On pourrait dire qu'il existe une certaine pression linguistique pour éviter de créer des homophones : elite vs. alight.
Perché "elite" fa rima con "beet" e non con "bite"?
Ciò ha a che fare con quanto segue: * la lingua di origine della parola e * Il punto in cui la parola è entrata nella lingua inglese. Il motivo per cui le parole &quot;light&quot; e &quot;might&quot; e &quot;site&quot; hanno un dittongo è che erano presenti nell'inglese parlato durante il Great Vowel Shift, che iniziò nel 1400 e continuò per alcune centinaia di anni. Quindi le parole che erano già entrate nella lingua inglese hanno subito questo cambiamento di pronuncia. Queste parole potevano essere di origine anglosassone, francese normanna o latina. Lo vediamo dappertutto. Tuttavia, la parola elite è entrata in inglese verso la fine del periodo del Grande spostamento di vocali. La prima attestazione risale alla metà del 1700 (1738 nell'OED). Ciò è probabilmente ulteriormente complicato dal fatto che il francese è stato a lungo la lingua della nobiltà, per cui vi sono alcune pressioni per mantenere i modelli di pronuncia della lingua d'origine. &quot;Elite&quot; si è unito al partito un po' tardi, quindi la sua pronuncia è rimasta piuttosto stabile. Come sottolinea Rjpond, élite è un prestito moderno. Parole come crimine, sublime, mimo, ecc. sono prestiti più antichi. Da notare: ci sono prime occorrenze della parola &quot;élite&quot; intorno al 1400, con il significato di &quot;vescovo eletto&quot;. Questo senso della parola si è estinto ed è ora contrassegnato come arcaico. Così, quando &quot;élite&quot; è stata reintrodotta (direttamente dal francese) nel 1700, non esisteva alcuna pronuncia esistente. Piccola aggiunta: Esiste già in inglese un'altra parola che occupa lo stesso spazio lessicale che occuperebbe elite, se la pronuncia fosse analoga a bite: alight, che risale all'antico inglese. (È una parola adorabile). Si potrebbe dire che c'è una certa pressione linguistica per evitare di creare omofoni: elite vs. alight.
147
A lot of ShaderToy demos share the Ray Marching algorithm to render the scene, but they are often written with a very compact style and i can't find any straightforward examples or explanation. So what is Ray Marching? Some comments suggests that it is a variation of Sphere Tracing. What are the computational advantages of a such approach?
## TL;DR They belong to the same family of solvers, where sphere tracing is one method of ray marching, which is the family name. ## Raymarching a definition Raymarching is a technique a bit like traditional raytracing where the surface function is not easy to solve (or impossible without numeric iterative methods). In raytracing you just look up the ray intersection, whereas in ray marching you march forward (or back and forth) until you find the intersection, have enough samples or whatever it is your trying to solve. Try to think of it like a newton-raphson method for surface finding, or summing for integrating a varying function. This can be useful if you: * Need to render volumetrics that arenot uniform * Rendering implicit functions, fractals * Rendering other kinds of parametric surfaces where intersection is not known ahead of time, like paralax mapping etc. ## Sphere tracing Sphere tracing is one possible Ray marching algorithm. Not all raymarching uses benefit form this method, as they can not be converted into this kind of scheme. Sphere tracing is used for rendering implicit surfaces. Implicit surfaces are formed at some level of a continuous function. In essence solving the equation ```F(X,Y,Z) = 0 ``` Because of how this function can be solved at each point, one can go ahead and estimate the biggest possible sphere that can fit the current march step (or if not exactly reasonably safely). You then know that next march distance is at least this big. This way you can have adaptive ray marching steps speeding up the process.
Viele ShaderToy Demos nutzen den Ray Marching Algorithmus um die Szene zu rendern, aber sie sind oft in einem sehr kompakten Stil geschrieben und ich kann keine einfachen Beispiele oder Erklärungen finden. Was also ist Ray Marching? Einige Kommentare deuten darauf hin, dass es sich um eine Variante des Sphere Tracing handelt. Was sind die rechnerischen Vorteile eines solchen Ansatzes?
*# TL;DR Sie gehören zur gleichen Familie von Solvern, wobei Sphere Tracing eine Methode des Ray Marching ist, was der Name der Familie ist. ## Raymarching eine Definition Raymarching ist eine Technik, die dem traditionellen Raytracing ähnelt, bei dem die Oberflächenfunktion nicht einfach zu lösen ist (oder ohne numerische iterative Methoden unmöglich). Beim Raytracing sucht man einfach nach dem Strahlenschnittpunkt, während man beim Raymarching so lange vorwärts (oder rückwärts und vorwärts) marschiert, bis man den Schnittpunkt gefunden hat, genügend Stichproben hat oder was auch immer es ist, das man zu lösen versucht. Stellen Sie sich das Verfahren wie eine Newton-Raphson-Methode für die Oberflächenfindung oder eine Summierung für die Integration einer variablen Funktion vor. Dies kann nützlich sein, wenn Sie: * Volumetrische Darstellungen, die nicht gleichmäßig sind * Rendering impliziter Funktionen, Fraktale * Rendering anderer Arten von parametrischen Oberflächen, bei denen der Schnittpunkt nicht im Voraus bekannt ist, wie Paralax-Mapping usw. ## Sphere tracing Sphere tracing ist ein möglicher Ray marching Algorithmus. Nicht alle Raymarching-Anwendungen profitieren von dieser Methode, da sie nicht in diese Art von Schema umgewandelt werden können. Sphere tracing wird für das Rendern impliziter Oberflächen verwendet. Implizite Oberflächen werden auf einer bestimmten Ebene einer kontinuierlichen Funktion gebildet. Im Wesentlichen löst man die Gleichung F(X,Y,Z) = 0 ``` Da diese Funktion in jedem Punkt gelöst werden kann, kann man die größtmögliche Kugel abschätzen, die in den aktuellen Marschschritt passt (oder wenn nicht genau, dann einigermaßen sicher). Man weiß dann, dass die nächste Marschstrecke mindestens so groß ist. Auf diese Weise kann man adaptive Strahlenmarschschritte machen, die den Prozess beschleunigen.
Muchas demos de ShaderToy comparten el algoritmo Ray Marching para renderizar la escena, pero a menudo están escritas con un estilo muy compacto y no puedo encontrar ningún ejemplo o explicación directa. ¿Qué es Ray Marching? Algunos comentarios sugieren que es una variación de Sphere Tracing. ¿Cuáles son las ventajas computacionales de este enfoque?
## TL;DR Pertenecen a la misma familia de solucionadores, donde el trazado de esferas es un método de la marcha de rayos, que es el nombre de la familia. ## Definición de raymarching Raymarching es una técnica un poco parecida al raytracing tradicional donde la función de superficie no es fácil de resolver (o imposible sin métodos iterativos numéricos). En el raytracing simplemente buscas la intersección del rayo, mientras que en el raymarching avanzas (o retrocedes y avanzas) hasta que encuentras la intersección, tienes suficientes muestras o lo que sea que estés intentando resolver. Piensa en ello como si fuera un método Newton-Raphson para encontrar superficies, o una suma para integrar una función variable. Esto puede ser útil si usted: * Necesitas renderizar volumetrías que no son uniformes. * Renderizado de funciones implícitas, fractales * Renderizado de otros tipos de superficies paramétricas donde la intersección no se conoce de antemano, como paralax mapping etc. ## Trazado de esferas El trazado de esferas es un posible algoritmo de Raymarching. No todos los usos de raymarching se benefician de este método, ya que no pueden convertirse a este tipo de esquema. El trazado de esferas se utiliza para renderizar superficies implícitas. Las superficies implícitas se forman en algún nivel de una función continua. En esencia resolviendo la ecuación ```F(X,Y,Z) = 0 ``` Debido a la forma en que esta función se puede resolver en cada punto, uno puede seguir adelante y estimar la esfera más grande posible que puede caber en el paso de la marcha actual (o si no exactamente con razonable seguridad). Entonces se sabe que la siguiente distancia de marcha es al menos de este tamaño. De esta forma puedes tener pasos de marcha de rayos adaptativos acelerando el proceso.
Beaucoup de démos ShaderToy utilisent l'algorithme de Ray Marching pour rendre la scène, mais elles sont souvent écrites dans un style très compact et je n'ai pas trouvé d'exemples ou d'explications claires. Qu'est-ce que le Ray Marching ? Certains commentaires suggèrent qu'il s'agit d'une variante du Sphere Tracing. Quels sont les avantages d'une telle approche en termes de calcul ?
## TL;DR Ils appartiennent à la même famille de solveurs, où le traçage de sphères est une méthode du ray marching, qui est le nom de la famille. ## La marche des rayons, une définition Le raymarching est une technique qui ressemble un peu au raytracing traditionnel lorsque la fonction de surface n'est pas facile à résoudre (ou impossible sans méthodes itératives numériques). Dans le raytracing, vous recherchez simplement l'intersection des rayons, alors que dans le raymarching, vous avancez (ou reculez et avancez) jusqu'à ce que vous trouviez l'intersection, que vous ayez suffisamment d'échantillons ou que vous essayiez de résoudre le problème. Essayez d'y penser comme à une méthode de Newton-raphson pour la recherche de surface, ou à la sommation pour l'intégration d'une fonction variable. Cela peut être utile si vous.. : * Vous avez besoin de rendre des volumes qui ne sont pas uniformes. * Rendre des fonctions implicites, des fractales * Rendre d'autres types de surfaces paramétriques où l'intersection n'est pas connue à l'avance, comme la cartographie paralaxique etc. ## Traçage de sphères Le traçage de sphères est l'un des algorithmes possibles de la marche des rayons. Toutes les utilisations du raymarching ne bénéficient pas de cette méthode, car elles ne peuvent pas être converties dans ce type de schéma. Le traçage de sphères est utilisé pour le rendu de surfaces implicites. Les surfaces implicites sont formées à un certain niveau d'une fonction continue. Il s'agit essentiellement de résoudre l'équation ```F(X,Y,Z) = 0 ``` Étant donné que cette fonction peut être résolue en chaque point, il est possible d'estimer la plus grande sphère possible correspondant au pas de marche actuel (ou, si ce n'est pas le cas, à une distance raisonnablement sûre). On sait alors que la prochaine distance de marche est au moins aussi grande. De cette façon, vous pouvez avoir des étapes de marche adaptative des rayons qui accélèrent le processus.
Molte demo di ShaderToy condividono l'algoritmo Ray Marching per renderizzare la scena, ma spesso sono scritte con uno stile molto compatto e non riesco a trovare esempi o spiegazioni chiare. Che cos'è il Ray Marching? Alcuni commenti suggeriscono che si tratta di una variante dello Sphere Tracing. Quali sono i vantaggi computazionali di questo approccio?
## TL;DR Appartengono alla stessa famiglia di risolutori, dove il tracciamento della sfera è un metodo di ray marching, che è il nome della famiglia. ## Definizione di Raymarching Il raymarching è una tecnica un po' simile al raytracing tradizionale in cui la funzione di superficie non è facile da risolvere (o impossibile senza metodi numerici iterativi). Nel raytracing si cerca semplicemente l'intersezione dei raggi, mentre nel ray marching si marcia in avanti (o avanti e indietro) finché non si trova l'intersezione, non si hanno abbastanza campioni o qualsiasi cosa si stia cercando di risolvere. Provate a considerarlo come un metodo di Newton-raphson per la ricerca di superfici o come una somma per integrare una funzione variabile. Questo può essere utile se: * necessità di eseguire il rendering di volumetrie che non sono uniformi * Rendering di funzioni implicite, frattali * Rendering di altri tipi di superfici parametriche in cui l'intersezione non è nota in anticipo, come la mappatura paralax ecc. ## Tracciamento della sfera Il tracciamento della sfera è un possibile algoritmo di Ray marching. Non tutti gli usi del raymarching beneficiano di questo metodo, poiché non possono essere convertiti in questo tipo di schema. Il tracciamento della sfera viene utilizzato per il rendering di superfici implicite. Le superfici implicite si formano a un certo livello di una funzione continua. In sostanza, si risolve l'equazione ``F(X,Y,Z) = 0 ``` Grazie al modo in cui questa funzione può essere risolta in ogni punto, si può procedere a stimare la sfera più grande possibile che può adattarsi al passo di marcia corrente (o, se non esattamente, in modo ragionevolmente sicuro). In questo modo si sa che la distanza di marcia successiva è almeno questa. In questo modo si possono avere passi di marcia a raggiera adattivi che accelerano il processo.
148
Is martial arts training 'inadequate' for the real world?
Yes, depending on your definitions of martial arts, inadequate, and real world. No, depending on your definitions of martial arts, inadequate, and real world. Surviving an attack (or combat) is all about stacking the deck in your favour: martial arts (arts of Mars, the God of War) do help, so do guns, team mates, artillery, the police, not being there, body armour, etc... There is no such thing as a typical real world violent attack. For example, urban warfare is not the same thing as a bar brawl and both require very different skill sets to survive. The no prior warning is utter rubbish. There are always signs that something is about to happen. Sure, one may not notice those and a skilled attacker will be trained in camouflaging those signs but they always are. Police officers, body guards, soldiers, etc... are all trained in recognise those signs. Making general sweeping statements about violence and how to survive it generally indicate either bad research or an agenda. For a good site about self defence, especially the section on martial arts, see MacYoung's no nonsense self defense. But this is about civilian self defence in a stable country. If you were in a civil war zone, the advise would be very different.
Ist die Kampfsportausbildung für die reale Welt "ungeeignet"?
Ja, je nach Ihrer Definition von Kampfsport, unzureichend und reale Welt. Nein, je nach Ihrer Definition von Kampfsport, unangemessen und reale Welt. Um einen Angriff (oder einen Kampf) zu überleben, muss man die Karten zu seinen Gunsten stapeln: Kampfkünste (die Künste des Mars, der Kriegsgott) helfen, ebenso wie Waffen, Teamkollegen, Artillerie, die Polizei, das Nichtvorhandensein, Schutzwesten usw... So etwas wie einen typischen gewalttätigen Angriff in der realen Welt gibt es nicht. So ist zum Beispiel der Krieg in den Städten nicht dasselbe wie eine Kneipenschlägerei, und beide erfordern sehr unterschiedliche Fähigkeiten, um zu überleben. Die Behauptung, dass es keine Vorwarnung gibt, ist völliger Blödsinn. Es gibt immer Anzeichen dafür, dass sich etwas anbahnt. Sicher, man bemerkt sie vielleicht nicht und ein geschickter Angreifer ist darin geübt, diese Anzeichen zu verschleiern, aber es gibt sie immer. Polizeibeamte, Personenschützer, Soldaten usw. sind alle darin geschult, diese Anzeichen zu erkennen. Pauschale Aussagen über Gewalt und wie man sie überleben kann, deuten in der Regel entweder auf eine schlechte Recherche oder auf eine bestimmte Absicht hin. Eine gute Seite über Selbstverteidigung, insbesondere den Abschnitt über Kampfsportarten, finden Sie in MacYoungs No Nonsense Self Defense. Aber hier geht es um zivile Selbstverteidigung in einem stabilen Land. Wenn Sie sich in einem Bürgerkriegsgebiet befinden würden, wären die Ratschläge ganz anders.
¿Es la formación en artes marciales "inadecuada" para el mundo real?
Sí, dependiendo de sus definiciones de artes marciales, inadecuado y mundo real. No, dependiendo de sus definiciones de artes marciales, inadecuado y mundo real. Sobrevivir a un ataque (o a un combate) consiste en poner la baraja a tu favor: las artes marciales (artes de Marte, el Dios de la Guerra) ayudan, también lo hacen las armas, los compañeros de equipo, la artillería, la policía, no estar allí, el chaleco antibalas, etc. No existe un ataque violento típico del mundo real. Por ejemplo, no es lo mismo una guerra urbana que una pelea en un bar, y ambas requieren habilidades muy diferentes para sobrevivir. La falta de advertencia previa es una tontería. Siempre hay señales de que algo va a ocurrir. Claro, uno puede no notarlas y un atacante hábil estará entrenado para camuflar esas señales, pero siempre las hay. Los agentes de policía, los guardaespaldas, los soldados, etc. están entrenados para reconocer esas señales. Hacer afirmaciones generales sobre la violencia y cómo sobrevivir a ella suele indicar una mala investigación o una agenda. Para un buen sitio sobre defensa personal, especialmente la sección sobre artes marciales, ver MacYoung's no nonsense self defense. Pero se trata de la autodefensa civil en un país estable. Si estuvieras en una zona de guerra civil, los consejos serían muy diferentes.
La formation aux arts martiaux est-elle "inadaptée" au monde réel ?
Oui, selon votre définition des arts martiaux, de l'inadéquation et du monde réel. Non, en fonction de votre définition des arts martiaux, de l'inadéquation et du monde réel. Pour survivre à une attaque (ou à un combat), il faut mettre toutes les chances de son côté : les arts martiaux (les arts de Mars, le Dieu de la guerre) sont utiles, tout comme les armes à feu, les coéquipiers, l'artillerie, la police, le fait de ne pas être là, les gilets pare-balles, etc... Il n'existe pas d'attaque violente typique dans le monde réel. Par exemple, la guerre urbaine n'est pas la même chose qu'une rixe dans un bar et les deux requièrent des compétences très différentes pour survivre. L'absence d'avertissement préalable est une ineptie totale. Il y a toujours des signes indiquant que quelque chose est sur le point de se produire. Bien sûr, on peut ne pas les remarquer et un attaquant habile sera formé pour camoufler ces signes, mais ils sont toujours là. Les policiers, les gardes du corps, les soldats, etc. sont tous formés à reconnaître ces signes. Faire des déclarations générales à l'emporte-pièce sur la violence et la manière d'y survivre indique généralement que les recherches sont mal faites ou que l'on a un agenda. Pour un bon site sur l'autodéfense, en particulier la section sur les arts martiaux, voir MacYoung's no nonsense self defense. Mais il s'agit ici d'autodéfense civile dans un pays stable. Si vous vous trouviez dans une zone de guerre civile, les conseils seraient très différents.
L'addestramento alle arti marziali è "inadeguato" per il mondo reale?
Sì, a seconda delle definizioni di arti marziali, inadeguatezza e mondo reale. No, a seconda delle vostre definizioni di arti marziali, inadeguatezza e mondo reale. Sopravvivere a un attacco (o a un combattimento) significa giocare a proprio favore: le arti marziali (le arti di Marte, il Dio della Guerra) aiutano, così come le armi, i compagni di squadra, l'artiglieria, la polizia, il non essere presenti, i giubbotti antiproiettile, ecc... Non esiste un tipico attacco violento nel mondo reale. Per esempio, la guerra urbana non è la stessa cosa di una rissa in un bar ed entrambe richiedono abilità molto diverse per sopravvivere. L'assenza di preavviso è una vera e propria sciocchezza. Ci sono sempre dei segnali che indicano che qualcosa sta per accadere. Certo, uno può non notarli e un aggressore esperto sarà addestrato a camuffarli, ma ci sono sempre. Gli agenti di polizia, le guardie del corpo, i soldati, ecc. sono tutti addestrati a riconoscere questi segnali. Fare affermazioni generiche sulla violenza e su come sopravvivere ad essa indica in genere o una cattiva ricerca o un'agenda. Per un buon sito sull'autodifesa, in particolare la sezione sulle arti marziali, si veda MacYoung's no nonsense self defense. Ma qui si parla di autodifesa dei civili in un paese stabile. Se vi trovaste in una zona di guerra civile, i consigli sarebbero molto diversi.
149
Make a single page landscape in Google Documents
Currently a single Google Document can only be either Landscape or Portrait not both. Changing page orientation is done by selecting File and then Page setup. It is currently recommended to separate the Landscape and Portrait pages into different documents. A good place to get more information that might help is at Google Products Forums. Note that an additional option might be to have three files in Google Docs. The Portrait, The Landscape, and Microsoft Word Doc which integrates the two layouts into the correct sequence (this document would be Read Only when viewed in Google Docs). A Microsoft Word document may allow multiple orientations of the Page Layout, but if it is converted to a Google Document the Page Layout for each page will revert to the first Orientation found in the document. Also, creating multiple Orientations in Word isn't as straight forward as one might want either. For those wanting to do this in Word: Use portrait and landscape orientation in the same document 1. Select the pages or paragraphs that you want to change to portrait or landscape orientation. NOTE: If you select some but not all of the text on a page to change to portrait or landscape orientation, Word places the selected text on its own page, and the surrounding text on separate pages. 2. On the Page Layout tab, in the Page Setup group, click Margins. 3. Click Custom Margins. (This is the important part) 4. On the Margins tab, click Portrait or Landscape. 5. In the Apply to list, click Selected text.. NOTE: Microsoft Word automatically inserts section breaks before and after the text that has the new page orientation. If your document is already divided into sections, you can click in a section (or select multiple sections), and then change the orientation for only the sections that you select.
Erstellen einer einzelnen Seite im Querformat in Google Documents
Derzeit kann ein einzelnes Google-Dokument nur entweder im Querformat oder im Hochformat angezeigt werden, nicht in beiden. Die Seitenausrichtung kann durch Auswahl von Datei und dann Seite einrichten geändert werden. Es wird derzeit empfohlen, die Seiten im Quer- und Hochformat in verschiedene Dokumente aufzuteilen. Ein guter Ort, um weitere Informationen zu erhalten, ist das Google Products Forum. Beachten Sie, dass eine zusätzliche Option darin bestehen könnte, drei Dateien in Google Text & Tabellen zu haben. Das Hochformat, das Querformat und ein Microsoft Word-Dokument, das die beiden Layouts in der richtigen Reihenfolge integriert (dieses Dokument wäre in Google Text & Tabellen schreibgeschützt). Ein Microsoft Word-Dokument kann mehrere Ausrichtungen des Seitenlayouts zulassen, aber wenn es in ein Google-Dokument konvertiert wird, wird das Seitenlayout für jede Seite auf die erste im Dokument gefundene Ausrichtung zurückgesetzt. Außerdem ist das Erstellen mehrerer Ausrichtungen in Word nicht so einfach, wie man es sich vielleicht wünscht. Für diejenigen, die dies in Word tun möchten: Hoch- und Querformat im selben Dokument verwenden 1. Markieren Sie die Seiten oder Absätze, die Sie ins Hoch- oder Querformat ändern möchten. HINWEIS: Wenn Sie einen Teil, aber nicht den gesamten Text auf einer Seite markieren, der ins Hoch- oder Querformat geändert werden soll, platziert Word den markierten Text auf einer eigenen Seite und den umgebenden Text auf separaten Seiten. 2. Klicken Sie auf der Registerkarte Seitenlayout in der Gruppe Seiteneinrichtung auf Ränder. 3. Klicken Sie auf Benutzerdefinierte Ränder. (Dies ist der wichtige Teil) 4. Klicken Sie auf der Registerkarte Ränder auf Hochformat oder Querformat. 5. Klicken Sie in der Liste Anwenden auf Ausgewählten Text. HINWEIS: Microsoft Word fügt automatisch Abschnittswechsel vor und nach dem Text ein, der die neue Seitenausrichtung hat. Wenn Ihr Dokument bereits in Abschnitte unterteilt ist, können Sie in einen Abschnitt klicken (oder mehrere Abschnitte auswählen) und dann die Ausrichtung nur für die ausgewählten Abschnitte ändern.
Crear una página apaisada en Documentos de Google
Actualmente, un solo documento de Google sólo puede ser horizontal o vertical, no ambos. Para cambiar la orientación de la página, seleccione Archivo y, a continuación, Configurar página. Actualmente se recomienda separar las páginas Horizontal y Vertical en documentos diferentes. Un buen lugar para obtener más información que podría ayudar es en Google Foros de Productos. Ten en cuenta que una opción adicional podría ser tener tres archivos en Google Docs. El Portrait, el Landscape y un documento de Microsoft Word que integre los dos diseños en la secuencia correcta (este documento sería de sólo lectura cuando se visualice en Google Docs). Un documento de Microsoft Word puede permitir múltiples orientaciones del Diseño de Página, pero si se convierte a un Documento de Google el Diseño de Página para cada página volverá a la primera Orientación encontrada en el documento. Además, crear varias orientaciones en Word tampoco es tan sencillo como cabría desear. Para aquellos que quieran hacer esto en Word: Usar orientación vertical y horizontal en el mismo documento 1. Seleccione las páginas o párrafos que desea cambiar a orientación vertical u horizontal. NOTA: Si selecciona parte pero no todo el texto de una página para cambiar a orientación vertical u horizontal, Word coloca el texto seleccionado en su propia página y el texto circundante en páginas separadas. 2. En la ficha Diseño de página, en el grupo Configurar página, haga clic en Márgenes. 3. 3. Haz clic en Márgenes personalizados. (Esta es la parte importante) 4. En la pestaña Márgenes, haz clic en Vertical u Horizontal. 5. 5. En la lista Aplicar a, haga clic en Texto seleccionado... NOTA: Microsoft Word inserta automáticamente saltos de sección antes y después del texto que tiene la nueva orientación de página. Si el documento ya está dividido en secciones, puede hacer clic en una sección (o seleccionar varias secciones) y, a continuación, cambiar la orientación sólo para las secciones que seleccione.
Créer une page paysage dans Google Documents
Actuellement, un même document Google ne peut être orienté que vers le paysage ou le portrait, et non les deux à la fois. Pour modifier l'orientation de la page, il suffit de sélectionner Fichier, puis Mise en page. Il est actuellement recommandé de séparer les pages Paysage et Portrait dans des documents différents. Les forums Google Products constituent un bon moyen d'obtenir des informations supplémentaires susceptibles de vous aider. Notez qu'une option supplémentaire pourrait être d'avoir trois fichiers dans Google Docs. Le Portrait, le Paysage et le document Microsoft Word qui intègre les deux mises en page dans l'ordre correct (ce document serait en lecture seule lorsqu'il serait consulté dans Google Docs). Un document Microsoft Word peut permettre plusieurs orientations de la mise en page, mais s'il est converti en document Google, la mise en page de chaque page reprendra la première orientation trouvée dans le document. Par ailleurs, la création de plusieurs orientations dans Word n'est pas aussi simple qu'on pourrait le souhaiter. Pour ceux qui souhaitent le faire dans Word : Utiliser l'orientation portrait et paysage dans le même document 1. Sélectionnez les pages ou les paragraphes que vous souhaitez orienter en mode portrait ou paysage. REMARQUE : Si vous sélectionnez une partie du texte d'une page, mais pas tout le texte, pour l'orienter en mode portrait ou paysage, Word place le texte sélectionné sur sa propre page et le texte environnant sur des pages séparées. 2. Sous l'onglet Mise en page, dans le groupe Mise en page, cliquez sur Marges. 3. Cliquez sur Marges personnalisées. (C'est la partie importante) 4. Dans l'onglet Marges, cliquez sur Portrait ou Paysage. 5. Dans la liste Appliquer à, cliquez sur Texte sélectionné. REMARQUE : Microsoft Word insère automatiquement des sauts de section avant et après le texte ayant la nouvelle orientation de page. Si votre document est déjà divisé en sections, vous pouvez cliquer sur une section (ou sélectionner plusieurs sections), puis modifier l'orientation pour les sections sélectionnées uniquement.
Creare una pagina singola orizzontale in Google Documenti
Attualmente un singolo documento di Google può essere solo orizzontale o verticale, non entrambi. Per modificare l'orientamento della pagina, selezionare File e poi Imposta pagina. Attualmente si consiglia di separare le pagine in orizzontale e verticale in documenti diversi. Un buon posto per ottenere ulteriori informazioni che potrebbero essere utili è il Forum dei prodotti Google. Un'altra opzione potrebbe essere quella di avere tre file in Google Docs. Il Ritratto, il Paesaggio e il documento Microsoft Word che integra i due layout nella sequenza corretta (questo documento sarebbe di sola lettura quando visualizzato in Google Docs). Un documento Microsoft Word può consentire più orientamenti del layout di pagina, ma se viene convertito in un documento Google il layout di pagina per ogni pagina tornerà al primo orientamento trovato nel documento. Inoltre, la creazione di più orientamenti in Word non è così semplice come si vorrebbe. Per coloro che desiderano farlo in Word: Utilizzare l'orientamento verticale e orizzontale nello stesso documento 1. Selezionate le pagine o i paragrafi che volete cambiare in orientamento verticale o orizzontale. NOTA: se si seleziona una parte del testo di una pagina, ma non tutto, per passare all'orientamento verticale o orizzontale, Word colloca il testo selezionato nella propria pagina e il testo circostante in pagine separate. 2. Nella scheda Layout di pagina, nel gruppo Impostazione pagina, fare clic su Margini. 3. Fare clic su Margini personalizzati. (Questa è la parte importante) 4. Nella scheda Margini, fare clic su Verticale o Orizzontale. 5. Nell'elenco Applica a, fare clic su Testo selezionato. NOTA: Microsoft Word inserisce automaticamente le interruzioni di sezione prima e dopo il testo con il nuovo orientamento della pagina. Se il documento è già suddiviso in sezioni, è possibile fare clic su una sezione (o selezionare più sezioni) e quindi modificare l'orientamento solo per le sezioni selezionate.
150
PHP is writing this error in the logs: "Notice: Use of undefined constant". Error in logs: ```PHP Notice: Use of undefined constant department - assumed 'department' (line 5) PHP Notice: Use of undefined constant name - assumed 'name' (line 6) PHP Notice: Use of undefined constant email - assumed 'email' (line 7) PHP Notice: Use of undefined constant message - assumed 'message' (line 8) ``` Relevant lines of code: ```$department = mysql_real_escape_string($_POST[department]); $name = mysql_real_escape_string($_POST[name]); $email = mysql_real_escape_string($_POST[email]); $message = mysql_real_escape_string($_POST[message]); ``` What does it mean and why am I seeing it?
The error message is due to the unfortunate fact that PHP will implicitly declare an unknown token as a constant string of the same name. That is, it's trying to interpret this (note the missing quote marks): ```$_POST[department] ``` The only valid way this would be valid syntax in PHP is if there was previously a constant ```department``` defined. So sadly, rather than dying with a Fatal error at this point, it issues this Notice and acts as though a constant had been defined with the same name and value: ```// Implicit declaration of constant called department with value 'department' define('department', 'department'); ``` There are various ways you can get this error message, but they all have the same root cause - a token that could be a constant. Strings missing quotes: ```$my_array[bad_key]``` This is what the problem is in your case, and it's because you've got string array keys that haven't been quoted. Fixing the string keys will fix the bug: Change: ```$department = mysql_real_escape_string($_POST[department]); ...(etc)... ``` To: ```$department = mysql_real_escape_string($_POST['department']); ...(etc)... ``` Variable missing dollar sign: ```var_without_dollar``` Another reason you might see this error message is if you leave off the ```$``` from a variable, or ```$this->``` from a member. Eg, either of the following would cause a similar error message: ```my_local; // should be $my_local my_member; // should be $this->my_member ``` Invalid character in variable name: ```$bad-variable-name``` A similar but more subtle issue can result if you try to use a disallowed character in a variable name - a hyphen (```-```) instead of an underscore ```_``` would be a common case. For example, this is OK, since underscores are allowed in variable names: ```if (123 === $my_var) { do_something(); } ``` But this isn't: ```if (123 === $my-var) { do_something(); } ``` It'll be interpreted the same as this: ```if (123 === $my - var) { // variable $my minus constant 'var' do_something(); } ``` Referring to a class constant without specifying the class scope In order to refer to a class constant you need to specify the class scope with ```::```, if you miss this off PHP will think you're talking about a global ```define()```. Eg: ```class MyClass { const MY_CONST = 123; public function my_method() { return self::MY_CONST; // This is fine } public function my_method() { return MyClass::MY_CONST; // This is fine } public function my_bad_method() { return MY_CONST; // BUG - need to specify class scope } } ``` Using a constant that's not defined in this version of PHP, or is defined in an extension that's not installed There are some system-defined constants that only exist in newer versions of PHP, for example the mode option constants for ```round()``` such as ```PHP_ROUND_HALF_DOWN``` only exist in PHP 5.3 or later. So if you tried to use this feature in PHP 5.2, say: ```$rounded = round($my_var, 0, PHP_ROUND_HALF_DOWN); ``` You'd get this error message: Use of undefined constant PHP_ROUND_HALF_DOWN - assumed 'PHP_ROUND_HALF_DOWN' Warning (2): Wrong parameter count for round()
PHP schreibt diesen Fehler in die Logs: "Hinweis: Verwendung einer undefinierten Konstante". Fehler in den Protokollen: ```PHP Notice: Verwendung einer undefinierten Konstante department - angenommen 'department' (Zeile 5) PHP-Hinweis: Verwendung einer undefinierten Konstante name - angenommen 'name' (Zeile 6) PHP-Hinweis: Verwendung einer undefinierten Konstante email - angenommen 'email' (Zeile 7) PHP-Hinweis: Verwendung einer nicht definierten Konstante message - angenommen 'message' (Zeile 8) ``` Relevante Zeilen des Codes: ```$Abteilung = mysql_real_escape_string($_POST[Abteilung]); $name = mysql_real_escape_string($_POST[name]); $E-Mail = mysql_real_escape_string($_POST[email]); $message = mysql_real_escape_string($_POST[message]); ``` Was bedeutet das und warum sehe ich es?
Die Fehlermeldung ist auf die unglückliche Tatsache zurückzuführen, dass PHP ein unbekanntes Token implizit als konstante Zeichenkette gleichen Namens deklariert. Das heißt, es versucht, dies zu interpretieren (beachten Sie die fehlenden Anführungszeichen): ```$_POST[Abteilung] ``` Die einzige Möglichkeit, wie dies eine gültige Syntax in PHP sein könnte, ist, wenn zuvor eine Konstante ```Abteilung`` definiert war. Anstatt an dieser Stelle mit einem fatalen Fehler zu sterben, gibt es leider diesen Hinweis aus und verhält sich so, als ob eine Konstante mit demselben Namen und Wert definiert worden wäre: ```// Implizite Deklaration einer Konstante namens department mit dem Wert 'department' define('Abteilung', 'Abteilung'); ``` Es gibt verschiedene Möglichkeiten, diese Fehlermeldung zu erhalten, aber sie haben alle die gleiche Ursache - ein Token, das eine Konstante sein könnte. Strings ohne Anführungszeichen: ```$my_array[bad_key]``` Dies ist das Problem in Ihrem Fall, und es liegt daran, dass Sie String-Array-Schlüssel haben, die nicht in Anführungszeichen gesetzt wurden. Das Korrigieren der String-Schlüssel wird den Fehler beheben: Ändern: ```$Abteilung = mysql_real_escape_string($_POST[Abteilung]); ...(etc)... ``` Zu: ```$Abteilung = mysql_real_escape_string($_POST['Abteilung']); ...(usw.)... ``` Variable mit fehlendem Dollar-Zeichen: ```var_ohne_dollar``` Ein anderer Grund für diese Fehlermeldung ist, dass Sie das ```$`` in einer Variable oder ```$this->``` in einem Member weglassen. Z.B. würde jeder der folgenden Fälle eine ähnliche Fehlermeldung verursachen: ```my_local; // sollte $my_local sein my_member; // sollte $this->my_member sein ``` Ungültiges Zeichen im Variablennamen: ```$bad-variable-name``` Ein ähnliches, aber subtileres Problem kann auftreten, wenn Sie versuchen, ein unzulässiges Zeichen in einem Variablennamen zu verwenden - ein Bindestrich (```-```) anstelle eines Unterstrichs ```_``` wäre ein häufiger Fall. Dies ist zum Beispiel OK, da Unterstriche in Variablennamen erlaubt sind: ```if (123 === $my_var) { do_something(); } ``` Aber das hier ist es nicht: ```if (123 === $my-var) { do_something(); } ``` Es wird genauso interpretiert wie das hier: ````if (123 === $my - var) { // Variable $my minus Konstante 'var' do_something(); } ``` Verweis auf eine Klassenkonstante ohne Angabe des Klassenbereichs Um auf eine Klassenkonstante zu verweisen, müssen Sie den Klassenbereich mit ```::``` angeben. Wenn Sie dies nicht tun, wird PHP denken, dass Sie über eine globale ```define()``` sprechen. Beispiel: ```class MyClass { const MY_CONST = 123; public function my_method() { return self::MY_CONST; // Das ist in Ordnung } public function my_method() { return MyClass::MY_CONST; // Dies ist in Ordnung } public function meine_schlechte_Methode() { return MY_CONST; // BUG - muss Klassenbereich angeben } } ``` Verwendung einer Konstante, die in dieser PHP-Version nicht definiert ist, oder die in einer nicht installierten Erweiterung definiert ist Es gibt einige vom System definierte Konstanten, die nur in neueren PHP-Versionen existieren. Zum Beispiel existieren die Konstanten für die Modusoption ``Runden()`` wie ``PHP_ROUND_HALF_DOWN`` nur in PHP 5.3 oder später. Wenn Sie also versuchen, diese Funktion in PHP 5.2 zu benutzen, sagen wir: ```$rounded = round($my_var, 0, PHP_ROUND_HALF_DOWN); ``` Sie würden diese Fehlermeldung erhalten: Verwendung der undefinierten Konstante PHP_ROUND_HALF_DOWN - angenommen 'PHP_ROUND_HALF_DOWN' Warnung (2): Falsche Parameteranzahl für round()
PHP está escribiendo este error en los registros: "Aviso: Uso de una constante no definida". Error en los registros: ```PHP Aviso: Use of undefined constant department - assumed 'departamento' (línea 5) Aviso PHP: Uso de la constante indefinida name - asumida 'name' (línea 6) Aviso PHP: Use of undefined constant email - assumed 'email' (línea 7) Aviso PHP: Uso de la constante indefinida message - asumida 'message' (línea 8) ``` Líneas de código relevantes: ```$departamento = mysql_real_escape_string($_POST[departamento]); $nombre = mysql_real_escape_string($_POST[nombre]); $email = mysql_real_escape_string($_POST[email]); $message = mysql_real_escape_string($_POST[mensaje]); ``` ¿Qué significa y por qué lo veo?
El mensaje de error se debe al desafortunado hecho de que PHP declarará implícitamente un token desconocido como una cadena constante del mismo nombre. Es decir, está intentando interpretar esto (nótese que faltan las comillas): ```$_POST[departamento] ``` La única forma válida de que esto sea una sintaxis válida en PHP es que previamente hubiera una constante ```departamento`` definida. Así que tristemente, en lugar de morir con un error Fatal en este punto, emite este Aviso y actúa como si se hubiera definido una constante con el mismo nombre y valor: ```// Declaración implícita de constante llamada departamento con valor 'departamento' define('departamento', 'departamento'); ``` Hay varias formas de obtener este mensaje de error, pero todas tienen la misma causa: un token que podría ser una constante. Cadenas sin comillas: ```$mi_array[mala_clave]``` Este es el problema en tu caso, y se debe a que tienes claves de array de cadenas que no han sido entrecomilladas. Corregir las claves de cadena arreglará el error: Cambia: ```$departamento = mysql_real_escape_string($_POST[departamento]); ...(etc)... ``` Por: ```$departamento = mysql_real_escape_string($_POST['departamento']); ...(etc)... ``` Falta el signo de dólar en la variable: ```var_without_dollar``` Otra razón por la que puedes ver este mensaje de error es si omites el ```$`` de una variable, o ```$this->``` de un miembro. Por ejemplo, cualquiera de los siguientes casos causaría un mensaje de error similar: ```mi_local; // debería ser $mi_local mi_miembro; // debería ser $this->mi_miembro ``` Carácter no válido en el nombre de la variable: ```$nombre-malo-de-la-variable``` Un problema similar pero más sutil puede surgir si intentas utilizar un carácter no permitido en el nombre de una variable - un guión (```-``) en lugar de un guión bajo ```_`` sería un caso común. Por ejemplo, esto está bien, ya que los guiones bajos están permitidos en los nombres de variables: ```if (123 === $mi_var) { hacer_algo(); } ``` Pero esto no: ```if (123 === $mi_var) { do_something(); } ``` Se interpretará igual que esto: ```if (123 === $my - var) { // variable $my menos constante 'var' hacer_algo(); } ``` Hacer referencia a una constante de clase sin especificar el ámbito de la clase Para referirte a una constante de clase necesitas especificar el ámbito de la clase con ```::```, si omites esto PHP pensará que estás hablando de una ```define()`` global. Ej: ```class MiClase { const MY_CONST = 123; public function mi_método() { return self::MY_CONST; // Esto está bien } public function mi_método() { return MyClass::MY_CONST; // Esto está bien } public function mi_mal_método() { return MY_CONST; // BUG - necesita especificar el ámbito de la clase } } ``` Usando una constante que no está definida en esta versión de PHP, o está definida en una extensión que no está instalada Hay algunas constantes definidas por el sistema que sólo existen en versiones más nuevas de PHP, por ejemplo las constantes de opción de modo para ```round()`` como ``PH`P_ROUND_HALF_DOWN`` sólo existen en PHP 5.3 o posterior. Así que si usted trató de utilizar esta función en PHP 5.2, por ejemplo: ```$rounded = round($my_var, 0, PHP_ROUND_HALF_DOWN); ``` Obtendría este mensaje de error: Use of undefined constant PHP_ROUND_HALF_DOWN - assumed PHP_ROUND_HALF_DOWN' Advertencia (2): Número de parámetros incorrecto para round()
PHP écrit cette erreur dans les logs : "Notice : Utilisation d'une constante non définie". Erreur dans les logs : ```Php Notice : Use of undefined constant department - assumed 'département' (ligne 5) Avis PHP : Utilisation de la constante indéfinie name - supposée 'name' (ligne 6) Avis PHP : Utilisation d'une constante indéfinie email - supposée être 'email' (ligne 7) Avis PHP : Utilisation d'une constante non définie message - supposée être 'message' (ligne 8) ``` Lignes de code pertinentes : ```$département = mysql_real_escape_string($_POST[département]) ; $name = mysql_real_escape_string($_POST[name]) ; $email = mysql_real_escape_string($_POST[name]) ; $email = mysql_real_escape_string($_POST[email]) ; $message = mysql_real_escape_string($_POST[message]) ; ``` Qu'est-ce que cela signifie et pourquoi est-ce que je le vois ?
Le message d'erreur est dû au fait que PHP déclare implicitement un jeton inconnu comme une chaîne constante du même nom. C'est-à-dire qu'il essaie d'interpréter ceci (notez les guillemets manquants) : ```$_POST[département] ``` La seule façon dont cette syntaxe serait valide en PHP est qu'il y ait eu auparavant une constante ``département`` définie. Malheureusement, plutôt que de mourir avec une erreur fatale à ce stade, il émet cet avis et agit comme si une constante avait été définie avec le même nom et la même valeur : ```// Déclaration implicite d'une constante appelée département avec la valeur 'département' define('département', 'département') ; ``` Il y a plusieurs façons d'obtenir ce message d'erreur, mais elles ont toutes la même cause fondamentale - un jeton qui pourrait être une constante. Chaînes de caractères sans guillemets : ``$my_array[bad_key]```` C'est ce qui pose problème dans votre cas, et c'est parce que les clés de votre tableau de chaînes n'ont pas été mises entre guillemets. Corriger les clés des chaînes de caractères corrigera le bogue : Changez : ```$département = mysql_real_escape_string($_POST[département]) ; ...(etc)... ``` Au lieu de : ```$département = mysql_real_escape_string($_POST['département']) ; ...(etc)... ``` Variable manquant le signe du dollar : ``var_without_dollar```. Une autre raison pour laquelle vous pouvez voir ce message d'erreur est si vous oubliez le ``$`` d'une variable, ou ``$this->`` d'un membre. Par exemple, l'un ou l'autre des cas suivants provoquerait un message d'erreur similaire : ``My_local ; // devrait être $my_local my_member ; // devrait être $this->my_member ``` Caractère non valide dans le nom de la variable : ``$$mauvais-nom-de-variable```. Un problème similaire, mais plus subtil, peut survenir si vous essayez d'utiliser un caractère non autorisé dans un nom de variable - un trait d'union (``-``) au lieu d'un trait de soulignement ``_``` serait un cas courant. Par exemple, ceci est correct, puisque les traits de soulignement sont autorisés dans les noms de variables : ```if (123 === $my_var) { do_something() ; } ``` Mais ceci ne l'est pas : ```if (123 === $my-var) { do_something() ; } ``` Il sera interprété de la même manière que ceci : ```if (123 === $my - var) { // variable $my moins constante 'var' do_something() ; } ``` Faire référence à une constante de classe sans spécifier la portée de la classe Pour faire référence à une constante de classe, vous devez spécifier la portée de la classe avec ``::``, si vous oubliez cela, PHP pensera que vous parlez d'un ``define()`` global. Par exemple : ``classe MyClass { const MY_CONST = 123 ; public function my_method() { return self::MY_CONST ; // C'est parfait } public function my_method() { return MyClass::MY_CONST ; // C'est parfait } public function my_bad_method() { return MY_CONST ; // BUG - nécessité de spécifier la portée de la classe } } ``` Utiliser une constante qui n'est pas définie dans cette version de PHP, ou qui est définie dans une extension qui n'est pas installée Il y a des constantes définies par le système qui n'existent que dans les versions plus récentes de PHP, par exemple les constantes d'option de mode pour ``round()`` telles que ``PHP_ROUND_HALF_DOWN`` n'existent qu'en PHP 5.3 ou plus récent. Donc si vous essayez d'utiliser cette fonctionnalité en PHP 5.2, disons : ```$rounded = round($my_var, 0, PHP_ROUND_HALF_DOWN) ; ``` Vous obtiendrez ce message d'erreur : Utilisation d'une constante non définie PHP_ROUND_HALF_DOWN - supposée 'PHP_ROUND_HALF_DOWN' Avertissement (2) : Mauvais nombre de paramètres pour round()
PHP scrive questo errore nei log: "Avviso: Uso di una costante non definita". Errore nei log: ```Avviso PHP: Uso della costante non definita dipartimento - assunto 'dipartimento' (riga 5) Avviso PHP: Uso della costante undefined name - assunto 'name' (riga 6) Avviso PHP: Uso della costante undefined email - assunto 'email' (riga 7) Avviso PHP: Uso della costante undefined message - assunto 'message' (riga 8) ``` Linee di codice rilevanti: ```$dipartimento = mysql_real_escape_string($_POST[dipartimento]); $nome = mysql_real_escape_string($_POST[nome]); $email = mysql_real_escape_string($_POST[email]); $messaggio = mysql_real_escape_string($_POST[messaggio]); ``` Cosa significa e perché lo vedo?
Il messaggio di errore è dovuto allo sfortunato fatto che PHP dichiara implicitamente un token sconosciuto come una stringa costante con lo stesso nome. In altre parole, sta cercando di interpretare questo (notare le virgolette mancanti): ```$_POST[department] ``` L'unico modo in cui questa sintassi sarebbe valida in PHP è se in precedenza fosse stata definita una costante ```dipartimento``. Quindi, purtroppo, invece di morire con un errore fatale a questo punto, emette questo avviso e si comporta come se fosse stata definita una costante con lo stesso nome e valore: ```// Dichiarazione implicita della costante chiamata dipartimento con valore 'dipartimento' define('department', 'department'); ``` Ci sono vari modi per ottenere questo messaggio di errore, ma tutti hanno la stessa causa: un token che potrebbe essere una costante. Stringhe senza virgolette: ```$my_array[bad_key]``` Questo è il problema nel vostro caso, perché le chiavi dell'array di stringhe non sono state virgolettate. Correggendo le chiavi stringa si risolve il problema: Cambiare: ```$department = mysql_real_escape_string($_POST[department]); ...(ecc.)... ``` A: ```$department = mysql_real_escape_string($_POST['department']); ...(ecc.)... ``` Variabile mancante del segno del dollaro: ``var_senza_dollaro`` Un'altra ragione per cui si potrebbe vedere questo messaggio di errore è se si omette il ```$`` da una variabile o ```$this->``` da un membro. Ad esempio, uno dei due casi seguenti causerebbe un messaggio di errore simile: ```my_local; // dovrebbe essere $my_local my_member; // dovrebbe essere $this->my_member ``` Carattere non valido nel nome della variabile: ```$bad-variable-name``` Un problema simile, ma più sottile, può verificarsi se si cerca di usare un carattere non consentito nel nome di una variabile: un trattino (```-``) invece di un trattino basso ```_`` è un caso comune. Per esempio, questo va bene, dato che il trattino basso è consentito nei nomi delle variabili: ````if (123 === $my_var) { do_something(); } ``` Ma questo non lo è: ```if (123 === $my-var) { do_something(); } ``` Verrà interpretato come questo: ```f (123 === $my - var) { // variabile $my meno costante 'var' fare_qualcosa(); } ``` Fare riferimento a una costante di classe senza specificare l'ambito della classe Per fare riferimento a una costante di classe è necessario specificare l'ambito della classe con ```::```, se si tralascia questo passaggio PHP penserà che si stia parlando di una ```define()`` globale. Ad esempio: ```classe MyClass { const MY_CONST = 123; public function my_method() { return self::MY_CONST; // Va bene. } public function my_method() { return MyClass::MY_CONST; // Va bene. } public function my_bad_method() { return MY_CONST; // BUG - deve specificare l'ambito della classe } } ``` Usare una costante che non è definita in questa versione di PHP o è definita in un'estensione non installata Ci sono alcune costanti definite dal sistema che esistono solo nelle versioni più recenti di PHP, per esempio le costanti dell'opzione mode per ```round()`` come ```PHP_ROUND_HALF_DOWN`` esistono solo in PHP 5.3 o successivo. Quindi, se si prova a usare questa funzione in PHP 5.2, ad esempio: ```$arrotondato = round($my_var, 0, PHP_ROUND_HALF_DOWN); ``` Si otterrebbe questo messaggio di errore: Uso della costante non definita PHP_ROUND_HALF_DOWN - assunto 'PHP_ROUND_HALF_DOWN' Avviso (2): Numero di parametri errato per round()
151
I'm from a very rural area and love to garden, however, for work I just moved into an apartment in the city. I miss being able to grow vegetables and so I attempted to start some leaf lettuce indoors, however, almost every plant died quickly. I'm just curious, does anyone have experience growing vegetables indoors? What are the best ones for this? What sort of planter do you use? Do they need to be directly next to a window? How often should they be watered? I'm not used to not having Mother Nature help me out with my plants Any tips that can be provided would be much appreciated, thanks!
Indoor gardening is a bit more difficult then the regular outdoor gardening, there are several factors but in most cases it boils down to: Temperature, Humidity, Light, The air in your apartment. You didn't mention exactly where your dying plants are being placed. Do you have a fan within the apartment? Plants need air whether it is natural or even if it is coming from a fan. What type of lighting is inside the apartment? Are you only using natural light? These are important factors to aide the growth of the plant as well. How is the temperature within the apartment? If you notice a lot of temp ups / downs in the area you are gardening than it is probably worth moving the garden or choosing another spot. With apartments that becomes all the more difficult. Your plant also probably came from some nice greenhouse, an english gardens, a ray weigands, etc etc...They have plenty of light, they also have plenty of means of water and the temperature well most of this is all outside, so they have the advantage of using mother nature. Your plant needs to adjust to these conditions. You should try to begin to place your plants in a very lit area with as much natural wind / fan as possible, these plants need to breath. If your plants are not conditioned for this type of environment you run the risk that they give up and die. When potting the plant ensure the actual pot is cleaned up to remove any unnecessary plant diseases from prior plants. Look on the bottom of the actual pot, are you getting drainage? If not drill a hole in the bottom of the pot if you can, if not toss that pot out and get you a pot that has a good amount of drainage. Overwatering plants will destroy them, and without nature (wind, temperature, etc) the water sitting there takes all the longer to dry out. When it comes to veggies Tomatoes need a ton of sunlight and humidity is great for them as well. Herbs are probably the simpliest to get going but I'm not sure if this is what you are after. Cucumbers and squash don't need as much sunlight as tomatoes.
Ich komme aus einer sehr ländlichen Gegend und liebe es zu gärtnern, aber aus beruflichen Gründen bin ich gerade in eine Wohnung in der Stadt gezogen. Ich vermisse es, Gemüse anbauen zu können, und so habe ich versucht, einige Blattsalate drinnen anzubauen, aber fast jede Pflanze ist schnell eingegangen. Ich bin nur neugierig, hat jemand Erfahrung mit dem Anbau von Gemüse im Haus? Welche Sorten eignen sich am besten dafür? Welche Art von Pflanzgefäß verwenden Sie? Müssen sie direkt neben einem Fenster stehen? Wie oft sollten sie gegossen werden? Ich bin es nicht gewohnt, dass Mutter Natur mir bei meinen Pflanzen nicht hilft. Für Tipps wäre ich sehr dankbar, danke!
Indoor-Gartenarbeit ist ein bisschen schwieriger als die normale Gartenarbeit im Freien, es gibt mehrere Faktoren, aber in den meisten Fällen läuft es darauf hinaus: Temperatur, Luftfeuchtigkeit, Licht und die Luft in Ihrer Wohnung. Sie haben nicht erwähnt, wo genau Ihre sterbenden Pflanzen stehen. Haben Sie einen Ventilator in der Wohnung? Pflanzen brauchen Luft, ob sie nun natürlich ist oder von einem Ventilator kommt. Welche Art von Beleuchtung gibt es in der Wohnung? Verwenden Sie nur natürliches Licht? Dies sind ebenfalls wichtige Faktoren, die das Wachstum der Pflanze fördern. Wie ist die Temperatur in der Wohnung? Wenn Sie in dem Bereich, in dem Sie gärtnern, viele Temperaturschwankungen feststellen, sollten Sie den Garten wahrscheinlich verlegen oder einen anderen Platz wählen. In Wohnungen wird das umso schwieriger. Ihre Pflanze kam wahrscheinlich aus einem schönen Gewächshaus, einem englischen Garten, einem Ray Weigands, etc etc... Sie haben viel Licht, sie haben auch viele Mittel für Wasser und die Temperatur gut das meiste davon ist alles draußen, so dass sie den Vorteil der Nutzung von Mutter Natur haben. Ihre Pflanze muss sich an diese Bedingungen anpassen. Sie sollten versuchen, Ihre Pflanzen in einem sehr hellen Bereich mit so viel natürlichem Wind / Ventilator wie möglich zu platzieren, diese Pflanzen müssen atmen. Wenn Ihre Pflanzen nicht für diese Art von Umgebung konditioniert sind, besteht die Gefahr, dass sie aufgeben und sterben. Achten Sie beim Umtopfen der Pflanze darauf, dass der eigentliche Topf gereinigt wird, um unnötige Pflanzenkrankheiten von früheren Pflanzen zu entfernen. Sehen Sie sich den Boden des Topfes an: Gibt es eine Drainage? Wenn nicht, bohren Sie ein Loch in den Boden des Topfes, wenn Sie können, wenn nicht, werfen Sie den Topf weg und besorgen Sie sich einen Topf mit einer guten Drainage. Überwässern Pflanzen wird sie zerstören, und ohne die Natur (Wind, Temperatur, etc.) das Wasser sitzen dort dauert umso länger, um auszutrocknen. Tomaten brauchen viel Sonnenlicht, und Feuchtigkeit ist auch gut für sie. Kräuter sind wahrscheinlich am einfachsten in Gang zu bringen, aber ich bin mir nicht sicher, ob es das ist, was Sie suchen. Gurken und Kürbisse brauchen nicht so viel Sonnenlicht wie Tomaten.
Soy de una zona muy rural y me encanta cultivar un huerto, sin embargo, por trabajo acabo de mudarme a un apartamento en la ciudad. Echo de menos ser capaz de cultivar hortalizas y por lo que trató de iniciar algunas lechugas de hoja en el interior, sin embargo, casi todas las plantas murieron rápidamente. Tengo curiosidad, ¿alguien tiene experiencia en el cultivo de hortalizas en interiores? ¿Cuáles son las mejores para esto? ¿Qué tipo de maceta utilizáis? ¿Necesitan estar directamente junto a una ventana? ¿Con qué frecuencia hay que regarlas? No estoy acostumbrado a que la madre naturaleza no me ayude con mis plantas. Cualquier consejo que me puedan dar será muy apreciado, ¡gracias!
La jardinería de interior es un poco más difícil que la jardinería al aire libre regular, hay varios factores, pero en la mayoría de los casos se reduce a: Temperatura, Humedad, Luz, El aire en su apartamento. No ha mencionado exactamente dónde se colocan las plantas moribundas. ¿Tiene un ventilador en el apartamento? Las plantas necesitan aire, ya sea natural o procedente de un ventilador. ¿Qué tipo de iluminación hay dentro de la vivienda? ¿Utiliza sólo luz natural? Estos factores también son importantes para el crecimiento de la planta. ¿Cómo es la temperatura en la vivienda? Si notas muchos altibajos de temperatura en la zona donde cultivas, probablemente merezca la pena trasladar el jardín o elegir otro lugar. En el caso de los apartamentos, esto resulta aún más difícil. Tu planta probablemente provenga de un bonito invernadero, de un jardín inglés, de un ray weigands, etc... Tienen mucha luz, también tienen muchos medios de agua y la temperatura bueno la mayor parte de esto está todo fuera, así que tienen la ventaja de utilizar la madre naturaleza. Su planta necesita adaptarse a estas condiciones. Usted debe tratar de comenzar a colocar sus plantas en un área muy iluminada con tanto viento natural / ventilador como sea posible, estas plantas necesitan respirar. Si sus plantas no están acondicionadas para este tipo de entorno corre el riesgo de que se rindan y mueran. Al plantar la planta, asegúrese de que la maceta esté limpia para eliminar cualquier enfermedad innecesaria de plantas anteriores. Fíjese en el fondo de la maceta, ¿tiene drenaje? Si no es así, haga un agujero en el fondo de la maceta si puede, si no, tírela y consiga una maceta que tenga un buen drenaje. Regar las plantas en exceso las destruirá, y sin la naturaleza (viento, temperatura, etc.) el agua que queda allí tarda más en secarse. En cuanto a las verduras, los tomates necesitan mucha luz solar y la humedad también es muy buena para ellos. Las hierbas son probablemente las más sencillas de cultivar, pero no sé si es lo que buscas. Los pepinos y las calabazas no necesitan tanto sol como los tomates.
Je viens d'une région très rurale et j'adore jardiner, mais pour mon travail, je viens d'emménager dans un appartement en ville. Le fait de pouvoir cultiver des légumes me manque et j'ai donc essayé de faire pousser de la laitue en intérieur, mais presque tous les plants sont morts rapidement. Je suis curieux de savoir si quelqu'un a déjà cultivé des légumes à l'intérieur. Quels sont les meilleurs légumes ? Quel type de jardinière utilisez-vous ? Doivent-ils être placés directement à côté d'une fenêtre ? A quelle fréquence faut-il les arroser ? Je n'ai pas l'habitude de ne pas avoir l'aide de Mère Nature pour mes plantes. Tous les conseils que vous pourriez me donner seraient très appréciés, merci !
Le jardinage d'intérieur est un peu plus difficile que le jardinage d'extérieur normal, il y a plusieurs facteurs mais dans la plupart des cas cela se résume à : La température, l'humidité, la lumière, l'air de votre appartement. Vous n'avez pas mentionné l'endroit exact où sont placées vos plantes mourantes. Avez-vous un ventilateur dans l'appartement ? Les plantes ont besoin d'air, qu'il soit naturel ou qu'il provienne d'un ventilateur. Quel type d'éclairage y a-t-il dans l'appartement ? Utilisez-vous uniquement la lumière naturelle ? Ce sont des facteurs importants pour la croissance de la plante. Quelle est la température dans l'appartement ? Si vous remarquez de nombreuses variations de température dans la zone où vous jardinez, il vaut probablement la peine de déplacer le jardin ou de choisir un autre endroit. Dans les appartements, cela devient d'autant plus difficile. Votre plante vient probablement d'une belle serre, d'un jardin anglais, d'une serre à rayons, etc... Ils ont beaucoup de lumière, ils ont aussi beaucoup de moyens d'arrosage et la température est en grande partie à l'extérieur, ils ont donc l'avantage d'utiliser mère nature. Votre plante doit s'adapter à ces conditions. Vous devriez essayer de commencer à placer vos plantes dans un endroit très éclairé avec autant de vent naturel que possible, ces plantes ont besoin de respirer. Si vos plantes ne sont pas conditionnées pour ce type d'environnement, vous courez le risque qu'elles abandonnent et meurent. Lorsque vous rempotez la plante, veillez à ce que le pot soit nettoyé afin d'éliminer toute maladie inutile provenant de plantes précédentes. Examinez le fond du pot : le drainage est-il assuré ? Si ce n'est pas le cas, percez un trou dans le fond du pot, sinon jetez-le et procurez-vous un pot qui a un bon drainage. Trop arroser les plantes les détruira, et sans la nature (vent, température, etc.), l'eau qui reste là prendra plus de temps à se dessécher. En ce qui concerne les légumes, les tomates ont besoin d'une grande quantité de soleil et l'humidité leur est également bénéfique. Les herbes aromatiques sont probablement les plus simples à cultiver, mais je ne sais pas si c'est ce que vous recherchez. Les concombres et les courges n'ont pas besoin d'autant de soleil que les tomates.
Vengo da una zona molto rurale e amo fare giardinaggio, ma per lavoro mi sono appena trasferita in un appartamento in città. Mi manca la possibilità di coltivare le verdure e così ho provato a coltivare della lattuga in casa, ma quasi tutte le piante sono morte rapidamente. Sono curiosa di sapere se qualcuno ha esperienza di coltivazione di ortaggi in casa. Quali sono le migliori per questo scopo? Che tipo di fioriera utilizzate? Devono stare direttamente vicino a una finestra? Con quale frequenza vanno annaffiate? Non sono abituata a non avere Madre Natura che mi aiuta con le mie piante. Qualsiasi consiglio possiate darmi è molto apprezzato, grazie!
Il giardinaggio indoor è un po' più difficile del normale giardinaggio all'aperto, ci sono diversi fattori ma nella maggior parte dei casi si riduce a: Temperatura, umidità, luce, aria del vostro appartamento. Non avete detto esattamente dove sono collocate le vostre piante morenti. Avete un ventilatore nell'appartamento? Le piante hanno bisogno di aria, che sia naturale o che provenga da un ventilatore. Che tipo di illuminazione c'è nell'appartamento? Utilizzate solo la luce naturale? Anche questi sono fattori importanti per favorire la crescita della pianta. Com'è la temperatura all'interno dell'appartamento? Se notate molti sbalzi di temperatura nell'area in cui state facendo giardinaggio, probabilmente vale la pena di spostare il giardino o di scegliere un altro posto. Con gli appartamenti questo diventa ancora più difficile. La vostra pianta probabilmente proviene da qualche bella serra, da un giardino all'inglese, da una pesa a raggiera, ecc... Hanno molta luce, hanno anche molti mezzi per l'acqua e la temperatura è per la maggior parte all'esterno, quindi hanno il vantaggio di usare madre natura. La vostra pianta deve adattarsi a queste condizioni. Dovreste cercare di posizionare le vostre piante in un'area molto illuminata e con il vento/ventilatore naturale il più possibile, queste piante hanno bisogno di respirare. Se le vostre piante non sono condizionate per questo tipo di ambiente, rischiate che si arrendano e muoiano. Al momento del rinvaso, assicuratevi che il vaso sia stato pulito per eliminare eventuali malattie delle piante precedenti. Osservate il fondo del vaso: c'è un drenaggio? In caso contrario, praticate un foro sul fondo del vaso, se possibile, altrimenti buttatelo via e procuratevi un vaso con un buon drenaggio. L'eccessiva irrigazione delle piante le distrugge, e senza la natura (vento, temperatura, ecc.) l'acqua che rimane lì ci mette molto più tempo ad asciugarsi. Per quanto riguarda le verdure, i pomodori hanno bisogno di molta luce solare e l'umidità è ottima anche per loro. Le erbe aromatiche sono probabilmente le più semplici da coltivare, ma non sono sicuro che sia questo il vostro obiettivo. I cetrioli e le zucche non hanno bisogno della stessa luce solare dei pomodori.
152
What are the advantages of studying words by their frequency?
The main advantage is that by learning higher frequency words, you get a greater "bang for your buck" - that is, if you know the most frequent words of the language, you'll be able to understand more of the words you encounter, and therefore you gain the greatest benefit by studying those frequent words first. According to Nation & Waring (1997), text coverage in the Brown corpus is as follows: * Most frequent 1000 words: 72.0% * Most frequent 2000 words: 79.7% * Most frequent 3000 words: 84.0% * Most frequent 4000 words: 86.8%. So by learning the top 1000 words, you'll know 72% of the words in the average text you read. But after that, there are diminishing returns: the next 1000 words gives you another 7.7% of a typical text, and the next 1000 words allows you to understand just 4.3% more. After that, the returns on memorizing by frequency decrease even more, so learning from frequency lists becomes less useful. Note that text coverage (the percentage of words that you know in an average text) is important. We don't need to understand every single word in a text in order to understand the general meaning. Some research has investigated what percentage of words we do need to understand. Laufer and Sim (1985) suggested 65-70% should be understood as an absolute minimum for comprehension, but Laufer (1989) (as described in Hu and Nation (2000)) suggests 95% should be known for solid comprehension. Hu and Nation (2000) suggest that 98% of words should be known for unaided comprehension. Although learning high-frequency words is a good idea, especially when you first start learning a language, frequency is not the only consideration when choosing words to learn. Barker (2007) suggests that "cost" and "benefit" be the primary considerations when choosing words to learn; benefit is partially defined by frequency, but also on personal needs. So it's good to learn the "technical" vocabulary of your major or field, and it's also useful to learn words related to your interest. It's also beneficial to learn words with a lower "cost" - words that are familiar, that you've encountered a lot recently, or that just seem easy. Also, although memorizing words has benefits, it is best to combine this with real exposure to words, so that you learn them naturally in real contexts.
Welche Vorteile hat es, Wörter nach ihrer Häufigkeit zu untersuchen?
Der Hauptvorteil besteht darin, dass man durch das Lernen von Wörtern mit höherer Häufigkeit mehr "für sein Geld" bekommt - d. h., wenn man die häufigsten Wörter der Sprache kennt, kann man mehr von den Wörtern verstehen, denen man begegnet, und daher hat man den größten Nutzen, wenn man diese häufigen Wörter zuerst lernt. Nach Nation & Waring (1997) ist die Textabdeckung im Brown-Korpus wie folgt: * Häufigste 1000 Wörter: 72.0% * Häufigste 2000 Wörter: 79.7% * Häufigste 3000 Wörter: 84.0% * Häufigste 4000 Wörter: 86.8%. Wenn Sie also die ersten 1000 Wörter lernen, kennen Sie 72 % der Wörter in einem durchschnittlichen Text, den Sie lesen. Danach nimmt der Nutzen jedoch ab: Mit den nächsten 1000 Wörtern können Sie weitere 7,7 % eines typischen Textes verstehen, und mit den nächsten 1000 Wörtern können Sie nur noch 4,3 % verstehen. Danach nimmt der Nutzen des Auswendiglernens nach Häufigkeit noch mehr ab, so dass das Lernen anhand von Häufigkeitslisten weniger nützlich wird. Beachten Sie, dass die Textabdeckung (der Prozentsatz der Wörter, die Sie in einem durchschnittlichen Text kennen) wichtig ist. Wir müssen nicht jedes einzelne Wort in einem Text verstehen, um die allgemeine Bedeutung zu erfassen. Einige Forschungsarbeiten haben untersucht, wie viel Prozent der Wörter wir verstehen müssen. Laufer und Sim (1985) schlugen vor, dass 65-70% als absolutes Minimum für das Verstehen verstanden werden sollten, aber Laufer (1989) (wie in Hu und Nation (2000) beschrieben) schlägt vor, dass 95% für ein solides Verstehen bekannt sein sollten. Hu und Nation (2000) schlagen vor, dass 98 % der Wörter für ein selbständiges Verstehen bekannt sein sollten. Obwohl das Lernen von Wörtern mit hoher Häufigkeit eine gute Idee ist, besonders wenn man mit dem Erlernen einer Sprache beginnt, ist die Häufigkeit nicht die einzige Überlegung bei der Auswahl der zu lernenden Wörter. Barker (2007) schlägt vor, bei der Auswahl der zu lernenden Wörter in erster Linie die "Kosten" und den "Nutzen" zu berücksichtigen; der Nutzen wird teilweise durch die Häufigkeit, aber auch durch die persönlichen Bedürfnisse definiert. Es ist also gut, das "technische" Vokabular Ihres Hauptfachs oder Fachgebiets zu lernen, und es ist auch nützlich, Wörter zu lernen, die mit Ihrem Interesse zu tun haben. Es ist auch von Vorteil, Vokabeln mit geringeren "Kosten" zu lernen - Vokabeln, die Ihnen vertraut sind, denen Sie in letzter Zeit häufig begegnet sind oder die Ihnen einfach leicht erscheinen. Auch wenn das Auswendiglernen von Vokabeln Vorteile hat, ist es am besten, dies mit einem realen Umgang mit den Vokabeln zu kombinieren, damit Sie sie auf natürliche Weise in einem realen Kontext lernen.
¿Cuáles son las ventajas de estudiar las palabras por su frecuencia?
La principal ventaja es que, al aprender las palabras de mayor frecuencia, se obtiene un mayor "provecho por el dinero"; es decir, si conoce las palabras más frecuentes del idioma, podrá entender más de las palabras que encuentre y, por tanto, obtendrá el mayor beneficio estudiando primero esas palabras frecuentes. Según Nation & Waring (1997), la cobertura textual del corpus Brown es la siguiente: * 1000 palabras más frecuentes 72.0% * 2000 palabras más frecuentes 79.7% * Más frecuentes 3000 palabras 84.0% * Más frecuentes 4000 palabras: 86.8%. Así que aprendiendo las 1000 palabras más frecuentes, conocerá el 72% de las palabras del texto medio que lea. Pero después de eso, los rendimientos son decrecientes: las siguientes 1000 palabras te dan otro 7,7% de un texto típico, y las siguientes 1000 palabras te permiten entender sólo un 4,3% más. A partir de ahí, el rendimiento de la memorización por frecuencias disminuye aún más, por lo que el aprendizaje a partir de listas de frecuencias resulta menos útil. Tenga en cuenta que la cobertura del texto (el porcentaje de palabras que conoce en un texto medio) es importante. No es necesario entender todas y cada una de las palabras de un texto para comprender su significado general. Algunas investigaciones han estudiado qué porcentaje de palabras necesitamos comprender. Laufer y Sim (1985) sugirieron que se debería comprender entre el 65 y el 70% como mínimo absoluto para la comprensión, pero Laufer (1989) (tal y como se describe en Hu y Nation (2000)) sugiere que se debería conocer el 95% para una comprensión sólida. Hu y Nation (2000) sugieren que debe conocerse el 98% de las palabras para una comprensión sin ayuda. Aunque aprender palabras de alta frecuencia es una buena idea, sobre todo cuando se empieza a aprender un idioma, la frecuencia no es la única consideración a la hora de elegir las palabras que se van a aprender. Barker (2007) sugiere que el "coste" y el "beneficio" sean las consideraciones principales a la hora de elegir las palabras que se van a aprender; el beneficio viene definido en parte por la frecuencia, pero también por las necesidades personales. Así pues, es bueno aprender el vocabulario "técnico" de tu especialidad o campo, y también es útil aprender palabras relacionadas con tus intereses. También es beneficioso aprender palabras con un "coste" menor: palabras que te resulten familiares, con las que te hayas topado mucho últimamente o que simplemente te parezcan fáciles. Además, aunque memorizar palabras tiene sus ventajas, lo mejor es combinarlo con una exposición real a las palabras, para aprenderlas de forma natural en contextos reales.
Quels sont les avantages de l'étude des mots en fonction de leur fréquence ?
Le principal avantage est qu'en apprenant des mots plus fréquents, vous en avez plus pour votre argent - c'est-à-dire que si vous connaissez les mots les plus fréquents de la langue, vous serez en mesure de comprendre davantage de mots que vous rencontrerez, et vous tirerez donc le plus grand bénéfice de l'étude de ces mots fréquents en premier lieu. Selon Nation & Waring (1997), la couverture textuelle du corpus Brown est la suivante : * Les 1000 mots les plus fréquents : 72.0% * Mots les plus fréquents en 2000 : 79.7% * Les 3000 mots les plus fréquents : 84.0% * Les 4000 mots les plus fréquents : 86.8%. Ainsi, en apprenant les 1000 premiers mots, vous connaîtrez 72% des mots du texte moyen que vous lisez. Mais ensuite, le rendement diminue : les 1000 mots suivants vous permettent de connaître encore 7,7 % d'un texte typique, et les 1000 mots suivants vous permettent de comprendre seulement 4,3 % de plus. Ensuite, le rendement de la mémorisation par fréquence diminue encore, de sorte que l'apprentissage à partir de listes de fréquences devient moins utile. Il convient de noter que la couverture du texte (le pourcentage de mots que vous connaissez dans un texte moyen) est importante. Il n'est pas nécessaire de comprendre chaque mot d'un texte pour en saisir le sens général. Certaines recherches ont porté sur le pourcentage de mots qu'il est nécessaire de comprendre. Laufer et Sim (1985) ont suggéré que 65 à 70% des mots devaient être compris comme un minimum absolu pour la compréhension, mais Laufer (1989) (tel que décrit dans Hu et Nation (2000)) suggère que 95% des mots doivent être connus pour une bonne compréhension. Hu et Nation (2000) suggèrent que 98% des mots doivent être connus pour une compréhension sans aide. Bien que l'apprentissage de mots à haute fréquence soit une bonne idée, surtout au début de l'apprentissage d'une langue, la fréquence n'est pas le seul élément à prendre en compte dans le choix des mots à apprendre. Barker (2007) suggère que le "coût" et le "bénéfice" soient les principales considérations lors du choix des mots à apprendre ; le bénéfice est partiellement défini par la fréquence, mais aussi par les besoins personnels. Il est donc bon d'apprendre le vocabulaire "technique" de votre spécialité ou domaine, mais il est également utile d'apprendre des mots liés à vos centres d'intérêt. Il est également utile d'apprendre des mots moins "coûteux", c'est-à-dire des mots qui vous sont familiers, que vous avez souvent rencontrés récemment ou qui vous semblent tout simplement faciles. Par ailleurs, bien que la mémorisation des mots présente des avantages, il est préférable de la combiner avec une exposition réelle aux mots, afin de les apprendre naturellement dans des contextes réels.
Quali sono i vantaggi dello studio delle parole in base alla loro frequenza?
Il vantaggio principale è che, imparando le parole a più alta frequenza, si ottiene un maggiore "bang for your buck" (cioè, se si conoscono le parole più frequenti della lingua, si è in grado di capire un maggior numero di parole che si incontrano, e quindi si ottengono i maggiori benefici studiando per prime quelle parole frequenti). Secondo Nation & Waring (1997), la copertura testuale del corpus Brown è la seguente: * 1000 parole più frequenti: 72.0% * Parole più frequenti di 2000 parole: 79.7% * Più frequenti 3000 parole: 84.0% * Più frequenti 4000 parole: 86.8%. Quindi, imparando le prime 1000 parole, conoscerete il 72% delle parole di un testo medio che leggete. Ma dopo di ciò, i rendimenti diminuiscono: le 1000 parole successive permettono di conoscere un altro 7,7% di un testo tipico, e le 1000 parole successive permettono di capire solo il 4,3% in più. Dopodiché, i rendimenti della memorizzazione in base alla frequenza diminuiscono ulteriormente, quindi l'apprendimento dagli elenchi di frequenza diventa meno utile. Si noti che la copertura del testo (la percentuale di parole conosciute in un testo medio) è importante. Non è necessario capire ogni singola parola di un testo per comprenderne il significato generale. Alcune ricerche hanno analizzato la percentuale di parole che dobbiamo comprendere. Laufer e Sim (1985) suggeriscono che il 65-70% dovrebbe essere compreso come minimo assoluto per la comprensione, ma Laufer (1989) (come descritto in Hu e Nation (2000)) suggerisce che il 95% dovrebbe essere conosciuto per una comprensione solida. Hu e Nation (2000) suggeriscono che il 98% delle parole dovrebbe essere conosciuto per una comprensione non assistita. Sebbene l'apprendimento di parole ad alta frequenza sia una buona idea, soprattutto quando si inizia a imparare una lingua, la frequenza non è l'unica considerazione quando si scelgono le parole da imparare. Barker (2007) suggerisce che il "costo" e il "beneficio" siano le considerazioni principali nella scelta delle parole da imparare; il beneficio è definito in parte dalla frequenza, ma anche dalle esigenze personali. Quindi è bene imparare il vocabolario "tecnico" della propria specializzazione o del proprio settore, ma è anche utile imparare parole legate ai propri interessi. È anche utile imparare parole con un "costo" più basso: parole che sono familiari, che si sono incontrate spesso di recente o che semplicemente sembrano facili. Inoltre, anche se memorizzare le parole ha dei vantaggi, è meglio combinarle con un'esposizione reale alle parole, in modo da impararle naturalmente in contesti reali.
153
I have heard many people saying, “Hah! I beat Stockfish,” and one saying, “I am the best chess player ever! I beat Stockfish.” So I wonder if it is possible, just to know whether I should try to beat it. I tried to play it once; I barely played 25 moves.
The answer is that they either played it on some very handicapped mode, they took back A LOT of moves, or they are probably lying. Stockfish 11 is currently rated about 3607, and that is in standard chess. Computer programs are typically even HARDER to beat for humans at even faster controls. There is a reason elite humans have not played matches against computers for a long time: even the Carlsens of the world cannot beat them any more. According to the ELO winning expectancy calculator, there is currently a 745 point difference between Stockfish 11 and Carlsen, and per the chart, that gives the computer a 99.5439696% chance of winning. Note: The ratings used above are from different rating pools, and thus, are not truly directly comparable, but used as a rough estimate of what would happen between the computer and Carlsen.
Ich habe viele Leute sagen hören: "Hah! Ich habe Stockfish geschlagen", und einen, der sagte: "Ich bin der beste Schachspieler aller Zeiten! Ich habe Stockfish geschlagen". Also frage ich mich, ob es möglich ist, nur um zu wissen, ob ich versuchen sollte, es zu schlagen. Ich habe einmal versucht, es zu spielen; ich habe kaum 25 Züge gespielt.
Die Antwort ist, dass sie es entweder in einem sehr eingeschränkten Modus gespielt haben, dass sie sehr viele Züge zurückgenommen haben oder dass sie wahrscheinlich lügen. Stockfish 11 hat derzeit eine Wertung von 3607, und das im Standardschach. Computerprogramme sind in der Regel noch SCHWIERIGER zu schlagen als Menschen mit noch schnelleren Kontrollen. Es gibt einen Grund, warum die menschliche Elite schon lange keine Partien mehr gegen Computer gespielt hat: Selbst die Carlsens dieser Welt können sie nicht mehr schlagen. Laut dem ELO-Gewinnwahrscheinlichkeitsrechner besteht derzeit ein Unterschied von 745 Punkten zwischen Stockfish 11 und Carlsen, was dem Computer eine Gewinnchance von 99,5439696% gibt. Hinweis: Die oben verwendeten Bewertungen stammen aus verschiedenen Bewertungspools und sind daher nicht wirklich direkt vergleichbar, sondern dienen als grobe Schätzung dessen, was zwischen dem Computer und Carlsen passieren würde.
He oído a mucha gente decir: "¡Ja! He ganado a Stockfish", y a uno decir: "¡Soy el mejor jugador de ajedrez de la historia! He vencido a Stockfish". Así que me pregunto si es posible, sólo para saber si debería intentar ganarle. Intenté jugar una vez; apenas hice 25 movimientos.
La respuesta es que o bien lo jugaron en algún modo con muchas desventajas, o bien retiraron MUCHAS jugadas, o bien probablemente están mintiendo. Stockfish 11 tiene actualmente una puntuación de 3607, y eso en ajedrez estándar. Los programas de ordenador suelen ser incluso MÁS DIFÍCILES de batir para los humanos con controles aún más rápidos. Hay una razón por la que los humanos de élite no juegan partidas contra ordenadores desde hace mucho tiempo: ni siquiera los Carlsens del mundo pueden ganarles ya. Según la calculadora de esperanza de victoria ELO, actualmente hay una diferencia de 745 puntos entre Stockfish 11 y Carlsen, y según la tabla, eso le da al ordenador un 99,5439696% de posibilidades de ganar. Nota: Las clasificaciones usadas arriba son de diferentes grupos de clasificación, y por lo tanto, no son realmente comparables, pero se usan como una estimación aproximada de lo que pasaría entre la computadora y Carlsen.
J'ai entendu de nombreuses personnes dire : "Hah ! J'ai battu Stockfish", et une personne a dit : "Je suis le meilleur joueur d'échecs de tous les temps ! J'ai battu Stockfish". Je me demande donc si c'est possible, juste pour savoir si je dois essayer de le battre. J'ai essayé de le jouer une fois ; j'ai à peine joué 25 coups.
La réponse est qu'ils l'ont joué sur un mode très handicapé, qu'ils ont repris BEAUCOUP de mouvements, ou qu'ils mentent probablement. Stockfish 11 est actuellement évalué à environ 3607, et ce en échecs standard. Les programmes informatiques sont généralement encore plus difficiles à battre pour les humains, avec des contrôles encore plus rapides. Il y a une raison pour laquelle l'élite humaine n'a pas joué de matchs contre des ordinateurs depuis longtemps : même les Carlsen du monde entier ne peuvent plus les battre. Selon le calculateur d'espérance de gain ELO, il y a actuellement une différence de 745 points entre Stockfish 11 et Carlsen, et selon le tableau, cela donne à l'ordinateur 99,5439696% de chances de gagner. Note : Les classements utilisés ci-dessus proviennent de différents groupes de classement, et ne sont donc pas directement comparables, mais sont utilisés comme une estimation approximative de ce qui se passerait entre l'ordinateur et Carlsen.
Ho sentito molte persone dire: "Hah! Ho battuto Stockfish" e una ha detto: "Sono il miglior giocatore di scacchi di sempre! Ho battuto Stockfish". Mi chiedo quindi se sia possibile, per sapere se devo provare a batterlo. Ho provato a giocarci una volta; ho giocato appena 25 mosse.
La risposta è che o hanno giocato in una modalità molto ridotta, o hanno ripreso MOLTE mosse, o probabilmente stanno mentendo. Stockfish 11 ha attualmente un punteggio di circa 3607, ed è un gioco di scacchi standard. I programmi per computer sono in genere ancora più difficili da battere per gli esseri umani a controlli ancora più veloci. C'è un motivo per cui gli uomini d'élite non giocano più partite contro i computer da molto tempo: nemmeno i Carlsen del mondo riescono più a batterli. Secondo il calcolatore dell'aspettativa di vittoria ELO, attualmente c'è una differenza di 745 punti tra Stockfish 11 e Carlsen e, secondo il grafico, questo dà al computer una probabilità di vittoria del 99,5439696%. Nota: i punteggi utilizzati sopra provengono da pool di rating diversi e quindi non sono direttamente confrontabili, ma sono utilizzati come stima approssimativa di ciò che accadrebbe tra il computer e Carlsen.
154
How to decrypt Jenkins passwords from credentials.xml?
There is a `hudson.util.Secret.decrypt()` function which can be used for this, so: 1. In Jenkins, go to: `/script` page. 2. Run the following command: ```println(hudson.util.Secret.decrypt("{XXX=}")) ``` or ``` println(hudson.util.Secret.fromString("{XXX=}").getPlainText()) ``` where `{XXX=}` is your encrypted password. This will print the plain password. To do the opposite, you can run: ``` println(hudson.util.Secret.fromString("some_text").getEncryptedValue()) ``` Alternatively check the following scripts: `tweksteen/jenkins-decrypt`, `menski/jenkins-decrypt.py`.
Wie entschlüsselt man Jenkins-Passwörter aus der Datei credentials.xml?
Es gibt eine Funktion "hudson.util.Secret.decrypt()", die dafür verwendet werden kann: 1. Gehen Sie in Jenkins zu: Seite `/script`. 2. Führen Sie den folgenden Befehl aus: ```println(hudson.util.Secret.decrypt("{XXX=}")) ``` oder ``` println(hudson.util.Secret.fromString("{XXX=}").getPlainText()) ``` wobei `{XXX=}` Ihr verschlüsseltes Passwort ist. Dies gibt das einfache Passwort aus. Um das Gegenteil zu tun, können Sie ausführen: ``` println(hudson.util.Secret.fromString("some_text").getEncryptedValue()) ``` Alternativ können Sie auch die folgenden Skripte verwenden: `tweksteen/jenkins-decrypt`, `menski/jenkins-decrypt.py`.
¿Cómo descifrar las contraseñas Jenkins de credentials.xml?
Hay una función `hudson.util.Secret.decrypt()` que se puede utilizar para esto, así: 1. En Jenkins, ve a `/script` page. 2. Ejecuta el siguiente comando: ```println(hudson.util.Secret.decrypt("{XXX=}")) ``` o ``` println(hudson.util.Secret.fromString("{XXX=}").getPlainText()) ``` donde `{XXX=}` es tu contraseña cifrada. Esto imprimirá la contraseña sin formato. Para hacer lo contrario, puede ejecutar: ``` println(hudson.util.Secret.fromString("algun_texto").getEncryptedValue()) ``` Alternativamente comprueba los siguientes scripts: `tweksteen/jenkins-decrypt`, `menski/jenkins-decrypt.py`.
Comment décrypter les mots de passe Jenkins dans credentials.xml ?
Il existe une fonction `hudson.util.Secret.decrypt()` qui peut être utilisée pour cela : 1. Dans Jenkins, allez à la page `/script` : `/script`. 2. Exécutez la commande suivante : ```println(hudson.util.Secret.decrypt("{XXX=}"))) ``` ou ``` println(hudson.util.Secret.fromString("{XXX=}").getPlainText()) ``` où `{XXX=}` est votre mot de passe crypté. Ceci affichera le mot de passe en clair. Pour faire l'inverse, vous pouvez lancer ``` println(hudson.util.Secret.fromString("some_text").getEncryptedValue()) ``` Vous pouvez également consulter les scripts suivants : `tweksteen/jenkins-decrypt`, `menski/jenkins-decrypt.py`.
Come decriptare le password di Jenkins da credentials.xml?
Esiste una funzione `hudson.util.Secret.decrypt()` che può essere utilizzata per questo, quindi: 1. In Jenkins, andare a: pagina `/script`. 2. Eseguire il seguente comando: ```println(hudson.util.Secret.decrypt("{XXX=}")) ``` oppure ``` println(hudson.util.Secret.fromString("{XXX=}").getPlainText()) ``` dove `{XXX=}` è la password criptata. In questo modo verrà stampata la password in chiaro. Per fare il contrario, si può eseguire: ``` println(hudson.util.Secret.fromString("some_text").getEncryptedValue()) ``` In alternativa, controllate i seguenti script: `tweksteen/jenkins-decrypt`, `menski/jenkins-decrypt.py`.
155
I'm pretty disappointed with my horse. He wasn't cheap -- 1000g -- but he just doesn't seem that fast. To make things worse, he's a bit of a wolf magnet and every time I get attacked I have to tediously dismount, blast the wolf, and then remount. Is the speed of a horse actually significantly faster than normal running speed? If so, how much faster?
Don't forget that you can sprint with a horse. It might be that you know that you can sprint on your character, but not on your horse. Please note that your horse is also able to sprint using stamina. You can do this using the default Alt key. Horses are indeed faster, transportation was simplified. Since Oblivion, they took Acrobatics and Athletics skills away, thus you can't improve your speed in such way anymore that it would be faster than a horse. The speed improvements by not being Fatigued and not being overweight are not enough to be significant. All horses in Skyrim have the same speed and hardiness, they are all draft types that resemble a Clydesdale, and all cost 1000 septims. — Wikia - Elder Scrolls V: Skyrim - Horse All horses in Skyrim are the same, seems that they wanted to simplify the whole transportation idea. Restrictions apply on both your character and horse. Without mods, a horse can't be used inside a city. If you do a lot of role-playing within cities having a horse might not be useful. At the same time, characters are limited in Skyrim as Raven Dreamer noted; while you can get over some mountains by jumping left and right trying to get over a rock, a horse will be more superior in performing this task as it is less restricted by physics. You can however be smart enough to choose your path right, rather than trying to work against the physics...
Ich bin ziemlich enttäuscht von meinem Pferd. Er war nicht billig - 1000g - aber er scheint einfach nicht so schnell zu sein. Zu allem Übel ist es auch noch ein Wolfsmagnet und jedes Mal, wenn ich angegriffen werde, muss ich mühsam absteigen, den Wolf erschießen und dann wieder aufsteigen. Ist die Geschwindigkeit eines Pferdes tatsächlich wesentlich höher als die normale Laufgeschwindigkeit? Wenn ja, wie viel schneller?
Vergessen Sie nicht, dass Sie mit einem Pferd sprinten können. Es kann sein, dass du weißt, dass du mit deinem Charakter sprinten kannst, aber nicht mit deinem Pferd. Bitte beachte, dass dein Pferd auch mit Ausdauer sprinten kann. Du kannst dies mit der Standard-Alt-Taste tun. Pferde sind tatsächlich schneller, der Transport wurde vereinfacht. Seit Oblivion wurden die Fertigkeiten Akrobatik und Athletik entfernt, daher kann man seine Geschwindigkeit nicht mehr so verbessern, dass es schneller als ein Pferd wäre. Die Geschwindigkeitsverbesserungen, die sich dadurch ergeben, dass man nicht ermüdet und nicht übergewichtig ist, reichen nicht aus, um signifikant zu sein. Alle Pferde in Skyrim haben die gleiche Geschwindigkeit und Widerstandsfähigkeit, sie sind alle Zugpferde, die einem Clydesdale ähneln, und kosten alle 1000 Septime. - Wikia - Elder Scrolls V: Skyrim - Pferd Alle Pferde in Skyrim sind gleich, anscheinend wollten sie die ganze Transportidee vereinfachen. Beschränkungen gelten sowohl für deinen Charakter als auch für dein Pferd. Ohne Mods kann ein Pferd nicht innerhalb einer Stadt benutzt werden. Wenn du viel Rollenspiel in Städten machst, ist ein Pferd vielleicht nicht so nützlich. Gleichzeitig sind Charaktere in Skyrim begrenzt, wie Raven Dreamer bemerkte; während man über einige Berge springen kann, indem man nach links und rechts versucht, über einen Felsen zu kommen, ist ein Pferd bei dieser Aufgabe überlegen, da es weniger durch die Physik eingeschränkt ist. Man kann jedoch klug genug sein, seinen Weg richtig zu wählen, anstatt zu versuchen, gegen die Physik anzuarbeiten...
Estoy bastante decepcionado con mi caballo. No era barato (1000 g), pero no parece tan rápido. Para empeorar las cosas, es un imán para los lobos y cada vez que me atacan tengo que desmontar tediosamente, matar al lobo y volver a montar. ¿Es realmente la velocidad de un caballo significativamente más rápida que la velocidad normal de carrera? Si es así, ¿cuánto más?
No olvides que puedes esprintar con un caballo. Puede que sepas que puedes esprintar con tu personaje, pero no con tu caballo. Ten en cuenta que tu caballo también puede esprintar usando stamina. Puedes hacerlo usando la tecla Alt por defecto. Los caballos son efectivamente más rápidos, el transporte se simplificó. Desde Oblivion, quitaron las habilidades de Acrobacia y Atletismo, por lo tanto ya no puedes mejorar tu velocidad de tal manera que sea más rápido que un caballo. Las mejoras de velocidad por no estar Fatigado y no tener sobrepeso no son suficientes para ser significativas. Todos los caballos en Skyrim tienen la misma velocidad y resistencia, todos son de tipo tiro que se asemejan a un Clydesdale, y todos cuestan 1000 septims. - Wikia - Elder Scrolls V: Skyrim - Caballo Todos los caballos en Skyrim son iguales, parece que querían simplificar toda la idea del transporte. Las restricciones se aplican tanto a tu personaje como a tu caballo. Sin mods, un caballo no puede ser usado dentro de una ciudad. Si haces mucho juego de rol dentro de las ciudades tener un caballo puede no ser útil. Al mismo tiempo, los personajes están limitados en Skyrim como señaló Raven Dreamer; mientras que puedes superar algunas montañas saltando a izquierda y derecha tratando de pasar por encima de una roca, un caballo será más superior en la realización de esta tarea, ya que está menos restringido por la física. Sin embargo, puedes ser lo suficientemente inteligente como para elegir bien tu camino, en lugar de intentar trabajar en contra de la física...
Je suis assez déçu par mon cheval. Il n'était pas donné -- 1000g -- mais il n'a pas l'air si rapide que ça. Pour ne rien arranger, il attire un peu les loups et à chaque fois que je me fais attaquer, je dois descendre de cheval, abattre le loup, puis remonter. La vitesse d'un cheval est-elle réellement plus rapide que la vitesse de course normale ? Si oui, de combien ?
N'oubliez pas que vous pouvez sprinter avec un cheval. Il se peut que vous sachiez que vous pouvez sprinter avec votre personnage, mais pas avec votre cheval. Notez que votre cheval est également capable de sprinter en utilisant l'endurance. Vous pouvez le faire en utilisant la touche Alt par défaut. Les chevaux sont en effet plus rapides, le transport a été simplifié. Depuis Oblivion, les compétences d'Acrobatie et d'Athlétisme ont été supprimées, vous ne pouvez donc plus améliorer votre vitesse de manière à ce qu'elle soit supérieure à celle d'un cheval. Les améliorations de vitesse apportées par le fait de ne pas être fatigué et de ne pas être en surpoids ne sont pas suffisantes pour être significatives. Tous les chevaux de Skyrim ont la même vitesse et la même résistance, ce sont tous des chevaux de trait qui ressemblent à un Clydesdale, et ils coûtent tous 1000 septims. - Wikia - Elder Scrolls V : Skyrim - Cheval Tous les chevaux de Skyrim sont identiques, il semble qu'ils aient voulu simplifier l'idée de transport. Les restrictions s'appliquent à la fois à votre personnage et à votre cheval. Sans mods, un cheval ne peut pas être utilisé à l'intérieur d'une ville. Si vous faites beaucoup de jeux de rôle dans les villes, il n'est pas forcément utile d'avoir un cheval. En même temps, les personnages sont limités dans Skyrim, comme l'a noté Raven Dreamer ; alors que vous pouvez franchir certaines montagnes en sautant de gauche à droite pour essayer de passer par-dessus un rocher, un cheval sera plus performant pour accomplir cette tâche car il est moins limité par les lois de la physique. Vous pouvez cependant être assez intelligent pour choisir votre chemin correctement, plutôt que d'essayer de travailler contre la physique...
Sono piuttosto deluso dal mio cavallo. Non è costato poco - 1000g - ma non mi sembra così veloce. Come se non bastasse, è un po' una calamita per i lupi e ogni volta che vengo attaccato devo noiosamente smontare, far fuori il lupo e poi rimontare. La velocità di un cavallo è davvero significativamente più veloce della normale velocità di corsa? Se sì, quanto è più veloce?
Non dimenticate che potete sprintare con un cavallo. Forse sapete che potete sprintare con il vostro personaggio, ma non con il vostro cavallo. Tenete presente che anche il cavallo è in grado di sprintare utilizzando la resistenza. È possibile farlo utilizzando il tasto Alt predefinito. I cavalli sono effettivamente più veloci, il trasporto è stato semplificato. Da Oblivion sono state tolte le abilità di Acrobazia e Atletica, quindi non è più possibile migliorare la velocità in modo tale da essere più veloci di un cavallo. I miglioramenti di velocità derivanti dal non essere affaticati e dal non essere in sovrappeso non sono sufficienti per essere significativi. Tutti i cavalli di Skyrim hanno la stessa velocità e resistenza, sono tutti tipi da tiro che assomigliano a un Clydesdale e costano tutti 1000 septims. - Wikia - Elder Scrolls V: Skyrim - Cavallo Tutti i cavalli di Skyrim sono uguali, sembra che abbiano voluto semplificare l'idea del trasporto. Le restrizioni si applicano sia al personaggio che al cavallo. Senza mod, un cavallo non può essere usato all'interno di una città. Se si gioca molto di ruolo all'interno delle città, avere un cavallo potrebbe non essere utile. Allo stesso tempo, i personaggi sono limitati in Skyrim, come ha notato Raven Dreamer; mentre si possono superare alcune montagne saltando a destra e a sinistra nel tentativo di superare una roccia, un cavallo sarà più adatto a svolgere questo compito, poiché è meno limitato dalla fisica. Tuttavia, si può essere abbastanza intelligenti da scegliere il percorso giusto, piuttosto che cercare di lavorare contro la fisica...
156
Other than rust, corrosion, and other reactions with air that would make the use of a metal unfavorable, how do different metals affect the performance? Let's give Yagi an example: Let's say I use 4 different metals for the directors , reflector, and driven element. One antenna made out of copper, one made out of aluminum, and one made out of a higher resistance conductor, let's say graphite (I know it would snap, I'm just talking theoretical), and iron Other then the metal variations, the antennas are identical. So, do different metals with different conductivity and permiability affect the performance of an antenna including gain, efficiency, impedance, elevation, or any other characteristic other then mechanical strength, and chemical reliability in open air.
Considering just electrical properties, the most significant parameter for your selection of antenna conductor is resistance. You want to keep the resistance to a minimum, because when current flows through a resistance, the electrical power is converted to heat, according to Joule heating: $$ P = I^2 R $$ Any energy you use to make heat is energy you aren't using to make electromagnetic waves. So first, you should consider the resistivity ($\rho$) of various metals. A lower resistivity means you will need less of a metal to reduce the resistance to an acceptable target. Here's a selection, ordered from lowest to highest resistivity in nano-ohm-meters (nΩm), of some metals you might consider using in an antenna: * Silver: 15.9 * Copper: 16.8 * Gold: 24.4 * Aluminium: 26.2 * Zinc: 59.0 * Nickel: 69.9 * Iron: 100 * Tin: 109 I'm not going to list stainless steel because there are so many kinds, but generally stainless steels are not great conductors, being over 100 on this scale. A high resistivity isn't bad in itself, because you can compensate by making the conductor thicker, and end up with the same resistance. Thus, you might think copper is the best choice (ruling out silver due to high cost), but when you start making mechanical and cost considerations, you may find aluminium is better. This is because for a sample of copper and another of aluminium of equal resistance, the aluminium sample will be bigger, but stiffer, lighter, and cheaper. There's another effect to consider here: with increasing frequency, currents like to flow on the surfaces of conductors. This is called the skin effect. The current flowing only on the skin of a conductor effectively reduces the cross-sectional area, and thus the conductance. Since most of the RF current is only on the surface, it often makes sense to build antennas from tubing for antennas requiring rigid elements (a 440 MHz Yagi), or copper-clad steel for wire antennas requiring tensile strength (a 40 meter dipole). This saves weight and cost for a negligible increase in loss. Magnetic permeability is a factor in skin depth. With increasing permeability, the skin depth decreases, increasing loss. Of the metals listed above, only iron and nickel have significantly higher permeability. Iron by a factor of about 5000, and nickel by 100 to 600. You could compensate for the reduced skin depth by increasing the surface area of the conductor, but when you consider cost and mechanics, it usually makes more sense to simply avoid iron and nickel and alloys containing them.
Abgesehen von Rost, Korrosion und anderen Reaktionen mit der Luft, die die Verwendung eines Metalls ungünstig machen würden, wie wirken sich verschiedene Metalle auf die Leistung aus? Nehmen wir ein Beispiel für Yagi: Nehmen wir an, ich verwende 4 verschiedene Metalle für die Direktoren , Reflektor und angetriebenes Element. Eine Antenne besteht aus Kupfer, eine aus Aluminium und eine aus einem Leiter mit höherem Widerstand, z.B. Graphit (ich weiß, dass es reißen würde, ich spreche nur theoretisch), und Eisen. Abgesehen von den unterschiedlichen Metallen sind die Antennen identisch. Beeinflussen also verschiedene Metalle mit unterschiedlicher Leitfähigkeit und Durchlässigkeit die Leistung einer Antenne, einschließlich Gewinn, Wirkungsgrad, Impedanz, Elevation oder andere Merkmale außer mechanischer Festigkeit und chemischer Zuverlässigkeit im Freien?
Betrachtet man nur die elektrischen Eigenschaften, so ist der Widerstand der wichtigste Parameter für die Auswahl des Antennenleiters. Sie wollen den Widerstand so gering wie möglich halten, denn wenn Strom durch einen Widerstand fließt, wird die elektrische Leistung gemäß der Jouleschen Wärmelehre in Wärme umgewandelt: $$ P = I^2 R $$ Jede Energie, die Sie zur Erzeugung von Wärme verwenden, ist Energie, die Sie nicht zur Erzeugung elektromagnetischer Wellen nutzen. Daher sollten Sie zunächst den spezifischen Widerstand ($\rho$) der verschiedenen Metalle berücksichtigen. Ein geringerer Widerstand bedeutet, dass man weniger Metall benötigt, um den Widerstand auf einen akzeptablen Wert zu reduzieren. Hier ist eine Auswahl von Metallen, die für eine Antenne in Frage kommen, geordnet vom niedrigsten zum höchsten Widerstand in Nano-Ohm-Metern (nΩm): * Silber: 15,9 * Kupfer: 16,8 * Gold: 24,4 * Aluminium: 26,2 * Zink: 59,0 * Nickel: 69.9 * Eisen: 100 * Zinn: 109 Ich werde keine Liste von rostfreiem Stahl aufstellen, weil es so viele Arten gibt, aber im Allgemeinen sind rostfreie Stähle keine guten Leiter, da sie auf dieser Skala über 100 liegen. Ein hoher spezifischer Widerstand ist an sich nicht schlecht, denn man kann ihn ausgleichen, indem man den Leiter dicker macht, so dass er den gleichen Widerstand aufweist. Man könnte also denken, dass Kupfer die beste Wahl ist (und Silber wegen der hohen Kosten ausschließen), aber wenn man anfängt, mechanische und kostentechnische Überlegungen anzustellen, könnte man feststellen, dass Aluminium besser ist. Das liegt daran, dass bei einer Kupferprobe und einer Aluminiumprobe mit gleichem Widerstand die Aluminiumprobe größer, aber steifer, leichter und billiger ist. Hier ist noch ein weiterer Effekt zu berücksichtigen: Mit zunehmender Frequenz fließen Ströme gerne an den Oberflächen von Leitern. Dies wird als Skin-Effekt bezeichnet. Der Strom, der nur auf der Haut eines Leiters fließt, verringert effektiv die Querschnittsfläche und damit den Leitwert. Da der größte Teil des HF-Stroms nur auf der Oberfläche fließt, ist es oft sinnvoll, Antennen aus Rohren zu bauen, wenn starre Elemente benötigt werden (eine 440-MHz-Yagi), oder aus kupferummanteltem Stahl, wenn Drahtantennen Zugfestigkeit erfordern (ein 40-Meter-Dipol). Dies spart Gewicht und Kosten bei einem vernachlässigbaren Anstieg der Verluste. Die magnetische Permeabilität ist ein Faktor für die Skin-Tiefe. Mit zunehmender Permeabilität nimmt die Eindringtiefe ab, was die Verluste erhöht. Von den oben aufgeführten Metallen haben nur Eisen und Nickel eine wesentlich höhere Permeabilität. Eisen um einen Faktor von etwa 5000 und Nickel um 100 bis 600. Man könnte die geringere Eindringtiefe durch eine Vergrößerung der Oberfläche des Leiters kompensieren, aber wenn man die Kosten und die Mechanik berücksichtigt, ist es in der Regel sinnvoller, Eisen und Nickel und die sie enthaltenden Legierungen einfach zu vermeiden.
Aparte del óxido, la corrosión y otras reacciones con el aire que harían desfavorable el uso de un metal, ¿cómo afectan los distintos metales al rendimiento? Pongamos un ejemplo de Yagi: Digamos que utilizo 4 diversos metales para los directores reflector, y elemento conducido. Una antena hecha fuera del cobre, una hecha fuera del aluminio, y una hecha fuera de un conductor más de alta resistencia, digamos el grafito (sé que rompería, apenas estoy hablando teórico), y el hierro Aparte de las variaciones de metal, las antenas son idénticas. Entonces, ¿afectan los diferentes metales con diferente conductividad y permitividad al rendimiento de una antena, incluyendo ganancia, eficiencia, impedancia, elevación o cualquier otra característica que no sea la resistencia mecánica y la fiabilidad química al aire libre?
Teniendo en cuenta sólo las propiedades eléctricas, el parámetro más importante para elegir el conductor de la antena es la resistencia. Usted quiere mantener la resistencia al mínimo, porque cuando la corriente fluye a través de una resistencia, la energía eléctrica se convierte en calor, de acuerdo con el calentamiento Joule: $$ P = I^2 R $$ Cualquier energía que utilices para producir calor es energía que no estás utilizando para producir ondas electromagnéticas. Así que, en primer lugar, debes tener en cuenta la resistividad ($\rho$) de los distintos metales. Una resistividad más baja significa que necesitará menos cantidad de metal para reducir la resistencia a un objetivo aceptable. He aquí una selección, ordenada de menor a mayor resistividad en nano-ohmios-metros (nΩm), de algunos metales que podría considerar utilizar en una antena: * Plata: 15,9 * Cobre: 16,8 * Oro: 24,4 * Aluminio: 26,2 * Zinc: 59,0 * Níquel 69.9 * Hierro: 100 * Estaño 109 No voy a enumerar los aceros inoxidables porque hay muchos tipos, pero en general no son buenos conductores, ya que superan los 100 en esta escala. Una resistividad alta no es mala en sí misma, porque se puede compensar haciendo el conductor más grueso y obtener la misma resistencia. Así, se podría pensar que el cobre es la mejor opción (descartando la plata por su elevado coste), pero cuando se empiezan a hacer consideraciones mecánicas y de coste, se puede descubrir que el aluminio es mejor. Esto se debe a que para una muestra de cobre y otra de aluminio de igual resistencia, la de aluminio será más grande, pero más rígida, ligera y barata. Hay otro efecto que hay que tener en cuenta: al aumentar la frecuencia, a las corrientes les gusta fluir por la superficie de los conductores. Es el llamado efecto piel. La corriente que fluye sólo por la superficie de un conductor reduce el área de la sección transversal y, por tanto, la conductancia. Dado que la mayor parte de la corriente de RF sólo circula por la superficie, a menudo tiene sentido construir antenas de tubo para antenas que requieren elementos rígidos (una Yagi de 440 MHz), o de acero revestido de cobre para antenas de hilo que requieren resistencia a la tracción (un dipolo de 40 metros). Esto ahorra peso y coste a cambio de un aumento insignificante de las pérdidas. La permeabilidad magnética es un factor en la profundidad de la piel. Con el aumento de la permeabilidad, la profundidad de la piel disminuye, aumentando la pérdida. De los metales enumerados anteriormente, sólo el hierro y el níquel tienen una permeabilidad significativamente mayor. El hierro por un factor de alrededor de 5000, y el níquel por 100 a 600. Se podría compensar la reducción de la profundidad de penetración aumentando la superficie del conductor, pero si tenemos en cuenta el coste y la mecánica, suele ser más sensato evitar el hierro y el níquel y las aleaciones que los contienen.
Outre la rouille, la corrosion et d'autres réactions avec l'air qui rendraient l'utilisation d'un métal défavorable, comment les différents métaux affectent-ils les performances ? Prenons l'exemple de la Yagi : Supposons que j'utilise 4 métaux différents pour les directeurs, le réflecteur et l'élément entraîné. le réflecteur et l'élément entraîné. Une antenne en cuivre, une en aluminium, et une en graphite (je sais que ça craquerait, je parle en théorie), et en fer, un conducteur à plus haute résistance. Hormis les variations de métal, les antennes sont identiques. Donc, est-ce que des métaux différents avec une conductivité et une perméabilité différentes affectent la performance d'une antenne, y compris le gain, l'efficacité, l'impédance, l'élévation, ou toute autre caractéristique autre que la résistance mécanique, et la fiabilité chimique à l'air libre.
Si l'on considère uniquement les propriétés électriques, le paramètre le plus important pour la sélection d'un conducteur d'antenne est la résistance. Vous souhaitez maintenir la résistance au minimum, car lorsque le courant traverse une résistance, l'énergie électrique est convertie en chaleur, selon le principe de la chaleur de Joule : $$ P = I^2 R $$ Toute énergie utilisée pour produire de la chaleur est de l'énergie que vous n'utilisez pas pour produire des ondes électromagnétiques. Il faut donc d'abord tenir compte de la résistivité ($\rho$) des différents métaux. Une résistivité plus faible signifie qu'il vous faudra moins de métal pour réduire la résistance à un niveau acceptable. Voici une sélection, classée de la plus faible à la plus forte résistivité en nano-ohms-mètres (nΩm), de quelques métaux que vous pourriez envisager d'utiliser dans une antenne : * Argent : 15,9 * Cuivre : 16,8 * Or : 24,4 * Aluminium : 26,2 * Zinc : 59,0 Zinc : 59,0 * Nickel : 69.9 * Fer : 100 * Etain : 109 Je ne vais pas énumérer les aciers inoxydables, car il en existe de nombreuses sortes, mais ils ne sont généralement pas de très bons conducteurs, puisqu'ils dépassent 100 sur cette échelle. Une résistivité élevée n'est pas mauvaise en soi, car il est possible de compenser en rendant le conducteur plus épais et en obtenant la même résistance. On peut donc penser que le cuivre est le meilleur choix (en excluant l'argent en raison de son coût élevé), mais lorsque l'on commence à prendre en compte les aspects mécaniques et financiers, on peut s'apercevoir que l'aluminium est meilleur. En effet, pour un échantillon de cuivre et un autre d'aluminium de même résistance, l'échantillon d'aluminium sera plus grand, mais plus rigide, plus léger et moins cher. Un autre effet doit être pris en considération : lorsque la fréquence augmente, les courants aiment circuler sur les surfaces des conducteurs. C'est ce qu'on appelle l'effet de peau. Le courant qui circule uniquement sur la peau d'un conducteur réduit effectivement la section transversale, et donc la conductance. Étant donné que la majeure partie du courant RF ne circule qu'en surface, il est souvent judicieux de construire des antennes à partir de tubes pour les antennes nécessitant des éléments rigides (une Yagi 440 MHz), ou à partir d'acier recouvert de cuivre pour les antennes filaires nécessitant une résistance à la traction (un dipôle de 40 mètres). Cela permet d'économiser du poids et de l'argent pour une augmentation négligeable des pertes. La perméabilité magnétique est un facteur de la profondeur de peau. Lorsque la perméabilité augmente, la profondeur de peau diminue, ce qui accroît les pertes. Parmi les métaux énumérés ci-dessus, seuls le fer et le nickel ont une perméabilité nettement plus élevée. Le fer par un facteur d'environ 5000, et le nickel par un facteur de 100 à 600. Il est possible de compenser la réduction de la profondeur de peau en augmentant la surface du conducteur, mais si l'on tient compte du coût et de la mécanique, il est généralement plus judicieux d'éviter le fer et le nickel, ainsi que les alliages qui les contiennent.
A parte la ruggine, la corrosione e altre reazioni con l'aria che renderebbero l'uso di un metallo sfavorevole, in che modo i diversi metalli influenzano le prestazioni? Facciamo un esempio di Yagi: Supponiamo che io utilizzi 4 metalli diversi per i registi, il riflettore e l'elemento pilotato. riflettore e l'elemento pilotato. Un'antenna in rame, una in alluminio e una in un conduttore ad alta resistenza, diciamo grafite (so che si spezzerebbe, sto solo parlando in teoria) e ferro. A parte le variazioni di metallo, le antenne sono identiche. Quindi, metalli diversi con diversa conduttività e permiabilità influiscono sulle prestazioni di un'antenna, compresi il guadagno, l'efficienza, l'impedenza, l'elevazione o qualsiasi altra caratteristica che non sia la resistenza meccanica e l'affidabilità chimica all'aria aperta?
Considerando solo le proprietà elettriche, il parametro più significativo per la scelta del conduttore d'antenna è la resistenza. Si desidera mantenere la resistenza al minimo, perché quando la corrente scorre attraverso una resistenza, l'energia elettrica viene convertita in calore, secondo il principio del riscaldamento Joule: $$ P = I^2 R $$ L'energia utilizzata per produrre calore è energia che non viene utilizzata per produrre onde elettromagnetiche. Quindi, per prima cosa, è necessario considerare la resistività ($\rho$) dei vari metalli. Una resistività più bassa significa che è necessaria una quantità minore di metallo per ridurre la resistenza a un livello accettabile. Ecco una selezione, ordinata dalla più bassa alla più alta resistività in nano-ohm-metri (nΩm), di alcuni metalli che si potrebbero utilizzare in un'antenna: * Argento: 15,9 * Rame: 16,8 * Oro: 24,4 * Alluminio: 26,2 * Zinco: 59,0 * Nichel: 69.9 * Ferro: 100 * Stagno: 109 Non elencherò l'acciaio inossidabile perché ce ne sono molti tipi, ma in generale gli acciai inossidabili non sono grandi conduttori, essendo superiori a 100 su questa scala. Un'alta resistività non è di per sé negativa, perché si può compensare rendendo il conduttore più spesso e ottenendo la stessa resistenza. Pertanto, si potrebbe pensare che il rame sia la scelta migliore (escludendo l'argento a causa del costo elevato), ma quando si iniziano a fare considerazioni meccaniche e di costo, si può scoprire che l'alluminio è migliore. Questo perché per un campione di rame e un altro di alluminio di pari resistenza, il campione di alluminio sarà più grande, ma più rigido, più leggero e più economico. C'è un altro effetto da considerare: con l'aumentare della frequenza, le correnti si spostano volentieri sulle superfici dei conduttori. Si tratta del cosiddetto effetto pelle. La corrente che scorre solo sulla pelle di un conduttore riduce effettivamente l'area della sezione trasversale e quindi la conduttanza. Poiché la maggior parte della corrente RF scorre solo sulla superficie, spesso ha senso costruire le antenne con tubi per le antenne che richiedono elementi rigidi (una Yagi da 440 MHz) o con acciaio rivestito di rame per le antenne a filo che richiedono resistenza alla trazione (un dipolo da 40 metri). In questo modo si risparmiano peso e costi a fronte di un aumento trascurabile delle perdite. La permeabilità magnetica è un fattore di profondità della pelle. Con l'aumento della permeabilità, la profondità della pelle diminuisce, aumentando la perdita. Dei metalli sopra elencati, solo il ferro e il nichel hanno una permeabilità significativamente superiore. Il ferro ha un fattore di circa 5.000, mentre il nichel ha un fattore di 100-600. Si potrebbe compensare la ridotta profondità della pelle aumentando la superficie del conduttore, ma se si considerano i costi e la meccanica, di solito ha più senso evitare il ferro e il nichel e le leghe che li contengono.
157
Windows in its earliest days was simply a shell that ran on top of MS-DOS, which means that Windows 3.1 itself was actually just a standard MS-DOS application like any other. Yet, MS-DOS is not a multitasking operating system, and at the same time, Windows applications were compiled native-code binaries that ran without any form of managed environment. So, how exactly was multitasking of Windows binaries achieved if Windows 3.1 was simply a regular old MS-DOS program itself? Are there any old technical documents still floating around that describe the early Windows architecture internally?
For Win16 programs, Windows implemented co-operative multitasking. Its implementation was based upon the &quot;message loop&quot; architecture of every Windows program. The duty of every program was to endlessly run in a loop in which a call to the ```GetMessage``` function was performed. This function call looks whether a message to this process is in the queue. If there is one, it is retrieved (```GetMessage```), optionally translated (```TranslateMessage```, done to convert keyboard shortcuts into menu actions) and finally, passed to the window procedure (```DispatchMessage```). If there is no message available in the queue, Windows suspends the current task and gives the CPU to another task. This task will try to retrieve a message from its queue as well, yielding the CPU to another task if no message is present and so on. If a program needed to perform background tasks while there were no pending messages in its queue, it would call ```PeekMessage``` instead of ```GetMessage```. This didn't make the task relinquish the CPU, as ```PeekMessage``` would immediately return to the caller task to inform it whether a message is available or not. This was used to time-multiplex message processing with another time-consuming task (think of a 3D program rendering but letting the user cancel that render by pressing a &quot;Cancel&quot; button). If this time-consuming task was actually very time-consuming, a well-behaved program should call the ```Yield``` function from time to time, to relinquish the CPU and let other tasks run. A badly-behaved program could easily hog the CPU by not retrieving messages too often or by spending too much time in a window procedure function. The situation was quite different for MS-DOS boxes. They ran using the V8086 mode of the 80386 (if Windows was running in enhanced mode). Windows-aware programs ran in the so-called System VM (Virtual Machine 1). DOS boxes ran from VM 2 upwards. DOS programs usually were badly-behaved programs, so Windows assigned each DOS box a different virtual machine. Virtual machines used pre-emptive multitasking in Windows 3.1, so each DOS box could run concurrently to others and to any Windows-aware program.
In seinen Anfängen war Windows einfach eine Shell, die auf MS-DOS lief, was bedeutet, dass Windows 3.1 selbst eigentlich nur eine Standard-MS-DOS-Anwendung wie jede andere war. MS-DOS ist jedoch kein Multitasking-Betriebssystem, und gleichzeitig waren Windows-Anwendungen kompilierte Native-Code-Binärdateien, die ohne jede Form einer verwalteten Umgebung liefen. Wie genau wurde also das Multitasking von Windows-Binärdateien erreicht, wenn Windows 3.1 selbst einfach ein normales altes MS-DOS-Programm war? Gibt es noch alte technische Dokumente, in denen die frühe Windows-Architektur intern beschrieben wird?
Für Win16-Programme implementierte Windows kooperatives Multitasking. Seine Implementierung basierte auf der Architektur der Nachrichtenschleife jedes Windows-Programms. Die Aufgabe jedes Programms war es, endlos in einer Schleife zu laufen, in der ein Aufruf der Funktion ``GetMessage`` durchgeführt wurde. Dieser Funktionsaufruf sucht, ob eine Nachricht an diesen Prozeß in der Warteschlange steht. Ist dies der Fall, wird sie abgeholt (```GetMessage``), optional übersetzt (```TranslateMessage``, um Tastaturkürzel in Menüaktionen umzuwandeln) und schließlich an die Fensterprozedur übergeben (```DispatchMessage``). Wenn keine Nachricht in der Warteschlange vorhanden ist, unterbricht Windows die aktuelle Aufgabe und gibt die CPU an eine andere Aufgabe. Diese Task versucht ebenfalls, eine Nachricht aus ihrer Warteschlange zu holen und gibt die CPU an eine andere Task ab, wenn keine Nachricht vorhanden ist, und so weiter. Wenn ein Programm Hintergrundaufgaben ausführen mußte, während keine Nachrichten in seiner Warteschlange anstanden, rief es ```PeekMessage`` statt ```GetMessage`` auf. Dies führte nicht dazu, daß die Aufgabe die CPU aufgab, da ```PeekMessage`` sofort zur aufrufenden Aufgabe zurückkehrte, um sie zu informieren, ob eine Nachricht verfügbar ist oder nicht. Dies wurde benutzt, um die Verarbeitung von Nachrichten mit einer anderen zeitaufwendigen Aufgabe zu verbinden (man denke an ein 3D-Programm, das rendert, aber dem Benutzer erlaubt, das Rendering abzubrechen, indem er einen &quot;Cancel&quot; Knopf drückt). Wenn diese zeitaufwendige Aufgabe tatsächlich sehr zeitaufwendig war, sollte ein gut erzogenes Programm von Zeit zu Zeit die Funktion ``Yield`` aufrufen, um die CPU zu entlasten und andere Aufgaben laufen zu lassen. Ein schlechtes Programm könnte die CPU leicht in Beschlag nehmen, indem es Nachrichten nicht zu oft abruft oder zu viel Zeit in einer Fensterprozedurfunktion verbringt. Bei MS-DOS-Boxen war die Situation ganz anders. Sie liefen im V8086-Modus des 80386 (wenn Windows im erweiterten Modus lief). Windows-fähige Programme liefen in der sogenannten System-VM (Virtual Machine 1). DOS-Boxen liefen ab VM 2 aufwärts. DOS-Programme waren in der Regel schlecht benutzbare Programme, daher wies Windows jeder DOS-Box eine andere virtuelle Maschine zu. Virtuelle Maschinen verwendeten in Windows 3.1 präemptives Multitasking, so dass jede DOS-Box gleichzeitig mit anderen und mit jedem Windows-fähigen Programm laufen konnte.
En sus inicios, Windows era simplemente un shell que se ejecutaba sobre MS-DOS, lo que significa que el propio Windows 3.1 era en realidad una aplicación estándar de MS-DOS como cualquier otra. Sin embargo, MS-DOS no es un sistema operativo multitarea y, al mismo tiempo, las aplicaciones de Windows eran binarios compilados en código nativo que se ejecutaban sin ningún tipo de entorno gestionado. Entonces, ¿cómo se consiguió exactamente la multitarea de los binarios de Windows si Windows 3.1 era simplemente un programa MS-DOS normal y corriente? ¿Existe algún documento técnico antiguo que describa internamente la arquitectura inicial de Windows?
Para los programas Win16, Windows implementó la multitarea cooperativa. Su implementación se basaba en la arquitectura de bucle de mensajes de todos los programas de Windows. El deber de cada programa era ejecutarse sin fin en un bucle en el que se realizaba una llamada a la función ```GetMessage``. Esta llamada a la función busca si hay un mensaje para este proceso en la cola. Si lo hay, se recupera (``GetMessage``), opcionalmente se traduce (``TranslateMessage``, hecho para convertir los atajos de teclado en acciones de menú) y finalmente, se pasa al procedimiento de la ventana (```DispatchMessage``). Si no hay ningún mensaje disponible en la cola, Windows suspende la tarea actual y cede la CPU a otra tarea. Esta tarea intentará recuperar un mensaje de su cola también, cediendo la CPU a otra tarea si no hay ningún mensaje y así sucesivamente. Si un programa necesitaba realizar tareas en segundo plano mientras no había mensajes pendientes en su cola, llamaría a ```PeekMessage`` en lugar de a ```GetMessage``. Esto no hacía que la tarea renunciara a la CPU, ya que ``PeekMessage`` volvía inmediatamente a la tarea llamante para informarle de si había un mensaje disponible o no. Esto se utilizaba para multiplicar en el tiempo el procesamiento de mensajes con otra tarea que consumía mucho tiempo (piensa en un programa 3D renderizando pero dejando que el usuario cancele ese render pulsando un botón &quot;Cancelar&quot;). Si esta tarea consume mucho tiempo, un programa que se comporte bien debería llamar a la función ```Yield`` de vez en cuando, para ceder la CPU y dejar que se ejecuten otras tareas. Un programa con mal comportamiento podría fácilmente acaparar la CPU por no recuperar mensajes con demasiada frecuencia o por pasar demasiado tiempo en una función de procedimiento de ventana. La situación era bastante diferente para las cajas MS-DOS. Se ejecutaban utilizando el modo V8086 del 80386 (si Windows se ejecutaba en modo mejorado). Los programas compatibles con Windows se ejecutaban en la llamada VM del Sistema (Máquina Virtual 1). Los programas DOS se ejecutaban a partir de la VM 2. Los programas DOS solían ser programas de mal comportamiento, por lo que Windows asignaba a cada caja DOS una máquina virtual diferente. En Windows 3.1, las máquinas virtuales utilizaban la multitarea preventiva, por lo que cada cuadro de DOS podía ejecutarse simultáneamente con otros y con cualquier programa compatible con Windows.
À ses débuts, Windows n'était qu'un shell fonctionnant au-dessus de MS-DOS, ce qui signifie que Windows 3.1 lui-même n'était en fait qu'une application MS-DOS standard comme les autres. Or, MS-DOS n'est pas un système d'exploitation multitâche et, dans le même temps, les applications Windows étaient des binaires compilés en code natif qui s'exécutaient sans aucune forme d'environnement géré. Alors, comment le multitâche des binaires Windows a-t-il été réalisé si Windows 3.1 n'était qu'un vieux programme MS-DOS ? Existe-t-il encore de vieux documents techniques qui décrivent en interne l'architecture initiale de Windows ?
Pour les programmes Win16, Windows a mis en œuvre le multitâche coopératif. Sa mise en œuvre était basée sur l'architecture de la boucle de messages de chaque programme Windows. Le rôle de chaque programme était de s'exécuter sans fin dans une boucle dans laquelle un appel à la fonction ``GetMessage`` était effectué. Cette fonction cherche à savoir si un message destiné à ce processus se trouve dans la file d'attente. S'il y en a un, il est récupéré (``GetMessage``), éventuellement traduit (``TranslateMessage``, fait pour convertir les raccourcis clavier en actions de menu) et enfin, transmis à la procédure de fenêtre (``DispatchMessage``). S'il n'y a pas de message disponible dans la file d'attente, Windows suspend la tâche en cours et donne le CPU à une autre tâche. Cette tâche essaiera elle aussi de récupérer un message dans sa file d'attente, en cédant l'unité centrale à une autre tâche si aucun message n'est présent, et ainsi de suite. Si un programme avait besoin d'effectuer des tâches de fond alors qu'il n'y avait pas de messages en attente dans sa file d'attente, il appellerait ``PeekMessage`` au lieu de ``GetMessage``. La tâche n'abandonnait pas pour autant le CPU, puisque ``PeekMessage`` retournait immédiatement à la tâche appelante pour l'informer de la disponibilité ou non d'un message. Ceci était utilisé pour multiplier le temps de traitement des messages avec une autre tâche qui prenait du temps (pensez à un programme 3D qui fait un rendu mais qui permet à l'utilisateur d'annuler ce rendu en appuyant sur un bouton &quot;Cancel&quot ;). Si cette tâche prenait beaucoup de temps, un programme bien élevé devrait appeler la fonction ``Yield`` de temps en temps, pour libérer le CPU et laisser d'autres tâches s'exécuter. Un programme mal élevé pourrait facilement monopoliser l'unité centrale en ne récupérant pas les messages trop souvent ou en passant trop de temps dans une fonction de procédure de fenêtre. La situation était tout à fait différente pour les boîtes MS-DOS. Elles fonctionnaient en utilisant le mode V8086 du 80386 (si Windows fonctionnait en mode amélioré). Les programmes compatibles avec Windows s'exécutaient dans ce que l'on appelle le System VM (Virtual Machine 1). Les boîtes DOS fonctionnaient à partir de la VM 2. Les programmes DOS étant généralement de mauvaise qualité, Windows attribuait à chaque boîte DOS une machine virtuelle différente. Les machines virtuelles utilisaient le multitâche préemptif dans Windows 3.1, de sorte que chaque boîte DOS pouvait fonctionner en même temps que les autres et que n'importe quel programme compatible avec Windows.
Windows nei suoi primi giorni di vita era semplicemente una shell che girava sopra MS-DOS, il che significa che Windows 3.1 stesso era in realtà solo un'applicazione MS-DOS standard come qualsiasi altra. Tuttavia, MS-DOS non è un sistema operativo multitasking e, allo stesso tempo, le applicazioni di Windows erano binari compilati in codice nativo che venivano eseguiti senza alcuna forma di ambiente gestito. Quindi, come è stato possibile ottenere il multitasking dei binari di Windows se Windows 3.1 era semplicemente un vecchio programma MS-DOS? Esiste ancora qualche vecchio documento tecnico che descrive internamente la prima architettura di Windows?
Per i programmi Win16, Windows ha implementato il multitasking cooperativo. La sua implementazione si basa sull'architettura &quot;message loop&quot; di ogni programma Windows. Il compito di ogni programma era quello di eseguire all'infinito un ciclo in cui veniva eseguita una chiamata alla funzione ``GetMessage``. Questa chiamata di funzione cerca se nella coda è presente un messaggio per questo processo. Se c'è, viene recuperato (```GetMessage``), facoltativamente tradotto (```TranslateMessage``, fatto per convertire le scorciatoie da tastiera in azioni di menu) e infine passato alla procedura della finestra (```DispatchMessage``). Se non ci sono messaggi disponibili nella coda, Windows sospende l'attività corrente e assegna la CPU a un'altra attività. Anche questo task cercherà di recuperare un messaggio dalla sua coda, cedendo la CPU a un altro task se non è presente alcun messaggio e così via. Se un programma avesse bisogno di eseguire attività in background mentre non ci sono messaggi in attesa nella sua coda, chiamerebbe ```PeekMessage`` invece di ```GetMessage``. Questo non fa sì che il task rinunci alla CPU, perché ```PeekMessage`` ritorna immediatamente al task chiamante per informarlo se un messaggio è disponibile o meno. Questo è stato usato per sovrapporre l'elaborazione dei messaggi a un'altra attività che richiede molto tempo (si pensi al rendering di un programma 3D, ma l'utente può annullare il rendering premendo un pulsante &quot;Cancel&quot;). Se questa attività richiede molto tempo, un programma ben educato dovrebbe chiamare di tanto in tanto la funzione ``Yield'', per cedere la CPU e permettere l'esecuzione di altre attività. Un programma poco educato potrebbe facilmente monopolizzare la CPU non recuperando i messaggi troppo spesso o spendendo troppo tempo in una funzione della procedura della finestra. La situazione era molto diversa per i box MS-DOS. Questi venivano eseguiti utilizzando la modalità V8086 dell'80386 (se Windows era in modalità avanzata). I programmi Windows-aware venivano eseguiti nella cosiddetta System VM (Virtual Machine 1). I box DOS venivano eseguiti dalla VM 2 in su. I programmi DOS di solito si comportavano male, quindi Windows assegnava a ogni casella DOS una macchina virtuale diversa. Le macchine virtuali utilizzavano il multitasking pre-emptive in Windows 3.1, quindi ogni casella DOS poteva essere eseguita in contemporanea con altre e con qualsiasi programma Windows-aware.
158
I'm working on 2 different branches: release and development. I noticed I still need to integrate some changes that were committed to the release branch back into the development branch. The problem is I don't need all of the commit, only some hunks in certain files, so a simple ```git cherry-pick bc66559 ``` does not do the trick. When I do a ```git show bc66559 ``` I can see the diff but don't really know a good way of applying that partially to my current working tree.
The core thing you're going to want here is ```git add -p``` (```-p``` is a synonym for ```--patch```). This provides an interactive way to add in content, letting you decide whether each hunk should go in or not, and even letting you manually edit the patch if necessary. To use it in combination with cherry-pick: ```git cherry-pick -n # get your patch, but don't commit (-n = --no-commit) git reset # unstage the changes from the cherry-picked commit git add -p # make all your choices (add the changes you do want) git commit # make the commit! ``` ``git-cherry-pick``` has a ```--no-commit``` option, and you need to do ```git reset```. If you only want to leave a few things out of the commit, you could use ```git reset ...``` to unstage just those files.) You can provide specific paths to ```add -p``` if necessary. If you're starting with a patch you could replace the ```cherry-pick``` with ```apply```. If you really want to ```git cherry-pick -p ``` (that option does not exist), you can use ```git checkout -p ``` That will diff the current commit against the commit you specify, and allow you to apply hunks from that diff individually. This option may be more useful if the commit you're pulling in has merge conflicts in part of the commit you're not interested in. (Note, however, that ```checkout``` differs from ```cherry-pick```: ```checkout``` tries to apply ``````'s contents entirely, while ```cherry-pick``` applies the diff of the specified commit from it's parent. This means that ```checkout``` can apply more than just that commit, which might be more than you want.)
Ich arbeite an 2 verschiedenen Zweigen: Release und Entwicklung. Mir ist aufgefallen, dass ich noch einige Änderungen, die im Release-Zweig vorgenommen wurden, wieder in den Entwicklungszweig integrieren muss. Das Problem ist, dass ich nicht alle Commits benötige, sondern nur einige Teile in bestimmten Dateien, so dass ein einfacher ```git cherry-pick bc66559 ``` nicht den gewünschten Effekt erzielt. Wenn ich ein ```git show bc66559 ``` ausführe, kann ich den Unterschied sehen, aber ich weiß nicht wirklich, wie ich das teilweise auf meinen aktuellen Arbeitsbaum anwenden kann.
Das Wichtigste, was Sie hier brauchen werden, ist ````git add -p``` (```-p`` ist ein Synonym für ```--patch``). Dies ist ein interaktiver Weg, um Inhalte hinzuzufügen, wobei Sie entscheiden können, ob die einzelnen Teile hinzugefügt werden sollen oder nicht, und Sie können den Patch sogar manuell bearbeiten, falls nötig. Um es in Kombination mit cherry-pick zu verwenden: ```git cherry-pick -n # den Patch holen, aber nicht committen (-n = --no-commit) git reset # entferne die Änderungen aus dem Cherry-Pick-Commit git add -p # füge alle gewünschten Änderungen ein (füge die Änderungen hinzu, die du willst) git commit # Übertragen Sie die Änderungen! ``` ``git-cherry-pick`` hat eine ```--no-commit`` Option, und Sie müssen ```git reset`` machen. Wenn Sie nur ein paar Dinge aus dem Commit herauslassen wollen, können Sie ```Git reset ...``` benutzen, um nur diese Dateien zu entfernen). Sie können spezifische Pfade an ```add -p``` übergeben, falls nötig. Wenn Sie mit einem Patch beginnen, können Sie ```cherry-pick`` durch ```apply`` ersetzen. Wenn Sie wirklich ```git cherry-pick -p`` verwenden wollen (diese Option existiert nicht), können Sie ``Git checkout -p ``` Dies vergleicht den aktuellen Commit mit dem von Ihnen angegebenen Commit und erlaubt es Ihnen, die Hunks aus diesem Vergleich einzeln anzuwenden. Diese Option kann nützlicher sein, wenn der Commit, den Sie heranziehen, Merge-Konflikte in einem Teil des Commits hat, an dem Sie nicht interessiert sind. (Beachten Sie jedoch, dass ```checkout`` sich von ```cherry-pick`` unterscheidet: ```checkout`` versucht, den Inhalt von `````` vollständig anzuwenden, während ```cherry-pick`` das Diff des angegebenen Commits von seinem Elternteil anwendet. Das bedeutet, dass ```Checkout`` mehr als nur diesen Commit anwenden kann, was vielleicht mehr ist, als Sie wollen).
Estoy trabajando en 2 ramas diferentes: lanzamiento y desarrollo. Me di cuenta de que todavía tengo que integrar algunos cambios que fueron confirmados a la rama de lanzamiento de nuevo en la rama de desarrollo. El problema es que no necesito todo el commit, sólo algunos trozos en ciertos archivos, por lo que un simple ```git cherry-pick bc66559 ``` no hace el truco. Cuando hago un ``git show bc66559 ``` puedo ver el diff pero no conozco una buena forma de aplicarlo parcialmente a mi árbol de trabajo actual.
Lo principal que vas a querer aquí es ```git add -p`` (```-p`` es un sinónimo de ```--patch``). Esto proporciona una forma interactiva de añadir contenido, permitiéndote decidir si cada trozo debe ir o no, e incluso permitiéndote editar manualmente el parche si es necesario. Para usarlo en combinación con cherry-pick: ```git cherry-pick -n # obtén tu parche, pero no lo confirmes (-n = --no-commit) git reset # deshacer los cambios del commit cherry-picked git add -p # haz todas tus elecciones (añade los cambios que quieras) git commit # ¡haz el commit! ``` ``git-cherry-pick`` tiene una opción ``--no-commit``, y necesitas hacer ```git reset``. Si sólo quieres dejar unas pocas cosas fuera del commit, puedes usar ``git reset ...`` para desensamblar sólo esos archivos). Puedes proporcionar rutas específicas a ``add -p`` si es necesario. Si estás empezando con un parche podrías reemplazar ``cherry-pick`` con ```apply``. Si realmente quieres ``git cherry-pick -p`` (esa opción no existe), puedes usar ``git checkout -p ``` Esto comparará la confirmación actual con la confirmación que especifiques, y te permitirá aplicar los cambios de esa comparación individualmente. Esta opción puede ser más útil si la confirmación que estás extrayendo tiene conflictos de fusión en parte de la confirmación que no te interesa. (Tenga en cuenta, sin embargo, que ```checkout`` difiere de ``cherry-pick``: ```checkout`` intenta aplicar el contenido de `````` por completo, mientras que ``cherry-pick`` aplica el diff de la confirmación especificada de su padre. Esto significa que ``checkout`` puede aplicar algo más que esa confirmación, que puede ser más de lo que quieres).
Je travaille sur 2 branches différentes : release et development. J'ai remarqué que je devais encore intégrer dans la branche de développement certaines modifications qui ont été livrées à la branche de sortie. Le problème est que je n'ai pas besoin de tout le commit, seulement de quelques morceaux dans certains fichiers, donc un simple ``git cherry-pick bc66559 ``` ne suffit pas. Quand je fais un ``git show bc66559 ``` je peux voir la différence, mais je ne connais pas vraiment de bonne façon d'appliquer partiellement cette différence à mon arbre de travail actuel.
La chose principale que vous allez vouloir ici est ``git add -p`` (``-p`` est un synonyme de ``--patch``). Cela fournit un moyen interactif d'ajouter du contenu, vous permettant de décider si chaque morceau doit être ajouté ou non, et vous permettant même d'éditer manuellement le patch si nécessaire. Pour l'utiliser en combinaison avec cherry-pick : ```git cherry-pick -n # obtenez votre patch, mais ne faites pas de commit (-n = --no-commit) git reset # efface les changements du commit cherry-picked git add -p # faites tous vos choix (ajoutez les changements que vous voulez) git commit # faire le commit ! ``` ``git-cherry-pick`` a une option ``--no-commit``, et vous devez faire ``git reset``. Si vous ne voulez laisser que quelques éléments en dehors du commit, vous pouvez utiliser ``git reset ...`` pour déstager juste ces fichiers). Vous pouvez fournir des chemins spécifiques à ``add -p`` si nécessaire. Si vous commencez avec un patch, vous pouvez remplacer ``cherry-pick`` par ``apply``. Si vous voulez vraiment ``git cherry-pick -p `` (cette option n'existe pas), vous pouvez utiliser ``git checkout -p ``` Cela va comparer le commit actuel avec le commit que vous avez spécifié, et vous permettre d'appliquer individuellement les hunks de cette comparaison. Cette option peut être plus utile si le commit que vous tirez a des conflits de fusion dans une partie du commit qui ne vous intéresse pas. (Notez cependant que ``checkout`` diffère de ``cherry-pick`` : ``checkout`` essaie d'appliquer le contenu de `````` entièrement, alors que ``cherry-pick`` applique le diff du commit spécifié à partir de son parent. Cela signifie que ``checkout`` peut appliquer plus que ce commit, ce qui peut être plus que ce que vous voulez).
Sto lavorando su due rami diversi: release e sviluppo. Mi sono accorto che devo ancora integrare nel ramo di sviluppo alcune modifiche che sono state inserite nel ramo di rilascio. Il problema è che non ho bisogno di tutti i commit, ma solo di alcune parti in alcuni file, quindi un semplice ``git cherry-pick bc66559 ``` non funziona. Quando faccio un ```git show bc66559 ``` posso vedere la differenza, ma non conosco un buon modo per applicarla parzialmente al mio attuale albero di lavoro.
La cosa principale da fare è ```git add -p``` (```-p`` è un sinonimo di ```--patch``). Questo fornisce un modo interattivo per aggiungere contenuti, permettendovi di decidere se ogni pezzo deve essere inserito o meno e persino di modificare manualmente la patch, se necessario. Per usarlo in combinazione con cherry-pick: ```git cherry-pick -n # ottiene la patch, ma non effettua il commit (-n = --no-commit) git reset # cancella le modifiche dal commit cherry-picked git add -p # fa tutte le sue scelte (aggiunge le modifiche che vuole) git commit # effettua il commit! ``` ``git-cherry-pick`` ha un'opzione ```--no-commit``, ed è necessario fare ```git reset``. Se si vogliono lasciare solo alcune cose fuori dal commit, si può usare ``git reset ...``` per togliere il commit solo a quei file). È possibile fornire percorsi specifici a ```add -p``` se necessario. Se si inizia con una patch, si può sostituire ``cherry-pick`` con ```apply``. Se si vuole davvero fare ```git cherry-pick -p `` (questa opzione non esiste), si può usare ``git checkout -p ``` In questo modo il commit corrente viene confrontato con il commit specificato e si possono applicare singolarmente gli hunk da quel commit. Questa opzione può essere più utile se il commit che si sta prelevando ha conflitti di fusione in parte del commit a cui non si è interessati. (Si noti, tuttavia, che ```checkout`` differisce da ```cherry-pick``: ```checkout`` cerca di applicare interamente il contenuto di ``````, mentre ```cherry-pick`` applica il diff del commit specificato dal suo genitore. Questo significa che ```checkout`` può applicare più di quel commit, il che potrebbe essere più di quanto si voglia).
159
In Civilization V, you attain a cultural victory by accumulating enough culture to purchase at least 36 social policies, and then building a wonder. The catch is that the more cities you build, the more culture you need to generate before you hit the next "plateau" of culture. What is the ideal number of cities for a cultural victory? Does it change over time?
The question you're really asking is &quot;When does the combined culture / turn of an additional city outstrip the increase in social policy cost incurred by founding that city?&quot; The short answer is... We know that adding another city increases the culture costs by approximately 30% of the base cost (that of 1 city). Therefore: If your maximum potential culture / turn won't increase by at least 30% due to the new city, you are hurting, not helping, the time till your next social policy. (This may be slightly hard to calculate, and if you take too long to reach your &quot;maximum potential culture / turn&quot; you're actually wasting turns.) The long answer is... It depends To begin with, we need to make some assumptions: * When you found a new city, you can get its culture / turn maximized within a single turn by buying the necessary building improvements (monument, etc). * Ignore city-states, leader specific abilities, +culture social policies, and wonders. These all help produce culture, and will shift the &quot;ideal city count&quot; down, but do so inconsistently. To produce an &quot;ideal&quot; city count, we limit ourselves by era and improvements alone. * This list of social policy costs is accurate for the given parameters: medium map and normal speed. And now, some math. The 1st social policy costs 25 points with a single city. In the ancient era, your cities can generate 2 culture / turn due to the monument. (Remember, we're ignoring the palace for now) This means that it will take 13 turns (Ceiling(25/2) to enact the policy, or 9 turns (ceiling (45/4) with two cities. We can continue this extrapolation -- 8 turns with 3 cities, 7 turns with 4 cities, 6 turns with 5 cities, and we finally reach diminishing returns at city 6 (also 6 turns). For the second social policy, the ramifications of the # of cities gets magnified due to a larger starting value: One city takes 23 turns, two cities take 15 turns, three cities take 13 turns, four cities take 12, five cities take 10, and again, we run into diminishing returns cap out at at six cities (10 turns). It is not until the 4th social policy that this trend is broken and diminishing returns end at the NINTH! city. Remember -- this assumes that each city has a monument the minute it is founded. Now let's say we've reached the classical age, and have temples in addition to monuments. Each city is now generating 5 culture. The first policy takes 5 turns with a single city, 4 turns with two, and 3 with three. What (hopefully) becomes clear is that we reached diminishing returns (4 cities as opposed to 6 cities) much faster when each individual city's contribution is higher. The more culture any one city is capable of producing, the more incentive there is to produce more cities. Even if you don't manage to build every +culture improvement immediately, you're still likely to come out ahead (as long as you're pre-diminishing returns). So while the optimal number of cities changes due to any number of factors, you can probably safely not shoot yourself in the foot if you stay between three and six cities, with six being on the high end.
In Civilization V erlangt man einen kulturellen Sieg, indem man genug Kultur anhäuft, um mindestens 36 Sozialpolitiken zu kaufen und dann ein Wunder zu bauen. Der Haken an der Sache ist, je mehr Städte man baut, desto mehr Kultur muss man generieren, bevor man das nächste "Plateau" der Kultur erreicht. Was ist die ideale Anzahl von Städten für einen kulturellen Sieg? Ändert sie sich im Laufe der Zeit?
Die Frage, die Sie wirklich stellen, lautet: &quot;Wann übersteigt die kombinierte Kultur/Wende einer zusätzlichen Stadt den Anstieg der sozialpolitischen Kosten, die durch die Gründung dieser Stadt entstehen?&quot; Die kurze Antwort ist... Wir wissen, dass das Hinzufügen einer weiteren Stadt die Kulturkosten um ca. 30% der Basiskosten (der Kosten für 1 Stadt) erhöht. Daraus folgt: Wenn Ihre maximale potentielle Kultur pro Runde durch die neue Stadt nicht um mindestens 30% steigt, schaden Sie der Zeit bis zu Ihrer nächsten Sozialpolitik, anstatt ihr zu helfen. (Dies kann etwas schwer zu berechnen sein, und wenn Sie zu lange brauchen, um Ihre &quot;maximal mögliche Kultur / Runde&quot; zu erreichen, verschwenden Sie tatsächlich Runden). Die lange Antwort ist... Es kommt darauf an Zu Beginn müssen wir einige Annahmen treffen: * Wenn du eine neue Stadt gegründet hast, kannst du ihre Kultur / Runde innerhalb einer einzigen Runde maximieren, indem du die notwendigen Gebäudeverbesserungen (Monumente usw.) kaufst. * Ignorieren Sie Stadtstaaten, anführerspezifische Fähigkeiten, +Kultur, Sozialpolitik und Wunder. All diese Faktoren tragen zur Produktion von Kultur bei und werden die Anzahl der idealen Städte nach unten verschieben, aber sie tun dies nicht gleichmäßig. Um eine &quot;ideale&quot; Stadtzahl zu erreichen, beschränken wir uns allein auf die Ära und Verbesserungen. * Diese Liste der sozialpolitischen Kosten ist für die gegebenen Parameter genau: mittlere Karte und normale Geschwindigkeit. Und nun etwas Mathematik. Die 1. Sozialpolitik kostet 25 Punkte mit einer einzigen Stadt. In der Antike können Ihre Städte durch das Monument 2 Kulturpunkte pro Zug generieren. (Denken Sie daran, wir ignorieren den Palast für jetzt) Das bedeutet, dass es 13 Runden (Obergrenze(25/2)) dauert, um die Politik umzusetzen, oder 9 Runden (Obergrenze (45/4) mit zwei Städten. Wir können diese Extrapolation fortsetzen - 8 Züge mit 3 Städten, 7 Züge mit 4 Städten, 6 Züge mit 5 Städten, und wir erreichen schließlich abnehmende Erträge bei Stadt 6 (ebenfalls 6 Züge). Bei der zweiten Sozialpolitik werden die Auswirkungen der Anzahl der Städte durch einen größeren Startwert noch verstärkt: Für eine Stadt braucht man 23 Runden, für zwei Städte 15 Runden, für drei Städte 13 Runden, für vier Städte 12 Runden, für fünf Städte 10 Runden, und auch hier ist die Grenze des abnehmenden Ertrags bei sechs Städten (10 Runden) erreicht. Erst bei der 4. Sozialpolitik wird dieser Trend durchbrochen und der abnehmende Ertrag endet bei der NEUNTEN Stadt. Denken Sie daran - dies setzt voraus, dass jede Stadt in der Minute ihrer Gründung ein Denkmal erhält. Nehmen wir nun an, wir haben das klassische Zeitalter erreicht und haben zusätzlich zu den Monumenten auch Tempel. Jede Stadt erzeugt nun 5 Kulturen. Die erste Politik dauert 5 Züge mit einer einzigen Stadt, 4 Züge mit zwei und 3 mit drei. Was (hoffentlich) deutlich wird, ist, dass wir den abnehmenden Ertrag (4 Städte im Gegensatz zu 6 Städten) viel schneller erreichen, wenn der Beitrag jeder einzelnen Stadt höher ist. Je mehr Kultur eine Stadt zu produzieren vermag, desto größer ist der Anreiz, mehr Städte zu produzieren. Selbst wenn man es nicht schafft, jede +Kulturverbesserung sofort zu bauen, ist man immer noch im Vorteil (solange man vor dem abnehmenden Ertrag steht). Auch wenn sich die optimale Anzahl von Städten aufgrund einer Reihe von Faktoren ändert, kann man sich wahrscheinlich nicht in den Fuß schießen, wenn man zwischen drei und sechs Städten bleibt, wobei sechs am oberen Ende liegt.
En Civilization V, consigues una victoria cultural acumulando suficiente cultura para comprar al menos 36 políticas sociales y construyendo una maravilla. El problema es que cuantas más ciudades construyas, más cultura tendrás que generar antes de alcanzar la siguiente "meseta" de cultura. ¿Cuál es el número ideal de ciudades para una victoria cultural? ¿Cambia con el tiempo?
La pregunta que realmente se hace es &quot;¿Cuándo la combinación de cultura / giro de una ciudad adicional supera el aumento del coste de la política social que supone la fundación de esa ciudad?&quot; La respuesta corta es... Sabemos que añadir otra ciudad aumenta los costes de cultura en aproximadamente un 30% del coste base (el de 1 ciudad). Por lo tanto: Si su máxima cultura potencial / turno no se incrementará en al menos un 30% debido a la nueva ciudad, usted está perjudicando, no ayudar, el tiempo hasta su próxima política social. (Esto puede ser un poco difícil de calcular, y si tardas demasiado en alcanzar tu &quot;cultura potencial máxima / turno&quot; en realidad estás perdiendo turnos). La respuesta larga es... Depende Para empezar, tenemos que hacer algunas suposiciones: * Cuando fundas una nueva ciudad, puedes conseguir maximizar su cultura / turno en un solo turno comprando las mejoras de construcción necesarias (monumento, etc). * Ignora las ciudades-estado, las habilidades específicas de los líderes, las políticas sociales de +cultura y las maravillas. Todos ellos ayudan a producir cultura, y desplazarán el &quot;recuento ideal de ciudades&quot; hacia abajo, pero lo hacen de forma inconsistente. Para producir un recuento &quot;ideal&quot; de ciudades, nos limitamos únicamente a la época y a las mejoras. * Esta lista de costes de política social es exacta para los parámetros dados: mapa medio y velocidad normal. Y ahora, un poco de matemáticas. La 1ª política social cuesta 25 puntos con una sola ciudad. En la era antigua, tus ciudades pueden generar 2 cultura / turno debido al monumento. (Recuerda, estamos ignorando el palacio por ahora) Esto significa que tardarás 13 turnos (Techo(25/2) en promulgar la política, o 9 turnos (Techo (45/4) con dos ciudades. Podemos continuar esta extrapolación: 8 turnos con 3 ciudades, 7 turnos con 4 ciudades, 6 turnos con 5 ciudades, y finalmente alcanzamos rendimientos decrecientes en la ciudad 6 (también 6 turnos). Para la segunda política social, las ramificaciones del número de ciudades se magnifican debido a un valor inicial mayor: Una ciudad tarda 23 turnos, dos ciudades tardan 15 turnos, tres ciudades tardan 13 turnos, cuatro ciudades tardan 12, cinco ciudades tardan 10, y de nuevo, nos topamos con rendimientos decrecientes en seis ciudades (10 turnos). No es hasta la 4ª política social cuando se rompe esta tendencia y los rendimientos decrecientes terminan en la NOVENA ciudad. Recuerda: esto supone que cada ciudad tiene un monumento desde el momento de su fundación. Ahora digamos que hemos llegado a la edad clásica, y tenemos templos además de monumentos. Cada ciudad genera ahora 5 culturas. La primera política lleva 5 turnos con una sola ciudad, 4 turnos con dos, y 3 con tres. Lo que (esperemos) queda claro es que alcanzamos rendimientos decrecientes (4 ciudades frente a 6 ciudades) mucho más rápido cuando la contribución de cada ciudad individual es mayor. Cuanta más cultura sea capaz de producir una ciudad, más incentivos habrá para producir más ciudades. Incluso si no consigues construir todas las mejoras de +cultura inmediatamente, es probable que salgas ganando (siempre que estés antes de los rendimientos decrecientes). Así pues, aunque el número óptimo de ciudades varía en función de diversos factores, es probable que no te dispares en el pie si te mantienes entre tres y seis ciudades, con seis en el extremo superior.
Dans Civilization V, vous obtenez une victoire culturelle en accumulant suffisamment de culture pour acheter au moins 36 politiques sociales, puis en construisant une merveille. Le problème est que plus vous construisez de villes, plus vous devez générer de culture avant d'atteindre le prochain "plateau" de culture. Quel est le nombre idéal de villes pour une victoire culturelle ? Ce nombre évolue-t-il avec le temps ?
La question que vous posez en réalité est la suivante : "Quand la culture et l'évolution d'une ville supplémentaire dépassent-elles l'augmentation du coût de la politique sociale engendrée par la création de cette ville ? La réponse courte est... Nous savons que l'ajout d'une ville supplémentaire augmente les coûts culturels d'environ 30% du coût de base (celui d'une ville). Par conséquent : Si votre culture potentielle maximale / tour n'augmente pas d'au moins 30% à cause de la nouvelle ville, vous nuisez, au lieu d'aider, au temps qui vous sépare de votre prochaine politique sociale. (Cela peut être un peu difficile à calculer, et si vous prenez trop de temps pour atteindre votre &quot;culture potentielle maximale / tour&quot ; vous gaspillez en fait des tours). La réponse longue est... Cela dépend Pour commencer, nous devons faire quelques suppositions : * Lorsque vous avez trouvé une nouvelle ville, vous pouvez maximiser sa culture / tour en un seul tour en achetant les améliorations nécessaires à la construction (monument, etc.). * Ignorez les cités-états, les capacités spécifiques des leaders, les politiques sociales de +culture, et les merveilles. Tous ces éléments contribuent à produire de la culture et à faire baisser le nombre de villes idéales, mais de manière irrégulière. Pour produire un nombre de villes "idéales", nous nous limitons à l'époque et aux améliorations. * Cette liste de coûts de politique sociale est précise pour les paramètres donnés : carte moyenne et vitesse normale. Et maintenant, quelques calculs. La première politique sociale coûte 25 points avec une seule ville. Dans l'ère antique, vos villes peuvent générer 2 cultures / tour grâce au monument. (N'oubliez pas que nous ignorons le palais pour l'instant). Cela signifie qu'il faudra 13 tours (plafond (25/2) pour appliquer la politique, ou 9 tours (plafond (45/4) avec deux villes. Nous pouvons continuer cette extrapolation - 8 tours avec 3 villes, 7 tours avec 4 villes, 6 tours avec 5 villes, et nous atteignons finalement des rendements décroissants à la ville 6 (également 6 tours). Pour la deuxième politique sociale, les ramifications du nombre de villes sont amplifiées en raison d'une valeur de départ plus importante : Une ville prend 23 tours, deux villes prennent 15 tours, trois villes prennent 13 tours, quatre villes prennent 12, cinq villes prennent 10, et encore une fois, nous rencontrons des rendements décroissants jusqu'à six villes (10 tours). Ce n'est qu'à partir de la quatrième politique sociale que cette tendance s'interrompt et que les rendements décroissants s'arrêtent à la NEUVIÈME ville. N'oubliez pas que cela suppose que chaque ville possède un monument dès sa fondation. Supposons maintenant que nous ayons atteint l'âge classique et que nous ayons des temples en plus des monuments. Chaque ville génère maintenant 5 cultures. La première politique prend 5 tours avec une seule ville, 4 tours avec deux villes et 3 tours avec trois villes. Ce qui apparaît clairement (espérons-le), c'est que nous atteignons des rendements décroissants (4 villes contre 6 villes) beaucoup plus rapidement lorsque la contribution de chaque ville est plus élevée. Plus une ville est capable de produire de la culture, plus elle est incitée à produire davantage de villes. Même si vous ne parvenez pas à construire immédiatement toutes les améliorations de +culture, vous avez toujours des chances d'être gagnant (tant que vous n'avez pas atteint des rendements décroissants). Ainsi, bien que le nombre optimal de villes varie en fonction d'un certain nombre de facteurs, vous pouvez probablement éviter de vous tirer une balle dans le pied si vous restez entre trois et six villes, six étant le chiffre le plus élevé.
In Civilization V, si ottiene una vittoria culturale accumulando abbastanza cultura per acquistare almeno 36 politiche sociali e poi costruendo una meraviglia. Il problema è che più città si costruiscono, più cultura si deve generare prima di raggiungere il successivo "plateau" di cultura. Qual è il numero ideale di città per una vittoria culturale? Cambia nel tempo?
La domanda che si sta ponendo in realtà è: "Quando la cultura e la svolta di una città aggiuntiva superano l'aumento dei costi della politica sociale sostenuti dalla fondazione di quella città? La risposta breve è... Sappiamo che l'aggiunta di un'altra città aumenta i costi della cultura di circa il 30% del costo base (quello di 1 città). Pertanto: Se la vostra cultura potenziale massima per turno non aumenta di almeno il 30% grazie alla nuova città, state danneggiando, non aiutando, il tempo che manca alla vostra prossima politica sociale. (Questo potrebbe essere un po' difficile da calcolare, e se impiegate troppo tempo per raggiungere il vostro &quot;massimo potenziale di cultura/turno&quot; state effettivamente sprecando turni). La risposta lunga è... dipende Per cominciare, dobbiamo fare alcune ipotesi: * Quando si trova una nuova città, è possibile massimizzare la sua cultura/turno in un solo turno acquistando le migliorie necessarie (monumenti, ecc.). * Ignorate le città-stato, le abilità specifiche dei leader, le politiche sociali di +cultura e le meraviglie. Tutti questi elementi contribuiscono a produrre cultura e spostano il &quot;numero di città ideali&quot; verso il basso, ma lo fanno in modo incoerente. Per produrre un numero di città &quot;ideale&quot;, ci limitiamo solo all'era e ai miglioramenti. * Questo elenco di costi della politica sociale è accurato per i parametri indicati: mappa media e velocità normale. E ora, un po' di matematica. La prima politica sociale costa 25 punti con una sola città. Nell'era antica, le città possono generare 2 culture / turno grazie al monumento. (Ricordate, per ora ignoriamo il palazzo). Questo significa che ci vorranno 13 turni (massimale (25/2)) per attuare la politica, o 9 turni (massimale (45/4) con due città. Possiamo continuare questa estrapolazione: 8 turni con 3 città, 7 turni con 4 città, 6 turni con 5 città e infine raggiungiamo un rendimento decrescente alla città 6 (sempre 6 turni). Per la seconda politica sociale, le ramificazioni del numero di città si amplificano a causa di un valore iniziale più grande: Per una città ci vogliono 23 turni, per due città 15 turni, per tre città 13 turni, per quattro città 12, per cinque città 10 e, ancora una volta, i rendimenti decrescenti si esauriscono a sei città (10 turni). Non è fino alla quarta politica sociale che questa tendenza si interrompe e i rendimenti decrescenti terminano alla nona città. Ricordate: questo presuppone che ogni città abbia un monumento nel momento in cui viene fondata. Ora diciamo che abbiamo raggiunto l'età classica e abbiamo templi oltre ai monumenti. Ogni città genera ora 5 culture. La prima politica richiede 5 turni con una sola città, 4 turni con due e 3 con tre. Ciò che (si spera) diventa chiaro è che raggiungiamo rendimenti decrescenti (4 città rispetto a 6 città) molto più velocemente quando il contributo di ogni singola città è più alto. Più cultura è in grado di produrre una singola città, più c'è un incentivo a produrre più città. Anche se non si riesce a costruire immediatamente ogni miglioramento della cultura, è probabile che si ottenga comunque un vantaggio (a patto che i rendimenti siano pre-diminutivi). Quindi, anche se il numero ottimale di città cambia in base a una serie di fattori, si può tranquillamente evitare di darsi la zappa sui piedi se si rimane tra le tre e le sei città, con sei città nella fascia alta.
160
How to find if a customer is logged in or not in Magento 2. If the customer is logged in then how to get customer data from a session?
It is possible via ```Magento\Framework\App\Http\Context``` or via ```Magento\Customer\Model\Session```. However, the result may be different: * HTTP context is initialized earlier than the customer session (but it does not matter since both are initialized in action controllers) * When the ```PageCache``` module is on (probably always on production), keep in mind that as soon as layout generation started, the customer session will be cleared by ```\Magento\PageCache\Model\Layout\DepersonalizePlugin::afterGenerateXml``` on all cacheable pages. It means that if you now check if the customer is logged in via the HTTP context, it will still say 'yes, but customer data will not be available in customer sessions anymore. So double-check is necessary before trying to access data in customer sessions. This can easily happen in the block, while is unlikely in action controller since you are not expected to generate layout manually there, it will be generated after-action controller returns an instance of ```ResultInterface``` To eliminate any risk of described inconsistencies when PageCache is on, consider using customer session if it is already initialized (true for action controllers). Else use the HTTP context.
Wie kann man herausfinden, ob ein Kunde in Magento 2 eingeloggt ist oder nicht. Wenn der Kunde eingeloggt ist, wie erhält man dann Kundendaten aus einer Sitzung?
Es ist möglich über ```Magento\Framework\App\Http\Context`` oder über ```Magento\Customer\Model\Session``. Das Ergebnis kann jedoch unterschiedlich sein: * Der HTTP-Kontext wird früher initialisiert als die Kundensitzung (aber das spielt keine Rolle, da beide in den Action Controllern initialisiert werden) * Wenn das Modul ```PageCache`` eingeschaltet ist (wahrscheinlich immer in der Produktion), ist zu beachten, dass sobald die Layout-Generierung begonnen hat, die Kundensitzung durch ```Magento\PageCache\Model\Layout\DepersonalizePlugin::afterGenerateXml`` auf allen cachefähigen Seiten gelöscht wird. Das bedeutet, dass, wenn Sie jetzt prüfen, ob der Kunde über den HTTP-Kontext eingeloggt ist, dies zwar immer noch bejaht wird, aber die Kundendaten nicht mehr in den Kundensitzungen verfügbar sind. Es ist also eine doppelte Prüfung notwendig, bevor man versucht, auf Daten in Kundensitzungen zuzugreifen. Dies kann leicht im Block passieren, während es im Action-Controller unwahrscheinlich ist, da dort nicht erwartet wird, dass man das Layout manuell generiert, es wird generiert, nachdem der Action-Controller eine Instanz von ```ResultInterface``` zurückgibt. Um jegliches Risiko von beschriebenen Inkonsistenzen zu eliminieren, wenn PageCache eingeschaltet ist, sollten Sie die Kundensitzung verwenden, wenn sie bereits initialisiert ist (wahr für Action-Controller). Andernfalls verwenden Sie den HTTP-Kontext.
¿Cómo saber si un cliente ha iniciado sesión o no en Magento 2? Si el cliente ha iniciado sesión, ¿cómo se obtienen los datos del cliente de una sesión?
Es posible a través de ``Magento\Framework\App\Http\Context`` o a través de ``Magento\Customer\Model\Session``. Sin embargo, el resultado puede ser diferente: * El contexto HTTP se inicializa antes que la sesión de cliente (pero no importa ya que ambos se inicializan en los controladores de acción). * Cuando el módulo ```PageCache`` está activado (probablemente siempre en producción), hay que tener en cuenta que tan pronto como se inicie la generación del layout, la sesión de cliente será borrada por ```Magento\PageCache\Model\Layout\DepersonalizePlugin::afterGenerateXml`` en todas las páginas cacheables. Esto significa que si ahora comprueba si el cliente ha iniciado sesión a través del contexto HTTP, seguirá diciendo "sí", pero los datos del cliente ya no estarán disponibles en las sesiones del cliente. Así que es necesaria una doble comprobación antes de intentar acceder a los datos en las sesiones de cliente. Esto puede suceder fácilmente en el bloque, mientras que es poco probable en el controlador de acción, ya que no se espera que genere el diseño manualmente, se generará después de que el controlador de acción devuelva una instancia de ``ResultInterface``. Para eliminar cualquier riesgo de inconsistencias descritas cuando PageCache está activado, considera usar la sesión del cliente si ya está inicializada (true para controladores de acción). De lo contrario, utilice el contexto HTTP.
Comment savoir si un client est connecté ou non dans Magento 2. Si le client est connecté, comment récupérer les données du client à partir d'une session ?
C'est possible via ``Magento\Framework\\NHttp\NContext`` ou via ``Magento\NCustomer\NModel\NSession``. Cependant, le résultat peut être différent : * Le contexte HTTP est initialisé plus tôt que la session client (mais cela n'a pas d'importance puisque les deux sont initialisés dans les contrôleurs d'action). * Lorsque le module ``PageCache`` est activé (probablement toujours en production), gardez à l'esprit que dès que la génération de la mise en page a commencé, la session du client sera effacée par ``\Magento\PageCache\Model\Layout\DepersonalizePlugin::afterGenerateXml`` sur toutes les pages pouvant être mises en cache. Cela signifie que si vous vérifiez maintenant si le client est connecté via le contexte HTTP, vous obtiendrez toujours la réponse "oui", mais les données du client ne seront plus disponibles dans les sessions du client. Il est donc nécessaire de procéder à une double vérification avant d'essayer d'accéder aux données dans les sessions des clients. Cela peut facilement se produire dans le bloc, alors que c'est peu probable dans le contrôleur d'action puisque vous n'êtes pas censé générer le layout manuellement ici, il sera généré après que le contrôleur d'action renvoie une instance de ``ResultInterface``. Pour éliminer tout risque d'incohérences décrites lorsque PageCache est activé, envisagez d'utiliser la session du client si elle est déjà initialisée (vrai pour les contrôleurs d'action). Sinon, utilisez le contexte HTTP.
Come scoprire se un cliente ha effettuato l'accesso o meno in Magento 2. Se il cliente è connesso, come ottenere i dati del cliente da una sessione?
È possibile tramite ``Magento\Framework\App\Http\Context`` o tramite ``Magento\Customer\Model\Session``. Tuttavia, il risultato potrebbe essere diverso: * Il contesto HTTP viene inizializzato prima della sessione del cliente (ma non importa, poiché entrambi vengono inizializzati nei controllori di azione). * Quando il modulo ``PageCache`` è attivo (probabilmente sempre in produzione), si tenga presente che non appena la generazione del layout è iniziata, la sessione del cliente sarà cancellata da ```Magento\PageCache\Model\Layout\DepersonalizePlugin::afterGenerateXml`` su tutte le pagine memorizzabili nella cache. Ciò significa che se ora si controlla se il cliente ha effettuato l'accesso tramite il contesto HTTP, il risultato sarà comunque positivo, ma i dati del cliente non saranno più disponibili nelle sessioni del cliente. È quindi necessario un doppio controllo prima di provare ad accedere ai dati nelle sessioni dei clienti. Questo può accadere facilmente nel blocco, mentre è improbabile nel controllore dell'azione, poiché non ci si aspetta che il layout venga generato manualmente, ma verrà generato dopo che il controllore dell'azione restituisce un'istanza di ```ResultInterface``. Per eliminare il rischio di incongruenze descritte quando PageCache è attiva, si consideri l'uso della sessione del cliente, se è già inizializzata (vero per i controllori di azioni). In caso contrario, utilizzare il contesto HTTP.
161
I have a 9 year old daughter that has expressed some interest in manga, but I'm having trouble locating series that are appropriate for her age. No one at our local bookstore could offer any advice. Is there a kid-friendly imprint or other resource I could use to help her find something appropriate? My preference is for physical books but I'm willing to explore digital options.
The content deemed acceptable for Japanese children generally differs from the concept in other countries; manga contains all genres of stories, so one cannot responsibly presume that just because a title was marketed at Japanese kids, that you would likewise consider it appropriate for your kid of the same age. As one example: The popular girl's series Sailor Moon was published in the manga magazine Nakayoshi, which was marketed toward elementary school-age girls (1st through 6th grade). This series includes strong language, bullying, violence, death, war, genocide, refugees, lovers' suicide (more than once), non-consensual kisses (forced while awake, while asleep, while drunk), a father fondling his adult daughter while brainwashed, human/animal romance, demonic-style alien possession of human bodies, nudity, cross-dressing, a non-monogamous lesbian couple, and non-graphic sex resulting in teen pregnancy (the 90s anime version, also marketed toward children, also added wrist/ankle restraints for a rape-like, pain-inducing entering of victims). There are many manga reviews on the web, including those that specifically for parents and teen/preteen/kid readers on what sort of possibly objectionable content is included in the title (such as strong language, violence, nudity, gender-bending, innuendo, sexual content, etc.) and what sort of general content you can expect (for example: horror, potty humor, serious themes like depression/body image/sexual orientation/prostitution/parental abandonment/bullying/suicide) and let you as the parent or the reader use your own judgment about whether a title fits what you deem appropriate at what age. Browsing reviews also allows you to seek out titles that reinforce and contribute to your family's values (such as traits of selflessness, generosity, celebration of uniqueness, etc.). Some good starting places are: * A Parent's Guide to Anime * Good Manga for Kids at Manga Bookshelf * Good Comics for Kids at School Library Journal * Kids Manga at No Flying No Tights Since you have a daughter, she may be especially interested in shoujo manga, which was written with the target audience of Japanese girls. Within shoujo, nearly all genres of stories are included; some titles are very cheerful and innocuous and teach a moral-of-the-day, others are dark and heavy. Good starting places to get informed are: * What is Shoujo Manga?, What Shoujo Manga Are and Are Not, and Recommended Shoujo Manga by Matt Thorn, a professor in the Faculty of Manga at Kyoto Seika University (one of the world's experts on shoujo manga) * What is Shoujo? at Energetic Heartbeats Some shoujo manga review sites are: * The Classics at Shoujo Corner * Emily's Random Shoujo Manga Page (despite its unassuming name, contains many detailed reviews) * Heart of Manga * Shoujo Savvy * Shoujo Manga Recommendations * Romance Manga Reviews * Shoujo Manga Reviews * Shoujo Manga with Anime at Anime Manga Reviews More general review websites include MangaBlog and Kuriousity, and a Google search will find you many more.
Ich habe eine 9-jährige Tochter, die sich für Manga interessiert, aber ich habe Schwierigkeiten, Serien zu finden, die für ihr Alter geeignet sind. In unserer örtlichen Buchhandlung konnte mir niemand einen Rat geben. Gibt es einen kinderfreundlichen Verlag oder eine andere Quelle, die ich nutzen könnte, um ihr zu helfen, etwas Geeignetes zu finden? Ich bevorzuge physische Bücher, aber ich bin auch bereit, digitale Möglichkeiten zu erkunden.
Der Inhalt, der für japanische Kinder als akzeptabel gilt, unterscheidet sich im Allgemeinen von dem Konzept in anderen Ländern; Manga enthalten alle Arten von Geschichten, so dass man nicht davon ausgehen kann, dass ein Titel, der für japanische Kinder vermarktet wird, auch für Ihr Kind im gleichen Alter geeignet ist. Um ein Beispiel zu nennen: Die beliebte Mädchenserie Sailor Moon wurde in dem Manga-Magazin Nakayoshi veröffentlicht, das für Mädchen im Grundschulalter (1. bis 6. Klasse) vermarktet wurde. Diese Serie enthält eine starke Sprache, Mobbing, Gewalt, Tod, Krieg, Völkermord, Flüchtlinge, Selbstmord von Liebenden (mehr als einmal), nicht-einvernehmliche Küsse (erzwungen im Wachzustand, im Schlaf, im betrunkenen Zustand), einen Vater, der seine erwachsene Tochter während einer Gehirnwäsche streichelt, eine Mensch/Tier-Romanze, dämonische Besessenheit menschlicher Körper durch Außerirdische, Nacktheit, Cross-Dressing, ein nicht monogames lesbisches Paar und nicht-grafischer Sex, der zu einer Teenager-Schwangerschaft führt (die Anime-Version aus den 90er Jahren, die auch für Kinder vermarktet wurde, fügte auch Hand- und Fußfesseln für ein vergewaltigungsähnliches, schmerzverursachendes Eindringen in die Opfer hinzu). Es gibt viele Manga-Rezensionen im Internet, darunter auch solche, die sich speziell an Eltern und Teenager/Vorschulkinder richten und darüber informieren, welche Art von möglicherweise anstößigem Inhalt in dem Titel enthalten ist (z. B. Kraftausdrücke, Gewalt, Nacktheit, Geschlechtsumwandlung, Anspielungen, sexuelle Inhalte usw.).) und welche Art von allgemeinem Inhalt zu erwarten ist (z. B. Horror, Toilettenhumor, ernste Themen wie Depressionen/Körperbild/sexuelle Orientierung/Prostitution/Elternverlassenheit/Mobbing/Selbstmord), so dass Sie als Eltern oder Leser selbst entscheiden können, ob ein Titel für Ihr Alter geeignet ist. Beim Durchstöbern der Rezensionen können Sie auch nach Titeln suchen, die die Werte Ihrer Familie stärken und zu ihnen beitragen (z. B. Selbstlosigkeit, Großzügigkeit, Wertschätzung der Einzigartigkeit usw.). Einige gute Ausgangspunkte sind: * A Parent's Guide to Anime * Gute Manga für Kinder bei Manga Bookshelf * Gute Comics für Kinder bei School Library Journal * Manga für Kinder bei No Flying No Tights Da Sie eine Tochter haben, interessiert sie sich vielleicht besonders für Shoujo-Manga, die für die Zielgruppe der japanischen Mädchen geschrieben wurden. Zu Shoujo gehören fast alle Genres von Geschichten; einige Titel sind sehr fröhlich und harmlos und vermitteln eine Moral des Tages, andere sind düster und schwer. Gute Ausgangspunkte, um sich zu informieren, sind: * What is Shoujo Manga?, What Shoujo Manga Are and Are Not, and Recommended Shoujo Manga von Matt Thorn, Professor an der Fakultät für Manga an der Kyoto Seika Universität (einer der weltweit führenden Experten für Shoujo Manga) * Was ist Shoujo? bei Energetic Heartbeats Einige Shoujo-Manga-Rezensionsseiten sind: * The Classics at Shoujo Corner * Emily's Random Shoujo Manga Page (trotz des bescheidenen Namens enthält sie viele detaillierte Rezensionen) * Heart of Manga * Shoujo Savvy * Shoujo Manga-Empfehlungen * Romance Manga Reviews * Shoujo Manga Rezensionen * Shoujo Manga mit Anime bei Anime Manga Reviews Zu den allgemeineren Rezensions-Websites gehören MangaBlog und Kuriousity, und eine Google-Suche wird Ihnen viele weitere Websites zeigen.
Tengo una hija de 9 años que ha expresado cierto interés por el manga, pero tengo problemas para encontrar series apropiadas para su edad. Nadie en nuestra librería local me ha podido aconsejar. ¿Hay algún sello para niños u otro recurso que pueda utilizar para ayudarla a encontrar algo apropiado? Prefiero los libros físicos, pero estoy dispuesta a explorar las opciones digitales.
El contenido que se considera aceptable para los niños japoneses suele diferir del concepto que se tiene en otros países; el manga contiene historias de todos los géneros, por lo que no se puede suponer responsablemente que porque un título se haya comercializado para niños japoneses, usted también lo considerará apropiado para su hijo de la misma edad. Un ejemplo: La popular serie femenina Sailor Moon se publicó en la revista de manga Nakayoshi, dirigida a niñas de primaria (de 1º a 6º curso). Esta serie incluye lenguaje fuerte, acoso escolar, violencia, muerte, guerra, genocidio, refugiados, suicidio de amantes (más de una vez), besos no consentidos (forzados mientras están despiertos, mientras duermen, mientras están borrachos), un padre acariciando a su hija adulta mientras le lavan el cerebro, romance entre humanos y animales, posesión de cuerpos humanos por alienígenas al estilo demoníaco, desnudez, travestismo, una pareja de lesbianas no monógamas y sexo no gráfico con resultado de embarazo en la adolescencia (la versión anime de los 90, también dirigida a los niños, añadía muñequeras y tobilleras para violar e inducir dolor a las víctimas). Hay muchas reseñas de manga en la red, incluidas las dirigidas específicamente a padres y lectores adolescentes/preadolescentes/niños, sobre el tipo de contenido posiblemente censurable que incluye el título (como lenguaje fuerte, violencia, desnudos, cambios de género, insinuaciones, contenido sexual, etc.) y sobre el tipo de contenido general que te gustaría leer.) y qué tipo de contenido general se puede esperar (por ejemplo: terror, humor soez, temas serios como depresión/imagen corporal/orientación sexual/prostitución/abandono paterno/acoso/suicidio) y dejar que usted, como padre o lector, use su propio criterio para decidir si un título se ajusta a lo que considera apropiado y a qué edad. La consulta de reseñas también le permite buscar títulos que refuercen y contribuyan a los valores de su familia (como los rasgos de altruismo, generosidad, celebración de la singularidad, etc.). Algunos buenos puntos de partida son: * Guía del anime para padres * Manga para niños en Manga Bookshelf * Buenos cómics para niños en School Library Journal * Manga para niños en No Flying No Tights Puesto que tienes una hija, puede que le interese especialmente el manga shoujo, que se escribió pensando en el público femenino japonés. Dentro del shoujo se incluyen casi todos los géneros de historias; algunos títulos son muy alegres e inocuos y enseñan una moraleja del día, otros son oscuros y pesados. Buenos puntos de partida para informarse son: * What is Shoujo Manga?, What Shoujo Manga Are and Are Not, y Recommended Shoujo Manga de Matt Thorn, profesor de la Facultad de Manga de la Universidad Kyoto Seika (uno de los expertos mundiales en manga shoujo). * ¿Qué es el shoujo? en Energetic Heartbeats Algunos sitios de reseñas de manga shoujo son: * Los clásicos en Shoujo Corner * Emily's Random Shoujo Manga Page (a pesar de su modesto nombre, contiene muchas reseñas detalladas) * Heart of Manga * Shoujo Savvy * Shoujo Manga Recommendations * Reseñas de manga romántico * Reseñas de manga shoujo * Manga Shoujo con Anime en Anime Manga Reviews Otros sitios web de reseñas más generales son MangaBlog y Kuriousity, y si buscas en Google encontrarás muchos más.
J'ai une fille de 9 ans qui a manifesté un certain intérêt pour les mangas, mais j'ai du mal à trouver des séries adaptées à son âge. Personne dans notre librairie locale n'a pu me conseiller. Existe-t-il une marque adaptée aux enfants ou une autre ressource que je pourrais utiliser pour l'aider à trouver quelque chose d'approprié ? Je préfère les livres physiques, mais je suis prête à explorer les options numériques.
Le contenu jugé acceptable pour les enfants japonais diffère généralement du concept en vigueur dans d'autres pays ; les mangas contiennent tous les genres d'histoires, et l'on ne peut donc pas présumer de manière responsable que le simple fait qu'un titre ait été commercialisé pour les enfants japonais le rendrait également approprié pour votre enfant du même âge. Un exemple : La série populaire Sailor Moon a été publiée dans le magazine de manga Nakayoshi, qui s'adressait aux filles en âge de fréquenter l'école primaire (de la première à la sixième année). Cette série comprend un langage fort, des brimades, de la violence, la mort, la guerre, le génocide, des réfugiés, le suicide d'amants (plus d'une fois), des baisers non consensuels (forcés pendant l'éveil, pendant le sommeil, en état d'ébriété), un père caressant sa fille adulte alors qu'elle a subi un lavage de cerveau, une romance entre humains et animaux, la possession de corps humains par des extraterrestres de type démoniaque, la nudité, le travestissement, un couple de lesbiennes non monogame et des relations sexuelles non graphiques entraînant une grossesse chez les adolescentes (la version animée des années 90, également destinée aux enfants, a également ajouté des entraves aux poignets et aux chevilles pour que les victimes soient pénétrées dans leur corps comme s'il s'agissait d'un viol, ce qui les rendait douloureuses). Il existe de nombreuses critiques de mangas sur le web, y compris celles qui s'adressent spécifiquement aux parents et aux lecteurs adolescents/préadolescents/enfants et qui portent sur le type de contenu potentiellement répréhensible inclus dans le titre (comme le langage fort, la violence, la nudité, le mélange des genres, les sous-entendus, le contenu sexuel, etc.) et le type de contenu général auquel vous pouvez vous attendre (par exemple : horreur, humour potache, thèmes sérieux comme la dépression/l'image du corps/l'orientation sexuelle/la prostitution/l'abandon parental/les brimades/le suicide) et vous laisse, en tant que parent ou lecteur, juger par vous-même si un titre correspond à ce que vous considérez comme approprié à l'âge en question. La consultation des critiques vous permet également de rechercher des titres qui renforcent et contribuent aux valeurs de votre famille (telles que l'altruisme, la générosité, la célébration de l'unicité, etc.) ). Voici quelques bons points de départ : * A Parent's Guide to Anime * Les bons mangas pour les enfants sur Manga Bookshelf * Bonnes bandes dessinées pour les enfants sur School Library Journal * Manga pour enfants sur No Flying No Tights Comme vous avez une fille, elle peut être particulièrement intéressée par les mangas shoujo, qui ont été écrits à l'intention des jeunes filles japonaises. Certains titres sont très gais et inoffensifs et enseignent la morale du jour, tandis que d'autres sont sombres et lourds. Voici de bons points de départ pour s'informer : * Qu'est-ce qu'un manga shoujo, ce que sont et ne sont pas les mangas shoujo et les mangas shoujo recommandés par Matt Thorn, professeur à la faculté de manga de l'université Kyoto Seika (l'un des experts mondiaux en matière de manga shoujo). * Qu'est-ce que le Shoujo ? sur Energetic Heartbeats Voici quelques sites de critiques de shoujo manga : * The Classics at Shoujo Corner * Emily's Random Shoujo Manga Page (malgré son nom sans prétention, contient de nombreuses critiques détaillées) * Heart of Manga * Shoujo Savvy * Recommandations de mangas Shoujo * Romance Manga Reviews (en anglais) * Shoujo Manga Reviews (en anglais) * Shoujo Manga with Anime at Anime Manga Reviews (en anglais) Parmi les sites de critique plus généraux, citons MangaBlog et Kuriousity, et une recherche sur Google vous permettra d'en trouver beaucoup d'autres.
Ho una figlia di 9 anni che ha espresso un certo interesse per i manga, ma ho difficoltà a trovare serie adatte alla sua età. Nessuno nella nostra libreria locale ha saputo darmi un consiglio. C'è una casa editrice adatta ai bambini o un'altra risorsa che potrei usare per aiutarla a trovare qualcosa di appropriato? Preferisco i libri fisici, ma sono disposta a esplorare le opzioni digitali.
I contenuti ritenuti accettabili per i bambini giapponesi sono generalmente diversi da quelli di altri paesi; i manga contengono storie di tutti i generi, quindi non si può presumere responsabilmente che solo perché un titolo è stato commercializzato per i bambini giapponesi, anche voi lo riterreste appropriato per i vostri figli della stessa età. Per fare un esempio: La popolare serie femminile Sailor Moon è stata pubblicata sulla rivista di manga Nakayoshi, che si rivolgeva a bambine in età da scuola elementare (dalla prima alla sesta classe). Questa serie include linguaggio forte, bullismo, violenza, morte, guerra, genocidio, rifugiati, suicidio di amanti (più di una volta), baci non consensuali (forzati mentre si è svegli, mentre si dorme, mentre si è ubriachi), un padre che accarezza la figlia adulta mentre le viene fatto il lavaggio del cervello, storie d'amore tra uomini e animali, possessione demoniaca di corpi umani da parte di alieni, nudità, travestitismo, una coppia lesbica non monogama e sesso non grafico che porta a una gravidanza adolescenziale (la versione anime degli anni '90, anch'essa destinata ai bambini, ha aggiunto anche legature ai polsi e alle caviglie per indurre le vittime a subire uno stupro). Ci sono molte recensioni di manga sul web, comprese quelle che si rivolgono specificamente ai genitori e ai lettori adolescenti/preadolescenti/bambini sul tipo di contenuti potenzialmente discutibili inclusi nel titolo (come linguaggio forte, violenza, nudità, gender-bending, allusioni, contenuti sessuali, ecc.) e che tipo di contenuti generali ci si può aspettare (per esempio: horror, umorismo da vasino, temi seri come depressione/immagine corporea/orientamento sessuale/prostituzione/abbandono dei genitori/bullismo/suicidio) e lasciare a voi genitori o lettori la possibilità di giudicare se un titolo corrisponde a ciò che ritenete appropriato a quale età. La consultazione delle recensioni consente anche di cercare titoli che rafforzano e contribuiscono ai valori della vostra famiglia (come i tratti di altruismo, generosità, celebrazione dell'unicità, ecc.) Alcuni buoni punti di partenza sono: * Guida dei genitori agli anime * Manga per bambini su Manga Bookshelf * Fumetti per bambini su School Library Journal * Manga per bambini presso No Flying No Tights Dato che avete una figlia, potrebbe essere particolarmente interessata ai manga shoujo, che sono stati scritti per il pubblico delle ragazze giapponesi. All'interno dello shoujo sono compresi quasi tutti i generi di storie; alcuni titoli sono molto allegri e innocui e insegnano una morale del giorno, altri sono cupi e pesanti. Un buon punto di partenza per informarsi è rappresentato da: * Cos'è lo Shoujo Manga, Cosa sono e cosa non sono gli Shoujo Manga e Raccomandazioni sugli Shoujo Manga di Matt Thorn, professore della Facoltà di Manga dell'Università Seika di Kyoto (uno degli esperti mondiali di shoujo manga). * Cos'è lo shoujo? su Energetic Heartbeats Alcuni siti di recensioni di shoujo manga sono: * I classici all'angolo degli shoujo * Emily's Random Shoujo Manga Page (nonostante il nome senza pretese, contiene molte recensioni dettagliate) * Cuore di Manga * Shoujo Savvy * Raccomandazioni sui manga shoujo * Recensioni di manga romantici * Recensioni di manga shoujo * Shoujo Manga con Anime su Anime Manga Recensioni Siti web di recensioni più generali includono MangaBlog e Kuriousity, e una ricerca su Google ne troverà molti altri.
162
I'm looking for a precise piece of information in a database which I have no knowledge about. The database is on a separate machine, but I can log into it, and launch a ```psql``` command line, with administrator rights. It's a third-party product, and they are slow to answer questions. I know the data is inside that database, so I want to do a little bit of reverse-engineering. Given a table name, is it possible to get a list of the names of the columns in that table? For example, in SQL Server, it's possible to dump a table into a reusable ```CREATE``` statement, which textually lists all the columns the table is composed of.
The information schema is the slow and sure way: it is standardized and largely portable to other databases that support it. And it will keep working across major versions. However, views in the information schema often join many tables from the system catalogs to meet a strictly standardized format - many of which are just dead freight most of the time. This makes them slow. The Postgres developers aren't making promises, but basics (like what is needed here) aren't going to change across major versions. More detailed assessment: * Query to output names and data types of a query, table or view ```psql``` (the native command-line interface) takes the fast lane, of course, and queries the source directly. If you start ```psql``` with the parameter ```-E```, the SQL behind backslash commands like ```\d``` is displayed. Or ```\set ECHO_HIDDEN on``` from the psql command line. Starting from there you can build an answer to your question. Given one table, is it possible to have a list of the names of the columns for this table. ```SELECT attrelid::regclass AS tbl , attname AS col , atttypid::regtype AS datatype -- more attributes? FROM pg_attribute WHERE attrelid = 'myschema.mytable'::regclass -- table name optionally schema-qualified AND attnum > 0 AND NOT attisdropped ORDER BY attnum; ``` Faster than querying ```information_schema.columns```. Try ```EXPLAIN ANALYZE``` to see for yourself. Still hardly matters for a one-time look-up. But might make a difference if used in a query / function that's repeated many times. There are also subtle differences in visibility. The following artical has detailed comparison: * How to check if a table exists in a given schema
Ich suche nach einer bestimmten Information in einer Datenbank, von der ich keine Ahnung habe. Die Datenbank befindet sich auf einem anderen Rechner, aber ich kann mich dort anmelden und eine ```psql``-Befehlszeile mit Administratorrechten aufrufen. Es handelt sich um ein Produkt eines Drittanbieters, der nur langsam auf Fragen antwortet. Ich weiß, dass sich die Daten in dieser Datenbank befinden, also möchte ich ein wenig Reverse-Engineering betreiben. Ist es möglich, anhand eines Tabellennamens eine Liste mit den Namen der Spalten in dieser Tabelle zu erhalten? In SQL Server ist es zum Beispiel möglich, eine Tabelle in eine wiederverwendbare ``CREATE``-Anweisung zu packen, die alle Spalten, aus denen die Tabelle besteht, in Textform auflistet.
Das Informationsschema ist der langsame und sichere Weg: Es ist standardisiert und weitgehend auf andere Datenbanken übertragbar, die es unterstützen. Und es funktioniert über alle Hauptversionen hinweg. Ansichten im Informationsschema verbinden jedoch oft viele Tabellen aus den Systemkatalogen, um ein streng standardisiertes Format zu erfüllen - von denen viele die meiste Zeit nur tote Fracht sind. Das macht sie langsam. Die Postgres-Entwickler machen keine Versprechungen, aber die Grundlagen (wie das, was hier benötigt wird) werden sich über die Hauptversionen hinweg nicht ändern. Ausführlichere Bewertung: * Abfrage zur Ausgabe von Namen und Datentypen einer Abfrage, Tabelle oder Ansicht ```psql``` (die native Kommandozeilenschnittstelle) nimmt natürlich die Überholspur und fragt die Quelle direkt ab. Wenn man ```psql`` mit dem Parameter ```-E`` startet, wird das SQL hinter Backslash-Befehlen wie ```d`` angezeigt. Oder ```\set ECHO_HIDDEN on`` in der psql Kommandozeile. Von dort aus können Sie eine Antwort auf Ihre Frage erstellen. Ist es möglich, für eine Tabelle eine Liste der Namen der Spalten dieser Tabelle zu erhalten? ```SELECT attrelid::regclass AS tbl , attname AS col , atttypid::regtype AS datatype -- weitere Attribute? FROM pg_attribute WHERE attrelid = 'myschema.mytable'::regclass -- Tabellenname optional schema-qualifiziert AND attnum > 0 AND NOT attisdropped ORDER BY attnum; ``` Schneller als die Abfrage von ```Information_schema.columns```. Probieren Sie ```EXPLAIN ANALYZE`` aus, um sich davon zu ueberzeugen. Für eine einmalige Abfrage ist das noch kaum von Bedeutung. Aber es könnte einen Unterschied machen, wenn es in einer Abfrage/Funktion verwendet wird, die viele Male wiederholt wird. Es gibt auch subtile Unterschiede in der Sichtbarkeit. Der folgende Artikel enthält einen detaillierten Vergleich: * Wie prüft man, ob eine Tabelle in einem bestimmten Schema existiert?
Busco un dato concreto en una base de datos de la que no tengo conocimientos. La base de datos está en otra máquina, pero puedo entrar en ella y ejecutar una línea de comandos ```psql``, con derechos de administrador. Es un producto de terceros, y son lentos para responder a las preguntas. Sé que los datos están dentro de esa base de datos, así que quiero hacer un poco de ingeniería inversa. Dado un nombre de tabla, ¿es posible obtener una lista de los nombres de las columnas de esa tabla? Por ejemplo, en SQL Server, es posible volcar una tabla en una sentencia ```CREATE`` reutilizable, que enumera textualmente todas las columnas de las que se compone la tabla.
El esquema de información es la forma lenta y segura: está estandarizado y es en gran medida portátil a otras bases de datos que lo soporten. Y seguirá funcionando a través de las principales versiones. Sin embargo, las vistas del esquema de información suelen unir muchas tablas de los catálogos del sistema para ajustarse a un formato estrictamente estandarizado, muchas de las cuales no son más que carga muerta la mayor parte del tiempo. Esto las hace lentas. Los desarrolladores de Postgres no hacen promesas, pero lo básico (como lo que se necesita aquí) no va a cambiar entre versiones principales. Una evaluación más detallada: * Consulta para mostrar nombres y tipos de datos de una consulta, tabla o vista ```psql``` (la interfaz nativa de línea de comandos) toma la vía rápida, por supuesto, y consulta la fuente directamente. Si inicias ```psql`` con el parámetro ```-E``, se muestra el SQL detrás de comandos de barra invertida como ```d``. O ```set ECHO_HIDDEN on`` desde la línea de comandos de psql. A partir de ahí se puede construir una respuesta a su pregunta. Dada una tabla, ¿es posible tener una lista de los nombres de las columnas de esta tabla. ``SELECT attrelid::regclass AS tbl attname AS col atttypid::regtype AS datatype -- ¿más atributos? FROM pg_attribute WHERE attrelid = 'myschema.mytable'::regclass -- nombre de tabla opcionalmente calificado por esquema AND attnum > 0 AND NOT attisdropped ORDER BY attnum; ``` Más rápido que consultar ``information_schema.columns``. Pruebe ``EXPLAIN ANALYZE`` para comprobarlo. Apenas importa para una consulta única. Pero podría hacer una diferencia si se utiliza en una consulta / función que se repite muchas veces. También hay diferencias sutiles en la visibilidad. El siguiente artículo contiene una comparación detallada: * Cómo comprobar si una tabla existe en un esquema determinado
Je recherche une information précise dans une base de données dont je n'ai aucune connaissance. La base de données est sur une machine séparée, mais je peux m'y connecter et lancer une ligne de commande ``psql``, avec des droits d'administrateur. Il s'agit d'un produit tiers, et ils sont lents à répondre aux questions. Je sais que les données se trouvent dans cette base de données, alors je veux faire un peu de rétro-ingénierie. Étant donné le nom d'une table, est-il possible d'obtenir une liste des noms des colonnes de cette table ? Par exemple, dans SQL Server, il est possible de décharger une table dans une instruction ``CREATE`` réutilisable, qui énumère textuellement toutes les colonnes dont la table est composée.
Le schéma d'information est un moyen lent et sûr : il est normalisé et largement transférable à d'autres bases de données qui le prennent en charge. De plus, il continuera à fonctionner à travers les versions majeures. Cependant, les vues du schéma d'information joignent souvent de nombreuses tables des catalogues de systèmes pour répondre à un format strictement normalisé - dont beaucoup sont des frettes mortes la plupart du temps. Cela les rend lentes. Les développeurs de Postgres ne font pas de promesses, mais les principes de base (comme ce qui est nécessaire ici) ne vont pas changer d'une version majeure à l'autre. Évaluation plus détaillée : * Requête pour sortir les noms et les types de données d'une requête, d'une table ou d'une vue ``psql`` (l'interface native en ligne de commande) prend la voie rapide, bien sûr, et interroge la source directement. Si vous lancez ``psql`` avec le paramètre ``-E``, le SQL derrière les commandes backslash comme ``d``` est affiché. Ou bien ``Set ECHO_HIDDEN on`` à partir de la ligne de commande psql. A partir de là, vous pouvez construire une réponse à votre question. Étant donné une table, est-il possible d'obtenir une liste des noms des colonnes de cette table ? ``SELECT attrelid::regclass AS tbl , attname AS col , atttypid::regtype AS datatype -- d'autres attributs ? FROM pg_attribute WHERE attrelid = 'myschema.mytable'::regclass -- nom de table optionnellement qualifié par le schéma AND attnum > 0 AND NOT attisdropped ORDER BY attnum ; ``` Plus rapide que d'interroger ``information_schema.columns``. Essayez ``EXPLAIN ANALYZE`` pour vous en convaincre. Cela n'a guère d'importance pour une recherche ponctuelle. Mais cela peut faire une différence si on l'utilise dans une requête ou une fonction qui est répétée plusieurs fois. Il existe également des différences subtiles en termes de visibilité. L'article suivant présente une comparaison détaillée : * Comment vérifier si une table existe dans un schéma donné
Sto cercando un'informazione precisa in un database di cui non ho alcuna conoscenza. Il database si trova su una macchina separata, ma posso accedervi e lanciare una riga di comando ``psql``, con diritti di amministratore. È un prodotto di terze parti e sono lenti a rispondere alle domande. So che i dati sono all'interno di quel database, quindi voglio fare un po' di reverse-engineering. Dato il nome di una tabella, è possibile ottenere un elenco dei nomi delle colonne di quella tabella? Ad esempio, in SQL Server è possibile scaricare una tabella in un'istruzione ```CREATE`` riutilizzabile, che elenca testualmente tutte le colonne di cui è composta la tabella.
Lo schema informativo è la via più lenta e sicura: è standardizzato e ampiamente trasportabile in altri database che lo supportano. E continuerà a funzionare in tutte le versioni principali. Tuttavia, le viste nello schema informativo spesso uniscono molte tabelle dei cataloghi di sistema per soddisfare un formato strettamente standardizzato, molte delle quali sono solo un peso morto per la maggior parte del tempo. Questo le rende lente. Gli sviluppatori di Postgres non fanno promesse, ma le basi (come quelle necessarie in questo caso) non cambieranno nelle varie versioni. Valutazione più dettagliata: * Query per ottenere i nomi e i tipi di dati di una query, di una tabella o di una vista. ``psql`` (l'interfaccia nativa a riga di comando) prende la corsia preferenziale, ovviamente, e interroga direttamente il sorgente. Se si avvia ``psql`` con il parametro ```E``, viene visualizzato l'SQL dietro a comandi backslash come ```d```. Oppure ```set ECHO_HIDDEN on``` dalla riga di comando di psql. Partendo da qui si può costruire una risposta alla domanda. Data una tabella, è possibile avere un elenco dei nomi delle colonne di questa tabella. ```SELECT attrelid::regclass AS tbl , attname AS col , atttypid::regtype AS datatype -- Altri attributi? DA pg_attributi WHERE attrelid = 'myschema.mytable'::regclass -- nome della tabella facoltativamente qualificato dallo schema E attnum > 0 E NON attisdropped ORDINATO PER attnum; ``` Più veloce che interrogare ``information_schema.columns``. Provate ``EXPLAIN ANALYZE`` per verificarlo. È ancora poco importante per una ricerca una tantum. Ma potrebbe fare la differenza se usato in una query/funzione che viene ripetuta molte volte. Ci sono anche sottili differenze di visibilità. Il seguente articolo contiene un confronto dettagliato: * Come verificare se una tabella esiste in un determinato schema
163
I am using Visual Studio Code and have a fairly common project structure: ```├── client/ │ ├── tsconfig.json ├── shared/ ├── server/ │ ├── tsconfig.json ├── project.json ``` The two tsconfig files have different settings (e.g. the one under ```client/``` targets ES5, the one under ```server/``` targets ES6). Note that there is no tsconfig in the root directory. The problem is that I want the shared directory to be included in both projects. I can't do this using tsconfig because the ```exclude``` option won't let me include a folder that is in a higher directory than the tsconfig.json, and using ```files``` I have to constantly keep the list of files up to date as it doesn't support globs. Note that I can compile fine by adding the shared folder into tsc, what I want is for the Visual Studio Code IDE to recognise the shared code for intellisense etc. Is the only option to wait for filesGlob?
These days it is much easier as vscode has better support for this. You can use this directory structure so all the code is independent: ```├── frontend/ │ ├── src/ │ │ ├── │ ├── package.json │ ├── tsconfig.json ├── shared/ │ ├── package.json ├── backend/ │ ├── src/ │ │ ├── │ ├── package.json │ ├── tsconfig.json ``` Then in both the backend and frontend ```tsconfig.json```: ```{ &quot;compilerOptions&quot;: { &quot;paths&quot;: { &quot;~shared/*&quot;: [&quot;../shared/*&quot;] }, &quot;rootDirs&quot;: [ &quot;./src&quot;, &quot;../shared&quot; ] } } ``` To allow access to the shared code e.g.: ```import { Foo } from '~shared/foo'; ```
Ich verwende Visual Studio Code und habe eine ziemlich allgemeine Projektstruktur: ``├── client/ │ ├── tsconfig.json ├─── shared/ ├─── server/ │ ├── tsconfig.json ├── project.json ``` Die beiden tsconfig-Dateien haben unterschiedliche Einstellungen (z.B. die unter ```Client/`` zielt auf ES5, die unter ```Server/`` auf ES6). Beachten Sie, dass sich im Stammverzeichnis keine tsconfig befindet. Das Problem ist, dass ich möchte, dass das gemeinsame Verzeichnis in beiden Projekten enthalten ist. Ich kann das nicht mit tsconfig machen, weil die Option ```exclude`` mir nicht erlaubt, einen Ordner einzuschließen, der sich in einem höheren Verzeichnis als tsconfig.json befindet, und wenn ich ```files`` verwende, muss ich die Liste der Dateien ständig auf dem neuesten Stand halten, da es keine Globs unterstützt. Beachten Sie, dass ich kompilieren kann, indem ich den gemeinsamen Ordner in tsc hinzufüge. Was ich möchte, ist, dass die Visual Studio Code IDE den gemeinsamen Code für Intellisense usw. erkennt. Ist die einzige Option, für filesGlob warten?
Heutzutage ist es viel einfacher, da vscode eine bessere Unterstützung dafür bietet. Sie können diese Verzeichnisstruktur verwenden, damit der gesamte Code unabhängig ist: ```├── frontend/ src/ │ │ ├── │ ├─── package.json │ ├── tsconfig.json ├─── shared/ │ ├── package.json ├─── backend/ │ ├── src/ │ │ ├── │ ├─── package.json │ ├── tsconfig.json ``` Dann sowohl im Backend als auch im Frontend ```tsconfig.json```: ```{ &quot;compilerOptions&quot;: { &quot;Pfade&quot;: { &quot;~shared/*&quot;: [&quot;../shared/*&quot;] }, &quot;rootDirs&quot;: [ &quot;./src&quot;, &quot;./shared&quot;; ] } } ``` Um den Zugriff auf den gemeinsamen Code zu erlauben, z.B.: ````import { Foo } from '~shared/foo'; ```
Estoy usando Visual Studio Code y tengo una estructura de proyecto bastante común: ```├── cliente/ │├── tsconfig.json ├── shared/ ├── servidor/ │├── tsconfig.json ├── project.json ``` Los dos archivos tsconfig tienen configuraciones diferentes (por ejemplo, el que está bajo ```client/``` apunta a ES5, el que está bajo ```server/``` apunta a ES6). Tenga en cuenta que no hay tsconfig en el directorio raíz. El problema es que quiero que el directorio compartido se incluya en ambos proyectos. No puedo hacerlo usando tsconfig porque la opción ```exclude`` no me deja incluir una carpeta que esté en un directorio superior al tsconfig.json, y usando ```files`` tengo que mantener constantemente actualizada la lista de ficheros ya que no soporta globs. Tenga en cuenta que puedo compilar bien añadiendo la carpeta compartida en tsc, lo que quiero es que el IDE de Visual Studio Code reconozca el código compartido para intellisense, etc. ¿Es la única opción esperar a filesGlob?
Hoy en día es mucho más fácil ya que vscode tiene mejor soporte para esto. Puedes usar esta estructura de directorios para que todo el código sea independiente: ```├── frontend/ src/ │ │ ├── │ ├─── package.json │ ├── tsconfig.json ├── shared/ │ ├── package.json ├── backend/ │ ├── src/ │ │ ├── │├─── package.json │├── tsconfig.json ``` Luego tanto en el backend como en el frontend ```tsconfig.json``: ```{ &quot;compilerOptions&quot;: { &quot;paths&quot;: { &quot;~compartido/*&quot;: [&quot;../compartido/*&quot;] }, &quot;rootDirs&quot;: [ &quot;./src&quot;, &quot;./compartido&quot;; ] } } ``` Para permitir el acceso al código compartido, por ejemplo ```import { Foo } from '~shared/foo'; ```
J'utilise Visual Studio Code et j'ai une structure de projet assez commune : ``├── client/ │ ├─── tsconfig.json ├─── shared/ ├── server/ │ ├── tsconfig.json ├─── project.json ``` Les deux fichiers tsconfig ont des paramètres différents (par exemple, celui sous ``client/`` cible ES5, celui sous ``server/`` cible ES6). Notez qu'il n'y a pas de tsconfig dans le répertoire racine. Le problème est que je veux que le répertoire partagé soit inclus dans les deux projets. Je ne peux pas le faire en utilisant tsconfig parce que l'option ``exclude`` ne me permet pas d'inclure un dossier qui est dans un répertoire plus haut que le tsconfig.json, et en utilisant ``files`` je dois constamment garder la liste des fichiers à jour car il ne supporte pas les globs. Notez que je peux compiler sans problème en ajoutant le dossier partagé dans tsc, ce que je veux c'est que l'IDE Visual Studio Code reconnaisse le code partagé pour l'intellisense, etc. La seule option est-elle d'attendre filesGlob ?
De nos jours, c'est beaucoup plus facile car vscode a un meilleur support pour cela. Vous pouvez utiliser cette structure de répertoire pour que tout le code soit indépendant : ```├── frontend/ src/ │ │ ├── │ ├──── package.json │ ├─── tsconfig.json ├─── shared/ │ ├─── package.json ├── backend/ │ ├─── src/ │ │ ├── │ ├──── package.json │ ├─── tsconfig.json ``` Puis dans le backend et le frontend ``tsconfig.json`` : ```{ &quot;compilerOptions&quot; : { &quot;paths&quot; : { &quot;~shared/*&quot; : [&quot ;../shared/*&quot ;] }, &quot;rootDirs&quot; : [ &quot ;./src&quot ;, &quot ;./shared&quot; ; ] } } ``` Pour autoriser l'accès au code partagé, par exemple : ```import { Foo } from '~shared/foo' ; ```
Sto usando Visual Studio Code e ho una struttura di progetto abbastanza comune: ```├── client/ │ ├── tsconfig.json ├── condiviso/ ├── server/ │ ├── tsconfig.json ├─── progetto.json ``` I due file tsconfig hanno impostazioni diverse (per esempio, quello sotto ``client/`` punta a ES5, quello sotto ``server/`` punta a ES6). Si noti che non c'è alcun tsconfig nella directory principale. Il problema è che voglio che la cartella condivisa sia inclusa in entrambi i progetti. Non posso farlo usando tsconfig, perché l'opzione ``exclude`` non mi permette di includere una cartella che si trova in una directory più alta di tsconfig.json, e usando ```files`` devo tenere costantemente aggiornato l'elenco dei file, perché non supporta i globi. Si noti che posso compilare bene aggiungendo la cartella condivisa in tsc, quello che voglio è che l'IDE di Visual Studio Code riconosca il codice condiviso per intellisense ecc. L'unica opzione è aspettare filesGlob?
Al giorno d'oggi è molto più facile, dato che vscode ha un supporto migliore per questo. Si può usare questa struttura di directory, in modo che tutto il codice sia indipendente: ```├── frontend/ src/ │ │ ├── │ ├──── pacchetto.json │ ├─── tsconfig.json ├─── condiviso/ │ ├── pacchetto.json ├── backend/ │ ├── src/ │ │ ├── │ ├──── pacchetto.json │ ├─── tsconfig.json ``` Quindi sia nel backend che nel frontend ```tsconfig.json``: ```{ &quot;compilerOptions&quot;: { &quot;percorsi&quot;: { &quot;~shared/*&quot;: [&quot;../shared/*&quot;] }, &quot;rootDirs&quot;: [ &quot;./src&quot;, &quot;./condiviso&quot;; ] } } ``` Per consentire l'accesso al codice condiviso, ad es: ```import { Foo } from '~shared/foo'; ```
164
I have the following method to save an Object to a file: ```// Save an object out to the disk public static void SerializeObject(this T toSerialize, String filename) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()); TextWriter textWriter = new StreamWriter(filename); xmlSerializer.Serialize(textWriter, toSerialize); textWriter.Close(); } ``` I confess I did not write it (I only converted it to a extension method that took a type parameter). Now I need it to give the xml back to me as a string (rather than save it to a file).
Use a `StringWriter` instead of a `StreamWriter`: ``` public static string SerializeObject<T>(this T toSerialize) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()); using(StringWriter textWriter = new StringWriter()) { xmlSerializer.Serialize(textWriter, toSerialize); return textWriter.ToString(); } } ``` Note, it is important to use `toSerialize.GetType()` instead of `typeof(T)` in XmlSerializer constructor: if you use the first one the code covers all possible subclasses of `T` (which are valid for the method), while using the latter one will fail when passing a type derived from `T`. There is some example code on Ideone that motivates this statement, with XmlSerializer throwing an `Exception` when `typeof(T)` is used, because you pass an instance of a derived type to a method that calls SerializeObject that is defined in the derived type's base class. Also, Ideone uses Mono to execute code; the actual `Exception` you would get using the Microsoft .NET runtime has a different `Message` than the one shown on Ideone, but it fails just the same.
Ich habe die folgende Methode, um ein Objekt in einer Datei zu speichern: ```/// Ein Objekt auf der Festplatte speichern public static void SerializeObject(this T toSerialize, String filename) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()); TextWriter textWriter = new StreamWriter(filename); xmlSerializer.Serialize(textWriter, toSerialize); textWriter.Close(); } ``` Ich gebe zu, dass ich es nicht geschrieben habe (ich habe es nur in eine Erweiterungsmethode umgewandelt, die einen Typparameter annimmt). Jetzt muss ich die XML-Datei als String zurückgeben (anstatt sie in einer Datei zu speichern).
Verwenden Sie einen `StringWriter` anstelle eines `StreamWriters`: ``` public static string SerializeObject<T>(this T toSerialize) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()); using(StringWriter textWriter = new StringWriter()) { xmlSerializer.Serialize(textWriter, toSerialize); return textWriter.ToString(); } } ``` Beachten Sie, dass es wichtig ist, `toSerialize.GetType()` anstelle von `typeof(T)` im XmlSerializer-Konstruktor zu verwenden: Wenn Sie ersteres verwenden, deckt der Code alle möglichen Unterklassen von `T` ab (die für die Methode gültig sind), während die Verwendung von letzterem fehlschlägt, wenn ein von `T` abgeleiteter Typ übergeben wird. Es gibt etwas Beispielcode auf Ideone, der diese Aussage motiviert, wobei XmlSerializer eine `Exception` auslöst, wenn `typeof(T)` verwendet wird, weil Sie eine Instanz eines abgeleiteten Typs an eine Methode übergeben, die SerializeObject aufruft, das in der Basisklasse des abgeleiteten Typs definiert ist. Außerdem verwendet Ideone Mono, um den Code auszuführen; die tatsächliche `Exception`, die Sie mit der Microsoft .NET-Laufzeitumgebung erhalten würden, hat eine andere `Message` als die, die auf Ideone angezeigt wird, aber sie schlägt genauso fehl.
Tengo el siguiente método para guardar un objeto en un archivo: ```// Guardar un objeto en el disco public static void SerializeObject(this T toSerialize, String filename) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()); TextWriter textWriter = new StreamWriter(filename); xmlSerializer.Serialize(textWriter, toSerialize); textWriter.Close(); } ``` Confieso que no lo escribí (sólo lo convertí en un método de extensión que tomaba un parámetro de tipo). Ahora necesito que me devuelva el xml en forma de cadena (en lugar de guardarlo en un fichero).
Utilice un `StringWriter` en lugar de un `StreamWriter`: ``` public static string SerializeObject<T>(this T toSerialize) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()); using(StringWriter textWriter = new StringWriter()) { xmlSerializer.Serialize(textWriter, toSerialize); return textWriter.ToString(); } } ``` Nota, es importante usar `toSerialize.GetType()` en lugar de `typeof(T)` en el constructor de XmlSerializer: si usas el primero el código cubre todas las posibles subclases de `T` (que son válidas para el método), mientras que usando el segundo fallará al pasar un tipo derivado de `T`. Hay algún código de ejemplo en Ideone que motiva esta afirmación, con XmlSerializer lanzando una `Exception` cuando se utiliza `typeof(T)`, porque se pasa una instancia de un tipo derivado a un método que llama a SerializeObject que está definido en la clase base del tipo derivado. Además, Ideone utiliza Mono para ejecutar código; la `Exception` real que obtendría utilizando el tiempo de ejecución de Microsoft .NET tiene un `Message` diferente al que se muestra en Ideone, pero falla igual.
J'ai la méthode suivante pour sauvegarder un objet dans un fichier : ```// Sauvegarder un objet sur le disque public static void SerializeObject(this T toSerialize, String filename) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()) ; TextWriter textWriter = new StreamWriter(filename) ; xmlSerializer.Serialize(textWriter, toSerialize) ; textWriter.Close() ; } ``` J'avoue que je ne l'ai pas écrite (je l'ai seulement convertie en une méthode d'extension prenant un paramètre de type). Maintenant, j'ai besoin qu'elle me renvoie le xml sous forme de chaîne de caractères (plutôt que de le sauvegarder dans un fichier).
Utiliser un `StringWriter` au lieu d'un `StreamWriter` : ``` public static string SerializeObject<T>(this T toSerialize) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()) ; using(StringWriter textWriter = new StringWriter()) { xmlSerializer.Serialize(textWriter, toSerialize) ; return textWriter.ToString() ; } } ``` Notez qu'il est important d'utiliser `toSerialize.GetType()` au lieu de `typeof(T)` dans le constructeur de XmlSerializer : si vous utilisez le premier, le code couvre toutes les sous-classes possibles de `T` (qui sont valides pour la méthode), alors que l'utilisation du dernier échouera si vous passez un type dérivé de `T`. Il y a un exemple de code sur Ideone qui motive cette déclaration, avec XmlSerializer qui lance une `Exception` quand `typeof(T)` est utilisé, parce que vous passez une instance d'un type dérivé à une méthode qui appelle SerializeObject qui est définie dans la classe de base du type dérivé. De plus, Ideone utilise Mono pour exécuter le code ; la véritable `Exception` que vous obtiendriez en utilisant le runtime Microsoft .NET a un `Message` différent de celui affiché sur Ideone, mais elle échoue tout de même.
Ho il seguente metodo per salvare un oggetto in un file: ```// Salvare un oggetto su disco public static void SerializeObject(this T toSerialize, String filename) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()); TextWriter textWriter = new StreamWriter(filename); xmlSerializer.Serialize(textWriter, toSerialize); textWriter.Close(); } ``` Confesso di non averlo scritto (l'ho solo convertito in un metodo di estensione che prende un parametro di tipo). Ora ho bisogno che mi restituisca l'xml come stringa (invece di salvarlo in un file).
Utilizzare uno `StringWriter` invece di uno `StreamWriter`: ``` public static string SerializeObject<T>(this T toSerialize) { XmlSerializer xmlSerializer = new XmlSerializer(toSerialize.GetType()); using(StringWriter textWriter = new StringWriter()) { xmlSerializer.Serialize(textWriter, toSerialize); return textWriter.ToString(); } } ``` Si noti che è importante usare `toSerialize.GetType()` invece di `typeof(T)` nel costruttore di XmlSerializer: se si usa il primo, il codice copre tutte le possibili sottoclassi di `T` (che sono valide per il metodo), mentre usando il secondo il metodo fallirà quando si passa un tipo derivato da `T`. C'è un esempio di codice su Ideone che motiva questa affermazione, con XmlSerializer che lancia una `Exception` quando viene usato `typeof(T)`, perché si passa un'istanza di un tipo derivato a un metodo che chiama SerializeObject, definito nella classe base del tipo derivato. Inoltre, Ideone utilizza Mono per eseguire il codice; l'effettiva `Exception` che si otterrebbe utilizzando il runtime Microsoft .NET ha un `Message` diverso da quello mostrato su Ideone, ma fallisce ugualmente.
165
I have a problem with the embedded bitcode term. What is embedded bitcode? When to enable, ```ENABLE_BITCODE``` in new Xcode? What happens to the binary when enabled, ```ENABLE_BITCODE``` in Xcode 7?
> What is embedded bitcode? According to docs: > Bitcode is an intermediate representation of a compiled program. Apps you upload to iTunes Connect that contain bitcode will be compiled and linked on the App Store. Including bitcode will allow Apple to re-optimize your app binary in the future without the need to submit a new version of your app to the store. This phrase in "New Features in Xcode 7" made me to think for a long time that Bitcode is needed for Slicing to reduce app size: When you archive for submission to the App Store, Xcode will compile your app into an intermediate representation. The App Store will then compile the bitcode down into the 64 or 32 bit executables as necessary. However that's not true, Bitcode and Slicing work independently: Slicing is about reducing app size and generating app bundle variants, and Bitcode is about certain binary optimizations. I've verified this by checking included architectures in executables of non-bitcode apps and founding that they only include necessary ones. Bitcode allows other App Thinning component called Slicing to generate app bundle variants with particular executables for particular architectures, e.g. iPhone 5S variant will include only arm64 executable, iPad Mini armv7 and so on. > When to enable ENABLE_BITCODE in new Xcode? For iOS apps, bitcode is the default, but optional. If you provide bitcode, all apps and frameworks in the app bundle need to include bitcode. For watchOS and tvOS apps, bitcode is required. > What happens to the binary when ENABLE_BITCODE is enabled in the new Xcode? From Xcode 7 reference: > Activating this setting indicates that the target or project should generate bitcode during compilation for platforms and architectures which support it. For Archive builds, bitcode will be generated in the linked binary for submission to the app store. For other builds, the compiler and linker will check whether the code complies with the requirements for bitcode generation, but will not generate actual bitcode.
Ich habe ein Problem mit dem Begriff "eingebetteter Bitcode". Was ist eingebetteter Bitcode? Wann sollte man ``ENABLE_BITCODE`` im neuen Xcode aktivieren? Was passiert mit dem Binärcode, wenn man ``ENABLE_BITCODE`` in Xcode 7 aktiviert?
> Was ist eingebetteter Bitcode? Laut den Dokumenten: > Bitcode ist eine Zwischendarstellung eines kompilierten Programms. Apps, die Sie in iTunes Connect hochladen und die Bitcode enthalten, werden kompiliert und im App Store verlinkt. Die Einbindung von Bitcode ermöglicht es Apple, die Binärdatei Ihrer App in Zukunft zu optimieren, ohne eine neue Version Ihrer App im Store einreichen zu müssen. Dieser Satz in "New Features in Xcode 7" ließ mich lange Zeit denken, dass Bitcode für Slicing benötigt wird, um die App-Größe zu reduzieren: Wenn Sie für die Einreichung im App Store archivieren, kompiliert Xcode Ihre App in eine Zwischendarstellung. Der App Store kompiliert den Bitcode dann je nach Bedarf in die 64- oder 32-Bit-Executables herunter. Das stimmt jedoch nicht, Bitcode und Slicing funktionieren unabhängig voneinander: Beim Slicing geht es um die Reduzierung der App-Größe und die Erstellung von App-Bundle-Varianten, bei Bitcode um bestimmte binäre Optimierungen. Ich habe dies überprüft, indem ich die in den ausführbaren Dateien von Nicht-Bitcode-Apps enthaltenen Architekturen überprüft und festgestellt habe, dass sie nur die notwendigen enthalten. Bitcode ermöglicht eine andere App Thinning-Komponente namens Slicing, um App-Bundle-Varianten mit bestimmten ausführbaren Dateien für bestimmte Architekturen zu generieren, z.B. wird die iPhone 5S-Variante nur arm64 ausführbare Dateien enthalten, das iPad Mini armv7 und so weiter. > Wann sollte ENABLE_BITCODE im neuen Xcode aktiviert werden? Für iOS-Apps ist Bitcode der Standard, aber optional. Wenn Sie Bitcode bereitstellen, müssen alle Apps und Frameworks im App-Bundle Bitcode enthalten. Für watchOS- und tvOS-Apps ist Bitcode erforderlich. > Was passiert mit der Binärdatei, wenn ENABLE_BITCODE im neuen Xcode aktiviert ist? Aus der Xcode 7 Referenz: > Das Aktivieren dieser Einstellung zeigt an, dass das Ziel oder Projekt Bitcode während der Kompilierung für Plattformen und Architekturen, die dies unterstützen, generieren sollte. Bei Archiv-Builds wird der Bitcode in der verknüpften Binärdatei für die Einreichung im App Store generiert. Bei anderen Builds prüfen Compiler und Linker, ob der Code die Anforderungen für die Bitcode-Erzeugung erfüllt, erzeugen aber keinen Bitcode.
Tengo un problema con el término "código de bits incrustado". ¿Qué es el código de bits incrustado? ¿Cuándo habilitar, ``ENABLE_BITCODE`` en el nuevo Xcode? ¿Qué pasa con el binario cuando se habilita, ``ENABLE_BITCODE`` en Xcode 7?
> ¿Qué es el código de bits incrustado? Según la documentación: > Bitcode es una representación intermedia de un programa compilado. Las aplicaciones que subas a iTunes Connect que contengan bitcode serán compiladas y enlazadas en el App Store. Incluir bitcode permitirá a Apple reoptimizar el binario de tu app en el futuro sin necesidad de enviar una nueva versión de tu app a la tienda. Esta frase en "New Features in Xcode 7" me hizo pensar durante mucho tiempo que Bitcode es necesario para Slicing para reducir el tamaño de la aplicación: Cuando archives para enviar a la App Store, Xcode compilará tu app en una representación intermedia. A continuación, la App Store compilará el código de bits en los ejecutables de 64 o 32 bits, según sea necesario. Sin embargo, eso no es cierto, Bitcode y Slicing funcionan de forma independiente: Slicing se ocupa de reducir el tamaño de la aplicación y generar variantes de paquetes de aplicaciones, y Bitcode se ocupa de ciertas optimizaciones binarias. Lo he comprobado verificando las arquitecturas incluidas en ejecutables de aplicaciones sin Bitcode y comprobando que sólo incluyen las necesarias. Bitcode permite que otro componente de App Thinning llamado Slicing genere variantes de paquetes de aplicaciones con ejecutables particulares para arquitecturas particulares, por ejemplo, la variante iPhone 5S incluirá sólo el ejecutable arm64, iPad Mini armv7 y así sucesivamente. > ¿Cuándo activar ENABLE_BITCODE en el nuevo Xcode? Para aplicaciones iOS, bitcode es el valor predeterminado, pero opcional. Si proporciona bitcode, todas las aplicaciones y frameworks del paquete de aplicaciones deben incluir bitcode. Para las aplicaciones de watchOS y tvOS, el código de bits es obligatorio. > ¿Qué ocurre con el binario cuando se activa ENABLE_BITCODE en el nuevo Xcode? De la referencia de Xcode 7: > La activación de este ajuste indica que el objetivo o proyecto debe generar bitcode durante la compilación para las plataformas y arquitecturas que lo soportan. Para las compilaciones Archive, el código de bits se generará en el binario vinculado para su envío a la tienda de aplicaciones. Para otras compilaciones, el compilador y el enlazador comprobarán si el código cumple los requisitos para la generación de código de bits, pero no generarán código de bits real.
J'ai un problème avec le terme "embedded bitcode". Qu'est-ce que le bitcode embarqué ? Quand activer le ``ENABLE_BITCODE`` dans le nouveau Xcode ? Que se passe-t-il pour le binaire quand on active, ``ENABLE_BITCODE`` dans Xcode 7 ?
> Qu'est-ce qu'un bitcode intégré ? D'après la documentation : > Le bitcode est une représentation intermédiaire d'un programme compilé. Les applications que vous téléchargez sur iTunes Connect et qui contiennent un bitcode seront compilées et liées sur l'App Store. L'inclusion du bitcode permettra à Apple de ré-optimiser le binaire de votre application dans le futur sans avoir à soumettre une nouvelle version de votre application à l'App Store. Cette phrase dans "New Features in Xcode 7" m'a fait penser pendant longtemps que le Bitcode est nécessaire pour le Slicing afin de réduire la taille de l'application : Lorsque vous archivez votre application pour la soumettre à l'App Store, Xcode la compile dans une représentation intermédiaire. L'App Store compilera ensuite le bitcode en exécutables 64 ou 32 bits selon les besoins. Cependant, ce n'est pas vrai, le Bitcode et le Slicing fonctionnent indépendamment l'un de l'autre : Le Slicing permet de réduire la taille de l'application et de générer des variantes du bundle d'application, et le Bitcode permet certaines optimisations binaires. J'ai vérifié cela en vérifiant les architectures incluses dans les exécutables d'applications non-bitcode et en constatant qu'elles n'incluent que les architectures nécessaires. Bitcode permet à un autre composant App Thinning appelé Slicing de générer des variantes d'app bundle avec des exécutables particuliers pour des architectures particulières, par exemple la variante iPhone 5S n'inclura que l'exécutable arm64, l'iPad Mini armv7 et ainsi de suite. > Quand activer ENABLE_BITCODE dans le nouveau Xcode ? Pour les applications iOS, le bitcode est une option par défaut, mais facultative. Si vous fournissez un bitcode, toutes les apps et frameworks du bundle d'apps doivent inclure le bitcode. Pour les applications watchOS et tvOS, le bitcode est obligatoire. > Qu'arrive-t-il au binaire lorsque ENABLE_BITCODE est activé dans le nouveau Xcode ? D'après la référence de Xcode 7 : > L'activation de ce paramètre indique que la cible ou le projet doit générer du bitcode pendant la compilation pour les plates-formes et les architectures qui le supportent. Pour les builds Archive, le bitcode sera généré dans le binaire lié pour la soumission à l'app store. Pour les autres compilations, le compilateur et l'éditeur de liens vérifieront si le code est conforme aux exigences de génération de code binaire, mais ne généreront pas de code binaire réel.
Ho un problema con il termine bitcode incorporato. Che cos'è il bitcode incorporato? Quando abilitare, ``ENABLE_BITCODE`` nel nuovo Xcode? Cosa succede al binario quando si abilita, ``ENABLE_BITCODE`` in Xcode 7?
> Cos'è il bitcode incorporato? Secondo la documentazione: > Il bitcode è una rappresentazione intermedia di un programma compilato. Le app caricate su iTunes Connect che contengono bitcode saranno compilate e collegate all'App Store. L'inclusione del bitcode consente ad Apple di ri-ottimizzare il binario dell'app in futuro senza dover inviare una nuova versione dell'app allo store. Questa frase contenuta in "New Features in Xcode 7" mi ha fatto pensare per molto tempo che il bitcode sia necessario per lo slicing per ridurre le dimensioni dell'app: Quando si archivia per l'invio all'App Store, Xcode compila l'app in una rappresentazione intermedia. L'App Store compila quindi il bitcode in eseguibili a 64 o 32 bit, come necessario. Tuttavia, questo non è vero: Bitcode e Slicing funzionano in modo indipendente: Slicing si occupa di ridurre le dimensioni delle app e di generare varianti di bundle, mentre Bitcode si occupa di alcune ottimizzazioni binarie. L'ho verificato controllando le architetture incluse negli eseguibili di applicazioni non Bitcode e constatando che includono solo quelle necessarie. Bitcode consente a un altro componente di App Thinning, chiamato Slicing, di generare varianti del bundle con particolari eseguibili per determinate architetture, ad esempio la variante per iPhone 5S includerà solo eseguibili arm64, iPad Mini armv7 e così via. > Quando abilitare ENABLE_BITCODE nel nuovo Xcode? Per le app iOS, il bitcode è predefinito, ma facoltativo. Se si fornisce il bitcode, tutte le app e i framework nel bundle dell'app devono includere il bitcode. Per le app watchOS e tvOS, il bitcode è obbligatorio. > Cosa succede al binario quando ENABLE_BITCODE è abilitato nel nuovo Xcode? Dal riferimento a Xcode 7: > L'attivazione di questa impostazione indica che il target o il progetto deve generare bitcode durante la compilazione per le piattaforme e le architetture che lo supportano. Per le build di Archive, il bitcode verrà generato nel binario collegato per l'invio all'app store. Per le altre compilazioni, il compilatore e il linker verificheranno se il codice è conforme ai requisiti per la generazione di bitcode, ma non genereranno il bitcode vero e proprio.
166
In Dupire's local volatility model, the volatility is is a deterministic function of the underlying price and time, chosen to match observed European option prices. To be more specific, given a smooth surface $(K,T)\mapsto C(K,T)$ where K is the strike and T is time to maturity. Dupire equation implies that there exits an unique continuous function $\sigma_{loc}$ defined by $$\sigma_{loc}^{2}(K,T)=\frac{\partial_{T}C(K,T)+rK\partial_{K}C(K,T)}{\frac{1}{2}K^{2}\partial_{KK}C(K,T)}$$ for all $(K,T)\in(0,\infty)\times(0,\infty)$ such that the solution to the stochastic differential equation $dS_{t}/S_{t}=rdt+\sigma(t,S_{t})dW_{t}$ exactly generates the European call option prices. What do the dynamics of the local volatility mean? Are dynamics equivalent to the volatility surface? Why the dynamics of local volatility model is highly unrealistic?
A general model (with continuous paths) can be written $$ \frac{dS_t}{S_t} = r_t dt + \sigma_t dW_t^S $$ where the short rate $r_t$ and spot volatility $\sigma_t$ are stochastic processes. In the Black-Scholes model both $r$ and $\sigma$ are deterministic functions of time (even constant in the original model). This produces a flat smile for any expiry $T$. And we have the closed form formula for option prices $$ C(t,S;T,K) = BS(S,T-t,K;\Sigma(T,K)) $$ where $BS$ is the BS formula and $\Sigma(T,K) = \sqrt{\frac{1}{T-t}\int_t^T \sigma(s)^2 ds}$. This is not consistent with the smile observed on the market. In order to match market prices, one needs to use a different volatility for each expiry and strike. This is the implied volatility surface $(T,K) \mapsto \Sigma(T,K)$. In the local volatility model, rates are deterministic, instant volatility is stochastic but there is only one source of randomness $$ \frac{dS_t}{S_t} = r(t) dt + \sigma_{Dup}(t,S_t) dW_t^S $$ this is a special case of the general model with $$ d\sigma_t = (\partial_t \sigma_{Dup}(t,S_t) + r(t)S_t\partial_S\sigma_{Dup}(t,S_t) + \frac{1}{2}S_t^2\partial_S^2\sigma_{Dup}(t,S_t)) dt + \frac{1}{2}S_t\partial_S\sigma_{Dup}(t,S_t)^2 dW_t^S $$ What is appealing with this model is that the function $\sigma_{Dup}$ can be perfectly calibrated to match all market vanilla prices (and quite easily too). The problem is that while correlated to the spot, statistical study show that the volatility also has its own source of randomness independent of that of the spot. Mathematically, this means the instant correlation between the spot and vol is not 1 contrary to what happens in the local volatility model. This can be seen in several ways: 1. The forward smile. Forward implied volatility is implied from prices of forward start options: ignoring interest rates, $$ C(t,S;T\to T+\theta,K) := E^Q[(\frac{S_{T+\theta}}{S_{T}}-K)_+] =: C_{BS}(S=1,\theta,K;\Sigma(t,S;T\to T+\theta,K)) $$ Alternatively, it is sometimes defined as the expectation of implied volatility at a forward date. In a LV model, as the maturity $T$ increases but $\theta$ is kept constant, the forward smile gets flatter and higher. This is not what we observe in the markets where the forward smile tends to be similar to the current smile. This is because the initial smile you calibrate the model too has decreasing skew: $$ \partial_K \Sigma(0,S;T,K) \xrightarrow[T\to +\infty]{} 0 $$ 2. Smile rolling. In a LV model, smile tends to move in the opposite direction of the spot and get higher independently of the direction of the spot. This is not consistent with what is observed on markets. See Hagan and al. Managing Smile Risk for the derivation. This means that $\partial_S \Sigma_{LV}(t,S;T,K)$ often has the wrong sign so your Delta will be wrong which can lead to a higher hedging error than using BS. 3. Barrier options. In FX markets, barrier options like Double No Touch are liquid but a LV model calibrated to vanilla prices does not reproduce these prices. This is a consequence of the previous point. The LV model is a static model. Its whole dynamic comes from the volatility surface at time 0. But the vol surface has a dynamic that is richer than that. There are alternatives using multiple factors like SV models, LSV models (parametric local vol like SABR or fully non parametric local vol), models of the joint dynamic of the spot and vol surface etc... but the LV model remains the default model in many cases due to its simplicity, its ability to calibrate the initial smile perfectly and its numerical efficiency.
Im lokalen Volatilitätsmodell von Dupire ist die Volatilität eine deterministische Funktion des Basiswertpreises und der Zeit, die so gewählt wird, dass sie den beobachteten europäischen Optionspreisen entspricht. Genauer gesagt, bei einer glatten Fläche $(K,T)\mapsto C(K,T)$, wobei K der Strike und T die Zeit bis zur Fälligkeit ist. Die Dupire-Gleichung impliziert, dass es eine eindeutige kontinuierliche Funktion $\sigma_{loc}$ gibt, die definiert ist durch $$\sigma_{loc}^{2}(K,T)=\frac{\partial_{T}C(K,T)+rK\partial_{K}C(K,T)}{\frac{1}{2}K^{2}\partial_{KK}C(K,T)}$$ for all $(K,T)\in(0,\infty)\times(0,\infty)$, so dass die Lösung der stochastischen Differentialgleichung $dS_{t}/S_{t}=rdt+\sigma(t,S_{t})dW_{t}$ genau die Preise der europäischen Kaufoption erzeugt. Was bedeutet die Dynamik der lokalen Volatilität? Ist die Dynamik äquivalent zur Volatilitätsfläche? Warum ist die Dynamik des lokalen Volatilitätsmodells höchst unrealistisch?
Ein allgemeines Modell (mit kontinuierlichen Pfaden) kann geschrieben werden $$ \frac{dS_t}{S_t} = r_t dt + \sigma_t dW_t^S $$ wobei der kurzfristige Zinssatz $r_t$ und die Spot-Volatilität $\sigma_t$ stochastische Prozesse sind. Im Black-Scholes-Modell sind sowohl $r$ als auch $\sigma$ deterministische Funktionen der Zeit (im ursprünglichen Modell sogar konstant). Dies führt zu einem flachen Smile für jeden Verfall $T$. Und wir haben die geschlossene Formel für Optionspreise $$ C(t,S;T,K) = BS(S,T-t,K;\Sigma(T,K)) $$ wobei $BS$ die BS-Formel ist und $\Sigma(T,K) = \sqrt{\frac{1}{T-t}\int_t^T \sigma(s)^2 ds}$. Dies stimmt nicht mit dem auf dem Markt beobachteten Smile überein. Um mit den Marktpreisen übereinzustimmen, muss man für jeden Verfallstag und Strike eine andere Volatilität verwenden. Dies ist die implizite Volatilitätsfläche $(T,K) \mapsto \Sigma(T,K)$. Im Modell der lokalen Volatilität sind die Kurse deterministisch, die momentane Volatilität ist stochastisch, aber es gibt nur eine Quelle der Zufälligkeit $$ \frac{dS_t}{S_t} = r(t) dt + \sigma_{Dup}(t,S_t) dW_t^S $$ dies ist ein Spezialfall des allgemeinen Modells mit $$ d\sigma_t = (\partial_t \sigma_{Dup}(t,S_t) + r(t)S_t\partial_S\sigma_{Dup}(t,S_t) + \frac{1}{2}S_t^2\partial_S^2\sigma_{Dup}(t,S_t)) dt + \frac{1}{2}S_t\partial_S\sigma_{Dup}(t,S_t)^2 dW_t^S $$ Das Interessante an diesem Modell ist, dass die Funktion $\sigma_{Dup}$ perfekt kalibriert werden kann, um allen Markt-Vanille-Preisen zu entsprechen (und das auch noch recht einfach). Das Problem besteht darin, dass die Volatilität zwar mit dem Kassapreis korreliert ist, statistische Untersuchungen aber zeigen, dass sie auch eine eigene, vom Kassapreis unabhängige Zufallsquelle hat. Mathematisch gesehen bedeutet dies, dass die unmittelbare Korrelation zwischen dem Spot und der Volatilität nicht 1 ist, im Gegensatz zu dem, was im lokalen Volatilitätsmodell geschieht. Dies lässt sich auf verschiedene Weise erkennen: 1. Das Forward-Smile. Die implizite Forward-Volatilität wird aus den Preisen von Forward-Start-Optionen abgeleitet: ohne Berücksichtigung der Zinssätze, $$ C(t,S;T\bis T+\theta,K) := E^Q[(\frac{S_{T+\theta}}{S_{T}}-K)_+] =: C_{BS}(S=1,\theta,K;\Sigma(t,S;T\bis T+\theta,K)) $$ Alternativ dazu wird sie manchmal als die Erwartung der impliziten Volatilität zu einem Termin definiert. In einem LV-Modell wird der Forward Smile flacher und höher, wenn die Laufzeit $T$ zunimmt, $\theta$ aber konstant gehalten wird. Dies ist nicht das, was wir an den Märkten beobachten, wo der Forward-Smile tendenziell dem aktuellen Smile ähnelt. Der Grund dafür ist, dass der anfängliche Smile, mit dem das Modell kalibriert wird, eine abnehmende Schiefe aufweist: $$ \partial_K \Sigma(0,S;T,K) \xrightarrow[T\to +\infty]{} 0 $$ 2. Lächeln rollt. In einem LV-Modell tendiert das Lächeln dazu, sich in die entgegengesetzte Richtung des Spots zu bewegen und unabhängig von der Richtung des Spots höher zu werden. Dies entspricht nicht dem, was auf den Märkten zu beobachten ist. Siehe Hagan und al. Managing Smile Risk für die Ableitung. Dies bedeutet, dass $\partial_S \Sigma_{LV}(t,S;T,K)$ oft das falsche Vorzeichen hat, so dass Ihr Delta falsch sein wird, was zu einem höheren Absicherungsfehler als bei der Verwendung von BS führen kann. 3. Barriere-Optionen. Auf den Devisenmärkten sind Barrier-Optionen wie Double No Touch liquide, aber ein LV-Modell, das auf Vanilla-Preise kalibriert ist, bildet diese Preise nicht ab. Dies ist eine Folge des vorherigen Punktes. Das LV-Modell ist ein statisches Modell. Seine gesamte Dynamik ergibt sich aus der Volatilitätsfläche zum Zeitpunkt 0. Die Volatilitätsfläche hat jedoch eine Dynamik, die reichhaltiger ist als diese. Es gibt Alternativen, die mehrere Faktoren verwenden, wie SV-Modelle, LSV-Modelle (parametrische lokale Volatilität wie SABR oder vollständig nicht parametrische lokale Volatilität), Modelle der gemeinsamen Dynamik der Spot- und Vol-Oberfläche usw., aber das LV-Modell bleibt in vielen Fällen das Standardmodell aufgrund seiner Einfachheit, seiner Fähigkeit, den anfänglichen Smile perfekt zu kalibrieren, und seiner numerischen Effizienz.
En el modelo de volatilidad local de Dupire, la volatilidad es una función determinista del precio subyacente y del tiempo, elegida para ajustarse a los precios observados de las opciones europeas. Para ser más específicos, dada una superficie suave $(K,T)\mapsto C(K,T)$ donde K es el strike y T es el tiempo hasta el vencimiento. La ecuación de Dupire implica que existe una única función continua $\sigma_{loc}$ definida por $$\sigma_{loc}^{2}(K,T)=\frac{\partial_{T}C(K,T)+rK\partial_{K}C(K,T)}{\frac{1}{2}K^{2}\partial_{KK}C(K,T)}$$ for all $(K,T)\in(0,\infty)\times(0,\infty)$ tal que la solución de la ecuación diferencial estocástica $dS_{t}/S_{t}=rdt+\sigma(t,S_{t})dW_{t}$ genera exactamente los precios de las opciones de compra europeas. ¿Qué significa la dinámica de la volatilidad local? ¿Es la dinámica equivalente a la superficie de volatilidad? ¿Por qué la dinámica del modelo de volatilidad local es muy poco realista?
Un modelo general (con trayectorias continuas) puede escribirse $$ \frac{dS_t}{S_t} = r_t dt + \sigma_t dW_t^S $$ donde el tipo a corto $r_t$ y la volatilidad al contado $\sigma_t$ son procesos estocásticos. En el modelo Black-Scholes, tanto $r$ como $\sigma$ son funciones deterministas del tiempo (incluso constantes en el modelo original). Esto produce una sonrisa plana para cualquier vencimiento $T$. Y tenemos la fórmula de forma cerrada para los precios de las opciones $$ C(t,S;T,K) = BS(S,T-t,K;\Sigma(T,K)) $$ donde $BS$ es la fórmula BS y $\Sigma(T,K) = \sqrt{\frac{1}{T-t}\int_t^T \sigma(s)^2 ds}$. Esto no es coherente con la sonrisa observada en el mercado. Para que coincida con los precios de mercado, es necesario utilizar una volatilidad diferente para cada vencimiento y strike. Esta es la superficie de volatilidad implícita $(T,K) \mapsto \Sigma(T,K)$. En el modelo de volatilidad local, los tipos son deterministas, la volatilidad instantánea es estocástica, pero sólo hay una fuente de aleatoriedad $$ \frac{dS_t}{S_t} = r(t) dt + \sigma_{Dup}(t,S_t) dW_t^S $$ este es un caso especial del modelo general con $$ d\sigma_t = (\partial_t \sigma_{Dup}(t,S_t) + r(t)S_t\partial_S\sigma_{Dup}(t,S_t) + \frac{1}{2}S_t^2\partial_S^2\sigma_{Dup}(t,S_t)) dt + \frac{1}{2}S_t\partial_S\sigma_{Dup}(t,S_t)^2 dW_t^S $$ Lo atractivo de este modelo es que la función $\sigma_{Dup}$ puede calibrarse perfectamente para que coincida con todos los precios de vainilla del mercado (y además con bastante facilidad). El problema es que, aunque está correlacionada con el contado, el estudio estadístico muestra que la volatilidad también tiene su propia fuente de aleatoriedad independiente de la del contado. Matemáticamente, esto significa que la correlación instantánea entre el contado y la volatilidad no es 1, al contrario de lo que ocurre en el modelo de volatilidad local. Esto puede verse de varias maneras: 1. La volatilidad implícita a plazo. La volatilidad implícita a plazo se deduce de los precios de las opciones de salida a plazo: ignorando los tipos de interés, $$ C(t,S;T\to T+\theta,K) := E^Q[(\frac{S_{T+\theta}}{S_{T}}-K)_+] =: C_{BS}(S=1,\theta,K;\Sigma(t,S;T\to T+\theta,K)) $$ Alternativamente, a veces se define como la expectativa de volatilidad implícita en una fecha futura. En un modelo LV, a medida que el vencimiento $T$ aumenta pero $\theta$ se mantiene constante, la sonrisa a plazo se hace más plana y más alta. Esto no es lo que observamos en los mercados, donde la sonrisa a plazo tiende a ser similar a la sonrisa actual. Esto se debe a que la sonrisa inicial con la que se calibra el modelo tiene un sesgo decreciente: $$ \partial_K \Sigma(0,S;T,K) \xarrow[T\to +\infty]{} 0 $$ 2. Rodamiento de la sonrisa. En un modelo LV, la sonrisa tiende a moverse en dirección opuesta a la mancha y a aumentar independientemente de la dirección de la mancha. Esto no es coherente con lo que se observa en los mercados. Véase Hagan y al. Managing Smile Risk para la derivación. Esto significa que $\partial_S \Sigma_{LV}(t,S;T,K)$ a menudo tiene el signo incorrecto por lo que su Delta será incorrecto lo que puede conducir a un error de cobertura mayor que usando BS. 3. Opciones barrera. En los mercados de divisas, las opciones barrera como Double No Touch son líquidas pero un modelo LV calibrado a precios vainilla no reproduce estos precios. Esto es consecuencia del punto anterior. El modelo LV es un modelo estático. Toda su dinámica proviene de la superficie de volatilidad en el momento 0. Pero la superficie de volatilidad tiene una dinámica más rica que eso. Existen alternativas que utilizan múltiples factores como los modelos SV, los modelos LSV (vol local paramétrica como SABR o vol local totalmente no paramétrica), modelos de la dinámica conjunta de la superficie spot y vol, etc... pero el modelo LV sigue siendo el modelo por defecto en muchos casos debido a su simplicidad, su capacidad para calibrar perfectamente la sonrisa inicial y su eficiencia numérica.
Dans le modèle de volatilité locale de Dupire, la volatilité est une fonction déterministe du prix du sous-jacent et du temps, choisie pour correspondre aux prix observés des options européennes. Plus précisément, étant donné une surface lisse $(K,T)\mapsto C(K,T)$ où K est le prix d'exercice et T le temps à courir jusqu'à l'échéance. L'équation de Dupire implique qu'il existe une fonction continue unique $\sigma_{loc}$ définie par $$\sigma_{loc}^{2}(K,T)=\frac{\partial_{T}C(K,T)+rK\partial_{K}C(K,T)}{\frac{1}{2}K^{2}\partial_{KK}C(K,T)}$$ for all $(K,T)\in(0,\infty)\times(0, Que signifie la dynamique de la volatilité locale ? La dynamique est-elle équivalente à la surface de volatilité ? Pourquoi la dynamique du modèle de volatilité locale est-elle hautement irréaliste ?
Un modèle général (avec des chemins continus) peut être écrit $$ \frac{dS_t}{S_t} = r_t dt + \sigma_t dW_t^S $$ où le taux court $r_t$ et la volatilité au comptant $\sigma_t$ sont des processus stochastiques. Dans le modèle de Black-Scholes, $r$ et $\sigma$ sont des fonctions déterministes du temps (même constantes dans le modèle original). Cela produit un smile plat pour toute échéance $T$. Et nous avons la formule fermée pour les prix des options $$ C(t,S;T,K) = BS(S,T-t,K;\Sigma(T,K)) $$ où $BS$ est la formule BS et $\Sigma(T,K) = \sqrt{\frac{1}{T-t}\int_t^T \sigma(s)^2 ds}$. Cela ne correspond pas au sourire observé sur le marché. Pour faire correspondre les prix du marché, il faut utiliser une volatilité différente pour chaque échéance et chaque prix d'exercice. Il s'agit de la surface de volatilité implicite $(T,K) \mapsto \Sigma(T,K)$. Dans le modèle de volatilité locale, les taux sont déterministes, la volatilité instantanée est stochastique mais il n'y a qu'une seule source d'aléa $$ \frac{dS_t}{S_t} = r(t) dt + \sigma_{Dup}(t,S_t) dW_t^S $$ il s'agit d'un cas particulier du modèle général avec $$ d\sigma_t = (\partial_t \sigma_{Dup}(t,S_t) + r(t)S_t\partial_S\sigma_{Dup}(t,S_t) + \frac{1}{2}S_t^2\partial_S^2\sigma_{Dup}(t,S_t)) dt + \frac{1}{2}S_t\partial_S\sigma_{Dup}(t,S_t)^2 dW_t^S $$ Ce qui est intéressant dans ce modèle, c'est que la fonction $\sigma_{Dup}$ peut être parfaitement calibrée pour correspondre à tous les prix de la vanille sur le marché (et assez facilement d'ailleurs). Le problème est que, tout en étant corrélée au prix au comptant, l'étude statistique montre que la volatilité a également sa propre source d'aléa, indépendante de celle du prix au comptant. Mathématiquement, cela signifie que la corrélation instantanée entre le spot et la volatilité n'est pas égale à 1, contrairement à ce qui se passe dans le modèle de volatilité locale. Cela peut se voir de plusieurs manières : 1. Le smile à terme. La volatilité implicite à terme est implicite à partir des prix des options de départ à terme : en ignorant les taux d'intérêt, $$ C(t,S;T\à T+\theta,K) := E^Q[(\frac{S_{T+\theta}}{S_{T}}-K)_+] = : C_{BS}(S=1,\Ntheta,K;\NSigma(t,S;T\Nà T+\Ntheta,K)) $$ Elle est aussi parfois définie comme l'espérance de la volatilité implicite à une date future. Dans un modèle LV, lorsque l'échéance $T$ augmente mais que $\theta$ reste constant, le smile à terme devient plus plat et plus élevé. Ce n'est pas ce que nous observons sur les marchés, où le smile à terme tend à être similaire au smile actuel. Cela s'explique par le fait que le smile initial sur lequel vous calibrez le modèle présente une asymétrie décroissante : $$ \partial_K \Sigma(0,S;T,K) \xrightarrow[T\to +\infty]{} 0 $$ 2. Roulement du sourire. Dans un modèle LV, le sourire a tendance à se déplacer dans la direction opposée au spot et à s'élever indépendamment de la direction du spot. Cela ne correspond pas à ce qui est observé sur les marchés. Voir Hagan et al. Managing Smile Risk pour la dérivation. Cela signifie que $\partial_S \Sigma_{LV}(t,S;T,K)$ a souvent le mauvais signe, de sorte que votre Delta sera erroné, ce qui peut conduire à une erreur de couverture plus importante qu'en utilisant BS. 3. Les options à barrière. Sur les marchés des changes, les options à barrière telles que Double No Touch sont liquides, mais un modèle LV calibré sur les prix vanille ne reproduit pas ces prix. C'est une conséquence du point précédent. Le modèle LV est un modèle statique. Toute sa dynamique provient de la surface de volatilité au temps 0. Mais la surface de volatilité a une dynamique plus riche que cela. Il existe des alternatives utilisant plusieurs facteurs comme les modèles SV, les modèles LSV (vol local paramétrique comme SABR ou vol local entièrement non paramétrique), les modèles de la dynamique conjointe de la surface spot et vol etc... mais le modèle LV reste le modèle par défaut dans de nombreux cas en raison de sa simplicité, de sa capacité à calibrer parfaitement le sourire initial et de son efficacité numérique.
Nel modello di volatilità locale di Dupire, la volatilità è una funzione deterministica del prezzo del sottostante e del tempo, scelta per corrispondere ai prezzi delle opzioni europee osservati. Più precisamente, data una superficie liscia $(K,T)\mapsto C(K,T)$ dove K è lo strike e T è il tempo alla scadenza. L'equazione di Dupire implica l'esistenza di un'unica funzione continua $$\sigma_{loc}$ definita da $$\sigma_{loc}^{2}(K,T)=\frac{\partial_{T}C(K,T)+rK\partial_{K}C(K,T)}{\frac{1}{2}K^{2}\partial_{KK}C(K,T)}$$ for all $(K,T)\in(0,\infty)\times(0,\infty)$ tale che la soluzione dell'equazione differenziale stocastica $dS_{t}/S_{t}=rdt+\sigma(t,S_{t})dW_{t}$$ genera esattamente i prezzi delle opzioni call europee. Cosa significano le dinamiche della volatilità locale? La dinamica è equivalente alla superficie di volatilità? Perché la dinamica del modello di volatilità locale è altamente irrealistica?
Un modello generale (con percorsi continui) può essere scritto $$ \frac{dS_t}{S_t} = r_t dt + \sigma_t dW_t^S $$ dove il tasso a breve $r_t$ e la volatilità spot $\sigma_t$ sono processi stocastici. Nel modello di Black-Scholes sia $r$ che $sigma$ sono funzioni deterministiche del tempo (addirittura costanti nel modello originale). Questo produce un sorriso piatto per qualsiasi scadenza $T$. E abbiamo la formula in forma chiusa per i prezzi delle opzioni $$ C(t,S;T,K) = BS(S,T-t,K;\Sigma(T,K)) $$ dove $BS$ è la formula BS e $\Sigma(T,K) = \sqrt{\frac{1}{T-t}\int_t^T \sigma(s)^2 ds}$. Questo non è coerente con lo smile osservato sul mercato. Per far coincidere i prezzi di mercato, è necessario utilizzare una volatilità diversa per ogni scadenza e strike. Questa è la superficie di volatilità implicita $(T,K) \mapsto \Sigma(T,K)$. Nel modello di volatilità locale, i tassi sono deterministici, la volatilità istantanea è stocastica ma c'è una sola fonte di casualità $$ \frac{dS_t}{S_t} = r(t) dt + \sigma_{Dup}(t,S_t) dW_t^S $$ questo è un caso speciale del modello generale con $$ d\sigma_t = (\partial_t \sigma_{Dup}(t,S_t) + r(t)S\partial_S\sigma_{Dup}(t,S_t) + \frac{1}{2}S_t^2partial_S^2\sigma_{Dup}(t,S_t)) dt + \frac{1}{2}S_tpartial_S\sigma_{Dup}(t,S_t)^2 dW_t^S $$ L'aspetto interessante di questo modello è che la funzione $sigma_{Dup}$ può essere perfettamente calibrata per corrispondere a tutti i prezzi di mercato della vaniglia (e anche abbastanza facilmente). Il problema è che, pur essendo correlata allo spot, gli studi statistici dimostrano che la volatilità ha anche una propria fonte di casualità indipendente da quella dello spot. Matematicamente, ciò significa che la correlazione istantanea tra spot e vol non è pari a 1, contrariamente a quanto accade nel modello di volatilità locale. Questo può essere visto in diversi modi: 1. Il forward smile. La volatilità implicita a termine è data dai prezzi delle opzioni a termine: ignorando i tassi di interesse, $$ C(t,S;T\a T+theta,K) := E^Q[(\frac{S_{T+\theta}}{S_{T}}-K)_+] =: C_{BS}(S=1,\theta,K;\Sigma(t,S;T\a a T+theta,K)) $$ In alternativa, viene talvolta definita come l'aspettativa della volatilità implicita a una data forward. In un modello LV, all'aumentare della scadenza $T$ ma mantenendo costante l'$teta$, il forward smile diventa più piatto e più alto. Questo non è ciò che osserviamo nei mercati, dove lo smile forward tende ad essere simile allo smile corrente. Ciò è dovuto al fatto che lo smile iniziale con cui si calibra il modello ha uno skew decrescente: $$ \partial_K \Sigma(0,S;T,K) \xrightarrow[T\to +\infty]{} 0 $$ 2. Rotolamento del sorriso. In un modello LV, il sorriso tende a muoversi in direzione opposta allo spot e ad aumentare indipendentemente dalla direzione dello spot. Questo non è coerente con quanto osservato sui mercati. Si veda Hagan e al. Managing Smile Risk per la derivazione. Ciò significa che $partial_S \Sigma_{LV}(t,S;T,K)$ ha spesso il segno sbagliato e quindi il vostro Delta sarà sbagliato, il che può portare a un errore di copertura maggiore rispetto all'utilizzo del BS. 3. Opzioni barriera. Nei mercati FX, le opzioni barriera come le Double No Touch sono liquide, ma un modello LV calibrato sui prezzi vanilla non riproduce questi prezzi. Questa è una conseguenza del punto precedente. Il modello LV è un modello statico. Tutta la sua dinamica deriva dalla superficie di volatilità al tempo 0. Ma la superficie di volatilità ha una dinamica più ricca di quella. Esistono alternative che utilizzano fattori multipli come modelli SV, modelli LSV (parametrici local vol come SABR o completamente non parametrici local vol), modelli della dinamica congiunta della superficie spot e vol ecc... ma il modello LV rimane il modello predefinito in molti casi grazie alla sua semplicità, alla sua capacità di calibrare perfettamente lo smile iniziale e alla sua efficienza numerica.
167
Can you explain why we need a large number of trees in random forest when the number of predictors is large? How can we determine the optimal number of trees?
Random forest uses bagging (picking a sample of observations rather than all of them) and random subspace method (picking a sample of features rather than all of them, in other words - attribute bagging) to grow a tree. If the number of observations is large, but the number of trees is too small, then some observations will be predicted only once or even not at all. If the number of predictors is large but the number of trees is too small, then some features can (theoretically) be missed in all subspaces used. Both cases results in the decrease of random forest predictive power. But the last is a rather extreme case, since the selection of subspace is performed at each node. During classification the subspace dimensionality is $\sqrt{p}$ (rather small, $p$ is the total number of predictors) by default, but a tree contains many nodes. During regression the subspace dimensionality is $p/3$ (large enough) by default, though a tree contains fewer nodes. So the optimal number of trees in a random forest depends on the number of predictors only in extreme cases. The official page of the algorithm states that random forest does not overfit, and you can use as much trees as you want. But Mark R. Segal (April 14 2004. "Machine Learning Benchmarks and Random Forest Regression." Center for Bioinformatics & Molecular Biostatistics) has found that it overfits for some noisy datasets. So to obtain optimal number you can try training random forest at a grid of ```ntree``` parameter (simple, but more CPU-consuming) or build one random forest with many trees with ```keep.inbag```, calculate out-of-bag (OOB) error rates for first $n$ trees (where $n$ changes from $1$ to ```ntree```) and plot OOB error rate vs. number of trees (more complex, but less CPU-consuming).
Können Sie erklären, warum wir beim Random Forest eine große Anzahl von Bäumen benötigen, wenn die Zahl der Prädiktoren groß ist? Wie können wir die optimale Anzahl von Bäumen bestimmen?
Random Forest verwendet Bagging (Auswahl einer Stichprobe von Beobachtungen und nicht aller Beobachtungen) und die Random-Subspace-Methode (Auswahl einer Stichprobe von Merkmalen und nicht aller Merkmale, mit anderen Worten - Attribute Bagging), um einen Baum zu erstellen. Wenn die Anzahl der Beobachtungen groß, die Anzahl der Bäume aber zu klein ist, werden einige Beobachtungen nur einmal oder gar nicht vorhergesagt. Wenn die Anzahl der Prädiktoren groß, die Anzahl der Bäume aber zu klein ist, können einige Merkmale (theoretisch) in allen verwendeten Unterräumen fehlen. In beiden Fällen nimmt die Vorhersagekraft des Random Forest ab. Der letzte Fall ist jedoch ein ziemlich extremer Fall, da die Auswahl des Unterraums an jedem Knoten erfolgt. Bei der Klassifikation ist die Dimensionalität des Unterraums standardmäßig $\sqrt{p}$ (ziemlich klein, $p$ ist die Gesamtzahl der Prädiktoren), aber ein Baum enthält viele Knoten. Bei der Regression ist die Dimensionalität des Unterraums standardmäßig $p/3$ (groß genug), aber ein Baum enthält weniger Knoten. Die optimale Anzahl von Bäumen in einem Random Forest hängt also nur im Extremfall von der Anzahl der Prädiktoren ab. Auf der offiziellen Seite des Algorithmus heißt es, dass Random Forest keine Überanpassung vornimmt und dass man so viele Bäume verwenden kann, wie man will. Aber Mark R. Segal (14. April 2004. "Machine Learning Benchmarks und Random Forest Regression". Center for Bioinformatics & Molecular Biostatistics) hat herausgefunden, dass es bei einigen verrauschten Datensätzen zu einer Überanpassung kommt. Um also die optimale Anzahl zu erhalten, kann man versuchen, den Random Forest mit einem Raster von ```ntree```-Parametern zu trainieren (einfach, aber CPU-lastiger) oder einen Random Forest mit vielen Bäumen mit ```keep.inbag``` zu erstellen, die Out-of-bag (OOB)-Fehlerraten für die ersten $n$ Bäume zu berechnen (wobei $n$ von $1$ auf ```ntree``` wechselt) und die OOB-Fehlerrate gegen die Anzahl der Bäume aufzutragen (komplexer, aber weniger CPU-lastig).
¿Puede explicar por qué necesitamos un gran número de árboles en un bosque aleatorio cuando el número de predictores es grande? ¿Cómo podemos determinar el número óptimo de árboles?
El bosque aleatorio utiliza el método de "bagging" (selección de una muestra de observaciones en lugar de todas ellas) y el método del subespacio aleatorio (selección de una muestra de características en lugar de todas ellas, es decir, "bagging" de atributos) para hacer crecer un árbol. Si el número de observaciones es elevado, pero el número de árboles es demasiado pequeño, algunas observaciones sólo se predecirán una vez o incluso ninguna. Si el número de predictores es grande, pero el número de árboles es demasiado pequeño, algunas características pueden (teóricamente) pasar desapercibidas en todos los subespacios utilizados. En ambos casos disminuye la capacidad de predicción del bosque aleatorio. Pero el último es un caso bastante extremo, ya que la selección del subespacio se realiza en cada nodo. Durante la clasificación, la dimensionalidad del subespacio es $\sqrt{p}$ (bastante pequeña, $p$ es el número total de predictores) por defecto, pero un árbol contiene muchos nodos. Durante la regresión, la dimensionalidad del subespacio es $p/3$ (suficientemente grande) por defecto, aunque un árbol contiene menos nodos. Así que el número óptimo de árboles en un bosque aleatorio depende del número de predictores sólo en casos extremos. En la página oficial del algoritmo se afirma que random forest no sobreajusta, y que se pueden utilizar tantos árboles como se desee. Pero Mark R. Segal (14 de abril de 2004. "Machine Learning Benchmarks and Random Forest Regression". Center for Bioinformatics & Molecular Biostatistics) ha descubierto que sobreajusta en algunos conjuntos de datos ruidosos. Así que para obtener el número óptimo puede intentar entrenar el bosque aleatorio en una cuadrícula del parámetro ```ntree`` (simple, pero consume más CPU) o construir un bosque aleatorio con muchos árboles con ```keep.inbag``, calcular las tasas de error fuera de la bolsa (OOB) para los primeros $n$ árboles (donde $n$ cambia de $1$ a ```ntree``) y trazar la tasa de error OOB frente al número de árboles (más complejo, pero consume menos CPU).
Pouvez-vous expliquer pourquoi nous avons besoin d'un grand nombre d'arbres dans une forêt aléatoire lorsque le nombre de prédicteurs est élevé ? Comment déterminer le nombre optimal d'arbres ?
La forêt aléatoire utilise l'échantillonnage (sélection d'un échantillon d'observations plutôt que de toutes) et la méthode du sous-espace aléatoire (sélection d'un échantillon de caractéristiques plutôt que de toutes, en d'autres termes, l'échantillonnage d'attributs) pour faire croître un arbre. Si le nombre d'observations est important, mais que le nombre d'arbres est trop faible, certaines observations ne seront prédites qu'une seule fois, voire pas du tout. Si le nombre de prédicteurs est élevé mais que le nombre d'arbres est trop petit, certaines caractéristiques peuvent (théoriquement) être omises dans tous les sous-espaces utilisés. Dans les deux cas, le pouvoir prédictif de la forêt aléatoire diminue. Mais le dernier cas est plutôt extrême, puisque la sélection du sous-espace est effectuée à chaque nœud. Lors de la classification, la dimension du sous-espace est $\sqrt{p}$ (plutôt petite, $p$ étant le nombre total de prédicteurs) par défaut, mais un arbre contient de nombreux nœuds. Lors de la régression, la dimension du sous-espace est $p/3$ (suffisamment grande) par défaut, bien qu'un arbre contienne moins de nœuds. Le nombre optimal d'arbres dans une forêt aléatoire ne dépend donc du nombre de prédicteurs que dans des cas extrêmes. La page officielle de l'algorithme indique que la forêt aléatoire ne s'adapte pas trop, et que vous pouvez utiliser autant d'arbres que vous le souhaitez. Mais Mark R. Segal (14 avril 2004). "Machine Learning Benchmarks and Random Forest Regression". Center for Bioinformatics & Molecular Biostatistics) a constaté que la forêt aléatoire s'adapte trop bien à certains ensembles de données bruyants. Ainsi, pour obtenir le nombre optimal, vous pouvez essayer d'entraîner la forêt aléatoire à une grille de paramètres ``ntree`` (simple, mais plus consommateur de CPU) ou construire une forêt aléatoire avec de nombreux arbres avec ``keep.inbag``, calculer les taux d'erreur hors du sac (OOB) pour les premiers $n$ arbres (où $n$ change de $1$ à ``ntree``) et tracer le taux d'erreur OOB en fonction du nombre d'arbres (plus complexe, mais moins consommateur de CPU).
Potete spiegare perché abbiamo bisogno di un numero elevato di alberi nella foresta casuale quando il numero di predittori è elevato? Come possiamo determinare il numero ottimale di alberi?
La foresta casuale utilizza il metodo del bagging (selezione di un campione di osservazioni piuttosto che di tutte) e il metodo del sottospazio casuale (selezione di un campione di caratteristiche piuttosto che di tutte, in altre parole - bagging degli attributi) per far crescere un albero. Se il numero di osservazioni è grande, ma il numero di alberi è troppo piccolo, alcune osservazioni saranno predette solo una volta o addirittura per niente. Se il numero di predittori è grande, ma il numero di alberi è troppo piccolo, alcune caratteristiche possono (teoricamente) essere ignorate in tutti i sottospazi utilizzati. In entrambi i casi, la potenza predittiva della foresta casuale diminuisce. L'ultimo caso è piuttosto estremo, poiché la selezione del sottospazio viene effettuata a ogni nodo. Durante la classificazione, la dimensionalità del sottospazio è di $sqrt{p}$ (piuttosto piccola, $p$ è il numero totale di predittori) per impostazione predefinita, ma un albero contiene molti nodi. Durante la regressione, la dimensionalità del sottospazio è $p/3$ (abbastanza grande) per impostazione predefinita, ma un albero contiene meno nodi. Quindi il numero ottimale di alberi in una foresta casuale dipende dal numero di predittori solo in casi estremi. La pagina ufficiale dell'algoritmo afferma che la foresta casuale non si adatta in modo eccessivo e che si possono usare tutti gli alberi che si vogliono. Ma Mark R. Segal (14 aprile 2004. "Benchmark di apprendimento automatico e regressione Random Forest". Center for Bioinformatics & Molecular Biostatistics) ha scoperto che si adatta troppo ad alcuni set di dati rumorosi. Quindi, per ottenere il numero ottimale, si può provare ad addestrare la foresta casuale con una griglia di parametri ```ntree``` (semplice, ma che richiede più CPU) o costruire una foresta casuale con molti alberi con ```keep.inbag``, calcolare i tassi di errore out-of-bag (OOB) per i primi $n$ alberi (dove $n$ cambia da $1$ a ``ntree``) e tracciare il tasso di errore OOB rispetto al numero di alberi (più complesso, ma che richiede meno CPU).
168
I believe artificial intelligence (AI) term is overused nowadays. For example, people see that something is self-moving and they call it AI, even if it's on autopilot (like cars or planes) or there is some simple algorithm behind it. What are the minimum general requirements so that we can say something is AI?
It's true that the term has become a buzzword, and is now widely used to a point of confusion - however if you look at the definition provided by Stuart Russell and Peter Norvig, they write it as follows: > We define AI as the study of agents that receive percepts from the environment and perform actions. Each such agent implements a function that maps percept sequences to actions, and we cover different ways to represent these functions, such as reactive agents, real-time planners, and decision-theoretic systems. We explain the role of learning as extending the reach of the designer into unknown environments, and we show how that role constrains agent design, favoring explicit knowledge representation and reasoning. Artificial Intelligence: A Modern Approach - Stuart Russell and Peter Norvig So the example you cite, "autopilot for cars/planes", is actually a (famous) form of AI as it has to use a form of knowledge representation to deal with unknown environments and circumstances. Ultimately, these systems also collect data so that the knowledge representation can be updated to deal with the new inputs that they have found. They do this with autopilot for cars all the time To answer your question, for something to be considered as "having AI", it needs to be able to deal with unknown environments/circumstances in order to achieve its objective/goal, and render knowledge in a manner that provides for new learning/information to be added easily. There are many different types of well defined knowledge representation methods, ranging from the popular neural net, through to probabilistic models like bayesian networks (belief networks) - but fundamentally actions by the system must be derived from whichever representation of knowledge you choose for it to be considered as AI.
Ich glaube, dass der Begriff der künstlichen Intelligenz (KI) heutzutage überstrapaziert wird. Die Leute sehen zum Beispiel, dass sich etwas selbst bewegt, und nennen es KI, auch wenn es auf Autopilot läuft (wie Autos oder Flugzeuge) oder ein einfacher Algorithmus dahinter steckt. Was sind die allgemeinen Mindestanforderungen, damit wir sagen können, dass etwas KI ist?
Es stimmt, dass der Begriff zu einem Modewort geworden ist und mittlerweile so häufig verwendet wird, dass er verwirrend ist. Wenn man sich jedoch die Definition von Stuart Russell und Peter Norvig ansieht, lautet sie wie folgt: > Wir definieren KI als das Studium von Agenten, die Wahrnehmungen aus der Umwelt aufnehmen und Handlungen ausführen. Jeder dieser Agenten implementiert eine Funktion, die Wahrnehmungssequenzen auf Handlungen abbildet, und wir behandeln verschiedene Möglichkeiten, diese Funktionen darzustellen, wie z. B. reaktive Agenten, Echtzeitplaner und entscheidungstheoretische Systeme. Wir erklären die Rolle des Lernens als Erweiterung der Reichweite des Designers in unbekannte Umgebungen und zeigen, wie diese Rolle das Design von Agenten einschränkt, indem sie explizite Wissensrepräsentation und Schlussfolgerungen bevorzugt. Künstliche Intelligenz: Eine moderne Herangehensweise - Stuart Russell und Peter Norvig Das von Ihnen angeführte Beispiel "Autopilot für Autos/Flugzeuge" ist also eigentlich eine (berühmte) Form der KI, da sie eine Form der Wissensrepräsentation verwenden muss, um mit unbekannten Umgebungen und Umständen umgehen zu können. Letztendlich sammeln diese Systeme auch Daten, damit die Wissensrepräsentation aktualisiert werden kann, um mit den neuen Eingaben, die sie gefunden haben, umzugehen. Bei Autopiloten für Autos wird dies ständig gemacht. Um Ihre Frage zu beantworten: Damit etwas als "mit KI" bezeichnet werden kann, muss es in der Lage sein, mit unbekannten Umgebungen/Umständen umzugehen, um sein Ziel zu erreichen, und Wissen auf eine Art und Weise wiederzugeben, die es ermöglicht, neue Erkenntnisse/Informationen leicht hinzuzufügen. Es gibt viele verschiedene Arten von gut definierten Wissensrepräsentationsmethoden, vom beliebten neuronalen Netz bis hin zu probabilistischen Modellen wie Bayes'schen Netzen (Glaubensnetze) - aber grundsätzlich müssen die Aktionen des Systems von der gewählten Wissensrepräsentation abgeleitet werden, damit es als KI betrachtet werden kann.
Creo que el término inteligencia artificial (IA) se utiliza demasiado hoy en día. Por ejemplo, la gente ve que algo se mueve por sí mismo y lo llama IA, aunque esté en piloto automático (como los coches o los aviones) o haya algún algoritmo simple detrás. ¿Cuáles son los requisitos generales mínimos para que podamos decir que algo es IA?
Es cierto que el término se ha convertido en una palabra de moda, y ahora se utiliza mucho hasta el punto de confundir, pero si nos fijamos en la definición que dan Stuart Russell y Peter Norvig, la escriben así: > Definimos la IA como el estudio de agentes que reciben percepciones del entorno y realizan acciones. Cada agente implementa una función que asigna secuencias de percepción a acciones, y cubrimos diferentes formas de representar estas funciones, como agentes reactivos, planificadores en tiempo real y sistemas teóricos de decisión. Explicamos el papel del aprendizaje como extensión del alcance del diseñador a entornos desconocidos, y mostramos cómo ese papel limita el diseño de agentes, favoreciendo la representación explícita del conocimiento y el razonamiento. Inteligencia artificial: Un enfoque moderno - Stuart Russell y Peter Norvig Así que el ejemplo que cita, "piloto automático para coches/aviones", es en realidad una forma (famosa) de IA, ya que tiene que utilizar una forma de representación del conocimiento para enfrentarse a entornos y circunstancias desconocidos. En última instancia, estos sistemas también recopilan datos para que la representación del conocimiento pueda actualizarse y hacer frente a las nuevas entradas que han encontrado. Esto es lo que se hace con el piloto automático de los coches. Para responder a tu pregunta, para que se considere que algo "tiene IA", tiene que ser capaz de enfrentarse a entornos/circunstancias desconocidos para lograr su objetivo/meta, y representar el conocimiento de una manera que permita añadir fácilmente nuevos aprendizajes/informaciones. Hay muchos tipos diferentes de métodos de representación del conocimiento bien definidos, desde la popular red neuronal hasta modelos probabilísticos como las redes bayesianas (redes de creencias), pero fundamentalmente las acciones del sistema deben derivarse de cualquier representación del conocimiento que se elija para que se considere IA.
Je pense que le terme d'intelligence artificielle (IA) est surutilisé de nos jours. Par exemple, les gens voient que quelque chose se déplace tout seul et ils l'appellent IA, même si c'est en autopilote (comme les voitures ou les avions) ou s'il y a un simple algorithme derrière. Quelles sont les exigences générales minimales pour que l'on puisse dire que quelque chose est une IA ?
Il est vrai que le terme est devenu un mot à la mode et qu'il est maintenant largement utilisé au point de prêter à confusion. Toutefois, si l'on examine la définition fournie par Stuart Russell et Peter Norvig, on constate qu'elle est la suivante : > Nous définissons l'IA comme l'étude des agents qui reçoivent des percepts de l'environnement et effectuent des actions. Chacun de ces agents met en œuvre une fonction qui associe des séquences de percepts à des actions, et nous abordons différentes manières de représenter ces fonctions, telles que les agents réactifs, les planificateurs en temps réel et les systèmes de théorie de la décision. Nous expliquons le rôle de l'apprentissage en tant qu'extension de la portée du concepteur dans des environnements inconnus, et nous montrons comment ce rôle contraint la conception des agents, en favorisant la représentation explicite des connaissances et le raisonnement. Intelligence artificielle : Une approche moderne - Stuart Russell et Peter Norvig Ainsi, l'exemple que vous citez, le "pilote automatique pour les voitures/avions", est en fait une forme (célèbre) d'IA car il doit utiliser une forme de représentation des connaissances pour faire face à des environnements et des circonstances inconnus. En fin de compte, ces systèmes collectent également des données afin que la représentation des connaissances puisse être mise à jour pour traiter les nouvelles données qu'ils ont trouvées. C'est ce que l'on fait en permanence avec le pilote automatique des voitures Pour répondre à votre question, pour qu'un système soit considéré comme "doté d'une IA", il doit être capable de faire face à des environnements/circonstances inconnus afin d'atteindre son objectif/but, et de restituer les connaissances d'une manière qui permette d'ajouter facilement de nouveaux apprentissages/informations. Il existe de nombreux types de méthodes de représentation des connaissances bien définies, allant du populaire réseau neuronal aux modèles probabilistes tels que les réseaux bayésiens (réseaux de croyance), mais les actions du système doivent fondamentalement être dérivées de la représentation des connaissances choisie, quelle qu'elle soit, pour être considérées comme de l'IA.
Credo che il termine intelligenza artificiale (AI) sia oggi abusato. Per esempio, le persone vedono che qualcosa si muove da solo e lo chiamano IA, anche se è con il pilota automatico (come le auto o gli aerei) o se dietro c'è un semplice algoritmo. Quali sono i requisiti minimi generali per poter dire che qualcosa è AI?
È vero che il termine è diventato una parola d'ordine ed è ormai ampiamente utilizzato fino a creare confusione, ma se si guarda alla definizione fornita da Stuart Russell e Peter Norvig, la si legge come segue: > Definiamo l'IA come lo studio di agenti che ricevono percezioni dall'ambiente ed eseguono azioni. Ogni agente di questo tipo implementa una funzione che mappa le sequenze di percezioni in azioni, e trattiamo diversi modi di rappresentare queste funzioni, come agenti reattivi, pianificatori in tempo reale e sistemi teorici decisionali. Spieghiamo il ruolo dell'apprendimento come estensione del raggio d'azione del progettista in ambienti sconosciuti e mostriamo come questo ruolo vincoli la progettazione degli agenti, favorendo la rappresentazione esplicita della conoscenza e il ragionamento. Intelligenza artificiale: Un approccio moderno - Stuart Russell e Peter Norvig Quindi l'esempio che lei cita, il "pilota automatico per auto/aerei", è in realtà una (famosa) forma di IA, in quanto deve utilizzare una forma di rappresentazione della conoscenza per affrontare ambienti e circostanze sconosciuti. In definitiva, questi sistemi raccolgono anche dati in modo che la rappresentazione della conoscenza possa essere aggiornata per gestire i nuovi input che hanno trovato. Lo fanno continuamente con il pilota automatico delle auto. Per rispondere alla tua domanda, perché qualcosa possa essere considerato "dotato di IA", deve essere in grado di affrontare ambienti/circostanze sconosciute per raggiungere il proprio obiettivo e di rappresentare la conoscenza in un modo che consenta di aggiungere facilmente nuovi apprendimenti/informazioni. Esistono molti tipi diversi di metodi di rappresentazione della conoscenza ben definiti, che vanno dalla popolare rete neurale a modelli probabilistici come le reti bayesiane (reti di credenze), ma fondamentalmente le azioni del sistema devono derivare da qualsiasi rappresentazione della conoscenza si scelga per essere considerate IA.
169
I have some questions regarding the usage and significance of the ```synchronized``` keyword. * What is the significance of the ```synchronized``` keyword? * When should methods be ```synchronized```? * What does it mean programmatically and logically?
The ```synchronized``` keyword is all about different threads reading and writing to the same variables, objects and resources. This is not a trivial topic in Java, but here is a quote from Sun: > ```synchronized``` methods enable a simple strategy for preventing thread interference and memory consistency errors: if an object is visible to more than one thread, all reads or writes to that object's variables are done through synchronized methods. In a very, very small nutshell: When you have two threads that are reading and writing to the same 'resource', say a variable named ```foo```, you need to ensure that these threads access the variable in an atomic way. Without the ```synchronized``` keyword, your thread 1 may not see the change thread 2 made to ```foo```, or worse, it may only be half changed. This would not be what you logically expect. Again, this is a non-trivial topic in Java. To learn more, explore topics about: * Concurrency * Java Memory Model Keep exploring these topics until the name "Brian Goetz" becomes permanently associated with the term "concurrency" in your brain.
Ich habe einige Fragen bezüglich der Verwendung und Bedeutung des Schlüsselwortes ``Synchronized```. * Was ist die Bedeutung des Schlüsselwortes ``Synchronized``? * Wann sollten Methoden "synchronisiert" werden? * Was bedeutet es programmatisch und logisch?
Bei dem Schlüsselwort ``Synchronized`` geht es darum, dass verschiedene Threads dieselben Variablen, Objekte und Ressourcen lesen und schreiben. Dies ist kein triviales Thema in Java, aber hier ist ein Zitat von Sun: > ```Synchronized``-Methoden ermöglichen eine einfache Strategie zur Vermeidung von Thread-Interferenzen und Speicherkonsistenzfehlern: Wenn ein Objekt für mehr als einen Thread sichtbar ist, werden alle Lese- oder Schreibvorgänge auf die Variablen dieses Objekts über synchronisierte Methoden durchgeführt. In einer sehr, sehr kleinen Nussschale: Wenn Sie zwei Threads haben, die die gleiche "Ressource" lesen und schreiben, z.B. eine Variable mit dem Namen ```foo``, müssen Sie sicherstellen, dass diese Threads auf die Variable auf atomare Weise zugreifen. Ohne das Schlüsselwort ``Synchronized`` sieht Thread 1 möglicherweise nicht die Änderung, die Thread 2 an ``foo`` vorgenommen hat, oder schlimmer noch, sie wird nur halb geändert. Das wäre nicht das, was Sie logischerweise erwarten. Auch hier handelt es sich um ein nicht-triviales Thema in Java. Um mehr zu erfahren, lesen Sie die Themen über: * Gleichzeitigkeit * Java-Speicher-Modell Erforschen Sie diese Themen so lange, bis der Name "Brian Goetz" dauerhaft mit dem Begriff "Gleichzeitigkeit" in Ihrem Gehirn verbunden ist.
Tengo algunas preguntas sobre el uso y significado de la palabra clave ``synchronized``. * ¿Cuál es el significado de la palabra clave ``synchronized``? * ¿Cuándo se deben sincronizar los métodos? * ¿Qué significa programática y lógicamente?
La palabra clave ``synchronized`` se refiere a diferentes hilos leyendo y escribiendo en las mismas variables, objetos y recursos. Esto no es un tema trivial en Java, pero aquí está una cita de Sun: > Los métodos ``synchronized`` permiten una estrategia simple para prevenir interferencias entre hilos y errores de consistencia de memoria: si un objeto es visible para más de un hilo, todas las lecturas o escrituras en las variables de ese objeto se hacen a través de métodos sincronizados. En pocas palabras: Cuando tienes dos hilos que están leyendo y escribiendo en el mismo "recurso", digamos una variable llamada ```foo``, necesitas asegurarte de que estos hilos acceden a la variable de forma atómica. Sin la palabra clave ``synchronized``, puede que tu hebra 1 no vea el cambio que la hebra 2 ha hecho en ```foo``, o peor, puede que sólo haya cambiado la mitad. Esto no sería lo que lógicamente esperarías. De nuevo, este es un tema no trivial en Java. Para aprender más, explora los temas sobre: * Concurrencia * Modelo de memoria de Java Siga explorando estos temas hasta que el nombre "Brian Goetz" se asocie permanentemente con el término "concurrencia" en su cerebro.
J'ai quelques questions concernant l'utilisation et la signification du mot-clé "synchronisé". * Quelle est la signification du mot-clé ``synchronized`` ? * Quand les méthodes doivent-elles être "synchronisées" ? * Qu'est-ce que cela signifie d'un point de vue programmatique et logique ?
Le mot-clé ``synchronized`` (synchronisé) concerne les différents threads qui lisent et écrivent sur les mêmes variables, objets et ressources. Ce n'est pas un sujet trivial en Java, mais voici une citation de Sun : > Les méthodes ``synchronisées'' permettent une stratégie simple pour prévenir les interférences entre les threads et les erreurs de cohérence de la mémoire : si un objet est visible par plus d'un thread, toutes les lectures ou écritures sur les variables de cet objet sont effectuées par des méthodes synchronisées. En un mot comme en cent : Lorsque vous avez deux threads qui lisent et écrivent sur la même "ressource", disons une variable nommée ``foo``, vous devez vous assurer que ces threads accèdent à la variable de manière atomique. Sans le mot-clé ``synchronized``, votre thread 1 pourrait ne pas voir le changement que le thread 2 a fait à ``foo``, ou pire, il pourrait n'être modifié qu'à moitié. Ce n'est pas ce que vous attendez logiquement. Encore une fois, il s'agit d'un sujet non trivial en Java. Pour en savoir plus, explorez les sujets sur : * Concurrence * Modèle de mémoire Java Continuez à explorer ces sujets jusqu'à ce que le nom "Brian Goetz" soit associé de façon permanente au terme "concurrence" dans votre cerveau.
Ho alcune domande sull'uso e sul significato della parola chiave ``synchronized``. * Qual è il significato della parola chiave ``synchronized``? * Quando i metodi dovrebbero essere ``sincronizzati''? * Cosa significa a livello programmatico e logico?
La parola chiave ``sincronizzato'' riguarda la lettura e la scrittura da parte di thread diversi delle stesse variabili, oggetti e risorse. Questo non è un argomento banale in Java, ma ecco una citazione di Sun: > I metodi ``sincronizzati'' consentono una semplice strategia per prevenire le interferenze tra i thread e gli errori di coerenza della memoria: se un oggetto è visibile a più di un thread, tutte le letture o le scritture delle variabili di quell'oggetto vengono effettuate con metodi sincronizzati. In poche parole: Quando si hanno due thread che leggono e scrivono sulla stessa "risorsa", per esempio una variabile di nome ``foo``, è necessario assicurarsi che questi thread accedano alla variabile in modo atomico. Senza la parola chiave ``synchronized``, il thread 1 potrebbe non vedere la modifica apportata dal thread 2 a ```foo``, o peggio, potrebbe essere modificata solo a metà. Questo non è quello che ci si aspetta logicamente. Anche in questo caso, si tratta di un argomento non banale in Java. Per saperne di più, esplorate gli argomenti su: * Concorrenza * Modello di memoria Java Continuate a esplorare questi argomenti finché il nome "Brian Goetz" non sarà associato in modo permanente al termine "concurrency" nel vostro cervello.
170
I am using the ```$http``` service of AngularJS to make an Ajax request. How can a spinner GIF (or another type of busy indicator) be shown while the Ajax request is executing?
This really depends on your specific use case, but a simple way would follow a pattern like this: ``` .controller('MainCtrl', function ( $scope, myService ) { $scope.loading = true; myService.get().then( function ( response ) { $scope.items = response.data; }, function ( response ) { // TODO: handle the error somehow }).finally(function() { // called no matter success or failure $scope.loading = false; }); }); ``` And then react to it in your template: ``` <div class="spinner" ng-show="loading"></div> <div ng-repeat="item in items>{{item.name}}</div> ```
Ich verwende den ``$http``-Dienst von AngularJS, um eine Ajax-Anfrage zu stellen. Wie kann ein Spinner-GIF (oder eine andere Art von Beschäftigungsanzeige) angezeigt werden, während die Ajax-Anfrage ausgeführt wird?
Das hängt wirklich von Ihrem speziellen Anwendungsfall ab, aber ein einfacher Weg wäre, einem Muster wie diesem zu folgen: ``` .controller('MainCtrl', function ( $scope, myService ) { $scope.loading = true; myService.get().then( function ( response ) { $scope.items = response.data; }, function ( response ) { // TODO: den Fehler irgendwie behandeln }).finally(function() { // Aufruf unabhängig von Erfolg oder Misserfolg $scope.loading = false; }); }); ``` Und dann reagieren Sie in Ihrer Vorlage darauf: ``` <div class="spinner" ng-show="loading"></div> <div ng-repeat="item in items>{{item.name}}</div> ```
Estoy usando el servicio ```$http`` de AngularJS para hacer una petición Ajax. Cómo se puede mostrar un GIF spinner (u otro tipo de indicador de ocupado) mientras se ejecuta la petición Ajax?
Esto realmente depende de su caso de uso específico, pero una forma sencilla seguiría un patrón como este: ``` .controller('MainCtrl', function ( $scope, myService ) { $scope.loading = true; myService.get().then( function ( response ) { $scope.items = response.data; }, function ( response ) { // TODO: manejar el error de alguna manera }).finally(function() { // llamada sin importar éxito o fracaso $scope.loading = false; }); }); ``` Y luego reaccionar a ella en su plantilla: ``` <div class="spinner" ng-show="loading"></div> <div ng-repeat="item en items>{{item.name}}</div> ```
J'utilise le service ``$http`` d'AngularJS pour effectuer une requête Ajax. Comment afficher un spinner GIF (ou un autre type d'indicateur d'activité) pendant l'exécution de la requête Ajax ?
Cela dépend vraiment de votre cas d'utilisation spécifique, mais une méthode simple consisterait à suivre un modèle comme celui-ci : ``` .controller('MainCtrl', function ( $scope, myService ) { $scope.loading = true ; myService.get().then( function ( response ) { $scope.items = response.data ; }, function ( response ) { // TODO : gérer l'erreur d'une manière ou d'une autre }).finally(function() { // appelée quel que soit le succès ou l'échec $scope.loading = false ; }) ; }) ; ``` Et ensuite, réagissez-y dans votre modèle : ``` <div class="spinner" ng-show="loading"></div> <div ng-repeat="item in items>{{item.name}}</div> ```
Sto usando il servizio ```$http`` di AngularJS per fare una richiesta Ajax. Come si può mostrare una GIF a scorrimento (o un altro tipo di indicatore di attività) mentre la richiesta Ajax è in esecuzione?
Questo dipende dal caso d'uso specifico, ma un modo semplice potrebbe seguire uno schema come questo: ``` .controller('MainCtrl', function ( $scope, myService ) { $scope.loading = true; myService.get().then( function ( response ) { $scope.items = response.data; }, function ( response ) { // TODO: gestire l'errore in qualche modo }).finally(function() { // chiamato indipendentemente dal successo o dal fallimento $scope.loading = false; }); }); ``` E poi reagire ad esso nel template: ``` <div class="spinner" ng-show="loading"></div> <div ng-repeat="item in items>{{item.name}}</div> ```
171
Let's say that we have a gaseous or liquidus compound (I don't know if elements or compounds make a difference, take this as a thought experiment), and we have a tungsten or steel block that's 5cm (or less, you choose) thick. Is there any physical method for that gas or liquid to pass through that thick heavy metal block (not by drilling etc.)?
Yes, some gases can diffuse into and through metal. It is the bane of the high-vacuum engineer's life. Hydrogen is the worst because it tends to dissociate into atoms at the surface and the nucleus, a single proton, can then leave its electron behind and wander through the metal lattice until it picks up another electron when it leaves. For example Mu-metal, favoured for some applications, typically has to be annealed in hydrogen at high temperature. Once that is over, it can take weeks or months for the residual hydrogen to diffuse out of the metal before a high enough vacuum can be achieved and the work proceed. A &quot;virtual leak&quot; occurs where a small bubble of gas is embedded in the material inside a vacuum chamber. The leak usually happens because a tiny hole exists for the gas to diffuse out through, but sometimes the &quot;hole&quot; is no more than an ultra-thin skin of metal (invisible to the frustrated technician) and the gas diffuses through it. These little horrors can keep going for months or even years and generally mean replacing suspected parts and pumping down over and over again until the dodgy one is finally stumbled on. Helium is both monatomic and the physically smallest atom. It can diffuse more easily than any other neutral atom or molecule, making certain metal foils unsuitable as say gas-tight liners for airships. As noted in another answer, in quantity it can also affect the bulk properties of the metal. On a more energetic scale, hydrogen and helium nuclei (protons and alpha particles) can pass through thin metal foils if fired with sufficient energy, and this has been used to establish the crystalline structures of some metals and alloys (where, for whatever reason, electrons were unsuitable). Other gases have much larger atoms (neon and other noble gases) or molecules (nitrogen and other diatomic molecules, water and other hydrides), but they can still diffuse extremely slowly through some metals. This can limit the lifetime of some microchips. A related phenomenon occurs where there is a defect in the lattice at the surface, such as a grain boundary, and a gas atom attaches to it. Defects are sometimes quite mobile and can migrate through the lattice; the gas atom will stabilise the defect and may be able to hitch a ride. Quantum processes such as tunnelling are not really relevant, as they work over distances smaller than the atomic wavelength, which in turn is typically far smaller than the thickness of any metal atom or foil. The probability of a gas atom tunnelling across is so infinitesimal as to be effectively zero.
Nehmen wir an, wir haben eine gasförmige oder flüssige Verbindung (ich weiß nicht, ob Elemente oder Verbindungen einen Unterschied machen, betrachten Sie dies als Gedankenexperiment), und wir haben einen Wolfram- oder Stahlblock, der 5 cm (oder weniger, Sie entscheiden) dick ist. Gibt es eine physikalische Methode, um das Gas oder die Flüssigkeit durch diesen dicken Schwermetallblock zu leiten (nicht durch Bohren usw.)?
Ja, einige Gase können in und durch Metall diffundieren. Das ist der Fluch des Lebens eines Hochvakuumingenieurs. Wasserstoff ist am schlimmsten, weil er dazu neigt, an der Oberfläche in Atome zu dissoziieren, und der Kern, ein einzelnes Proton, kann dann sein Elektron zurücklassen und durch das Metallgitter wandern, bis er beim Verlassen ein anderes Elektron aufnimmt. Mu-Metall zum Beispiel, das für einige Anwendungen bevorzugt wird, muss in der Regel in Wasserstoff bei hoher Temperatur geglüht werden. Danach kann es Wochen oder Monate dauern, bis der restliche Wasserstoff aus dem Metall diffundiert ist, bevor ein ausreichend hohes Vakuum erreicht und die Arbeit fortgesetzt werden kann. Ein &quot;virtuelles Leck&quot; tritt auf, wenn eine kleine Gasblase in das Material innerhalb einer Vakuumkammer eingebettet ist. Das Leck entsteht in der Regel, weil ein winziges Loch vorhanden ist, durch das das Gas entweichen kann. Manchmal ist das Loch aber auch nur eine hauchdünne Metallhaut (für den frustrierten Techniker unsichtbar), durch die das Gas diffundiert. Diese kleinen Schreckgespenster können sich über Monate oder sogar Jahre hinziehen und bedeuten in der Regel, dass man verdächtige Teile austauschen und immer wieder abpumpen muss, bis man endlich auf den Fehler stößt. Helium ist sowohl einatomig als auch das physikalisch kleinste Atom. Es kann leichter diffundieren als alle anderen neutralen Atome oder Moleküle, was bestimmte Metallfolien beispielsweise als gasdichte Auskleidung für Luftschiffe ungeeignet macht. Wie in einer anderen Antwort erwähnt, kann es in großen Mengen auch die Masseneigenschaften des Metalls beeinflussen. Auf einer energetischeren Ebene können Wasserstoff- und Heliumkerne (Protonen und Alphateilchen) dünne Metallfolien durchdringen, wenn sie mit ausreichender Energie beschossen werden, und dies wurde genutzt, um die kristallinen Strukturen einiger Metalle und Legierungen zu bestimmen (wo, aus welchen Gründen auch immer, Elektronen ungeeignet waren). Andere Gase haben viel größere Atome (Neon und andere Edelgase) oder Moleküle (Stickstoff und andere zweiatomige Moleküle, Wasser und andere Hydride), aber sie können trotzdem extrem langsam durch einige Metalle diffundieren. Dies kann die Lebensdauer einiger Mikrochips begrenzen. Ein ähnliches Phänomen tritt auf, wenn ein Defekt im Gitter an der Oberfläche auftritt, z. B. an einer Korngrenze, und sich ein Gasatom daran anlagert. Defekte sind manchmal recht beweglich und können durch das Gitter wandern; das Gasatom stabilisiert den Defekt und kann unter Umständen per Anhalter mitgenommen werden. Quantenprozesse wie das Tunneln sind nicht wirklich relevant, da sie über Entfernungen funktionieren, die kleiner sind als die atomare Wellenlänge, die wiederum in der Regel viel kleiner ist als die Dicke eines Metallatoms oder einer Folie. Die Wahrscheinlichkeit, dass ein Gasatom hindurch tunnelt, ist so verschwindend gering, dass sie praktisch null ist.
Supongamos que tenemos un compuesto gaseoso o líquido (no sé si los elementos o compuestos marcan la diferencia, tómese esto como un experimento mental), y tenemos un bloque de tungsteno o acero de 5 cm (o menos, usted elige) de grosor. ¿Existe algún método físico para que ese gas o líquido atraviese ese grueso bloque de metal pesado (no por perforación, etc.)?
Sí, algunos gases pueden difundirse a través del metal. Es la pesadilla de los ingenieros de alto vacío. El hidrógeno es el peor porque tiende a disociarse en átomos en la superficie y el núcleo, un único protón, puede dejar atrás su electrón y vagar por la red metálica hasta que recoge otro electrón cuando sale. Por ejemplo, el metal Mu, muy utilizado en algunas aplicaciones, debe recocido en hidrógeno a alta temperatura. Una vez hecho esto, pueden pasar semanas o meses hasta que el hidrógeno residual se difunda fuera del metal antes de que se pueda alcanzar un vacío lo suficientemente alto y proceder al trabajo. Una &quot;fuga virtual&quot; se produce cuando una pequeña burbuja de gas se incrusta en el material dentro de una cámara de vacío. La fuga suele producirse porque existe un pequeño orificio por el que puede salir el gas, pero a veces el &quot;orificio&quot; no es más que una piel ultrafina de metal (invisible para el técnico frustrado) y el gas se difunde a través de ella. Estos pequeños horrores pueden seguir funcionando durante meses o incluso años y, por lo general, implican la sustitución de piezas sospechosas y el bombeo una y otra vez hasta que por fin se da con la pieza defectuosa. El helio es monatómico y el átomo físicamente más pequeño. Se difunde con más facilidad que cualquier otro átomo o molécula neutra, lo que hace que algunas láminas metálicas no sean aptas, por ejemplo, como revestimientos estancos para aeronaves. Como se indica en otra respuesta, en cantidad también puede afectar a las propiedades del metal. A una escala más energética, los núcleos de hidrógeno y helio (protones y partículas alfa) pueden atravesar láminas metálicas finas si se disparan con suficiente energía, y esto se ha utilizado para establecer las estructuras cristalinas de algunos metales y aleaciones (donde, por la razón que sea, los electrones no eran adecuados). Otros gases tienen átomos (neón y otros gases nobles) o moléculas (nitrógeno y otras moléculas diatómicas, agua y otros hidruros) mucho más grandes, pero aún así pueden difundirse muy lentamente a través de algunos metales. Esto puede limitar la vida útil de algunos microchips. Un fenómeno relacionado se produce cuando hay un defecto en la red en la superficie, como un límite de grano, y un átomo de gas se adhiere a él. A veces, los defectos son bastante móviles y pueden migrar a través de la red; el átomo de gas estabilizará el defecto y podrá hacer autostop. Los procesos cuánticos como la tunelización no son realmente relevantes, ya que funcionan en distancias menores que la longitud de onda atómica, que a su vez suele ser mucho menor que el grosor de cualquier átomo o lámina metálica. La probabilidad de que un átomo de gas atraviese un túnel es tan infinitesimal que es nula.
Supposons que nous ayons un composé gazeux ou liquide (je ne sais pas si les éléments ou les composés font une différence, prenez ceci comme une expérience de pensée), et que nous ayons un bloc de tungstène ou d'acier de 5 cm (ou moins, c'est vous qui choisissez) d'épaisseur. Existe-t-il une méthode physique permettant à ce gaz ou à ce liquide de traverser cet épais bloc de métal lourd (sans passer par un forage, etc.) ?
Oui, certains gaz peuvent se diffuser dans et à travers le métal. C'est le fléau de la vie de l'ingénieur du vide poussé. L'hydrogène est le pire car il a tendance à se dissocier en atomes à la surface et le noyau, un proton unique, peut alors laisser son électron derrière lui et errer dans le réseau métallique jusqu'à ce qu'il ramasse un autre électron lorsqu'il le quitte. Par exemple, le métal Mu, privilégié pour certaines applications, doit généralement être recuit dans de l'hydrogène à haute température. Une fois cette opération terminée, il faut parfois des semaines, voire des mois, pour que l'hydrogène résiduel se diffuse hors du métal avant qu'un vide suffisamment poussé puisse être atteint et que le travail puisse être effectué. Une fuite virtuelle se produit lorsqu'une petite bulle de gaz est intégrée dans le matériau à l'intérieur d'une chambre à vide. La fuite se produit généralement parce qu'il existe un minuscule trou par lequel le gaz se diffuse, mais parfois le "trou" n'est rien de plus qu'une peau de métal ultrafine (invisible pour le technicien frustré) et le gaz se diffuse à travers elle. Ces petites horreurs peuvent durer des mois, voire des années, et il faut généralement remplacer les pièces suspectes et pomper encore et encore jusqu'à ce que l'on tombe enfin sur la pièce défectueuse. L'hélium est à la fois monatomique et l'atome physiquement le plus petit. Il peut se diffuser plus facilement que n'importe quel autre atome ou molécule neutre, ce qui rend certaines feuilles de métal impropres à servir de revêtement étanche aux gaz pour les dirigeables. Comme indiqué dans une autre réponse, en quantité, il peut également affecter les propriétés globales du métal. À une échelle plus énergétique, les noyaux d'hydrogène et d'hélium (protons et particules alpha) peuvent traverser de minces feuilles de métal si elles sont tirées avec une énergie suffisante, et cela a été utilisé pour établir les structures cristallines de certains métaux et alliages (où, pour une raison ou une autre, les électrons n'étaient pas appropriés). D'autres gaz ont des atomes (néon et autres gaz nobles) ou des molécules (azote et autres molécules diatomiques, eau et autres hydrures) beaucoup plus gros, mais ils peuvent encore se diffuser extrêmement lentement à travers certains métaux. Cela peut limiter la durée de vie de certaines puces électroniques. Un phénomène connexe se produit lorsqu'il y a un défaut dans le réseau à la surface, tel qu'un joint de grain, et qu'un atome de gaz s'y attache. Les défauts sont parfois très mobiles et peuvent migrer à travers le réseau ; l'atome de gaz stabilise le défaut et peut être capable de s'y accrocher. Les processus quantiques tels que le phénomène d'effet tunnel ne sont pas vraiment pertinents, car ils fonctionnent sur des distances inférieures à la longueur d'onde atomique, qui à son tour est généralement bien plus petite que l'épaisseur d'un atome de métal ou d'une feuille métallique. La probabilité qu'un atome de gaz passe par effet tunnel est tellement infinitésimale qu'elle est en fait nulle.
Supponiamo di avere un composto gassoso o liquido (non so se gli elementi o i composti facciano differenza, prendetelo come un esperimento di pensiero) e di avere un blocco di tungsteno o di acciaio spesso 5 cm (o meno, scegliete voi). Esiste un metodo fisico per far passare quel gas o quel liquido attraverso quel blocco di metallo pesante e spesso (non perforandolo, ecc.)?
Sì, alcuni gas possono diffondere nel e attraverso il metallo. È la rovina degli ingegneri che lavorano sotto vuoto. L'idrogeno è il peggiore perché tende a dissociarsi in atomi sulla superficie e il nucleo, un singolo protone, può abbandonare il suo elettrone e vagare attraverso il reticolo metallico finché non raccoglie un altro elettrone quando se ne va. Ad esempio, il metallo Mu, favorito per alcune applicazioni, deve essere ricotto in idrogeno ad alta temperatura. Una volta terminata, possono essere necessarie settimane o mesi perché l'idrogeno residuo si diffonda dal metallo prima di poter raggiungere un vuoto sufficientemente alto e procedere con il lavoro. Una &quot;perdita virtuale&quot; si verifica quando una piccola bolla di gas è incorporata nel materiale all'interno di una camera a vuoto. Di solito la perdita avviene perché esiste un piccolo foro attraverso il quale il gas può diffondersi, ma a volte il &quot;foro&quot; non è altro che una sottilissima pelle di metallo (invisibile al tecnico frustrato) e il gas vi si diffonde attraverso. Questi piccoli orrori possono durare mesi o addirittura anni e in genere comportano la sostituzione di parti sospette e l'esecuzione di ripetuti pompaggi fino a quando non si scopre il difetto. L'elio è sia monoatomico che l'atomo fisicamente più piccolo. Può diffondersi più facilmente di qualsiasi altro atomo o molecola neutra, rendendo alcuni fogli metallici inadatti come rivestimenti a tenuta di gas per i dirigibili. Come è stato osservato in un'altra risposta, in quantità può anche influire sulle proprietà del metallo. Su scala più energetica, i nuclei di idrogeno ed elio (protoni e particelle alfa) possono attraversare sottili lamine metalliche se sparati con sufficiente energia, e questo è stato usato per stabilire le strutture cristalline di alcuni metalli e leghe (dove, per qualsiasi motivo, gli elettroni non erano adatti). Altri gas hanno atomi molto più grandi (neon e altri gas nobili) o molecole (azoto e altre molecole biatomiche, acqua e altri idruri), ma possono comunque diffondersi molto lentamente attraverso alcuni metalli. Questo può limitare la durata di vita di alcuni microchip. Un fenomeno correlato si verifica quando c'è un difetto nel reticolo in superficie, come un confine di grano, e un atomo di gas vi si attacca. A volte i difetti sono piuttosto mobili e possono migrare attraverso il reticolo; l'atomo di gas stabilizza il difetto e può essere in grado di fare un passaggio. I processi quantistici come il tunnelling non sono realmente rilevanti, poiché operano su distanze inferiori alla lunghezza d'onda atomica, che a sua volta è tipicamente molto più piccola dello spessore di qualsiasi atomo o lamina metallica. La probabilità che un atomo di gas possa attraversare il tunnel è talmente infinitesimale da essere praticamente nulla.
172
Once, I boarded a plane, went to my designated seat and tried to put my bag in the overhead bin. However, it was full, and other adjacent overhead bins were full too. Because I had a seat next to the emergency exit, which I paid for, I had to hand over my bag to someone else in order to take off. Do I have any rights over the overhead bin above my seat? Could I ask the flight attendant to remove some of the bags to make room for me? I cannot imagine that the bins were full because there was not enough space. I think this happened because some people were ignorant enough to bring more bags than is allowed inside the airplane instead of sending them to cargo. If this is the case why doesn't the airline enforce the bag limit inside the airplane?
You have no right to the bin above your seat. For those exit rows where you cannot put anything beneath the seat in front of you, flight attendants will generally try to help find some space somewhere for at least your small personal item, but any passenger may be required to check their bags rather than put them in the overhead bin. It is entirely possible that the airline didn't enforce the bag limit, but the overhead bins can easily fill up even when the limit is strictly enforced. If every passenger, or even most passengers, brings a regulation sized carry-on on a full flight, it is obvious that many of the bags will not fit in the bins and will have to be checked. In some cases, overhead bins may be marked as reserved for first class or premium economy passengers (or safety equipment, or pillows and blankets). Even in such cases, cabin crew may fill these bins with other bags in an attempt to accommodate as many passengers as possible, and a late-boarding passenger may be caught out with no space. It is hard to imagine that they are likely to remove and check someone's bag so you may have that space. Overhead bin space is typically first-come first served, and at some point, they will declare the bins full and start checking bags (sometimes even before the bins are actually full). Note that if your bag must be checked, you should ensure you remove any essential items (medication, passports, keys, etc...) and any valuables, along with any hazardous material that cannot be checked, namely spare (uninstalled) lithium batteries including external power packs. Boarding as early as possible (which, on some airlines, could require frequent flyer status or paying an extra fee) will help secure you overhead bin space.
Einmal bin ich an Bord eines Flugzeugs gegangen, habe mich zu meinem Sitzplatz begeben und versucht, meine Tasche in das Gepäckfach zu stecken. Dieser war jedoch voll, und auch andere angrenzende Gepäckfächer waren voll. Da ich einen Sitzplatz neben dem Notausgang hatte, für den ich bezahlt hatte, musste ich meine Tasche einer anderen Person übergeben, um abheben zu können. Habe ich ein Anrecht auf das Gepäckfach über meinem Sitz? Könnte ich den Flugbegleiter bitten, einige der Taschen zu entfernen, um Platz für mich zu schaffen? Ich kann mir nicht vorstellen, dass die Gepäckfächer voll waren, weil nicht genügend Platz vorhanden war. Ich glaube, das ist passiert, weil einige Leute so dumm waren, mehr Gepäck mitzunehmen, als im Flugzeug erlaubt ist, anstatt es in den Frachtraum zu bringen. Wenn das der Fall ist, warum setzt die Fluggesellschaft dann nicht die Gepäckbegrenzung im Flugzeug durch?
Sie haben keinen Anspruch auf den Ablageplatz über Ihrem Sitz. In den Ausgangsreihen, in denen Sie nichts unter dem Sitz vor Ihnen abstellen können, werden die Flugbegleiter in der Regel versuchen, zumindest für Ihre kleinen persönlichen Gegenstände einen Platz zu finden. Es ist durchaus möglich, dass die Fluggesellschaft die Gepäckbegrenzung nicht durchgesetzt hat, aber die Gepäckfächer können auch bei strikter Durchsetzung der Begrenzung schnell voll werden. Wenn jeder Passagier oder sogar die meisten Passagiere auf einem vollen Flug ein Handgepäckstück in der vorgeschriebenen Größe mit sich führen, ist es offensichtlich, dass viele der Taschen nicht in die Fächer passen und aufgegeben werden müssen. In manchen Fällen sind die Gepäckfächer für Passagiere der ersten Klasse oder der Premium Economy reserviert (oder für Sicherheitsausrüstung, Kissen und Decken). Selbst in solchen Fällen kann es vorkommen, dass das Kabinenpersonal diese Fächer mit anderen Gepäckstücken füllt, um so viele Passagiere wie möglich unterzubringen, und dass ein Fluggast, der zu spät einsteigt, keinen Platz mehr findet. Es ist schwer vorstellbar, dass die Flugbegleiter die Tasche eines anderen Passagiers herausnehmen und kontrollieren werden, damit Sie den Platz bekommen können. Der Platz in den Gepäckfächern wird in der Regel nach dem Prinzip "Wer zuerst kommt, mahlt zuerst" vergeben, und irgendwann werden die Fächer für voll erklärt und die Gepäckstücke kontrolliert (manchmal sogar, bevor die Fächer tatsächlich voll sind). Wenn Ihr Gepäck kontrolliert werden muss, sollten Sie sicherstellen, dass Sie alle wichtigen Gegenstände (Medikamente, Pässe, Schlüssel usw.) und Wertsachen sowie alle gefährlichen Materialien, die nicht kontrolliert werden können, herausnehmen, insbesondere (nicht installierte) Lithium-Ersatzbatterien und externe Netzteile. Wenn Sie so früh wie möglich an Bord gehen (was bei einigen Fluggesellschaften einen Vielfliegerstatus oder die Zahlung einer zusätzlichen Gebühr erfordern kann), können Sie sich einen Platz im Gepäckfach sichern.
Una vez subí a un avión, me dirigí al asiento que me habían asignado e intenté meter la maleta en el compartimento superior. Sin embargo, estaba lleno y los demás compartimentos contiguos también. Como tenía un asiento junto a la salida de emergencia, por la que había pagado, tuve que entregar mi maleta a otra persona para poder despegar. ¿Tengo algún derecho sobre el compartimento superior situado encima de mi asiento? ¿Podría pedir a la azafata que retirara algunas de las maletas para hacerme sitio? No me puedo imaginar que los compartimentos estuvieran llenos porque no hubiera espacio suficiente. Creo que esto ocurrió porque algunas personas fueron lo suficientemente ignorantes como para llevar más maletas de las permitidas dentro del avión en lugar de enviarlas a carga. Si este es el caso, ¿por qué la compañía aérea no hace cumplir el límite de equipaje dentro del avión?
No tiene derecho a la papelera situada encima de su asiento. En las filas de salida en las que no se puede poner nada debajo del asiento de enfrente, los auxiliares de vuelo suelen tratar de ayudar a encontrar algún espacio en alguna parte para al menos su pequeño objeto personal, pero cualquier pasajero puede verse obligado a facturar su equipaje en lugar de ponerlo en el compartimento superior. Es muy posible que la aerolínea no aplique el límite de equipaje, pero los compartimentos superiores pueden llenarse fácilmente incluso cuando el límite se aplica estrictamente. Si cada pasajero, o incluso la mayoría, lleva un equipaje de mano del tamaño reglamentario en un vuelo lleno, es obvio que muchas de las maletas no cabrán en los compartimentos y tendrán que facturarse. En algunos casos, los compartimentos superiores pueden estar marcados como reservados para pasajeros de primera clase o de clase económica superior (o equipos de seguridad, o almohadas y mantas). Incluso en estos casos, el personal de cabina puede llenar estos compartimentos con otras maletas en un intento de acomodar al mayor número posible de pasajeros, y un pasajero que embarque tarde puede verse sorprendido sin espacio. Es difícil imaginar que vayan a retirar y facturar la maleta de alguien para que usted pueda disponer de ese espacio. El espacio en los compartimentos superiores suele reservarse por orden de llegada y, en algún momento, declararán que están llenos y empezarán a facturar las maletas (a veces incluso antes de que estén realmente llenos). Tenga en cuenta que si su equipaje debe ser facturado, debe asegurarse de retirar cualquier artículo esencial (medicamentos, pasaportes, llaves, etc.) y cualquier objeto de valor, junto con cualquier material peligroso que no pueda ser facturado, como baterías de litio de repuesto (no instaladas), incluidas las fuentes de alimentación externas. Embarcar lo antes posible (lo que, en algunas aerolíneas, puede requerir ser viajero frecuente o pagar una tasa extra) le ayudará a asegurarse un espacio en el compartimento superior.
Une fois, j'ai pris l'avion, je me suis rendu à mon siège et j'ai essayé de mettre mon sac dans le compartiment à bagages. Mais il était plein et les autres compartiments adjacents l'étaient également. Comme j'avais un siège près de la sortie de secours, que j'avais payé, j'ai dû remettre mon sac à quelqu'un d'autre pour pouvoir décoller. Ai-je des droits sur le compartiment au-dessus de mon siège ? Puis-je demander à l'hôtesse de l'air de retirer certains sacs pour me faire de la place ? Je ne peux pas imaginer que les bacs étaient pleins parce qu'il n'y avait pas assez de place. Je pense que cela s'est produit parce que certaines personnes ont été assez ignorantes pour apporter plus de sacs que ce qui est autorisé à l'intérieur de l'avion au lieu de les envoyer au fret. Si c'est le cas, pourquoi la compagnie aérienne ne fait-elle pas respecter la limite de sacs à l'intérieur de l'avion ?
Vous n'avez aucun droit sur la poubelle située au-dessus de votre siège. Pour les rangées de sortie où vous ne pouvez rien mettre sous le siège devant vous, le personnel de bord essaiera généralement de vous aider à trouver un espace quelque part pour au moins votre petit objet personnel, mais tout passager peut être tenu d'enregistrer ses bagages plutôt que de les mettre dans la corbeille au-dessus de sa tête. Il est tout à fait possible que la compagnie aérienne n'ait pas respecté la limite de bagages, mais les compartiments supérieurs peuvent facilement se remplir même lorsque la limite est strictement respectée. Si chaque passager, ou même la plupart des passagers, emporte un bagage à main de taille réglementaire sur un vol complet, il est évident que de nombreux sacs ne tiendront pas dans les compartiments et devront être enregistrés. Dans certains cas, les compartiments supérieurs peuvent être réservés aux passagers de première classe ou de classe économique supérieure (ou aux équipements de sécurité, aux oreillers et aux couvertures). Même dans ce cas, le personnel de cabine peut remplir ces compartiments avec d'autres sacs pour tenter d'accueillir le plus grand nombre de passagers possible, et un passager embarquant tardivement peut se retrouver sans espace. Il est difficile d'imaginer qu'ils vont retirer et enregistrer le sac de quelqu'un pour que vous puissiez disposer de cet espace. La place dans les compartiments supérieurs est généralement attribuée selon le principe du premier arrivé, premier servi, et à un moment donné, ils déclareront que les compartiments sont pleins et commenceront à contrôler les bagages (parfois même avant que les compartiments ne soient réellement pleins). Si votre sac doit être contrôlé, veillez à retirer tous les articles essentiels (médicaments, passeports, clés, etc.) et tous les objets de valeur, ainsi que tout matériel dangereux qui ne peut être contrôlé, à savoir les piles au lithium de rechange (non installées), y compris les blocs d'alimentation externes. Embarquer le plus tôt possible (ce qui, sur certaines compagnies aériennes, peut nécessiter un statut de grand voyageur ou le paiement d'un supplément) vous permettra d'obtenir de l'espace dans les compartiments supérieurs.
Una volta sono salito a bordo di un aereo, sono andato al mio posto designato e ho cercato di mettere la mia borsa nella cappelliera. Tuttavia, era pieno e anche le altre cappelliere adiacenti erano piene. Poiché avevo un posto vicino all'uscita di emergenza, che avevo pagato, ho dovuto consegnare la mia borsa a qualcun altro per poter decollare. Ho qualche diritto sulla cappelliera sopra il mio posto? Posso chiedere all'assistente di volo di rimuovere alcuni bagagli per fare spazio a me? Non posso pensare che i cestini fossero pieni perché non c'era abbastanza spazio. Penso che sia successo perché alcune persone sono state così ignoranti da portare più bagagli di quelli consentiti all'interno dell'aereo invece di mandarli al cargo. Se questo è il caso, perché la compagnia aerea non fa rispettare il limite di bagagli all'interno dell'aereo?
Non avete diritto al cestino sopra il vostro posto. Per le file di uscita in cui non è possibile riporre nulla sotto il sedile di fronte, gli assistenti di volo cercheranno in genere di trovare un po' di spazio almeno per un piccolo oggetto personale, ma a qualsiasi passeggero potrebbe essere richiesto di imbarcare i propri bagagli piuttosto che metterli nella cappelliera. È del tutto possibile che la compagnia aerea non abbia fatto rispettare il limite di bagaglio, ma le cappelliere possono facilmente riempirsi anche quando il limite è rigorosamente applicato. Se ogni passeggero, o addirittura la maggior parte dei passeggeri, porta con sé un bagaglio a mano di dimensioni regolamentari su un volo pieno, è ovvio che molti dei bagagli non entreranno nei cestini e dovranno essere imbarcati. In alcuni casi, le cappelliere possono essere contrassegnate come riservate ai passeggeri di prima classe o di premium economy (o alle attrezzature di sicurezza, o a cuscini e coperte). Anche in questi casi, il personale di bordo può riempire questi scomparti con altri bagagli nel tentativo di accogliere il maggior numero possibile di passeggeri, e un passeggero che si imbarca in ritardo può trovarsi senza spazio. È difficile pensare che possano rimuovere e controllare il bagaglio di qualcuno, in modo da poter disporre di quello spazio. Lo spazio nei cestini sopraelevati è in genere riservato a chi arriva prima, e a un certo punto dichiareranno i cestini pieni e inizieranno a controllare i bagagli (a volte anche prima che i cestini siano effettivamente pieni). Se il vostro bagaglio deve essere controllato, assicuratevi di rimuovere gli oggetti essenziali (medicinali, passaporti, chiavi, ecc.) e gli oggetti di valore, oltre a qualsiasi materiale pericoloso che non può essere controllato, in particolare le batterie al litio di ricambio (non installate) e gli alimentatori esterni. Imbarcarsi il più presto possibile (cosa che in alcune compagnie aeree potrebbe richiedere lo status di frequent flyer o il pagamento di un supplemento) aiuterà ad assicurarsi lo spazio nella cappelliera.
173
The Canon EF 40mm f/2.8 has a designation of STM on the lens. What does this mean? What are the advantages of having it and does it replace an older technology?
STM stands for Stepper Motor and is a applied to a new range of Canon lenses which feature a new design of focus motors which, along with a new iris mechanism are designed to eliminate (auditory) noise during video recording. Canon haven't revealed any information about how the new design works but it's probably the same type of motor used in mirrorless camera lenses. It's a more precise version of a regular DC motor but still has the same direct connection to the lens focus group, which means manual focus has to be implemented using a focus-by-wire arrangement whereby moving the focus ring by hand sends a signal to the motor to move the focus group. In comparison an ultrasonic motor (like Canon's USM) consists of a pair of concentric rings which vibrate at high frequency to rotate back and forth, an arrangement which permits the user to move the focus ring to directly move the lens element, achieving full time manual focus without damaging the motor. Stepper motors are better at producing smooth, precise incremental movements, such as those required by contrast detect AF, and AF during video. Ultrasonic motors are better at jumping to the right focus point as part of a phase detection system.
Das Canon EF 40mm f/2.8 hat die Bezeichnung STM auf dem Objektiv. Was bedeutet das? Was sind die Vorteile dieses Objektivs und ersetzt es eine ältere Technologie?
STM steht für "Stepper Motor" (Schrittmotor) und bezieht sich auf eine neue Reihe von Canon-Objektiven, die über eine neue Konstruktion von Fokusmotoren verfügen, die zusammen mit einem neuen Blendenmechanismus dafür sorgen sollen, dass bei Videoaufnahmen keine (hörbaren) Geräusche auftreten. Canon hat keine Informationen über die Funktionsweise des neuen Designs bekannt gegeben, aber es handelt sich wahrscheinlich um den gleichen Motortyp, der auch in spiegellosen Kameraobjektiven verwendet wird. Es handelt sich um eine präzisere Version eines regulären Gleichstrommotors, der aber immer noch direkt mit der Fokusgruppe des Objektivs verbunden ist. Das bedeutet, dass die manuelle Fokussierung über eine Fokus-by-Wire-Anordnung erfolgen muss, bei der die Bewegung des Fokusrings von Hand ein Signal an den Motor sendet, um die Fokusgruppe zu bewegen. Im Vergleich dazu besteht ein Ultraschallmotor (wie der USM von Canon) aus einem Paar konzentrischer Ringe, die mit hoher Frequenz hin- und herschwingen. Diese Anordnung ermöglicht es dem Benutzer, den Fokussierring zu bewegen, um das Objektivelement direkt zu bewegen und so eine manuelle Fokussierung in Echtzeit zu erreichen, ohne den Motor zu beschädigen. Schrittmotoren eignen sich besser für sanfte, präzise schrittweise Bewegungen, wie sie für den Kontrasterkennungs-AF und den AF bei Videoaufnahmen erforderlich sind. Ultraschallmotoren sind besser geeignet, um als Teil eines Phasenerkennungssystems auf den richtigen Fokuspunkt zu springen.
El Canon EF 40mm f/2.8 tiene la designación STM en el objetivo. ¿Qué significa esto? ¿Qué ventajas tiene y sustituye a una tecnología más antigua?
STM significa Stepper Motor (motor paso a paso) y se aplica a una nueva gama de objetivos Canon que incorporan un nuevo diseño de motores de enfoque que, junto con un nuevo mecanismo de iris, están diseñados para eliminar el ruido (auditivo) durante la grabación de vídeo. Canon no ha revelado ninguna información sobre cómo funciona el nuevo diseño, pero probablemente se trate del mismo tipo de motor que se utiliza en los objetivos de las cámaras sin espejo. Es una versión más precisa de un motor de corriente continua normal, pero sigue teniendo la misma conexión directa con el grupo de enfoque del objetivo, lo que significa que el enfoque manual debe realizarse mediante un sistema de enfoque por cable en el que el movimiento manual del anillo de enfoque envía una señal al motor para que mueva el grupo de enfoque. En comparación, un motor ultrasónico (como el USM de Canon) consta de un par de anillos concéntricos que vibran a alta frecuencia para girar hacia delante y hacia atrás, una disposición que permite al usuario mover el anillo de enfoque para mover directamente el elemento del objetivo, logrando un enfoque manual a tiempo completo sin dañar el motor. Los motores paso a paso son mejores para producir movimientos incrementales suaves y precisos, como los que requiere el AF por detección de contraste y el AF durante el vídeo. Los motores ultrasónicos son mejores para saltar al punto de enfoque correcto como parte de un sistema de detección de fase.
L'objectif Canon EF 40 mm f/2,8 porte la désignation STM. Qu'est-ce que cela signifie ? Quels sont les avantages de cette désignation et remplace-t-elle une technologie plus ancienne ?
STM signifie Stepper Motor (moteur pas à pas) et s'applique à une nouvelle gamme d'objectifs Canon dotés d'une nouvelle conception de moteurs de mise au point qui, avec un nouveau mécanisme de diaphragme, sont conçus pour éliminer les bruits (auditifs) lors de l'enregistrement vidéo. Canon n'a pas révélé d'informations sur le fonctionnement de cette nouvelle conception, mais il s'agit probablement du même type de moteur que celui utilisé dans les objectifs des appareils photo sans miroir. Il s'agit d'une version plus précise d'un moteur à courant continu classique, mais qui conserve la même connexion directe avec le groupe de mise au point de l'objectif, ce qui signifie que la mise au point manuelle doit être effectuée à l'aide d'un dispositif de mise au point par fil, dans lequel le déplacement de la bague de mise au point à la main envoie un signal au moteur pour qu'il déplace le groupe de mise au point. En comparaison, un moteur à ultrasons (comme le USM de Canon) est constitué d'une paire d'anneaux concentriques qui vibrent à haute fréquence pour tourner d'avant en arrière, ce qui permet à l'utilisateur de déplacer la bague de mise au point pour déplacer directement l'élément de l'objectif, réalisant ainsi une mise au point manuelle en temps réel sans endommager le moteur. Les moteurs pas à pas sont plus performants pour produire des mouvements incrémentaux fluides et précis, tels que ceux requis par la mise au point automatique par détection de contraste et la mise au point automatique en vidéo. Les moteurs à ultrasons sont plus aptes à sauter sur le bon point de mise au point dans le cadre d'un système de détection de phase.
L'obiettivo Canon EF 40 mm f/2,8 è contrassegnato dalla sigla STM. Che cosa significa? Quali sono i vantaggi di questa denominazione e sostituisce una tecnologia più vecchia?
STM è l'acronimo di Stepper Motor (motore passo-passo) e si riferisce a una nuova gamma di obiettivi Canon dotati di un nuovo design dei motori di messa a fuoco che, insieme a un nuovo meccanismo del diaframma, sono progettati per eliminare il rumore (uditivo) durante la registrazione video. Canon non ha rivelato alcuna informazione sul funzionamento del nuovo design, ma probabilmente si tratta dello stesso tipo di motore utilizzato negli obiettivi delle fotocamere mirrorless. Si tratta di una versione più precisa di un normale motore a corrente continua, ma ha lo stesso collegamento diretto al gruppo di messa a fuoco dell'obiettivo, il che significa che la messa a fuoco manuale deve essere implementata utilizzando un sistema di messa a fuoco a filo in cui lo spostamento manuale dell'anello di messa a fuoco invia un segnale al motore per spostare il gruppo di messa a fuoco. In confronto, un motore a ultrasuoni (come l'USM di Canon) consiste in una coppia di anelli concentrici che vibrano ad alta frequenza per ruotare avanti e indietro, una disposizione che consente all'utente di spostare l'anello di messa a fuoco per spostare direttamente l'elemento dell'obiettivo, ottenendo una messa a fuoco manuale a tempo pieno senza danneggiare il motore. I motori passo-passo sono più adatti a produrre movimenti incrementali fluidi e precisi, come quelli richiesti dall'AF con rilevamento del contrasto e dall'AF durante i video. I motori a ultrasuoni sono migliori per saltare al punto di messa a fuoco giusto come parte di un sistema di rilevamento di fase.
174
I'm trying to set get id of all elements in an ```HTMLCollectionOf```. I wrote the following code: ```var list = document.getElementsByClassName("events"); console.log(list[0].id); for (key in list) { console.log(key.id); } ``` But I got the following output in console: ```event1 undefined ``` which is not what I expected. Why is the second console output ```undefined``` but the first console output is ```event1```?
You can't use ```for```/```in``` on ```NodeList```s or ```HTMLCollection```s. However, you can use some ```Array.prototype``` methods, as long as you ```.call()``` them and pass in the ```NodeList``` or ```HTMLCollection``` as ```this```. So consider the following as an alternative to jfriend00's ```for``` loop: ```var list= document.getElementsByClassName("events"); [].forEach.call(list, function(el) { console.log(el.id); }); ``` There's a good article on MDN that covers this technique. Note their warning about browser compatibility though: [...] passing a host object (like a ```NodeList```) as ```this``` to a native method (such as ```forEach```) is not guaranteed to work in all browsers and is known to fail in some. So while this approach is convenient, a ```for``` loop may be the most browser-compatible solution. Update (Aug 30, 2014): Eventually you'll be able to use ES6 ```for```/```of```! ```var list = document.getElementsByClassName("events"); for (const el of list) console.log(el.id); ``` It's already supported in recent versions of Chrome and Firefox.
Ich versuche, die ID aller Elemente in einer ```HTMLCollectionOf`` zu setzen. Ich habe den folgenden Code geschrieben: ```var list = document.getElementsByClassName("events"); console.log(list[0].id); for (Schlüssel in Liste) { console.log(schlüssel.id); } ``` In der Konsole erhalte ich jedoch folgende Ausgabe: ```event1 undefiniert ``` was nicht das ist, was ich erwartet habe. Warum ist die zweite Konsolenausgabe ```Undefiniert``, aber die erste Konsolenausgabe ist ```Ereignis1``?
Sie können ```for```/``in``` nicht auf ```NodeList`` oder ```HTMLCollection`` anwenden. Sie können jedoch einige ```Array.prototype``-Methoden verwenden, solange Sie sie ```.call()`` nennen und die ```NodeList`` oder ```HTMLCollection`` als ``this`` übergeben. Betrachten Sie also das Folgende als Alternative zu jfriend00's ```for``` Schleife: ```var list= document.getElementsByClassName("events"); [].forEach.call(list, function(el) { console.log(el.id); }); ``` Es gibt einen guten Artikel auf MDN, der diese Technik behandelt. Beachten Sie jedoch die Warnung zur Browserkompatibilität: [...] Übergabe eines Host-Objekts (wie eine ```NodeList``) als ``this``` an eine native Methode (wie ``forEach``) ist nicht garantiert, dass sie in allen Browsern zu funktionieren und ist bekannt dafür, dass sie in einigen fehlschlägt. Während dieser Ansatz also bequem ist, könnte eine ``for``-Schleife die browser-kompatibelste Lösung sein. Update (Aug 30, 2014): Irgendwann werden Sie in der Lage sein, ES6 ```for```/```of``` zu verwenden! ```var list = document.getElementsByClassName("events"); for (const el of list) console.log(el.id); ``` Diese Funktion wird bereits von neueren Versionen von Chrome und Firefox unterstützt.
Estoy tratando de obtener el id de todos los elementos en un ``HTMLCollectionOf``. Escribí el siguiente código: ```var list = document.getElementsByClassName("events"); console.log(lista[0].id); for (clave en lista) { console.log(key.id); } ``` Pero tengo la siguiente salida en la consola: ``evento1 indefinido ``` que no es lo que esperaba. Por qué la segunda salida de consola es ``undefined`` pero la primera es ``event1``?
No puedes usar ``for``/``in`` en ``NodeList`` o ``HTMLCollection``. Sin embargo, puedes utilizar algunos métodos ```Array.prototype``, siempre y cuando los ```.call()`` y pases el ```NodeList`` o ``HTMLCollection`` como ```this``. Así que considera lo siguiente como una alternativa al bucle ``for`` de jfriend00: ```var list= document.getElementsByClassName("events"); [].forEach.call(list, function(el) { console.log(el.id); }); ``` Hay un buen artículo en MDN que cubre esta técnica. Tenga en cuenta su advertencia sobre la compatibilidad del navegador sin embargo: [...] pasar un objeto anfitrión (como un ```NodeList``) como ``this`` a un método nativo (como ``forEach``) no está garantizado que funcione en todos los navegadores y se sabe que falla en todos los navegadores. todos los navegadores y se sabe que falla en algunos. Así que, aunque este enfoque es conveniente, un bucle ``for`` puede ser la solución más compatible con los navegadores. Actualización (30 de agosto de 2014): ¡Eventualmente podrás usar ```for``/``of``` de ES6! ```var list = document.getElementsByClassName("events"); for (const el of lista) console.log(el.id); ``` Ya está soportado en versiones recientes de Chrome y Firefox.
J'essaie de définir l'id de tous les éléments d'une ``HTMLCollectionOf``. J'ai écrit le code suivant : ```var list = document.getElementsByClassName("events") ; console.log(list[0].id) ; for (key in list) { console.log(key.id) ; } ``` Mais j'ai obtenu la sortie suivante dans la console : ``événement1 undefined ``` ce qui n'est pas ce à quoi je m'attendais. Pourquoi la deuxième sortie de la console est-elle ``undefined`` alors que la première sortie de la console est ``event1`` ?
Vous ne pouvez pas utiliser ``for``/``in`` sur les ``NodeList``s ou ``HTMLCollection``s. Cependant, vous pouvez utiliser certaines méthodes ``Array.prototype``, tant que vous les ``.call()`` et que vous passez la ``NodeList`` ou la ``HTMLCollection`` en tant que ``this``. Considérez donc ce qui suit comme une alternative à la boucle ``for`` de jfriend00 : ```var list= document.getElementsByClassName("events") ; [].forEach.call(list, function(el) { console.log(el.id) ; }) ; ``` Il y a un bon article sur MDN qui couvre cette technique. Notez cependant l'avertissement concernant la compatibilité avec les navigateurs : [...] passer un objet hôte (comme une ``NodeList``) en tant que ``this`` à une méthode native (telle que ``forEach``) n'est pas garanti dans tous les tous les navigateurs et est connu pour échouer dans certains d'entre eux. Donc, bien que cette approche soit pratique, une boucle ``for`` peut être la solution la plus compatible avec les navigateurs. Mise à jour (30 août 2014) : Vous pourrez éventuellement utiliser la boucle ES6 ``for``/``of`` ! ```var list = document.getElementsByClassName("events") ; for (const el of list) console.log(el.id) ; ``` Cette fonctionnalité est déjà prise en charge dans les versions récentes de Chrome et de Firefox.
Sto cercando di impostare l'id di tutti gli elementi in una ```HTMLCollectionOf``. Ho scritto il seguente codice: ```var list = document.getElementsByClassName("events"); console.log(list[0].id); per (key in list) { console.log(key.id); } ``` Ma ho ottenuto il seguente output nella console: ```evento1 indefinito ``` che non è quello che mi aspettavo. Perché il secondo output della console è ```undefined`` ma il primo output della console è ```event1``?
Non si può usare ```for``/```in``` su ```NodeList``` o ```HTMLCollection``. Tuttavia, è possibile utilizzare alcuni metodi di ```Array.prototype``, a patto di ```.call()`` e di passare la ```NodeList`` o la ```HTMLCollection`` come ```this``. Si consideri quindi la seguente alternativa al ciclo ```for'' di jfriend00: ```var list= document.getElementsByClassName("events"); [].forEach.call(list, function(el) { console.log(el.id); }); ``` C'è un buon articolo su MDN che tratta questa tecnica. Si noti però l'avvertenza sulla compatibilità con i browser: [...] passare un oggetto host (come una ```NodeList``) come come ``this`` a un metodo nativo (come ```forEach``) non è garantito che funzioni in tutti i browser ed è noto che il metodo fallisce. tutti i browser ed è noto che in alcuni fallisce. Quindi, sebbene questo approccio sia comodo, un ciclo ``for`` potrebbe essere la soluzione più compatibile con i browser. Aggiornamento (30 agosto 2014): Alla fine sarà possibile usare ES6 ```for```/```of```! ```var list = document.getElementsByClassName("events"); per (const el di list) console.log(el.id); ``` È già supportato nelle versioni recenti di Chrome e Firefox.
175
I am 21 years old and living in a large city in Germany where smalltalk in local markets is not a common thing. A new cashier joined my local food shop. She’s always at the checkout and never doing stuff like sorting products or cleaning the floor where I could actually ask her out. I am quite new to relationships, but the signs she gave me are promising. My question is how I can ask for her number, or ask her out for coffee while she is only sitting at the checkout? I mean there are always like 5 people before and after me, and I think it would be awkward if we are changing numbers while customers are waiting behind us. Or even worse if I read the signs wrong and she rejects me? Since the store is just 5 min away from my place I visit regularly and don't want to leave a bad impression there.
Asking her out directly seems like a bad idea. Instead, in these situations, I've found something that works much better for both of you. During your conversation with her, mention some place you're planning to be in the future so she can find you there if she chooses. For example: &quot;I like to grab lunch here before going to [Public Event You Enjoy]&quot; This could be almost anything, but here are some examples: * A place your band plays * A public dance * A painting/pottery class * A wine tasting This should be something you actually enjoy, so be sure to let your excitement about your hobby be apparent when you mention it. Ex: &quot;I enjoy that they let you try lots of different wines from all around the world!&quot; If she expresses interest in the activity as well, tell her more about it so she can attend: &quot;Yeah, it's really fun. They do it every Tuesday and Thursday at 7pm - the admission fee is 5 Euro. You should check it out sometime!&quot; If she is interested in you and has time, she will probably arrange to come to the event some time and you will see her there. This is preferable because she is not under obligation to behave professionally for her work and you can spend some time chatting as equals. And if that goes well, then you have created a good opportunity to ask her on a real date. And if she doesn't come, well, you were planning to go there anyways so it's not a real loss on your part - you just spent an afternoon/evening doing something you already enjoy.
Ich bin 21 Jahre alt und lebe in einer Großstadt in Deutschland, wo Smalltalk in lokalen Märkten nicht üblich ist. In meinem örtlichen Lebensmittelladen gibt es eine neue Kassiererin. Sie steht immer an der Kasse und macht nie Dinge wie das Sortieren von Produkten oder das Reinigen des Bodens, bei denen ich sie tatsächlich um ein Date bitten könnte. Ich bin in Sachen Beziehungen noch recht unerfahren, aber die Zeichen, die sie mir gegeben hat, sind vielversprechend. Meine Frage ist, wie ich sie nach ihrer Nummer fragen kann oder sie auf einen Kaffee einladen kann, während sie nur an der Kasse sitzt? Ich meine, es sind immer etwa 5 Leute vor und nach mir, und ich denke, es wäre unangenehm, wenn wir Nummern tauschen, während hinter uns Kunden warten. Oder noch schlimmer, wenn ich die Schilder falsch lese und sie mich abweist? Da der Laden nur 5 Minuten von meinem Wohnort entfernt ist, besuche ich ihn regelmäßig und möchte dort keinen schlechten Eindruck hinterlassen.
Sie direkt um ein Date zu bitten, scheint eine schlechte Idee zu sein. Stattdessen habe ich in solchen Situationen etwas gefunden, das für Sie beide viel besser funktioniert. Erwähnen Sie während Ihres Gesprächs mit ihr einen Ort, an dem Sie in Zukunft sein werden, damit sie Sie dort finden kann, wenn sie möchte. Zum Beispiel: &quot;Ich esse gerne hier zu Mittag, bevor ich zu [öffentliche Veranstaltung, die Sie mögen]&quot gehe; Das kann fast alles sein, aber hier sind einige Beispiele: * Ein Ort, an dem Ihre Band spielt * Eine öffentliche Tanzveranstaltung * Ein Mal-/Töpferkurs * Eine Weinverkostung Dies sollte etwas sein, das Ihnen wirklich Spaß macht, also lassen Sie Ihre Begeisterung für Ihr Hobby deutlich werden, wenn Sie es erwähnen. Beispiel: &quot;Ich finde es toll, dass man dort viele verschiedene Weine aus der ganzen Welt probieren kann!&quot; Wenn sie ebenfalls Interesse an der Aktivität bekundet, erzählen Sie ihr mehr darüber, damit sie daran teilnehmen kann: &quot;Ja, das macht wirklich Spaß. Es findet jeden Dienstag und Donnerstag um 19 Uhr statt - der Eintritt kostet 5 Euro. Das solltest du dir mal ansehen!&quot; Wenn sie an Ihnen interessiert ist und Zeit hat, wird sie sich wahrscheinlich irgendwann zu der Veranstaltung verabreden und Sie werden sie dort sehen. Das ist besser, weil sie nicht verpflichtet ist, sich für ihre Arbeit professionell zu verhalten, und Sie können eine Zeit lang auf Augenhöhe plaudern. Und wenn das gut läuft, haben Sie eine gute Gelegenheit geschaffen, sie um ein richtiges Date zu bitten. Und wenn sie nicht kommt, nun ja, Sie hatten sowieso vor, dorthin zu gehen, also ist das kein wirklicher Verlust für Sie - Sie haben gerade einen Nachmittag/Abend mit etwas verbracht, das Ihnen ohnehin Spaß macht.
Tengo 21 años y vivo en una gran ciudad de Alemania, donde no es habitual hablar en los mercados locales. En mi tienda de alimentación se ha incorporado una nueva cajera. Siempre está en la caja y nunca haciendo cosas como clasificar productos o limpiar el suelo, donde podría invitarla a salir. Soy bastante novato en esto de las relaciones, pero las señales que me ha dado son prometedoras. Mi pregunta es cómo puedo pedirle su número o invitarla a tomar un café mientras está sentada en la caja. Quiero decir que siempre hay como 5 personas antes y después de mí, y creo que sería incómodo si estamos cambiando números mientras los clientes están esperando detrás de nosotros. ¿O peor aún si leo mal los carteles y ella me rechaza? Como la tienda está a sólo 5 minutos de mi casa, la visito regularmente y no quiero dejar una mala impresión allí.
Invitarla a salir directamente parece una mala idea. En cambio, en estas situaciones, he encontrado algo que funciona mucho mejor para ambos. Durante tu conversación con ella, menciona algún lugar en el que planees estar en el futuro para que ella pueda encontrarte allí si lo desea. Por ejemplo: &quot;Me gusta comer aquí antes de ir a [Evento público que te guste]&quot; Puede ser casi cualquier cosa, pero aquí tienes algunos ejemplos: * Un lugar donde toque tu banda * Un baile público * Una clase de pintura o cerámica * Una cata de vinos Debe ser algo que realmente disfrutes, así que asegúrate de que tu entusiasmo por tu afición sea evidente cuando lo menciones. Por ejemplo: "Me gusta que te dejen probar muchos vinos diferentes de todo el mundo"; Si ella también expresa interés por la actividad, cuéntale más cosas sobre ella para que pueda asistir: &quot;Sí, es muy divertido. Lo hacen todos los martes y jueves a las 19.00. La entrada cuesta 5 euros. Deberías ir alguna vez; Si ella está interesada en ti y tiene tiempo, probablemente se las arreglará para ir al evento alguna vez y la verás allí. Esto es preferible porque ella no tiene la obligación de comportarse profesionalmente por su trabajo y podéis pasar un rato charlando de igual a igual. Y si sale bien, habrás creado una buena oportunidad para invitarla a una cita de verdad. Y si no viene, bueno, ya tenías pensado ir de todos modos, así que no es una pérdida real por tu parte: acabas de pasar una tarde/noche haciendo algo que ya te gusta.
J'ai 21 ans et je vis dans une grande ville d'Allemagne où il n'est pas courant de parler dans les marchés locaux. Une nouvelle caissière a rejoint mon magasin d'alimentation local. Elle est toujours à la caisse et ne fait jamais de choses comme trier les produits ou nettoyer le sol, ce qui me permettrait de l'inviter à sortir. Je suis assez novice en matière de relations, mais les signes qu'elle m'a donnés sont prometteurs. Ma question est de savoir comment je peux lui demander son numéro ou l'inviter à prendre un café alors qu'elle est seulement assise à la caisse. Je veux dire qu'il y a toujours 5 personnes avant et après moi, et je pense que ce serait gênant si nous changions de numéro pendant que les clients attendent derrière nous. Ou pire encore, si je lis mal les panneaux et qu'elle me rejette ? Comme le magasin est à 5 minutes de chez moi, j'y vais régulièrement et je ne veux pas y laisser une mauvaise impression.
L'inviter directement à sortir semble être une mauvaise idée. Dans ce genre de situation, j'ai trouvé une solution qui fonctionne beaucoup mieux pour vous deux. Au cours de votre conversation avec elle, mentionnez un endroit où vous prévoyez d'aller à l'avenir, afin qu'elle puisse vous y retrouver si elle le souhaite. Par exemple : &quot;J'aime déjeuner ici avant d'aller à [événement public que vous appréciez]&quot ; Il peut s'agir de n'importe quoi, mais voici quelques exemples : * Un endroit où votre groupe joue * Une danse publique * Un cours de peinture/poterie * Une dégustation de vin Il doit s'agir d'une activité que vous appréciez réellement, aussi veillez à laisser transparaître votre enthousiasme pour votre hobby lorsque vous le mentionnez. Ex : &quot;J'aime qu'ils vous fassent goûter des vins différents du monde entier!&quot ; Si elle se montre également intéressée par l'activité, parlez-lui en davantage pour qu'elle puisse y participer : &quot;Yeah, it's really fun. Ils le font tous les mardis et jeudis à 19 heures - le prix d'entrée est de 5 euros. Tu devrais y aller de temps en temps!&quot ; Si vous l'intéressez et qu'elle a le temps, elle s'arrangera probablement pour venir à l'événement un jour ou l'autre et vous la verrez là-bas. C'est préférable, car elle n'est pas obligée de se comporter de manière professionnelle pour son travail et vous pouvez passer du temps à discuter d'égal à égal. Si tout se passe bien, vous avez créé une bonne occasion de l'inviter à un vrai rendez-vous. Et si elle ne vient pas, vous aviez prévu d'y aller de toute façon, ce n'est donc pas une vraie perte pour vous - vous venez de passer un après-midi/une soirée à faire quelque chose que vous aimez déjà.
Ho 21 anni e vivo in una grande città della Germania dove le chiacchiere nei mercati locali non sono una cosa comune. Nel mio negozio di alimentari locale è entrata una nuova cassiera. Sta sempre alla cassa e non fa mai cose come smistare i prodotti o pulire il pavimento per cui potrei chiederle di uscire. Sono abbastanza nuovo alle relazioni, ma i segnali che mi ha dato sono promettenti. La mia domanda è: come posso chiederle il numero o chiederle di uscire per un caffè mentre è solo seduta alla cassa? Voglio dire, ci sono sempre 5 persone prima e dopo di me, e penso che sarebbe imbarazzante se ci scambiassimo i numeri mentre i clienti aspettano dietro di noi. O peggio ancora se leggessi male i cartelli e lei mi rifiutasse? Dato che il negozio è a soli 5 minuti da casa mia, ci vado regolarmente e non voglio lasciare una cattiva impressione.
Chiederle di uscire direttamente sembra una cattiva idea. Invece, in queste situazioni, ho trovato qualcosa che funziona molto meglio per entrambi. Durante la conversazione con lei, accennate a un luogo in cui avete intenzione di andare in futuro, in modo che possa trovarvi lì se lo desidera. Per esempio: &quot;Mi piace pranzare qui prima di andare a [evento pubblico che ti piace]&quot; Può essere qualsiasi cosa, ma ecco alcuni esempi: * Un posto dove suona la tua band * Un ballo pubblico * Un corso di pittura/ceramica * Una degustazione di vini Dovrebbe trattarsi di qualcosa che vi piace davvero, quindi assicuratevi di far trasparire l'entusiasmo per il vostro hobby quando lo menzionate. Es: &quot;Mi piace che ti facciano assaggiare molti vini diversi da tutto il mondo!&quot; Se anche lei esprime interesse per l'attività, ditele di più al riguardo in modo che possa partecipare: &quot;Sì, è molto divertente. Lo fanno ogni martedì e giovedì alle 19.00 - l'ingresso costa 5 euro. Dovresti andarci qualche volta! Se lei è interessata a te e ha tempo, probabilmente si organizzerà per venire all'evento e tu la vedrai lì. Questo è preferibile perché non ha l'obbligo di comportarsi in modo professionale per il suo lavoro e potete passare un po' di tempo a chiacchierare alla pari. Se la cosa va bene, avrete creato una buona occasione per chiederle un vero appuntamento. E se non viene, beh, avevi comunque intenzione di andarci, quindi non è una vera perdita da parte tua: hai appena trascorso un pomeriggio/serata facendo qualcosa che già ti piace.
176
You start with the number 1536. Your mission is to get to 1 in as few steps as possible. At each step, you may either multiply or divide the number you have, by either 2 or 3; but, only if the result is a whole number whose first digit is 1, 3, 4, or 9. That is all.
As Jo has already shown, this can be accomplished in 28 steps. This is minimal, and it can be proven. To help visualize this problem, we can imagine: A two-dimensional grid/chart where each point is a number of the form $3^x2^y$, with $(x,y)$ as the relevant co-ordinates. We want to find a path from $(1,9)$ to $(0,0)$ while making only one step up/down/left/right at a time, and ensuring that the numbers we step on have their most significant digit in the set {1,3,4,9}. Here is what the chart looks like for the range $(0,0)$ to $(10,10)$. The dashes represent numbers that do not begin with {1,3,4,9}, and so are unusable in our path. ```1024 3072 9216 ---- ---- ---- ---- ---- ---- ---- ---- .``` ```---- 1536 4608 13824 41472 124416 373248 1119744 3359232 10077696 30233088 .``` ```---- ---- ---- ---- ---- ---- 186624 ---- 1679616 ---- 15116544 .``` ```128 384 1152 3456 10368 31104 93312 ---- ---- ---- ---- .``` ```---- 192 ---- 1728 ---- 15552 46656 139968 419904 1259712 3779136 .``` ```32 96 ---- ---- ---- ---- ---- ---- ---- ---- 1889568 .``` ```16 48 144 432 1296 3888 11664 34992 104976 314928 944784 .``` ```---- ---- ---- ---- ---- 1944 ---- 17496 ---- 157464 472392 .``` ```4 12 36 108 324 972 ---- ---- ---- ---- ---- .``` ```---- ---- 18 ---- 162 486 1458 4374 13122 39366 118098 .``` ```1 3 9 ---- ---- ---- ---- ---- ---- 19683 ---- .``` From here, we can see two different routes of 28 steps each: (1536->373248->93312->384->48->3888->972->36->9->1) and (1536->373248->46656->3779136->944784->3888->972->36->9->1). Proving minimality: Since a path of length 28 exists (we've found two), we can rule out anything that's too far away to be used in a shortest path. Moving from (1,9) to (0,0) must take at least ten steps on its own, so we can move at most nine steps completely out of the way (and nine steps back) in a shortest route. That limits us to only considering x-coordinates up to 10; any further would require making at least ten '*3' steps, eleven '÷3' steps, and at least nine '÷2' steps, putting the route definitely longer than 28. With our x-coordinate limited to [0,10], we now look at the bottlenecks. It should be clear that any shortest route must start by going from 1536 to 93312 in seven steps, and must end by going from 3888 to 1 in nine steps. These are both forced by unique bottlenecks; there is only one way to step from $(x,7)$ to $(x,6)$ and only one way to step from $(x,3)$ to $(x,2)$ in this range. This leaves at most twelve steps to go from 93312 to 3888. Either by observation or by pointing out that there are only two ways to go from $(x,6)$ to $(x,5)$, we can see that there are exactly two shortest routes from 93312 to 3888, and both require all twelve steps. Therefore, the shortest route is 28 steps, and there are exactly two ways to do so, both of which are described in Jo's solution and below the chart.
Du beginnst mit der Zahl 1536. Deine Aufgabe ist es, in so wenigen Schritten wie möglich zur 1 zu gelangen. Bei jedem Schritt darfst du die Zahl, die du hast, entweder mit 2 oder mit 3 multiplizieren oder dividieren; aber nur, wenn das Ergebnis eine ganze Zahl ist, deren erste Ziffer 1, 3, 4 oder 9 ist. Das ist alles.
Wie Jo bereits gezeigt hat, kann dies auf folgende Weise erreicht werden 28 Schritten erreicht werden. Das ist minimal, und es kann bewiesen werden. Zur Veranschaulichung dieses Problems können wir uns vorstellen: Ein zweidimensionales Gitter/Diagramm, in dem jeder Punkt eine Zahl der Form $3^x2^y$ ist, mit $(x,y)$ als den entsprechenden Koordinaten. Wir wollen einen Weg von $(1,9)$ nach $(0,0)$ finden, wobei wir jeweils nur einen Schritt nach oben/unten/links/rechts machen und sicherstellen, dass die Zahlen, auf die wir treten, ihre höchstwertige Ziffer in der Menge {1,3,4,9} haben. So sieht das Diagramm für den Bereich $(0,0)$ bis $(10,10)$ aus. Die Bindestriche stehen für Zahlen, die nicht mit {1,3,4,9} beginnen und daher in unserem Pfad unbrauchbar sind. ```1024 3072 9216 ---- ---- ---- ---- ---- ---- ---- ---- .``` ```---- 1536 4608 13824 41472 124416 373248 1119744 3359232 10077696 30233088 .``` ```---- ---- ---- ---- ---- ---- 186624 ---- 1679616 ---- 15116544 .``` ```128 384 1152 3456 10368 31104 93312 ---- ---- ---- ---- .``` ```---- 192 ---- 1728 ---- 15552 46656 139968 419904 1259712 3779136 .``` ```32 96 ---- ---- ---- ---- ---- ---- ---- ---- 1889568 .``` ```16 48 144 432 1296 3888 11664 34992 104976 314928 944784 .``` ```---- ---- ---- ---- ---- 1944 ---- 17496 ---- 157464 472392 .``` ```4 12 36 108 324 972 ---- ---- ---- ---- ---- .``` ```---- ---- 18 ---- 162 486 1458 4374 13122 39366 118098 .``` ```1 3 9 ---- ---- ---- ---- ---- ---- 19683 ---- .``` Von hier aus können wir zwei verschiedene Wege mit jeweils 28 Schritten sehen: (1536->373248->93312->384->48->3888->972->36->9->1) und (1536->373248->46656->3779136->944784->3888->972->36->9->1). Beweis der Minimalität: Da ein Weg der Länge 28 existiert (wir haben zwei gefunden), können wir alles ausschließen, was zu weit entfernt ist, um als kürzester Weg verwendet zu werden. Die Bewegung von (1,9) nach (0,0) muss mindestens zehn Schritte dauern, also können wir höchstens neun Schritte komplett aus dem Weg gehen (und neun Schritte zurück), um den kürzesten Weg zu finden. Das schränkt die Betrachtung der x-Koordinaten auf 10 ein; für jeden weiteren Schritt müssten wir mindestens zehn '*3'-Schritte, elf '÷3'-Schritte und mindestens neun '÷2'-Schritte machen, so dass die Strecke definitiv länger als 28 wäre. Da unsere x-Koordinate auf [0,10] beschränkt ist, können wir nun die Engpässe betrachten. Es sollte klar sein, dass jede kürzeste Route von 1536 bis 93312 in sieben Schritten beginnen muss und von 3888 bis 1 in neun Schritten enden muss. Beide Wege werden durch eindeutige Engpässe erzwungen; es gibt nur einen Weg, um von $(x,7)$ nach $(x,6)$ zu gelangen, und nur einen Weg, um von $(x,3)$ nach $(x,2)$ in diesem Bereich zu gelangen. Damit bleiben höchstens zwölf Schritte, um von 93312 nach 3888 zu gelangen. Entweder durch Beobachtung oder durch den Hinweis, dass es nur zwei Möglichkeiten gibt, von $(x,6)$ nach $(x,5)$ zu gelangen, können wir sehen, dass es genau zwei kürzeste Wege von 93312 nach 3888 gibt, und beide erfordern alle zwölf Schritte. Der kürzeste Weg ist also 28 Schritte lang, und es gibt genau zwei Möglichkeiten, die beide in Jo's Lösung und unter dem Diagramm beschrieben sind.
Empiezas con el número 1536. Tu misión es llegar a 1 en el menor número de pasos posible. En cada paso, puedes multiplicar o dividir el número que tienes, por 2 o por 3; pero, sólo si el resultado es un número entero cuya primera cifra sea 1, 3, 4 o 9. Eso es todo.
Como ya ha demostrado Jo, esto puede lograrse en 28 pasos. Esto es mínimo, y se puede demostrar. Para ayudar a visualizar este problema, podemos imaginar: Una cuadrícula/cuadrícula bidimensional donde cada punto es un número de la forma $3^x2^y$, con $(x,y)$ como coordenadas relevantes. Queremos encontrar un camino desde $(1,9)$ hasta $(0,0)$ dando sólo un paso arriba/abajo/izquierda/derecha cada vez, y asegurándonos de que los números que pisamos tienen su dígito más significativo en el conjunto {1,3,4,9}. Este es el aspecto del gráfico para el intervalo $(0,0)$ a $(10,10)$. Los guiones representan números que no empiezan por {1,3,4,9}, por lo que no son utilizables en nuestro camino. ```1024 3072 9216 ---- ---- ---- ---- ---- ---- ---- ---- .``` ```---- 1536 4608 13824 41472 124416 373248 1119744 3359232 10077696 30233088 .``` ```---- ---- ---- ---- ---- ---- 186624 ---- 1679616 ---- 15116544 .``` ```128 384 1152 3456 10368 31104 93312 ---- ---- ---- ---- .``` ```---- 192 ---- 1728 ---- 15552 46656 139968 419904 1259712 3779136 .``` ```32 96 ---- ---- ---- ---- ---- ---- ---- ---- 1889568 .``` ```16 48 144 432 1296 3888 11664 34992 104976 314928 944784 .``` ```---- ---- ---- ---- ---- 1944 ---- 17496 ---- 157464 472392 .``` ```4 12 36 108 324 972 ---- ---- ---- ---- ---- .``` ```---- ---- 18 ---- 162 486 1458 4374 13122 39366 118098 .``` ```1 3 9 ---- ---- ---- ---- ---- ---- 19683 ---- .``` A partir de aquí, podemos ver dos rutas diferentes de 28 pasos cada una: (1536->373248->93312->384->48->3888->972->36->9->1) y (1536->373248->46656->3779136->944784->3888->972->36->9->1). Demostración de la minimalidad: Dado que existe un camino de longitud 28 (hemos encontrado dos), podemos descartar cualquier cosa que esté demasiado lejos para ser utilizada en un camino más corto. Movernos de (1,9) a (0,0) debe llevarnos al menos diez pasos por sí solo, así que podemos movernos como mucho nueve pasos completamente fuera del camino (y nueve pasos hacia atrás) en una ruta más corta. Esto nos limita a considerar sólo coordenadas x hasta 10; cualquier otra coordenada requeriría dar al menos diez pasos '*3', once pasos '÷3', y al menos nueve pasos '÷2', con lo que la ruta sería definitivamente más larga que 28. Con nuestra coordenada x limitada a [0,10], miramos ahora los cuellos de botella. Debe quedar claro que cualquier ruta más corta debe empezar yendo de 1536 a 93312 en siete pasos, y debe terminar yendo de 3888 a 1 en nueve pasos. Ambos están forzados por cuellos de botella únicos; sólo hay una manera de ir de $(x,7)$ a $(x,6)$ y sólo una manera de ir de $(x,3)$ a $(x,2)$ en este rango. Esto deja como mucho doce pasos para ir de 93312 a 3888. Ya sea por observación o señalando que sólo hay dos maneras de ir de $(x,6)$ a $(x,5)$, podemos ver que hay exactamente dos rutas más cortas de 93312 a 3888, y ambas requieren los doce pasos. Por lo tanto, la ruta más corta es de 28 pasos, y hay exactamente dos maneras de hacerlo, ambos de los cuales se describen en la solución de Jo y por debajo de la tabla.
Vous commencez avec le nombre 1536. Votre mission est d'atteindre le chiffre 1 en un minimum d'étapes. À chaque étape, vous pouvez multiplier ou diviser le nombre que vous avez par 2 ou 3, mais seulement si le résultat est un nombre entier dont le premier chiffre est 1, 3, 4 ou 9. C'est tout.
Comme Jo l'a déjà montré, il est possible de le faire en 28 étapes. C'est un minimum, et cela peut être prouvé. Pour aider à visualiser ce problème, nous pouvons imaginer : Une grille/un tableau à deux dimensions où chaque point est un nombre de la forme $3^x2^y$, avec $(x,y)$ comme coordonnées pertinentes. Nous voulons trouver un chemin de $(1,9)$ à $(0,0)$ en ne faisant qu'un seul pas vers le haut/bas/gauche/droite à la fois, et en nous assurant que les nombres sur lesquels nous marchons ont leur chiffre le plus significatif dans l'ensemble {1,3,4,9}. Voici à quoi ressemble le tableau pour l'intervalle $(0,0)$ à $(10,10)$. Les tirets représentent des nombres qui ne commencent pas par {1,3,4,9}, et qui sont donc inutilisables dans notre parcours. ```1024 3072 9216 ---- ---- ---- ---- ---- ---- ---- ---- .``` ```---- 1536 4608 13824 41472 124416 373248 1119744 3359232 10077696 30233088 .``` ```---- ---- ---- ---- ---- ---- 186624 ---- 1679616 ---- 15116544 .``` ```128 384 1152 3456 10368 31104 93312 ---- ---- ---- ---- .``` ```---- 192 ---- 1728 ---- 15552 46656 139968 419904 1259712 3779136 .``` ```32 96 ---- ---- ---- ---- ---- ---- ---- ---- 1889568 .``` ```16 48 144 432 1296 3888 11664 34992 104976 314928 944784 .``` ```---- ---- ---- ---- ---- 1944 ---- 17496 ---- 157464 472392 .``` ```4 12 36 108 324 972 ---- ---- ---- ---- ---- .``` ```---- ---- 18 ---- 162 486 1458 4374 13122 39366 118098 .``` ```1 3 9 ---- ---- ---- ---- ---- ---- 19683 ---- .``` A partir d'ici, nous pouvons voir deux itinéraires différents de 28 étapes chacun : (1536->373248->93312->384->48->3888->972->36->9->1) et (1536->373248->46656->3779136->944784->3888->972->36->9->1). Prouver la minimalité : Puisqu'il existe un chemin de longueur 28 (nous en avons trouvé deux), nous pouvons exclure tout ce qui est trop éloigné pour être utilisé dans un plus court chemin. Le déplacement de (1,9) à (0,0) doit prendre au moins dix pas à lui seul, de sorte que nous pouvons déplacer au maximum neuf pas complètement à l'écart (et neuf pas en arrière) dans un chemin le plus court. Nous ne pouvons donc prendre en compte que les coordonnées x jusqu'à 10 ; pour aller plus loin, il faudrait faire au moins dix pas "*3", onze pas "÷3" et au moins neuf pas "÷2", ce qui rendrait l'itinéraire définitivement plus long que 28. Notre coordonnée x étant limitée à [0,10], nous examinons maintenant les goulets d'étranglement. Il devrait être clair que tout chemin le plus court doit commencer par aller de 1536 à 93312 en sept étapes, et doit se terminer en allant de 3888 à 1 en neuf étapes. Ces deux étapes sont imposées par des goulets d'étranglement uniques ; il n'y a qu'une seule façon de passer de $(x,7)$ à $(x,6)$ et une seule façon de passer de $(x,3)$ à $(x,2)$ dans cet intervalle. Il reste donc au plus douze étapes pour passer de 93312 à 3888. Soit par observation, soit en soulignant qu'il n'y a que deux façons d'aller de $(x,6)$ à $(x,5)$, nous pouvons voir qu'il y a exactement deux chemins les plus courts pour aller de 93312 à 3888, et que les deux requièrent les douze étapes. Par conséquent, le chemin le plus court est de 28 étapes, et il y a exactement deux façons d'y parvenir, toutes deux décrites dans la solution de Jo et sous le tableau.
Si inizia con il numero 1536. La vostra missione è arrivare a 1 nel minor numero di passi possibile. A ogni passo, potete moltiplicare o dividere il numero in vostro possesso per 2 o 3; ma solo se il risultato è un numero intero la cui prima cifra è 1, 3, 4 o 9. Questo è tutto.
Come Jo ha già dimostrato, questo può essere realizzato in 28 passi. È un'operazione minima e può essere dimostrata. Per aiutare a visualizzare questo problema, possiamo immaginare: Una griglia/cartella bidimensionale in cui ogni punto è un numero della forma $3^x2^y$, con $(x,y)$ come coordinate rilevanti. Vogliamo trovare un percorso da $(1,9)$ a $(0,0)$ facendo solo un passo verso l'alto/il basso/sinistra/destra alla volta e assicurandoci che i numeri su cui facciamo un passo abbiano la loro cifra più significativa nell'insieme {1,3,4,9}. Ecco come appare il grafico per l'intervallo $(0,0)$ - $(10,10)$. I trattini rappresentano i numeri che non iniziano con {1,3,4,9} e quindi non sono utilizzabili nel nostro percorso. ```1024 3072 9216 ---- ---- ---- ---- ---- ---- ---- ---- .``` ```---- 1536 4608 13824 41472 124416 373248 1119744 3359232 10077696 30233088 .``` ```---- ---- ---- ---- ---- ---- 186624 ---- 1679616 ---- 15116544 .``` ```128 384 1152 3456 10368 31104 93312 ---- ---- ---- ---- .``` ```---- 192 ---- 1728 ---- 15552 46656 139968 419904 1259712 3779136 .``` ```32 96 ---- ---- ---- ---- ---- ---- ---- ---- 1889568 .``` ```16 48 144 432 1296 3888 11664 34992 104976 314928 944784 .``` ```---- ---- ---- ---- ---- 1944 ---- 17496 ---- 157464 472392 .``` ```4 12 36 108 324 972 ---- ---- ---- ---- ---- .``` ```---- ---- 18 ---- 162 486 1458 4374 13122 39366 118098 .``` ```1 3 9 ---- ---- ---- ---- ---- ---- 19683 ---- .``` Da qui, possiamo vedere due percorsi diversi di 28 passi ciascuno: (1536->373248->93312->384->48->3888->972->36->9->1) e (1536->373248->46656->3779136->944784->3888->972->36->9->1). Dimostrare la minimalità: Poiché esiste un percorso di lunghezza 28 (ne abbiamo trovati due), possiamo escludere tutto ciò che è troppo lontano per essere utilizzato in un percorso più breve. Lo spostamento da (1,9) a (0,0) deve richiedere almeno dieci passi da solo, quindi possiamo spostare al massimo nove passi completamente fuori dal percorso (e nove passi indietro) in un percorso più breve. Questo ci limita a considerare solo le coordinate x fino a 10; per andare oltre occorrerebbe fare almeno dieci passi '*3', undici passi '÷3' e almeno nove passi '÷2', rendendo il percorso decisamente più lungo di 28. Con la coordinata x limitata a [0,10], esaminiamo ora i colli di bottiglia. Dovrebbe essere chiaro che qualsiasi percorso più breve deve iniziare andando da 1536 a 93312 in sette passi, e deve finire andando da 3888 a 1 in nove passi. Entrambi sono costretti da colli di bottiglia unici; c'è solo un modo per andare da $(x,7)$ a $(x,6)$ e solo un modo per andare da $(x,3)$ a $(x,2)$ in questo intervallo. Rimangono quindi al massimo dodici passi per andare da 93312 a 3888. Osservando o facendo notare che ci sono solo due modi per andare da $(x,6)$ a $(x,5)$, possiamo vedere che ci sono esattamente due percorsi più brevi da 93312 a 3888, ed entrambi richiedono tutti i dodici passi. Pertanto, il percorso più breve è di 28 passi e ci sono esattamente due modi per farlo, entrambi descritti nella soluzione di Jo e sotto il grafico.
177
I want to create a simple bit of JS code that creates an image element in the background and doesn't display anything. The image element will call a tracking URL (such as Omniture) and needs to be simple and robust and work in IE 6 = ```var oImg = document.createElement("img"); oImg.setAttribute('src', 'http://www.testtrackinglink.com'); oImg.setAttribute('alt', 'na'); oImg.setAttribute('height', '1px'); oImg.setAttribute('width', '1px'); document.body.appendChild(oImg); ``` Is this the simplest but most robust (error free) way to do it?
```oImg.setAttribute('width', '1px'); ``` ```px``` is for CSS only. Use either: ```oImg.width = '1'; ``` to set a width through HTML, or: ```oImg.style.width = '1px'; ``` to set it through CSS. Note that old versions of IE don't create a proper image with ```document.createElement()```, and old versions of KHTML don't create a proper DOM Node with ```new Image()```, so if you want to be fully backwards compatible use something like: ```// IEWIN boolean previously sniffed through eg. conditional comments function img_create(src, alt, title) { var img = IEWIN ? new Image() : document.createElement('img'); img.src = src; if ( alt != null ) img.alt = alt; if ( title != null ) img.title = title; return img; } ``` Also be slightly wary of ```document.body.appendChild``` if the script may execute as the page is in the middle of loading. You can end up with the image in an unexpected place, or a weird JavaScript error on IE. If you need to be able to add it at load-time (but after the `````` element has started), you could try inserting it at the start of the body using ```body.insertBefore(body.firstChild)```. To do this invisibly but still have the image actually load in all browsers, you could insert an absolutely-positioned-off-the-page `````` as the body's first child and put any tracking/preload images you don't want to be visible in there.
Ich möchte ein einfaches Stück JS-Code erstellen, der ein Bildelement im Hintergrund erstellt und nichts anzeigt. Das Bildelement wird eine Tracking-URL (wie Omniture) aufrufen und muss einfach und robust sein und im IE 6 funktionieren = ```var oImg = document.createElement("img"); oImg.setAttribute('src', 'http://www.testtrackinglink.com'); oImg.setAttribute('alt', 'na'); oImg.setAttribute('height', '1px'); oImg.setAttribute('width', '1px'); document.body.appendChild(oImg); ```` Ist dies die einfachste, aber robusteste (fehlerfreie) Methode, dies zu tun?
```oImg.setAttribute('Breite', '1px'); ``` ```px``` ist nur für CSS. Verwenden Sie entweder: ```oImg.width = '1'; ``` um eine Breite durch HTML festzulegen, oder: ```oImg.style.width = '1px'; ``` um sie über CSS festzulegen. Beachten Sie, dass alte Versionen des IE kein richtiges Bild mit ```document.createElement()``` erzeugen, und alte Versionen von KHTML keinen richtigen DOM-Knoten mit ```new Image()``` erzeugen, wenn Sie also vollständig abwärtskompatibel sein wollen, verwenden Sie etwas wie: ```// IEWIN boolean vorher erschnüffelt durch z.B. bedingte Kommentare function img_create(src, alt, title) { var img = IEWIN ? new Image() : document.createElement('img'); img.src = src; if ( alt != null ) img.alt = alt; if ( title != null ) img.title = title; return img; } ``` Seien Sie auch etwas vorsichtig mit ```document.body.appendChild```, wenn das Skript ausgeführt werden kann, während die Seite gerade geladen wird. Es kann passieren, dass das Bild an einer unerwarteten Stelle erscheint, oder dass ein seltsamer JavaScript-Fehler im IE auftritt. Wenn Sie das Bild zum Zeitpunkt des Ladens einfügen möchten (aber nachdem das Element `````` gestartet wurde), können Sie versuchen, es am Anfang des Körpers mit ```body.insertBefore(body.firstChild)``` einzufügen. Um dies unsichtbar zu machen, aber das Bild trotzdem in allen Browsern zu laden, könnten Sie ein absolut außerhalb der Seite positioniertes `````` als erstes Kind des body einfügen und alle Tracking/Preload-Bilder, die nicht sichtbar sein sollen, dort unterbringen.
Quiero crear un simple trozo de código JS que crea un elemento de imagen en segundo plano y no muestra nada. El elemento imagen llamará a una URL de seguimiento (como Omniture) y necesita ser simple y robusto y funcionar en IE 6 = ```var oImg = document.createElement("img"); oImg.setAttribute('src', 'http://www.testtrackinglink.com'); oImg.setAttribute('alt', 'na'); oImg.setAttribute('height', '1px'); oImg.setAttribute('width', '1px'); document.body.appendChild(oImg); ```¿Es esta la forma más sencilla pero robusta (sin errores) de hacerlo?
```oImg.setAttribute('width', '1px'); ``` ```px`` es sólo para CSS. Utiliza cualquiera de los dos: ``oImg.width = '1'; ``` para establecer una anchura a través de HTML, o bien ``oImg.style.width = '1px'; ``` para establecerlo a través de CSS. Tenga en cuenta que las versiones antiguas de IE no crean una imagen apropiada con ``document.createElement()``, y las versiones antiguas de KHTML no crean un Nodo DOM apropiado con ``new Image()``, así que si quiere ser totalmente compatible con versiones anteriores use algo como: ```// IEWIN boolean previamente olfateado a través de, por ejemplo, comentarios condicionales function img_create(src, alt, title) { var img = IEWIN ? new Image() : document.createElement('img'); img.src = src; if ( alt != null ) img.alt = alt; if ( title != null ) img.title = title; return img; } ``` También hay que tener cuidado con ```document.body.appendChild`` si el script se ejecuta cuando la página está a mitad de carga. Puedes acabar con la imagen en un lugar inesperado, o con un extraño error JavaScript en IE. Si necesitas poder añadirla en tiempo de carga (pero después de que el elemento `````` se haya iniciado), podrías intentar insertarla al principio del cuerpo usando ```body.insertBefore(body.firstChild)``. Para hacer esto de forma invisible pero que la imagen se cargue en todos los navegadores, puedes insertar un `````` absolutamente posicionado fuera de la página como primer hijo del cuerpo y poner allí cualquier imagen de seguimiento/precarga que no quieras que sea visible.
Je souhaite créer un simple bout de code JS qui crée un élément d'image en arrière-plan et n'affiche rien. L'élément image appellera une URL de suivi (comme Omniture) et doit être simple et robuste et fonctionner dans IE 6 = ```var oImg = document.createElement("img") ; oImg.setAttribute('src', 'http://www.testtrackinglink.com') ; oImg.setAttribute('alt', 'na') ; oImg.setAttribute('height', '1px') ; oImg.setAttribute('width', '1px') ; document.body.appendChild(oImg) ; ```` Est-ce la façon la plus simple mais la plus robuste (sans erreur) de le faire ?
```oImg.setAttribute('width', '1px') ; ``` ``px``` est pour CSS uniquement. Utilisez l'un ou l'autre : ``oImg.width = '1' ; ``` pour définir une largeur en HTML, ou : ``oImg.style.width = '1px' ; ``` pour la définir par le biais de CSS. Notez que les anciennes versions d'IE ne créent pas d'image correcte avec ``document.createElement()``, et que les anciennes versions de KHTML ne créent pas de nœud DOM correct avec ``new Image()``, donc si vous voulez être complètement compatible avec le passé, utilisez quelque chose comme : ```// IEWIN boolean previously sniffed through eg. conditional comments function img_create(src, alt, title) { var img = IEWIN ? new Image() : document.createElement('img') ; img.src = src ; if ( alt != null ) img.alt = alt ; if ( title != null ) img.title = title ; return img ; } ``` Il faut également se méfier de ``document.body.appendChild`` si le script peut s'exécuter alors que la page est en cours de chargement. Vous pouvez vous retrouver avec une image à un endroit inattendu, ou une erreur JavaScript bizarre sur IE. Si vous avez besoin de pouvoir l'ajouter au moment du chargement (mais après que l'élément `````` ait commencé), vous pouvez essayer de l'insérer au début du corps en utilisant ``body.insertBefore(body.firstChild)``. Pour faire cela de manière invisible tout en ayant l'image chargée dans tous les navigateurs, vous pouvez insérer un élément `````` absolument positionné hors de la page comme premier enfant du corps et y placer toutes les images de suivi/préchargement que vous ne voulez pas voir apparaître.
Voglio creare un semplice codice JS che crei un elemento immagine in background e non visualizzi nulla. L'elemento immagine richiamerà un URL di monitoraggio (come Omniture) e deve essere semplice e robusto e funzionare in IE 6 = ```var oImg = document.createElement("img"); oImg.setAttribute('src', 'http://www.testtrackinglink.com'); oImg.setAttribute('alt', 'na'); oImg.setAttribute('height', '1px'); oImg.setAttribute('width', '1px'); document.body.appendChild(oImg); ``` Questo è il modo più semplice ma robusto (senza errori) per farlo?
```oImg.setAttribute('width', '1px'); ``` ```px``` è solo per i CSS. Usare o: ```oImg.width = '1''; ``` per impostare una larghezza attraverso l'HTML, oppure: ```oImg.style.width = '1px'; ``` per impostarla tramite CSS. Si noti che le vecchie versioni di IE non creano un'immagine corretta con ``document.createElement()```, e le vecchie versioni di KHTML non creano un nodo DOM corretto con ```new Image()```, quindi se si vuole essere completamente retrocompatibili si usi qualcosa come: ```// IEWIN booleano precedentemente sniffato attraverso, ad esempio, i commenti condizionali function img_create(src, alt, title) { var img = IEWIN ? new Image() : document.createElement('img'); img.src = src; if ( alt != null ) img.alt = alt; if ( title != null ) img.title = title; return img; } ``` Bisogna anche fare attenzione a ``document.body.appendChild`` se lo script può essere eseguito mentre la pagina è in fase di caricamento. Si può finire con l'immagine in un posto inaspettato o con uno strano errore JavaScript su IE. Se si ha bisogno di poterla aggiungere al momento del caricamento (ma dopo che l'elemento `````` è partito), si può provare a inserirla all'inizio del corpo, usando ```body.insertBefore(body.firstChild)``. Per farlo in modo invisibile, ma in modo che l'immagine venga effettivamente caricata in tutti i browser, si potrebbe inserire un elemento `````` assolutamente posizionato fuori dalla pagina come primo figlio del corpo e inserirvi qualsiasi immagine di tracciamento/precaricamento che non si vuole sia visibile.
178
Why is %s better than + for concatenation in python?
There are several benefits of using ```%s``` over ```+``` for string concatenation in Python: * Readability. The format string syntax is more readable, as it separates style from the data. Also, in Python, ```%s``` syntax will automatically coerce any non ```str``` types to ```str```; while concatenation only works with ```str```, and you can't concatenate ```str``` with ```int```. * Performance. In Python ```str``` is immutable, so the left and right string have to be copied into the new string for every pair of concatenation. If you concatenate four strings of length 10, you will be copying (10+10) + ((10+10)+10) + (((10+10)+10)+10) = 90 characters, instead of just 40 characters. And things gets quadratically worse as the number and size of the string increases. Java optimizes this case some of the times by transforming the series of concatenation to use ```StringBuilder```, but CPython doesn't. * For some use cases, the logging library provide an API that uses format string to create the log entry string lazily (```logging.info("blah: %s", 4)```). This is great for improved performance if the logging library decided that the current log entry will be discarded by a log filter, so it doesn't need to format the string.
Warum ist %s besser als + für die Verkettung in Python?
Es gibt mehrere Vorteile der Verwendung von ```%s`` gegenüber ```+``` für die Stringverkettung in Python: * Lesbarkeit. Die Syntax für Formatstrings ist besser lesbar, da sie den Stil von den Daten trennt. Außerdem wird in Python die ```%s```-Syntax automatisch alle nicht ``str``-Typen in ``str`` umwandeln, während die Konkatenation nur mit ``str`` funktioniert, und man kann ``str`` nicht mit ``int`` konkatenieren. * Leistung. In Python ist ```str``` unveränderlich, so dass die linke und rechte Zeichenkette für jedes Verkettungspaar in die neue Zeichenkette kopiert werden muss. Wenn Sie vier Strings der Länge 10 verketten, müssen Sie (10+10) + ((10+10)+10) + (((10+10)+10)+10) = 90 Zeichen kopieren, anstatt nur 40 Zeichen. Und mit zunehmender Anzahl und Größe der Zeichenkette wird die Situation quadratisch schlechter. Java optimiert diesen Fall einige Male, indem es die Reihe der Verkettung transformiert, um ```StringBuilder`` zu verwenden, aber CPython tut das nicht. * Für einige Anwendungsfälle bietet die Logging-Bibliothek eine API, die format string verwendet, um den Log-Eintragsstring lazily zu erstellen (````logging.info("blah: %s", 4)```). Dies verbessert die Leistung, wenn die Logging-Bibliothek entscheidet, dass der aktuelle Log-Eintrag von einem Log-Filter verworfen wird, so dass der String nicht formatiert werden muss.
¿Por qué %s es mejor que + para concatenar en python?
Usar ```%s`` en lugar de ```+`` para concatenar cadenas en Python tiene varias ventajas: * Legibilidad. La sintaxis de cadena de formato es más legible, ya que separa el estilo de los datos. Además, en Python, la sintaxis ```%s`` convertirá automáticamente cualquier tipo que no sea ```str`` en ```str``; mientras que la concatenación sólo funciona con ```str``, y no puedes concatenar ```str`` con ```int``. * Rendimiento. En Python ```str`` es inmutable, por lo que la cadena izquierda y derecha tienen que ser copiadas en la nueva cadena para cada par de concatenación. Si concatenas cuatro cadenas de longitud 10, estarás copiando (10+10) + ((10+10)+10) + (((10+10)+10)+10) = 90 caracteres, en lugar de sólo 40 caracteres. Y las cosas empeoran cuadráticamente a medida que aumenta el número y el tamaño de la cadena. Java optimiza este caso algunas veces transformando la serie de concatenación para usar ```StringBuilder``, pero CPython no lo hace. * Para algunos casos de uso, la librería de logging proporciona una API que utiliza format string para crear la cadena de entrada del log perezosamente (```logging.info("blah: %s", 4)```). Esto es genial para mejorar el rendimiento si la biblioteca de registro decide que la entrada de registro actual será descartada por un filtro de registro, por lo que no necesita formatear la cadena.
Pourquoi %s est-il meilleur que + pour la concaténation en python ?
Il y a plusieurs avantages à utiliser ``%s`` plutôt que ``+``` pour la concaténation de chaînes en Python : * La lisibilité. La syntaxe de la chaîne de format est plus lisible, car elle sépare le style des données. De plus, en Python, la syntaxe ``%s`` va automatiquement contraindre tous les types non ``str`` en ``str`` ; alors que la concaténation ne fonctionne qu'avec ``str``, et vous ne pouvez pas concaténer ``str`` avec ``int``. * Performance. En Python, ``str`` est immuable, donc les chaînes de gauche et de droite doivent être copiées dans la nouvelle chaîne pour chaque paire de concaténation. Si vous concaténé quatre chaînes de longueur 10, vous devrez copier (10+10) + ((10+10)+10) + (((10+10)+10)+10) = 90 caractères, au lieu de 40 caractères seulement. Et les choses s'aggravent quadratiquement au fur et à mesure que le nombre et la taille de la chaîne augmentent. Java optimise parfois ce cas en transformant la série de concaténation pour utiliser ``StringBuilder``, mais CPython ne le fait pas. * Pour certains cas d'utilisation, la bibliothèque de journalisation fournit une API qui utilise la chaîne de format pour créer la chaîne d'entrée du journal de manière paresseuse (``logging.info("blah : %s", 4)``). Cela permet d'améliorer les performances si la bibliothèque de journalisation décide que l'entrée de journal actuelle sera rejetée par un filtre de journal, et qu'elle n'a donc pas besoin de formater la chaîne.
Perché %s è meglio di + per la concatenazione in python?
L'uso di ```%s`` rispetto a ```+`` per la concatenazione di stringhe in Python presenta diversi vantaggi: * Leggibilità. La sintassi della stringa di formato è più leggibile, perché separa lo stile dai dati. Inoltre, in Python, la sintassi ```%s`` coercizzerà automaticamente qualsiasi tipo non ```str``` a ```str```; mentre la concatenazione funziona solo con ```str``` e non è possibile concatenare ```str``` con ```int``. * Prestazioni. In Python ```str``` è immutabile, quindi la stringa di sinistra e quella di destra devono essere copiate nella nuova stringa per ogni coppia di concatenazioni. Se si concatenano quattro stringhe di lunghezza 10, si copiano (10+10) + ((10+10)+10) + (((10+10)+10)+10) = 90 caratteri, invece di soli 40 caratteri. E le cose peggiorano quadraticamente con l'aumentare del numero e delle dimensioni della stringa. Java ottimizza questo caso in parte trasformando la serie di concatenazioni per usare ```StringBuilder``, ma CPython non lo fa. * Per alcuni casi d'uso, le librerie di logging forniscono un'API che usa format string per creare pigramente la stringa della voce di log (```logging.info("blah: %s", 4)```). Questo è ottimo per migliorare le prestazioni se la libreria di log decide che la voce di log corrente sarà scartata da un filtro di log, quindi non ha bisogno di formattare la stringa.
179
I had an interview with an employer working on a software-based vehicle solution. Before going further in the interview process, he gave me a task to find out if a potential customer (automotive OEMs) is interested. My question is, how can I approach a potential customer and arrange some time together to present to them the solution?. I'm intending to use Linkedin, but I'm not sure how to proceed. * Who to contact (I mean the person position in the company) * How to formulate the request?
Run (and run fast) - here are just a few points to consider: * That's a very unorthodox task for somebody still in the interviewing stage. * How you going to present a solution you aren't familiar with? * Since you aren't an employee of said company yet you have no grounds to represent them or even hustle their products. * You aren't on their payroll yet so why should you waste your time looking for customers? * There are a bunch of legal issues arising from such a 'task' (think NDA etc..). * How will your potential employer determine if your task has been carried out successfully? * Any CEO/CTO or even higher management of any automotive company will NOT engage in such a conversation with a random stranger. * Such an unprofessional approach is extremely disrespectful of the prospective customer's time. These are all major red flags and should lead any mentally sane person to the conclusion that the person asked for such tasks is unreasonable and has no clue about business in general. Additionally - what kind of impression do you think they will have of you or your potential, future employer considering the above mentioned points? Thank them for their time and continue applying elsewhere because this company is a nut-house.
Ich hatte ein Vorstellungsgespräch mit einem Arbeitgeber, der an einer softwarebasierten Fahrzeuglösung arbeitet. Bevor ich das Gespräch fortsetzte, gab er mir die Aufgabe, herauszufinden, ob ein potenzieller Kunde (Automobilhersteller) interessiert ist. Meine Frage lautet: Wie kann ich einen potenziellen Kunden ansprechen und einen Termin vereinbaren, um ihm die Lösung zu präsentieren? Ich habe vor, Linkedin zu nutzen, aber ich bin mir nicht sicher, wie ich vorgehen soll. * Wen soll ich kontaktieren (ich meine die Position der Person im Unternehmen)? * Wie formuliere ich die Anfrage?
Laufen Sie (und zwar schnell) - hier sind nur einige Punkte, die Sie beachten sollten: * Das ist eine sehr unorthodoxe Aufgabe für jemanden, der sich noch in der Bewerbungsphase befindet. * Wie wollen Sie eine Lösung präsentieren, mit der Sie nicht vertraut sind? * Da Sie noch kein Angestellter des besagten Unternehmens sind, haben Sie keinen Grund, es zu vertreten oder gar seine Produkte anzupreisen. * Sie stehen noch nicht auf ihrer Gehaltsliste, warum sollten Sie also Ihre Zeit mit der Suche nach Kunden verschwenden? * Es gibt einen Haufen rechtlicher Probleme, die sich aus einer solchen "Aufgabe" ergeben (denken Sie an NDA usw.). * Wie wird Ihr potenzieller Arbeitgeber feststellen, ob Ihre Aufgabe erfolgreich ausgeführt wurde? * Jeder CEO/CTO oder sogar die höhere Führungsebene eines Automobilunternehmens wird sich NICHT auf ein solches Gespräch mit einem beliebigen Fremden einlassen. * Ein solch unprofessionelles Vorgehen ist äußerst respektlos gegenüber der Zeit des potenziellen Kunden. Dies sind alles wichtige Warnsignale, die jeden geistig gesunden Menschen zu dem Schluss bringen sollten, dass die Person, die um solche Aufgaben gebeten wird, unvernünftig ist und keine Ahnung vom Geschäftsleben hat. Außerdem - was für einen Eindruck wird man wohl von Ihnen oder Ihrem potenziellen künftigen Arbeitgeber haben, wenn man die oben genannten Punkte berücksichtigt? Bedanken Sie sich für ihre Zeit und bewerben Sie sich woanders, denn dieses Unternehmen ist ein Irrenhaus.
Tuve una entrevista con un empresario que trabaja en una solución de software para vehículos. Antes de avanzar en el proceso de la entrevista, me encargó la tarea de averiguar si un cliente potencial (fabricantes de equipos originales de automoción) está interesado. Mi pregunta es, ¿cómo puedo acercarme a un cliente potencial y concertar una cita para presentarle la solución? Tengo la intención de utilizar Linkedin, pero no estoy seguro de cómo proceder. * Con quién contactar (me refiero a la posición de la persona en la empresa) * ¿Cómo formular la solicitud?
Corre (y corre rápido): aquí tienes algunos puntos a tener en cuenta: * Es una tarea muy poco ortodoxa para alguien que aún está en la fase de entrevista. * ¿Cómo vas a presentar una solución con la que no estás familiarizado? * Dado que aún no eres empleado de dicha empresa, no tienes derecho a representarla ni a promocionar sus productos. * Todavía no estás en su nómina, así que ¿por qué perder el tiempo buscando clientes? * Hay un montón de problemas legales derivados de tal "tarea" (piensa en acuerdos de confidencialidad, etc.). * ¿Cómo determinará tu empleador potencial si tu tarea se ha llevado a cabo con éxito? * Cualquier CEO/CTO o incluso un alto directivo de una empresa automovilística NO entablará una conversación de este tipo con un desconocido. * Un enfoque tan poco profesional es una gran falta de respeto por el tiempo del cliente potencial. Todas estas son señales de alarma importantes y deberían llevar a cualquier persona mentalmente cuerda a la conclusión de que la persona a la que se le piden estas tareas no es razonable y no tiene ni idea de negocios en general. Además, ¿qué impresión crees que se llevarán de ti o de tu posible futuro empleador teniendo en cuenta los puntos mencionados? Agradézcales su tiempo y siga solicitando trabajo en otros sitios, porque esta empresa es un manicomio.
J'ai eu un entretien avec un employeur qui travaille sur une solution logicielle pour les véhicules. Avant d'aller plus loin dans le processus d'entretien, il m'a confié la tâche de découvrir si un client potentiel (équipementiers automobiles) est intéressé. Ma question est la suivante : comment puis-je approcher un client potentiel et convenir d'un rendez-vous pour lui présenter la solution ? J'ai l'intention d'utiliser Linkedin, mais je ne sais pas trop comment procéder. * Qui contacter (je veux dire la position de la personne dans l'entreprise) ? * Comment formuler la demande ?
Courez (et courez vite) - voici quelques points à prendre en considération : * C'est une tâche très peu orthodoxe pour quelqu'un qui en est encore au stade de l'entretien. * Comment allez-vous présenter une solution que vous ne connaissez pas ? * Vous n'êtes pas un employé de l'entreprise en question, vous n'avez donc aucune raison de la représenter ou même de vendre ses produits. * Vous n'êtes pas encore salarié, alors pourquoi perdre votre temps à chercher des clients ? * Vous n'êtes pas encore salarié de l'entreprise, alors pourquoi perdre votre temps à chercher des clients ? * Comment votre employeur potentiel déterminera-t-il si votre tâche a été menée à bien ? * Un PDG ou un cadre supérieur d'une entreprise automobile ne s'engagera PAS dans une telle conversation avec un inconnu. * Une telle approche non professionnelle est extrêmement irrespectueuse du temps du client potentiel. Il s'agit là de signaux d'alarme majeurs qui devraient amener toute personne saine d'esprit à conclure que la personne à qui l'on demande de telles tâches n'est pas raisonnable et n'a aucune idée de ce qu'est le monde des affaires en général. En outre, quelle impression pensez-vous qu'ils auront de vous ou de votre futur employeur potentiel, compte tenu des points susmentionnés ? Remerciez-les pour leur temps et continuez à postuler ailleurs, car cette entreprise est une maison de fous.
Ho avuto un colloquio con un datore di lavoro che lavora a una soluzione per veicoli basata su software. Prima di andare avanti nel processo di colloquio, mi ha dato il compito di scoprire se un potenziale cliente (OEM del settore automobilistico) è interessato. La mia domanda è: come posso avvicinare un potenziale cliente e organizzare un po' di tempo insieme per presentargli la soluzione? Ho intenzione di utilizzare Linkedin, ma non sono sicuro di come procedere. * Chi contattare (intendo la posizione della persona nell'azienda). * Come formulare la richiesta?
Correte (e correte): ecco alcuni punti da considerare: * Si tratta di un compito poco ortodosso per una persona ancora in fase di colloquio. * Come pensi di presentare una soluzione che non conosci? * Dal momento che non siete ancora un dipendente dell'azienda in questione, non avete alcun motivo per rappresentarla o per pubblicizzare i suoi prodotti. * Non sei ancora sul loro libro paga, quindi perché dovresti perdere tempo a cercare clienti? * Ci sono un mucchio di problemi legali che derivano da un tale "compito" (pensate all'NDA, ecc.). * Come farà il vostro potenziale datore di lavoro a stabilire se il vostro compito è stato portato a termine con successo? * Qualsiasi amministratore delegato/direttore generale o dirigente di un'azienda automobilistica NON intraprenderà una conversazione di questo tipo con un estraneo a caso. * Un approccio così poco professionale è estremamente irrispettoso del tempo del potenziale cliente. Questi sono tutti segnali di allarme importanti e dovrebbero portare qualsiasi persona mentalmente sana di mente a concludere che la persona a cui è stato chiesto di svolgere tali compiti è irragionevole e non ha alcuna idea del mondo degli affari in generale. Inoltre, che tipo di impressione pensate che avranno di voi o del vostro potenziale futuro datore di lavoro, considerando i punti sopra citati? Ringraziateli per il loro tempo e continuate a fare domanda altrove perché questa azienda è una gabbia di matti.
180
When an expendable booster rocket stage nears the end of its burn, does the guidance computer shut the engine(s) off at a certain velocity/altitude for the mission, or does the stage completely exhaust its propellants?
First stages are generally run to depletion (though not complete depletion). First stage ascents often use a preprogrammed, open loop guidance system to get out of the atmosphere with a good chunk of downrange velocity. Because winds aloft and other factors may vary, first stage performance also varies somewhat. Upper stage guidance is almost always closed loop, targeting a specific position and velocity combination. As a result, upper stages of boosters are shut down when that target is reached, with some amount of reserve propellants left to cover dispersions during ascent and a disposal burn. Liquid fueled first stages are not run dry. Cutoff is triggered with some amount left in the tank. This is because the turbopumps operate at ridiculous velocities and need something to pump, at a specific inlet pressure. The heat source (gas generator, expander, or preburner) that drives the pump is downstream of the inlet in the flow path, so cutoff has to happen by cutting off the drive force to the pump before the inlet loses pressure or runs dry. If that pressure drops below minimum specifications or if the inlet goes dry, you will get cavitation and/or overspeed conditions, both of which would result in a violent reconfiguration of the hardware. Solid lower stages are much simpler in this regard. At some point, the thrust will tail off until the booster no longer supports its own weight. At that point, it is jettisoned.
Schaltet der Leitcomputer einer Trägerraketenstufe, die sich dem Ende ihrer Verbrennung nähert, das/die Triebwerk(e) bei einer bestimmten Geschwindigkeit/Höhe für die Mission aus, oder erschöpft die Stufe ihren Treibstoff vollständig?
Die ersten Stufen werden im Allgemeinen bis zur Erschöpfung betrieben (wenn auch nicht bis zur vollständigen Erschöpfung). Für den Aufstieg der ersten Stufe wird häufig ein vorprogrammiertes, offenes Leitsystem verwendet, um die Atmosphäre mit einer hohen Abstiegsgeschwindigkeit zu verlassen. Da die Winde in der Luft und andere Faktoren variieren können, variiert auch die Leistung der ersten Stufe etwas. Die Steuerung der Oberstufe ist fast immer ein geschlossener Regelkreis, der eine bestimmte Kombination aus Position und Geschwindigkeit anstrebt. Daher werden die Oberstufen der Booster bei Erreichen dieses Ziels abgeschaltet, wobei eine gewisse Menge an Reservetreibstoff übrig bleibt, um die Dispersionen während des Aufstiegs und eines Entsorgungsbrennens abzudecken. Die mit Flüssigtreibstoff betriebenen ersten Stufen werden nicht leergefahren. Die Abschaltung wird mit einer gewissen Restmenge im Tank ausgelöst. Der Grund dafür ist, dass die Turbopumpen mit lächerlichen Geschwindigkeiten arbeiten und etwas zum Pumpen benötigen, und zwar bei einem bestimmten Eingangsdruck. Die Wärmequelle (Gasgenerator, Expander oder Vorbrenner), die die Pumpe antreibt, befindet sich stromabwärts des Einlasses im Strömungsweg, so dass die Abschaltung durch Unterbrechung der Antriebskraft für die Pumpe erfolgen muss, bevor der Einlass Druck verliert oder trocken läuft. Wenn der Druck unter die Mindestspezifikationen fällt oder der Einlass trocken läuft, kommt es zu Kavitation und/oder Überdrehzahl, was beides zu einer gewaltsamen Neukonfiguration der Hardware führen würde. Feste Unterstufen sind in dieser Hinsicht viel einfacher. Irgendwann lässt der Schub nach, bis der Booster sein eigenes Gewicht nicht mehr tragen kann. An diesem Punkt wird er abgeworfen.
Cuando una etapa de un cohete prescindible se acerca al final de su combustión, ¿apaga el ordenador de guiado los motores a una determinada velocidad/altitud para la misión, o agota la etapa completamente sus propulsores?
Las primeras etapas suelen funcionar hasta el agotamiento (aunque no hasta el agotamiento total). Los ascensos de la primera etapa suelen utilizar un sistema de guiado preprogramado de bucle abierto para salir de la atmósfera con una buena cantidad de velocidad de descenso. Como los vientos en el aire y otros factores pueden variar, el rendimiento de la primera etapa también varía un poco. El guiado de la etapa superior es casi siempre de bucle cerrado, con una combinación específica de posición y velocidad. Como resultado, las etapas superiores de los propulsores se apagan cuando se alcanza ese objetivo, dejando cierta cantidad de propulsantes de reserva para cubrir las dispersiones durante el ascenso y un quemado de desecho. Las primeras etapas alimentadas con combustible líquido no se agotan. La desconexión se produce cuando queda cierta cantidad en el depósito. Esto se debe a que las turbobombas funcionan a velocidades ridículas y necesitan algo que bombear, a una presión de entrada específica. La fuente de calor (generador de gas, expansor o prequemador) que acciona la bomba se encuentra aguas abajo de la entrada en la trayectoria del flujo, por lo que el corte tiene que producirse cortando la fuerza de accionamiento de la bomba antes de que la entrada pierda presión o se quede seca. Si esa presión cae por debajo de las especificaciones mínimas o si la entrada se queda seca, se producirán condiciones de cavitación y/o sobrevelocidad, que provocarían una reconfiguración violenta del hardware. Las etapas inferiores sólidas son mucho más sencillas en este sentido. En algún momento, el empuje disminuirá hasta que el propulsor deje de soportar su propio peso. En ese momento, se desecha.
Lorsqu'un étage de fusée d'appoint non réutilisable approche de la fin de sa combustion, l'ordinateur de guidage coupe-t-il le(s) moteur(s) à une certaine vitesse/altitude pour la mission, ou l'étage épuise-t-il complètement ses ergols ?
Les premiers étages sont généralement exploités jusqu'à épuisement (mais pas complètement). Les ascensions du premier étage utilisent souvent un système de guidage préprogrammé en boucle ouverte pour sortir de l'atmosphère avec une bonne dose de vitesse. Comme les vents en altitude et d'autres facteurs peuvent varier, les performances du premier étage varient aussi quelque peu. Le guidage de l'étage supérieur est presque toujours en boucle fermée et vise une combinaison spécifique de position et de vitesse. Par conséquent, les étages supérieurs des boosters sont arrêtés lorsque cette cible est atteinte, avec une certaine réserve d'ergols pour couvrir les dispersions pendant l'ascension et la combustion d'élimination. Les premiers étages à carburant liquide ne sont pas mis à sec. La coupure est déclenchée lorsqu'il reste une certaine quantité dans le réservoir. En effet, les turbopompes fonctionnent à des vitesses ridicules et ont besoin de quelque chose à pomper, à une pression d'entrée spécifique. La source de chaleur (générateur de gaz, détendeur ou pré-brûleur) qui actionne la pompe se trouve en aval de l'entrée dans le circuit d'écoulement, de sorte que la coupure doit se produire en coupant la force d'entraînement de la pompe avant que l'entrée ne perde de la pression ou ne se tarisse. Si la pression tombe en dessous des spécifications minimales ou si l'entrée s'assèche, vous obtiendrez des conditions de cavitation et/ou de survitesse, qui entraîneront toutes deux une reconfiguration violente du matériel. Les étages inférieurs solides sont beaucoup plus simples à cet égard. À un moment donné, la poussée diminue jusqu'à ce que le booster ne supporte plus son propre poids. Il est alors largué.
Quando uno stadio di un razzo booster sacrificabile si avvicina alla fine della sua combustione, il computer di guida spegne i motori a una certa velocità/altitudine per la missione, o lo stadio esaurisce completamente i suoi propellenti?
I primi stadi sono generalmente portati all'esaurimento (anche se non all'esaurimento completo). Le ascese del primo stadio spesso utilizzano un sistema di guida preprogrammato e ad anello aperto per uscire dall'atmosfera con una buona dose di velocità di discesa. Poiché i venti in quota e altri fattori possono variare, anche le prestazioni del primo stadio variano in parte. La guida dello stadio superiore è quasi sempre a circuito chiuso e mira a una specifica combinazione di posizione e velocità. Di conseguenza, gli stadi superiori dei booster vengono spenti quando viene raggiunto l'obiettivo, lasciando una certa quantità di propellente di riserva per coprire le dispersioni durante la salita e la combustione di smaltimento. I primi stadi a combustibile liquido non si esauriscono. Lo spegnimento avviene quando rimane una certa quantità di propellente nel serbatoio. Questo perché le turbopompe operano a velocità ridicole e hanno bisogno di qualcosa da pompare, a una specifica pressione di ingresso. La fonte di calore (generatore di gas, espansore o prebruciatore) che aziona la pompa si trova a valle dell'ingresso nel percorso del flusso, quindi il cutoff deve avvenire interrompendo la forza motrice della pompa prima che l'ingresso perda pressione o si esaurisca. Se la pressione scende al di sotto delle specifiche minime o se l'ingresso si asciuga, si verificheranno condizioni di cavitazione e/o sovravelocità, che comporterebbero entrambe una violenta riconfigurazione dell'hardware. Gli stadi inferiori solidi sono molto più semplici da questo punto di vista. A un certo punto, la spinta diminuisce fino a quando il booster non sostiene più il proprio peso. A quel punto, viene sganciato.
181
Is &quot;ima&quot; an informal spelling of &quot;I must&quot;? MegaCharizardZord Replying to @nytimes about COVID-19 vaccine: i just hope when i take it don't die lol. i trust the government in Canada, but if I do get something ima sue the shit out of em lol. Source: Twitter
Ima is an informal contraction of I'm going to when it's used in going-to future construction - not in sentences like I'm going to London etc. It's also written i'ma or imma in informal conversations. How did I'm going to come to be pronounced/spelt that way? In casual speech, we tend to drop consonants that require more effort to articulate, assimilate nearby consonants, drop weak vowels etc., for the ease of articulation. Grammatical words that don't have any meaning on their own (function words?) like have to, going to (not present continuous), has, is, was, will etc., are highly susceptible to these sound changes. For instance, have to is often pronounced hafta, trying to is pronounced tryna, want to is wanna etc etc. The same thing happened to the phrase I'm going to. There are a few processes involved in the reduction of I'm going to to ima. * I'm going to → I'm gonna: the consonant t is often dropped in many other clusters and grammatical constructions as well (as in tryna, wanna etc). Here it's dropped and the vowel of to—which is usually a schwa [ə]—is linked with the preceding word; going to → gonna: [ˈɡəʊɪ̃ŋtə] → [ˈgə̃nə] * Deletion of the /g/: plosives (/g t d k/ etc) require great effort to articulate (the air is completely blocked and then released), so people dropped the plosive /g/ to make its articulation easier: [aɪ̃m gə̃nə] → [aɪ̃m ə̃nə] (i'm ana) * linking I'm and gonna: In causal and connected speech, consonants and vowels are often linked by a process called liaison, so both I'm and gonna join together and become [aɪ̃mə̃nə] (i'mana). * Syncope of the vowel in the second syllable: Unstressed schwas are often lost through syncope (for example, 'chocolate' is choc.late for most speakers). If we removed the schwa from the second syllable, we'd get [aɪmnə] (i'mna). * Deletion of /n/: It's simple cluster reduction. In English, two nasals that are next to each other are often reduced to a single nasal (as in damn), so the /n/ is deleted, yielding in this case [aɪ̃mə] (i'ma). Or people dropped the /n/ for the sake of ease. Some people further reduce the diphthong [aɪ] it to something like [a], which results in [ãmə] (ama) That's why people spell it that way. It's highly informal and as TypeIA pointed out in a comment, it's mostly a verbal thing and is not usually found in written form. It's commonly found in chatspeak or lolspeak. You shouldn't write it in any kind of writing.
Ist &quot;ima&quot; eine umgangssprachliche Schreibweise von &quot;ich muss&quot;? MegaCharizardZord Antwort auf @nytimes über COVID-19-Impfstoff: Ich hoffe nur, dass ich nicht sterbe, wenn ich es nehme lol. Ich vertraue der Regierung in Kanada, aber wenn ich etwas bekomme, werde ich sie verklagen lol. Quelle: Twitter
Ima ist eine informelle Abkürzung von I'm going to, wenn es in der Zukunftskonstruktion verwendet wird - nicht in Sätzen wie I'm going to London usw. In informellen Gesprächen wird es auch i'ma oder imma geschrieben. Wie kam es dazu, dass I'm going to so ausgesprochen/geschrieben wird? In der Umgangssprache neigen wir dazu, Konsonanten, deren Artikulation mehr Mühe erfordert, wegzulassen, benachbarte Konsonanten zu assimilieren, schwache Vokale wegzulassen usw., um die Artikulation zu erleichtern. Grammatikalische Wörter, die für sich genommen keine Bedeutung haben (Funktionswörter?), wie müssen, werden (nicht im Präsens), haben, ist, war, wird usw., sind sehr anfällig für diese Lautveränderungen. Zum Beispiel wird have to oft als hafta ausgesprochen, trying to als tryna, want to als wanna usw. usw. Das Gleiche gilt für die Phrase I'm going to. Bei der Reduktion von I'm going to zu ima gibt es mehrere Prozesse. * I'm going to → I'm gonna: Der Konsonant t wird auch in vielen anderen Clustern und grammatikalischen Konstruktionen oft weggelassen (wie in tryna, wanna usw.). Hier wird es weggelassen und der Vokal von to - normalerweise ein Schwa [ə] - wird mit dem vorangehenden Wort verbunden; going to → gonna: [ˈɡəʊɪ̃ŋtə] → [ˈgə̃nə] * Streichung des /g/: Plosive (/g t d k/ usw.) lassen sich nur mit großer Anstrengung artikulieren (die Luft wird vollständig blockiert und dann wieder freigesetzt), daher hat man den Plosiv /g/ weggelassen, um seine Artikulation zu erleichtern: [aɪ̃m gə̃nə] → [aɪ̃m ə̃nə] (ich bin ana) * Verknüpfung von I'm und gonna: In der kausalen und zusammenhängenden Sprache werden Konsonanten und Vokale oft durch einen Prozess verbunden, der Liaison genannt wird, so dass sowohl I'm als auch gonna sich zusammenfügen und zu [aɪ̃mə̃nə] (i'mana) werden. * Synkope des Vokals in der zweiten Silbe: Unbetonte Schwas gehen oft durch Synkope verloren (z. B. ist "chocolate" für die meisten Sprecher choc.late). Wenn wir das Schwa aus der zweiten Silbe entfernen, erhalten wir [aɪmnə] (i'mna). * Streichung von /n/: Das ist eine einfache Clusterreduktion. Im Englischen werden zwei Nasale, die nebeneinander stehen, oft zu einem einzigen Nasal reduziert (wie in damn), also wird das /n/ gestrichen, was in diesem Fall [aɪ̃mə] (i'ma) ergibt. Oder man hat das /n/ der Einfachheit halber weggelassen. Manche Menschen reduzieren den Diphthong [aɪ] weiter zu etwas wie [a], was zu [ãmə] (ama) führt. Das ist der Grund, warum die Leute es so schreiben. Es ist sehr informell und wie TypeIA in einem Kommentar anmerkte, ist es hauptsächlich eine mündliche Sache und wird normalerweise nicht in schriftlicher Form verwendet. Man findet es häufig in Chatspeak oder Lolspeak. Du solltest es nicht in irgendeiner Form schreiben.
¿Es &quot;ima&quot; una grafía informal de &quot;debo&quot;? MegaCharizardZord En respuesta a @nytimes sobre la vacuna COVID-19: La gente de la ciudad se ha dado cuenta de que no se trata de un problema de salud pública, sino de un problema de salud pública, y que no se trata de un problema de salud pública, sino de un problema de salud pública. Fuente: Twitter
Ima es una contracción informal de I'm going to cuando se utiliza en construcciones de futuro - no en frases como I'm going to London, etc. También se escribe i'ma o imma en conversaciones informales. ¿Cómo ha llegado I'm going to a pronunciarse/escribirse así? En el habla informal, tendemos a suprimir consonantes que requieren más esfuerzo para articularlas, asimilar consonantes cercanas, suprimir vocales débiles, etc., para facilitar la articulación. Las palabras gramaticales que no tienen significado por sí mismas (¿palabras de función?) como have to, going to (no presente continuo), has, is, was, will etc., son muy susceptibles a estos cambios de sonido. Por ejemplo, have to suele pronunciarse hafta, trying to se pronuncia tryna, want to es wanna etc etc. Lo mismo ocurre con la frase I'm going to. Hay varios procesos que intervienen en la reducción de I'm going to a ima. * I'm going to → I'm gonna: la consonante t se suele soltar también en muchos otros grupos y construcciones gramaticales (como en tryna, wanna etc). Aquí se suelta y la vocal de to -que suele ser una schwa [ə]- se une a la palabra precedente; going to → gonna: [ˈɡəʊɪ̃ŋtə] → [ˈgə̃nə]. * Supresión de la /g/: las plosivas (/g t d k/ etc) requieren un gran esfuerzo para articularse (el aire se bloquea completamente y luego se suelta), por lo que la gente suprimió la plosiva /g/ para facilitar su articulación: [aɪ̃m gə̃nə] → [aɪ̃m ə̃nə] (soy ana). * enlazar I'm y gonna: En el habla causal y conectada, las consonantes y las vocales suelen enlazarse mediante un proceso llamado enlace, por lo que tanto I'm como gonna se unen y se convierten en [aɪ̃mə̃nə] (i'mana). * Síncopa de la vocal en la segunda sílaba: Las schwas no acentuadas suelen perderse por síncopa (por ejemplo, 'chocolate' es choc.late para la mayoría de los hablantes). Si elimináramos la schwa de la segunda sílaba, obtendríamos [aɪmnə] (i'mna). * Supresión de /n/: Es una simple reducción de cluster. En inglés, dos nasales que están una al lado de la otra suelen reducirse a una sola nasal (como en damn), por lo que se elimina la /n/, dando lugar en este caso a [aɪ̃mə] (i'ma). O se ha suprimido la /n/ por facilidad. Algunos reducen el diptongo [aɪ] a algo parecido a [a], lo que da como resultado [ãmə] (ama). Por eso la gente lo escribe así. Es muy informal y, como TypeIA señaló en un comentario, es sobre todo algo verbal y no suele encontrarse en forma escrita. Es común encontrarlo en chatspeak o lolspeak. No deberías escribirlo en ningún tipo de escrito.
Est-ce que &quot;ima&quot ; est une orthographe informelle de &quot;je dois&quot; ? Je ne sais pas ce que je vais faire, mais j'ai l'impression que c'est une bonne chose : J'espère juste que quand je le prendrai, je ne mourrai pas lol. Je fais confiance au gouvernement du Canada, mais si j'attrape quelque chose, je les poursuivrai en justice lol. Source : Twitter
Ima est une contraction informelle de I'm going to lorsqu'il est utilisé dans une construction future - pas dans des phrases comme I'm going to London etc. On l'écrit également i'ma ou imma dans les conversations informelles. Comment I'm going to en est-il venu à être prononcé/étiqueté de cette façon ? Dans le langage courant, nous avons tendance à laisser tomber les consonnes qui demandent plus d'effort pour être articulées, à assimiler les consonnes voisines, à laisser tomber les voyelles faibles, etc. pour faciliter l'articulation. Les mots grammaticaux qui n'ont pas de sens en eux-mêmes (mots fonctionnels ?) comme have to, going to (non present continuous), has, is, was, will etc. sont très sensibles à ces changements sonores. Par exemple, have to est souvent prononcé hafta, trying to est prononcé tryna, want to est wanna etc etc. La même chose s'est produite pour la phrase I'm going to. Quelques processus sont impliqués dans la réduction de I'm going to en ima. * I'm going to → I'm gonna : la consonne t est souvent supprimée dans de nombreux autres groupes et constructions grammaticales (comme dans tryna, wanna, etc.). Ici, elle est supprimée et la voyelle de to - qui est généralement un schwa [ə]- est liée au mot précédent ; going to → gonna : [ˈɡəʊɪ̃ŋtə] → [ˈgə̃nə] * Suppression du /g/ : les plosives (/g t d k/ etc) demandent un grand effort d'articulation (l'air est complètement bloqué puis relâché), les gens ont donc laissé tomber la plosive /g/ pour faciliter son articulation : [aɪ̃m gə̃nə] → [aɪ̃m ə̃nə] (je suis ana). * Liaison entre I'm et gonna : dans le discours causal et connecté, les consonnes et les voyelles sont souvent liées par un processus appelé liaison, de sorte que I'm et gonna se rejoignent et deviennent [aɪ̃mə̃nə] (i'mana). * Syncope de la voyelle dans la deuxième syllabe : Les schwas non accentués sont souvent perdus par syncope (par exemple, "chocolat" est choc.late pour la plupart des locuteurs). Si nous supprimions le schwa de la deuxième syllabe, nous obtiendrions [aɪmnə] (i'mna). * Suppression du /n/ : Il s'agit d'une simple réduction de groupe. En anglais, deux nasales voisines sont souvent réduites à une seule nasale (comme dans damn), le /n/ est donc supprimé, ce qui donne dans ce cas [aɪ̃mə] (i'ma). Ou bien les gens ont laissé tomber le /n/ par facilité. Certains réduisent encore la diphtongue [aɪ] en quelque chose comme [a], ce qui donne [ãmə] (ama) C'est la raison pour laquelle les gens l'orthographient de cette manière. C'est très informel et comme TypeIA l'a fait remarquer dans un commentaire, c'est surtout une chose verbale que l'on ne trouve généralement pas à l'écrit. On le trouve généralement dans le "chatspeak" ou le "lolspeak". Vous ne devriez pas l'écrire dans n'importe quel type d'écrit.
&quot;ima&quot; è un'espressione informale di &quot;devo&quot;? MegaCharizardZord In risposta a @nytimes sul vaccino COVID-19: Spero solo che quando lo prenderò non morirò lol. mi fido del governo canadese, ma se mi becco qualcosa li citerò in giudizio lol. Fonte: Twitter
Ima è una contrazione informale di I'm going to quando si usa nella costruzione del futuro di going to - non in frasi come I'm going to London ecc. Si scrive anche i'ma o imma nelle conversazioni informali. Come mai I'm going to è stato pronunciato o scritto in questo modo? Nel parlato informale, per facilitare l'articolazione, tendiamo a eliminare le consonanti che richiedono uno sforzo maggiore per essere articolate, ad assimilare le consonanti vicine, a eliminare le vocali deboli ecc. Le parole grammaticali che non hanno alcun significato di per sé (parole funzione?) come have to, going to (non presente continuo), has, is, was, will ecc. sono molto suscettibili a questi cambiamenti di suono. Per esempio, have to si pronuncia spesso hafta, trying to si pronuncia tryna, want to si pronuncia wanna, ecc. La stessa cosa è successa alla frase I'm going to. Ci sono alcuni processi coinvolti nella riduzione di I'm going to a ima. * La consonante t viene spesso abbandonata anche in molti altri cluster e costruzioni grammaticali (come in tryna, wanna ecc.). Qui viene abbandonata e la vocale di to - che di solito è uno schwa [ə]- è legata alla parola precedente; going to → gonna: [ˈɡəʊɪ̃ŋtə] → [ˈgə̃nə] * Eliminazione della /g/: le plosive (/g t d k/ ecc.) richiedono un grande sforzo per essere articolate (l'aria viene completamente bloccata e poi rilasciata), quindi la gente ha eliminato la plosiva /g/ per facilitarne l'articolazione: [aɪ̃m gə̃nə] → [aɪ̃m ə̃nə] (i'm ana) * Nel discorso causale e connesso, le consonanti e le vocali sono spesso collegate da un processo chiamato liaison, quindi sia I'm che gonna si uniscono e diventano [aɪ̃mə̃nə] (i'mana). * Sincope della vocale nella seconda sillaba: Gli schwa non espressi sono spesso persi a causa della sincope (ad esempio, "cioccolato" è choc.late per la maggior parte dei parlanti). Se eliminassimo lo schwa dalla seconda sillaba, otterremmo [aɪmnə] (i'mna). * Eliminazione della /n/: È una semplice riduzione del cluster. In inglese, due nasali vicine sono spesso ridotte a una sola nasale (come in damn), quindi la /n/ viene eliminata, ottenendo in questo caso [aɪ̃mə] (i'ma). Oppure la gente ha eliminato la /n/ per comodità. Alcuni riducono ulteriormente il dittongo [aɪ] a qualcosa di simile a [a], che risulta in [ãmə] (ama). Ecco perché si scrive in questo modo. È molto informale e, come ha sottolineato TypeIA in un commento, è per lo più una cosa verbale e di solito non si trova in forma scritta. Si trova comunemente in chatspeak o lolspeak. Non si dovrebbe scrivere in nessun tipo di scrittura.
182
How to prevent "Delhi Belly" from eating/drinking locally?
Basically, you can't. The world is full of gastrointestinal (GI) diseases, even in developed, First World nations. There are some decent steps to trying to minimize your exposure: * Properly cooked foods. Everything heated to a proper internal temperature (depends on the dish, check the USDA's site for guidelines), no sampling the raw chicken dish, etc. * For fruits and veg, if you can't peel it, don't eat it. A tremendous number of GI outbreaks are due to fruit and veg, rather than meat. This includes things like salads - since you can't really peel lettuce, avoid it. * Check if the local water is safe. When in doubt, assume it isn't. You can stick to bottled water, though there's always the distinct chance its being bottled from a contaminated source. Coke/Pepsi etc., and beer are good alternatives. Little known fact, the Coca-Cola company is hugely involved in clean water programs worldwide, because they need it for their product. * Ice. Ice is bad. Its probably made using the local tap-water, and there are many beasties that can survive an encounter with an ice machine. But when it comes down to it, nearly every traveller makes some sort of safe-eating "mistake" fairly frequently, whether they realize it or not. At the end of the day, your best bet is to talk to your travel physician, and see if you can get a prescription for an antibiotic. Using that in combination with something like Imodium will probably keep your trip mostly on track - shutting down the problem long enough for the antibiotics to treat the source. Unless of course its viral - norovirus, rotavirus etc. In that event, best of luck. And if it does happen? Stay hydrated. You're losing salts and water, they need to be replaced.
Wie kann man "Delhi Belly" durch Essen/Trinken vor Ort verhindern?
Im Grunde kann man das nicht. Die Welt ist voll von Magen-Darm-Erkrankungen, selbst in den entwickelten Ländern der Ersten Welt. Es gibt einige vernünftige Schritte, um die Belastung zu minimieren: * Ordnungsgemäß gekochte Lebensmittel. Alles wird auf die richtige Innentemperatur erhitzt (hängt vom Gericht ab, auf der Website des USDA finden Sie Richtlinien), kein rohes Hühnerfleisch probieren, usw. * Bei Obst und Gemüse gilt: Wenn Sie es nicht schälen können, essen Sie es nicht. Sehr viele Ausbrüche von Magen-Darm-Infektionen sind auf Obst und Gemüse zurückzuführen, nicht auf Fleisch. Dazu gehören auch Dinge wie Salate - da man Salat nicht wirklich schälen kann, sollte man ihn meiden. * Prüfen Sie, ob das örtliche Wasser sicher ist. Im Zweifelsfall sollten Sie davon ausgehen, dass es nicht sicher ist. Sie können sich an Wasser aus Flaschen halten, aber es besteht immer die Möglichkeit, dass es aus einer verunreinigten Quelle abgefüllt wurde. Cola/Pepsi usw. und Bier sind gute Alternativen. Eine wenig bekannte Tatsache ist, dass sich die Firma Coca-Cola weltweit in großem Umfang für sauberes Wasser einsetzt, weil sie es für ihr Produkt benötigt. * Eis. Eis ist schlecht. Es wird wahrscheinlich aus dem örtlichen Leitungswasser hergestellt, und es gibt viele Tiere, die eine Begegnung mit einer Eismaschine überleben können. Aber wenn es darauf ankommt, macht fast jeder Reisende ziemlich häufig irgendeinen "Fehler" beim sicheren Essen, ob er es merkt oder nicht. Letzten Endes ist es am besten, wenn Sie mit Ihrem Reisemediziner sprechen und sich ein Rezept für ein Antibiotikum ausstellen lassen. Wenn Sie das in Kombination mit einem Mittel wie Imodium einnehmen, wird Ihre Reise wahrscheinlich weitgehend glimpflich verlaufen - das Problem wird so lange gestoppt, bis die Antibiotika die Ursache behandeln können. Es sei denn, es handelt sich um eine Viruserkrankung - Norovirus, Rotavirus usw. In diesem Fall wünsche ich Ihnen viel Glück. Und wenn es doch passiert? Bleiben Sie hydriert. Sie verlieren Salze und Wasser, die Sie ersetzen müssen.
¿Cómo prevenir la "barriga de Delhi" comiendo/bebiendo en la zona?
Básicamente, no se puede. El mundo está lleno de enfermedades gastrointestinales (GI), incluso en las naciones desarrolladas del Primer Mundo. Hay algunas medidas decentes para intentar minimizar tu exposición: * Alimentos cocinados adecuadamente. Todo calentado a una temperatura interna adecuada (depende del plato, consulte el sitio del USDA para las directrices), no probar el plato de pollo crudo, etc. * Para frutas y verduras, si no puedes pelarlas, no las comas. Un gran número de brotes gastrointestinales se deben a la fruta y la verdura, no a la carne. Esto incluye cosas como las ensaladas: como no puedes pelar la lechuga, evítala. * Comprueba si el agua de la zona es segura. En caso de duda, asume que no lo es. Puedes beber agua embotellada, aunque siempre existe la posibilidad de que proceda de una fuente contaminada. La Coca-Cola, la Pepsi, etc., y la cerveza son buenas alternativas. Un dato poco conocido es que la empresa Coca-Cola está muy implicada en programas de agua limpia en todo el mundo, porque la necesita para su producto. * Hielo. El hielo es malo. Probablemente se hace con el agua del grifo local, y hay muchas bestias que pueden sobrevivir a un encuentro con una máquina de hielo. Pero a la hora de la verdad, casi todos los viajeros cometen algún tipo de "error" de alimentación segura con bastante frecuencia, se den cuenta o no. A fin de cuentas, lo mejor que puede hacer es hablar con su médico de viaje y ver si le puede recetar un antibiótico. Si lo combinas con algo como el Imodium, es probable que tu viaje se desarrolle con normalidad, ya que el problema desaparecerá el tiempo suficiente para que los antibióticos traten el origen. A menos, claro está, que se trate de un virus (norovirus, rotavirus, etc.). En ese caso, mucha suerte. ¿Y si ocurre? Mantente hidratado. Pierdes sales y agua, y hay que reponerlas.
Comment éviter le "Delhi Belly" en mangeant/buvant localement ?
En fait, vous ne pouvez pas. Le monde est plein de maladies gastro-intestinales (GI), même dans les pays développés du premier monde. Il existe des mesures raisonnables pour tenter de minimiser votre exposition : * Des aliments bien cuits. Tout est chauffé à une température interne adéquate (cela dépend du plat, consultez le site de l'USDA pour connaître les directives), pas de dégustation de poulet cru, etc. * Pour les fruits et légumes, si vous ne pouvez pas les éplucher, ne les mangez pas. Un très grand nombre d'épidémies de maladies gastro-intestinales sont dues à des fruits et légumes plutôt qu'à de la viande. Cela inclut des produits comme les salades - puisque vous ne pouvez pas vraiment éplucher la laitue, évitez-la. * Vérifiez si l'eau locale est saine. En cas de doute, supposez qu'elle ne l'est pas. Vous pouvez vous en tenir à l'eau en bouteille, bien qu'il y ait toujours le risque qu'elle provienne d'une source contaminée. Le Coca/Pepsi, etc. et la bière sont de bonnes alternatives. Fait peu connu, la société Coca-Cola est très impliquée dans les programmes d'assainissement de l'eau dans le monde entier, parce qu'elle en a besoin pour son produit. * La glace. La glace est mauvaise. Elle est probablement fabriquée à partir de l'eau du robinet local, et de nombreuses bestioles peuvent survivre à une rencontre avec une machine à glaçons. Mais en fin de compte, presque tous les voyageurs commettent assez fréquemment une sorte d'"erreur" alimentaire, qu'ils s'en rendent compte ou non. En fin de compte, la meilleure solution consiste à consulter votre médecin de voyage et à lui demander de vous prescrire un antibiotique. L'utilisation de cet antibiotique en combinaison avec un produit comme l'Imodium permettra probablement à votre voyage de rester sur la bonne voie, en arrêtant le problème suffisamment longtemps pour que les antibiotiques puissent traiter la source. À moins, bien sûr, qu'il ne s'agisse d'un virus - norovirus, rotavirus, etc. Dans ce cas, bonne chance. Et si cela se produit ? Restez hydraté. Vous perdez des sels et de l'eau, il faut les remplacer.
Come prevenire la "pancia di Delhi" mangiando/bevendo localmente?
In pratica, non si può. Il mondo è pieno di malattie gastrointestinali, anche nelle nazioni sviluppate del Primo Mondo. Ci sono alcuni passi decenti per cercare di ridurre al minimo la propria esposizione: * Cibi cotti correttamente. Tutto viene riscaldato a una temperatura interna adeguata (dipende dal piatto, controllate il sito dell'USDA per le linee guida), non assaggiate il pollo crudo, ecc. * Per frutta e verdura, se non potete sbucciarla, non mangiatela. Un numero enorme di epidemie di gastroenterite è dovuto a frutta e verdura, piuttosto che alla carne. Questo include cose come le insalate: dato che non è possibile sbucciare la lattuga, evitatela. * Controllare se l'acqua locale è sicura. In caso di dubbio, supponete che non lo sia. Si può scegliere l'acqua in bottiglia, anche se c'è sempre la possibilità che venga imbottigliata da una fonte contaminata. Coca/Pepsi ecc. e birra sono buone alternative. Un fatto poco noto è che la Coca-Cola è molto impegnata in programmi di pulizia dell'acqua in tutto il mondo, perché ne ha bisogno per i suoi prodotti. * Ghiaccio. Il ghiaccio è un male. Probabilmente viene prodotto con l'acqua del rubinetto locale e ci sono molte bestie che possono sopravvivere all'incontro con una macchina del ghiaccio. Ma, a ben vedere, quasi tutti i viaggiatori commettono spesso qualche "errore" di sicurezza alimentare, che se ne rendano conto o meno. In definitiva, la cosa migliore da fare è parlare con il proprio medico di viaggio e vedere se è possibile ottenere la prescrizione di un antibiotico. L'uso di questo in combinazione con qualcosa come l'Imodium probabilmente manterrà il vostro viaggio in linea con le previsioni, bloccando il problema abbastanza a lungo da permettere agli antibiotici di trattare la fonte. A meno che non si tratti di una malattia virale (norovirus, rotavirus, ecc.). In tal caso, buona fortuna. E se dovesse succedere? Rimanete idratati. State perdendo sali e acqua, che devono essere rimpiazzati.
183
I'm working at my first programming job. My boss is a very smart software engineer, and I feel like I have very little to offer compared to him. Problem is, he is always busy, and needs someone to help him out. I feel like I'm not good enough, but I still want to succeed. I want to be a great programmer. What can I do to impress him? Thank you.
Remember the scene in Aladdin where Aladdin wants to impress Jasmine, and the genie tells him he'd do better to just focus on being himself? Same principle here. If the boss is that much better than you and you know it, he probably knows it too. He isn't expecting any great feats of programming rock-stardom out of you. Since this is your first job, he most likely hired you because he saw the potential to become a good coder in you. So if you really want to impress him, learn. Learn the language, learn the system you're working on, learn the ins and outs and dark corners. Focus on learning correct principles, learning them well and learning them quickly, in that order. And remember that part of learning is copying knowledge that other people already have. Don't be afraid to ask questions, either of your coworkers or on StackOverflow, or research things on Google. Whatever you do, don't pretend you know something when you really don't, in an effort to avoid seeming dumb. Any good developer will notice quickly, and that will make you look even stupider in their eyes. Humility tends to still be considered a virtue among engineers. Do a good job at that and it'll impress the boss.
Ich arbeite in meinem ersten Job als Programmierer. Mein Chef ist ein sehr kluger Software-Ingenieur, und ich habe das Gefühl Ich habe das Gefühl, dass ich im Vergleich zu ihm sehr wenig zu bieten habe. Das Problem ist, dass er immer beschäftigt ist und jemanden braucht, der ihm hilft. Ich habe das Gefühl, dass ich nicht gut genug bin, aber ich will trotzdem erfolgreich sein. Ich möchte ein großartiger Programmierer werden. Was kann ich tun, um ihn zu beeindrucken? Ich danke Ihnen.
Erinnern Sie sich an die Szene in Aladdin, in der Aladdin Jasmin beeindrucken will und der Geist ihm sagt, er solle sich lieber darauf konzentrieren, er selbst zu sein? Hier gilt das gleiche Prinzip. Wenn der Chef so viel besser ist als Sie und Sie das wissen, weiß er es wahrscheinlich auch. Er erwartet von Ihnen keine großartigen Leistungen im Bereich der Programmierung. Da es sich um Ihren ersten Job handelt, hat er Sie höchstwahrscheinlich eingestellt, weil er in Ihnen das Potenzial sieht, ein guter Programmierer zu werden. Wenn Sie ihn also wirklich beeindrucken wollen, lernen Sie. Lernen Sie die Sprache, lernen Sie das System, an dem Sie arbeiten, lernen Sie die Ins und Outs und die dunklen Ecken. Konzentrieren Sie sich darauf, die richtigen Prinzipien zu lernen, sie gut zu lernen und sie schnell zu lernen, in dieser Reihenfolge. Und denken Sie daran, dass ein Teil des Lernens darin besteht, Wissen zu kopieren, das andere bereits haben. Scheuen Sie sich nicht, Fragen zu stellen, entweder an Ihre Kollegen oder auf StackOverflow, oder recherchieren Sie bei Google. Was auch immer Sie tun, tun Sie nicht so, als wüssten Sie etwas, wenn Sie es in Wirklichkeit nicht wissen, um nicht dumm zu erscheinen. Jeder gute Entwickler wird das schnell bemerken, und das wird Sie in seinen Augen noch dümmer aussehen lassen. Bescheidenheit gilt unter Ingenieuren immer noch als eine Tugend. Wenn Sie das gut machen, wird das Ihren Chef beeindrucken.
Estoy trabajando en mi primer empleo de programación. Mi jefe es un ingeniero de software muy inteligente, y me siento que tengo muy poco que ofrecer en comparación con él. El problema es que siempre está ocupado y necesita a alguien que le ayude. Siento que no soy lo bastante bueno, pero aún así quiero triunfar. Quiero ser un gran programador. ¿Qué puedo hacer para impresionarle? Muchas gracias.
¿Recuerdas la escena de Aladdin en la que Aladdin quiere impresionar a Jasmine y el genio le dice que sería mejor que se centrara en ser él mismo? Pues lo mismo. Si el jefe es mucho mejor que tú y lo sabes, probablemente él también lo sepa. No espera de ti grandes proezas de programación. Dado que es tu primer trabajo, lo más probable es que te haya contratado porque ha visto en ti el potencial para convertirte en un buen programador. Así que si de verdad quieres impresionarle, aprende. Aprende el lenguaje, aprende el sistema en el que estás trabajando, aprende los entresijos y los rincones oscuros. Céntrate en aprender los principios correctos, aprenderlos bien y aprenderlos rápido, por ese orden. Y recuerda que parte del aprendizaje consiste en copiar conocimientos que ya tienen otras personas. No tengas miedo de hacer preguntas, ya sea a tus compañeros de trabajo o en StackOverflow, o de investigar cosas en Google. Hagas lo que hagas, no finjas que sabes algo cuando en realidad no lo sabes, en un esfuerzo por no parecer tonto. Cualquier buen desarrollador se dará cuenta rápidamente, y eso te hará parecer aún más estúpido a sus ojos. La humildad tiende a seguir considerándose una virtud entre los ingenieros. Haz un buen trabajo e impresionarás al jefe.
Je travaille pour la première fois dans le domaine de la programmation. Mon patron est un ingénieur logiciel très intelligent, et j'ai l'impression d'avoir très peu à offrir par rapport à lui. que je n'ai pas grand-chose à offrir par rapport à lui. Le problème, c'est qu'il est toujours occupé et qu'il a besoin de quelqu'un pour l'aider. J'ai l'impression de ne pas être assez bon, mais je veux quand même réussir. Je veux devenir un grand programmeur. Que puis-je faire pour l'impressionner ? Je vous remercie.
Vous souvenez-vous de la scène d'Aladin où celui-ci veut impressionner Jasmine et où le génie lui dit qu'il ferait mieux de se contenter d'être lui-même ? C'est le même principe ici. Si le patron est bien meilleur que vous et que vous le savez, il le sait probablement aussi. Il ne s'attend pas à ce que vous fassiez des prouesses en matière de programmation. Comme il s'agit de votre premier emploi, il vous a probablement embauché parce qu'il a décelé en vous le potentiel nécessaire pour devenir un bon programmeur. Alors, si vous voulez vraiment l'impressionner, apprenez. Apprenez la langue, apprenez le système sur lequel vous travaillez, apprenez les tenants et les aboutissants et les coins sombres. Concentrez-vous sur l'apprentissage de principes corrects, apprenez-les bien et apprenez-les rapidement, dans cet ordre. Et n'oubliez pas qu'une partie de l'apprentissage consiste à copier les connaissances que d'autres personnes possèdent déjà. N'ayez pas peur de poser des questions, que ce soit à vos collègues ou sur StackOverflow, ou de faire des recherches sur Google. Quoi qu'il en soit, ne faites pas semblant de savoir quelque chose alors que vous ne le savez pas vraiment, dans le but d'éviter de passer pour un idiot. Tout bon développeur le remarquera rapidement, et cela vous fera paraître encore plus stupide à ses yeux. L'humilité est encore considérée comme une vertu chez les ingénieurs. Faites du bon travail dans ce domaine et cela impressionnera le patron.
Sto svolgendo il mio primo lavoro di programmazione. Il mio capo è un ingegnere del software molto intelligente e io mi sento di avere ben poco da offrire rispetto a lui. Il problema è che è sempre occupato e ha bisogno di qualcuno che lo aiuti. Sento di non essere abbastanza bravo, ma voglio comunque avere successo. Voglio diventare un grande programmatore. Cosa posso fare per impressionarlo? Grazie.
Ricordate la scena di Aladdin in cui Aladdin vuole impressionare Jasmine e il genio gli dice che farebbe meglio a concentrarsi su se stesso? È lo stesso principio. Se il capo è molto più bravo di voi e voi lo sapete, probabilmente lo sa anche lui. Non si aspetta da voi grandi imprese di programmazione. Dato che si tratta del vostro primo lavoro, molto probabilmente vi ha assunto perché ha visto in voi il potenziale per diventare un buon coder. Quindi, se volete davvero impressionarlo, imparate. Imparate la lingua, imparate il sistema su cui state lavorando, imparate i dettagli e gli angoli oscuri. Concentratevi sull'apprendimento di principi corretti, imparateli bene e imparateli velocemente, in quest'ordine. E ricordate che parte dell'apprendimento consiste nel copiare le conoscenze già acquisite da altre persone. Non abbiate paura di fare domande, ai vostri colleghi o su StackOverflow, o di fare ricerche su Google. Qualunque cosa facciate, non fingete di sapere qualcosa quando in realtà non lo sapete, nel tentativo di evitare di sembrare stupidi. Qualsiasi bravo sviluppatore se ne accorgerà subito e questo vi farà sembrare ancora più stupidi ai suoi occhi. L'umiltà tende a essere ancora considerata una virtù tra gli ingegneri. Se fate un buon lavoro in questo senso, farete colpo sul capo.
184
Can I pass variables to a GNU Makefile as command line arguments? In other words, I want to pass some arguments which will eventually become variables in the Makefile.
You have several options to set up variables from outside your makefile: * From environment - each environment variable is transformed into a makefile variable with the same name and value. You may also want to set ```-e``` option (aka ```--environments-override```) on, and your environment variables will override assignments made into makefile (unless these assignments themselves use the ```override``` directive . However, it's not recommended, and it's much better and flexible to use ```?=``` assignment (the conditional variable assignment operator, it only has an effect if the variable is not yet defined): ```FOO?=default_value_if_not_set_in_environment ``` Note that certain variables are not inherited from environment: * ```MAKE``` is gotten from name of the script * ```SHELL``` is either set within a makefile, or defaults to ```/bin/sh``` (rationale: commands are specified within the makefile, and they're shell-specific). * From command line - ```make``` can take variable assignments as part of his command line, mingled with targets: ```make target FOO=bar ``` But then all assignments to ```FOO``` variable within the makefile will be ignored unless you use the ```override``` directive in assignment. (The effect is the same as with ```-e``` option for environment variables). * Exporting from the parent Make - if you call Make from a Makefile, you usually shouldn't explicitly write variable assignments like this: ```# Don't do this! target: $(MAKE) -C target CC=$(CC) CFLAGS=$(CFLAGS) ``` Instead, better solution might be to export these variables. Exporting a variable makes it into the environment of every shell invocation, and Make calls from these commands pick these environment variable as specified above. ```# Do like this CFLAGS=-g export CFLAGS target: $(MAKE) -C target ``` You can also export all variables by using ```export``` without arguments.
Kann ich Variablen als Kommandozeilenargumente an ein GNU Makefile übergeben? Mit anderen Worten, ich möchte einige Argumente übergeben, die schließlich zu Variablen im Makefile werden.
Sie haben mehrere Möglichkeiten, Variablen außerhalb Ihres Makefiles zu setzen: * Aus der Umgebung - jede Umgebungsvariable wird in eine Makefile-Variable mit dem gleichen Namen und Wert umgewandelt. Sie können auch die Option ```-e`` (auch bekannt als ```--environments-override``) einschalten, und Ihre Umgebungsvariablen werden die Zuweisungen im makefile überschreiben (es sei denn, diese Zuweisungen benutzen selbst die ```override``` Direktive. Es ist jedoch nicht empfehlenswert, und es ist viel besser und flexibler, die ```?=``` Zuweisung zu benutzen (der bedingte Variablen-Zuweisungs-Operator, er hat nur einen Effekt, wenn die Variable noch nicht definiert ist): ```FOO?=default_value_if_not_set_in_environment ``` Beachten Sie, dass bestimmte Variablen nicht von environment geerbt werden: * ```MAKE`` wird aus dem Namen des Skriptes geholt * ```SHELL`` wird entweder in einem Makefile gesetzt oder ist standardmäßig ```/bin/sh`` (Begründung: Befehle werden im Makefile angegeben und sind shellspezifisch). * Von der Kommandozeile - ```make`` kann Variablenzuweisungen als Teil der Kommandozeile annehmen, vermischt mit Zielen: ````make target FOO=bar ``` Aber dann werden alle Zuweisungen an die Variable ``FOO`` innerhalb des Makefiles ignoriert, es sei denn, man benutzt die Anweisung ``override`` in der Zuweisung. (Der Effekt ist derselbe wie bei der ```-e`` Option für Umgebungsvariablen). * Exportieren aus dem übergeordneten Make - wenn Sie Make aus einem Makefile aufrufen, sollten Sie normalerweise keine expliziten Variablenzuweisungen wie diese schreiben: ```# Don't do this! Ziel: $(MAKE) -C target CC=$(CC) CFLAGS=$(CFLAGS) ``` Eine bessere Lösung wäre es, diese Variablen zu exportieren. Das Exportieren einer Variable macht sie zur Umgebungsvariable jedes Shell-Aufrufs, und Make-Aufrufe von diesen Befehlen nehmen diese Umgebungsvariable wie oben angegeben. ```# Machen Sie das so CFLAGS=-g export CFLAGS target: $(MAKE) -C target ``` Sie können auch alle Variablen exportieren, indem Sie ```export`` ohne Argumente benutzen.
¿Puedo pasar variables a un Makefile de GNU como argumentos de línea de comandos? En otras palabras, quiero pasar algunos argumentos que eventualmente se convertirán en variables en el Makefile.
Tienes varias opciones para configurar variables desde fuera de tu makefile: * Desde el entorno - cada variable de entorno se transforma en una variable makefile con el mismo nombre y valor. También puedes activar la opción ```-e`` (también conocida como ``--environments-override``), y tus variables de entorno anularán las asignaciones hechas en makefile (a menos que estas asignaciones utilicen la directiva ```override``. Sin embargo, no es recomendable, y es mucho mejor y más flexible usar la asignación ```?=``` (el operador de asignación de variables condicional, sólo tiene efecto si la variable aún no está definida): ```FOO?=valor_por_defecto_si_no_está_definido_en_entorno ``` Tenga en cuenta que algunas variables no se heredan del entorno: * ``MAKE`` se obtiene del nombre del script * ```SHELL`` se establece dentro de un makefile, o por defecto a ```/bin/sh`` (razón: los comandos se especifican dentro del makefile, y son específicos del shell). * Desde la línea de órdenes - ```make`` puede tomar asignaciones de variables como parte de su línea de órdenes, mezcladas con objetivos: ```make target FOO=barra ``` Pero entonces todas las asignaciones a la variable ```FOO`` dentro del makefile serán ignoradas a menos que uses la directiva ```override`` en la asignación. (El efecto es el mismo que con la opción ```-e`` para variables de entorno). * Exportando desde el Make padre - si llamas a Make desde un Makefile, normalmente no deberías escribir explícitamente asignaciones de variables como esta: ```# ¡No hagas esto! target: $(MAKE) -C target CC=$(CC) CFLAGS=$(CFLAGS) ``` En su lugar, una mejor solución podría ser exportar estas variables. Exportar una variable la convierte en el entorno de cada invocación del shell, y las llamadas Make de estos comandos recogen estas variables de entorno como se especificó anteriormente. ```# Haz esto CFLAGS=-g export CFLAGS target $(MAKE) -C target ``` También puedes exportar todas las variables usando ```export`` sin argumentos.
Puis-je passer des variables à un Makefile GNU en tant qu'arguments de ligne de commande ? En d'autres termes, je veux passer des arguments qui deviendront des variables dans le Makefile.
Vous disposez de plusieurs options pour définir des variables en dehors de votre fichier makefile : * Depuis l'environnement - chaque variable d'environnement est transformée en une variable du fichier makefile avec le même nom et la même valeur. Vous pouvez également activer l'option ``-e`` (alias ``--environments-override``), et vos variables d'environnement remplaceront les affectations faites dans le fichier makefile (à moins que ces affectations elles-mêmes utilisent la directive ``override``). Cependant, ce n'est pas recommandé, et il est bien mieux et plus flexible d'utiliser l'assignation ``?=`` (l'opérateur d'assignation de variable conditionnelle, qui n'a d'effet que si la variable n'est pas encore définie) : ``FOO?=valeur_par_défaut_si_elle_n'est_pas_définie_dans_l'environnement ``` Notez que certaines variables ne sont pas héritées de l'environnement : * ``MAKE`` est obtenue à partir du nom du script * ``SHELL`` est soit définie dans un makefile, soit fixée par défaut à ``/bin/sh`` (raisonnement : les commandes sont spécifiées dans le makefile, et elles sont spécifiques au shell). * À partir de la ligne de commande - ``make`` peut prendre des assignations de variables comme partie de sa ligne de commande, mélangées avec des cibles : ``make target FOO=bar ``` Mais alors toutes les assignations à la variable ``FOO`` dans le fichier makefile seront ignorées à moins que vous n'utilisiez la directive ``override`` dans l'assignation. (L'effet est le même qu'avec l'option ``-e`` pour les variables d'environnement). * Exporter depuis le Make parent - si vous appelez Make depuis un Makefile, vous ne devriez pas explicitement écrire des assignations de variables comme ceci : ```# Ne faites pas cela ! target : $(MAKE) -C target CC=$(CC) CFLAGS=$(CFLAGS) ``` La meilleure solution serait d'exporter ces variables. Exporter une variable la place dans l'environnement de chaque invocation de l'interpréteur de commandes, et les appels Make de ces commandes récupèrent ces variables d'environnement comme spécifié ci-dessus. ```# Faites comme ceci CFLAGS=-g export CFLAGS target : $(MAKE) -C cible ``` Vous pouvez également exporter toutes les variables en utilisant ``export`` sans arguments.
È possibile passare delle variabili a un Makefile GNU come argomenti della riga di comando? In altre parole, voglio passare alcuni argomenti che alla fine diventeranno variabili nel Makefile.
Ci sono diverse opzioni per impostare le variabili dall'esterno del file di make: * Da ambiente - ogni variabile di ambiente viene trasformata in una variabile di makefile con lo stesso nome e valore. Si può anche impostare l'opzione ```-e`` (aka ```--environments-override``), e le variabili d'ambiente sovrascriveranno le assegnazioni fatte in makefile (a meno che queste assegnazioni non usino la direttiva ```override``. Tuttavia, non è raccomandato ed è molto meglio e flessibile usare l'assegnazione ```?=`` (l'operatore di assegnazione condizionale delle variabili, che ha effetto solo se la variabile non è ancora definita): ```FOO?=default_value_if_not_set_in_environment ``` Si noti che alcune variabili non sono ereditate dall'ambiente: * ```MAKE`` è ottenuta dal nome dello script * ```SHELL`` è impostata all'interno di un makefile, oppure è predefinita a ```/bin/sh`` (motivazione: i comandi sono specificati all'interno del makefile e sono specifici della shell). * Dalla riga di comando - ```make`` può accettare assegnazioni di variabili come parte della sua riga di comando, insieme ai target: ``make target FOO=bar ``` Ma poi tutte le assegnazioni alla variabile ```FOO`` all'interno del makefile saranno ignorate, a meno che non si usi la direttiva ```override`` nell'assegnazione. (L'effetto è lo stesso dell'opzione ```-e`` per le variabili d'ambiente). * Esportazione dal Make padre - se si chiama Make da un Makefile, di solito non si dovrebbero scrivere esplicitamente assegnazioni di variabili come questa: ```# Non fatelo! target: $(MAKE) -C target CC=$(CC) CFLAGS=$(CFLAGS) ``` La soluzione migliore potrebbe essere quella di esportare queste variabili. L'esportazione di una variabile la fa entrare nell'ambiente di ogni invocazione della shell e le chiamate a Make da questi comandi prendono queste variabili d'ambiente come specificato sopra. ```# Fate così CFLAGS=-g esportare CFLAGS target: $(MAKE) -C target ``` È anche possibile esportare tutte le variabili usando ```export`` senza argomenti.
185
I have noticed that some games quote the requirement for "pixel shader 3.0 or better". What is a pixel shader and is it some software requirements or hardware requirements?
Simple answer Pixel shaders are tiny programs that can do operations on a single pixel on the screen, as opposed to geometry shaders and vertex shaders which work on the geometrical primitives (triangles) that make up everything you see on the screen. The most common use for pixel shaders is 'shading', approximation to real world lighting. Commonly used shading model is Phong. Pixel shaders are executed on your video card, so your video card needs to support them. Each new version provides more capabilities, so an older video card will not run newer shaders. A new version of the pixel shader specification (e.g. Pixel Shader 3.0) is usually released for each new version of DirectX (more accurately, Direct3D). Software Requirements You need to have the correct version of Direct3D (or OpenGL) installed in order to use the shaders. For example, Pixel Shader 4.0 requires at least Direct3D 10. Normally you don't have to worry about this, every game that uses Direct3D will install the correct version for you when you install the game. The only exceptions are Direct3D 10 and later, which will not run on Windows XP or earlier. You will need at least Windows Vista in order to play a game that uses Direct3D 10 or 11. Wikipedia provides a nice list of Pixel Shader versions, the version of Direct3D you need, and the types of graphics cards that work with them. Technical answer The 'standard' stages of a 3D rendering pipeline are as follows (somewhat simplified): * Transformation (Moving, rotating and scaling all the objects in the scene) * Lighting * Projection ('Squashing' the 3D world into a 2D plane) * Clipping (Removing anything outside the field of view) * Rasterising (Converting the vector graphics (triangles, etc) into raster graphics (pixels)) * Texturing * Display Pixel Shaders are used as an alternative to the standard texturing phase. During rasterisation, each triangle is converted into pixels. These pixels do not have their final colour yet, but the do have a bunch of parameters associated with them. These include base colour, texture coordinates, lighting information, etc. The Pixel Shader is a small program that takes these parameters and uses them to calculate the final colour as it is displayed on the screen. The Pixel Shader has access to all texture data, and can use them to do interesting things such as blending two textures (to create a 'dirty' look), using a texture as a bump map (to simulate a relief), or to simulate reflections. Hardware On the hardware side, Pixel Shaders are executed on 'Shader Units', small processors on your GPU. Each Shader Unit is basically a very simple CPU, but a modern video card may contain thousands of these things (an AMD Radeon HD6990 contains over 3000). Older GPUs had different Shader Units for different tasks: Pixel Shaders were executed on different parts of the system than Vertex Shaders. Modern GPUs have so called 'unified shader units' which can perform all of these operations.
Mir ist aufgefallen, dass einige Spiele die Anforderung "Pixelshader 3.0 oder besser" stellen. Was ist ein Pixel-Shader und ist es einige Software-Anforderungen oder Hardware-Anforderungen?
Einfache Antwort Pixel-Shader sind winzige Programme, die Operationen an einem einzelnen Pixel auf dem Bildschirm durchführen können, im Gegensatz zu Geometrie-Shadern und Vertex-Shadern, die an den geometrischen Primitiven (Dreiecken) arbeiten, aus denen alles besteht, was Sie auf dem Bildschirm sehen. Die häufigste Anwendung von Pixel-Shadern ist das "Shading", die Annäherung an die reale Beleuchtung. Das am häufigsten verwendete Schattierungsmodell ist Phong. Pixel-Shader werden auf Ihrer Grafikkarte ausgeführt, daher muss Ihre Grafikkarte sie unterstützen. Jede neue Version bietet mehr Möglichkeiten, so dass eine ältere Grafikkarte neuere Shader nicht ausführen kann. Eine neue Version der Pixel-Shader-Spezifikation (z. B. Pixel Shader 3.0) wird in der Regel für jede neue Version von DirectX (genauer gesagt, Direct3D) veröffentlicht. Software-Anforderungen Sie müssen die richtige Version von Direct3D (oder OpenGL) installiert haben, um die Shader verwenden zu können. Für Pixel Shader 4.0 ist zum Beispiel mindestens Direct3D 10 erforderlich. Normalerweise müssen Sie sich darüber keine Gedanken machen, denn jedes Spiel, das Direct3D verwendet, installiert die richtige Version für Sie, wenn Sie das Spiel installieren. Die einzigen Ausnahmen sind Direct3D 10 und höher, die nicht auf Windows XP oder früher laufen. Sie benötigen mindestens Windows Vista, um ein Spiel zu spielen, das Direct3D 10 oder 11 verwendet. Wikipedia bietet eine schöne Liste von Pixel-Shader-Versionen, die Version von Direct3D, die Sie benötigen, und die Arten von Grafikkarten, die mit ihnen funktionieren. Technische Antwort Die "Standard"-Stufen einer 3D-Rendering-Pipeline sind wie folgt (etwas vereinfacht): * Transformation (Verschieben, Drehen und Skalieren aller Objekte in der Szene) * Beleuchtung * Projektion ('Zerquetschen' der 3D-Welt auf eine 2D-Ebene) * Clipping (Entfernen von Objekten außerhalb des Sichtfelds) * Rasterisierung (Umwandlung der Vektorgrafiken (Dreiecke usw.) in Rastergrafiken (Pixel)) * Texturierung * Anzeige Pixel-Shader werden als Alternative zur Standardtexturierungsphase verwendet. Während der Rasterisierung wird jedes Dreieck in Pixel umgewandelt. Diese Pixel haben noch nicht ihre endgültige Farbe, aber sie haben eine Reihe von Parametern, die mit ihnen verbunden sind. Dazu gehören die Grundfarbe, Texturkoordinaten, Beleuchtungsinformationen usw. Der Pixel Shader ist ein kleines Programm, das diese Parameter verwendet, um die endgültige Farbe zu berechnen, die auf dem Bildschirm angezeigt wird. Der Pixel Shader hat Zugriff auf alle Texturdaten und kann damit interessante Dinge tun, z. B. zwei Texturen überblenden (um ein "schmutziges" Aussehen zu erzeugen), eine Textur als Bumpmap verwenden (um ein Relief zu simulieren) oder Reflexionen simulieren. Hardware Auf der Hardwareseite werden Pixel-Shader auf "Shader Units" ausgeführt, kleinen Prozessoren auf Ihrem Grafikprozessor. Jede Shader-Einheit ist im Grunde eine sehr einfache CPU, aber eine moderne Grafikkarte kann Tausende dieser Einheiten enthalten (eine AMD Radeon HD6990 enthält über 3000). Ältere GPUs hatten verschiedene Shader Units für unterschiedliche Aufgaben: Pixel-Shader wurden auf anderen Teilen des Systems ausgeführt als Vertex-Shader. Moderne Grafikprozessoren haben so genannte "Unified Shader Units", die alle diese Operationen ausführen können.
He observado que algunos juegos citan el requisito de "pixel shader 3.0 o superior". Qué es un sombreador de píxeles? ¿Se trata de requisitos de software o de hardware?
Respuesta sencilla Los sombreadores de píxeles son programas diminutos que pueden realizar operaciones en un único píxel de la pantalla, a diferencia de los sombreadores geométricos y los sombreadores de vértices, que trabajan con las primitivas geométricas (triángulos) que componen todo lo que se ve en la pantalla. El uso más común de los sombreadores de píxeles es el "sombreado", una aproximación a la iluminación del mundo real. El modelo de sombreado más utilizado es Phong. Los sombreadores de píxeles se ejecutan en la tarjeta de vídeo, por lo que ésta debe ser compatible con ellos. Cada nueva versión proporciona más capacidades, por lo que una tarjeta de vídeo antigua no podrá ejecutar los sombreadores más recientes. Para cada nueva versión de DirectX (más exactamente, Direct3D) suele publicarse una nueva versión de la especificación del sombreador de píxeles (por ejemplo, Pixel Shader 3.0). Requisitos de software Para poder utilizar los sombreadores es necesario tener instalada la versión correcta de Direct3D (u OpenGL). Por ejemplo, Pixel Shader 4.0 requiere al menos Direct3D 10. Normalmente no tienes que preocuparte por esto, todos los juegos que usan Direct3D te instalarán la versión correcta cuando instales el juego. Las únicas excepciones son Direct3D 10 y posteriores, que no funcionarán en Windows XP o anteriores. Necesitarás al menos Windows Vista para poder jugar a un juego que utilice Direct3D 10 u 11. Wikipedia ofrece una buena lista de versiones de Pixel Shader, la versión de Direct3D que necesitas y los tipos de tarjetas gráficas que funcionan con ellas. Respuesta técnica Las etapas "estándar" de un canal de renderizado 3D son las siguientes (algo simplificadas): * Transformación (mover, girar y escalar todos los objetos de la escena). * Iluminación * Proyección ("aplastar" el mundo 3D en un plano 2D) * Recorte (eliminación de todo lo que quede fuera del campo de visión) * Rasterización (conversión de gráficos vectoriales (triángulos, etc.) en gráficos rasterizados (píxeles)). * Texturizado * Visualización Los sombreadores de píxeles se utilizan como alternativa a la fase estándar de texturización. Durante la rasterización, cada triángulo se convierte en píxeles. Estos píxeles aún no tienen su color final, pero sí tienen un montón de parámetros asociados a ellos. Estos incluyen el color base, las coordenadas de textura, la información de iluminación, etc. El Pixel Shader es un pequeño programa que toma estos parámetros y los utiliza para calcular el color final tal y como se muestra en la pantalla. El Pixel Shader tiene acceso a todos los datos de la textura, y puede usarlos para hacer cosas interesantes como mezclar dos texturas (para crear un aspecto "sucio"), usar una textura como mapa de relieve (para simular un relieve), o simular reflejos. Hardware Desde el punto de vista del hardware, los sombreadores de píxeles se ejecutan en "unidades de sombreado", pequeños procesadores de la GPU. Cada Shader Unit es básicamente una CPU muy simple, pero una tarjeta de vídeo moderna puede contener miles de estas cosas (una AMD Radeon HD6990 contiene más de 3000). Las GPU más antiguas tenían diferentes unidades de sombreado para distintas tareas: Los sombreadores de píxeles se ejecutaban en distintas partes del sistema que los sombreadores de vértices. Las GPU modernas tienen las llamadas "unidades de sombreado unificadas", que pueden realizar todas estas operaciones.
J'ai remarqué que certains jeux demandent "pixel shader 3.0 ou mieux". Qu'est-ce qu'un pixel shader et s'agit-il d'une exigence logicielle ou matérielle ?
Réponse simple Les pixel shaders sont de minuscules programmes capables d'effectuer des opérations sur un seul pixel de l'écran, par opposition aux geometry shaders et vertex shaders qui travaillent sur les primitives géométriques (triangles) qui composent tout ce que vous voyez à l'écran. L'utilisation la plus courante des nuanceurs de pixels est l'"ombrage", c'est-à-dire l'approximation de l'éclairage du monde réel. Le modèle d'ombrage couramment utilisé est Phong. Les nuanceurs de pixels sont exécutés sur votre carte vidéo, qui doit donc les prendre en charge. Chaque nouvelle version offre davantage de possibilités, de sorte qu'une carte vidéo plus ancienne ne pourra pas exécuter les nouveaux nuanceurs. Une nouvelle version de la spécification des nuanceurs de pixels (par exemple, Pixel Shader 3.0) est généralement publiée pour chaque nouvelle version de DirectX (plus précisément, Direct3D). Exigences logicielles La version correcte de Direct3D (ou OpenGL) doit être installée pour pouvoir utiliser les nuanceurs. Par exemple, Pixel Shader 4.0 nécessite au moins Direct3D 10. Normalement, vous n'avez pas à vous en préoccuper, car tous les jeux qui utilisent Direct3D installent la bonne version lorsque vous installez le jeu. Les seules exceptions sont Direct3D 10 et les versions ultérieures, qui ne fonctionneront pas sur Windows XP ou les versions antérieures. Vous aurez besoin d'au moins Windows Vista pour jouer à un jeu utilisant Direct3D 10 ou 11. Wikipedia fournit une liste intéressante des versions de Pixel Shader, de la version de Direct3D dont vous avez besoin et des types de cartes graphiques qui fonctionnent avec elles. Réponse technique Les étapes "standard" d'un pipeline de rendu 3D sont les suivantes (quelque peu simplifiées) : * Transformation (déplacement, rotation et mise à l'échelle de tous les objets de la scène) * Éclairage * Projection ("écraser" le monde 3D dans un plan 2D) * Découpage (suppression de tout ce qui se trouve en dehors du champ de vision) * Rastérisation (conversion des graphiques vectoriels (triangles, etc.) en graphiques tramés (pixels)) * Texture * Affichage Les Pixel Shaders sont utilisés comme alternative à la phase de texturation standard. Lors de la rastérisation, chaque triangle est converti en pixels. Ces pixels n'ont pas encore leur couleur définitive, mais un certain nombre de paramètres leur sont associés. Ceux-ci comprennent la couleur de base, les coordonnées de la texture, les informations relatives à l'éclairage, etc. Le Pixel Shader est un petit programme qui prend ces paramètres et les utilise pour calculer la couleur finale telle qu'elle est affichée à l'écran. Le Pixel Shader a accès à toutes les données de texture et peut les utiliser pour réaliser des choses intéressantes telles que le mélange de deux textures (pour créer un aspect "sale"), l'utilisation d'une texture comme carte de bosses (pour simuler un relief) ou pour simuler des reflets. Matériel Sur le plan matériel, les nuanceurs de pixels sont exécutés sur des "unités de nuanceurs", de petits processeurs sur votre GPU. Chaque Shader Unit est en fait une unité centrale très simple, mais une carte vidéo moderne peut en contenir des milliers (une AMD Radeon HD6990 en contient plus de 3 000). Les anciens GPU disposaient de différentes unités de shaders pour différentes tâches : Les Pixel Shaders étaient exécutés sur des parties différentes du système que les Vertex Shaders. Les GPU modernes sont dotés d'unités de shaders unifiées qui peuvent effectuer toutes ces opérations.
Ho notato che alcuni giochi richiedono "pixel shader 3.0 o superiore". Che cos'è un pixel shader e si tratta di requisiti software o hardware?
Risposta semplice I pixel shader sono piccoli programmi in grado di eseguire operazioni su un singolo pixel dello schermo, a differenza dei geometry shader e dei vertex shader che lavorano sulle primitive geometriche (triangoli) che compongono tutto ciò che si vede sullo schermo. L'uso più comune dei pixel shader è lo "shading", l'approssimazione all'illuminazione del mondo reale. Il modello di shading comunemente utilizzato è Phong. I pixel shader vengono eseguiti dalla scheda video, che deve quindi supportarli. Ogni nuova versione offre maggiori funzionalità, quindi una scheda video più vecchia non è in grado di eseguire gli shader più recenti. Di solito viene rilasciata una nuova versione delle specifiche dei pixel shader (ad esempio Pixel Shader 3.0) per ogni nuova versione di DirectX (più precisamente, Direct3D). Requisiti del software Per utilizzare gli shader è necessario aver installato la versione corretta di Direct3D (o OpenGL). Ad esempio, Pixel Shader 4.0 richiede almeno Direct3D 10. Normalmente non c'è bisogno di preoccuparsi di questo, ogni gioco che utilizza Direct3D installerà la versione corretta al momento dell'installazione del gioco. Le uniche eccezioni sono le Direct3D 10 e successive, che non funzionano su Windows XP o precedenti. Per giocare a un gioco che utilizza Direct3D 10 o 11 è necessario almeno Windows Vista. Wikipedia fornisce un bell'elenco delle versioni di Pixel Shader, della versione di Direct3D necessaria e dei tipi di schede grafiche che funzionano con esse. Risposta tecnica Le fasi 'standard' di una pipeline di rendering 3D sono le seguenti (un po' semplificate): * Trasformazione (spostamento, rotazione e scalatura di tutti gli oggetti della scena). * Illuminazione * Proiezione ("schiacciamento" del mondo 3D in un piano 2D) * Ritaglio (rimozione di tutto ciò che è al di fuori del campo visivo) * Rasterizzazione (Conversione della grafica vettoriale (triangoli, ecc.) in grafica raster (pixel)) * Texturing * Visualizzazione I Pixel Shader sono utilizzati come alternativa alla fase di texturing standard. Durante la rasterizzazione, ogni triangolo viene convertito in pixel. Questi pixel non hanno ancora il loro colore finale, ma hanno una serie di parametri associati. Questi includono il colore di base, le coordinate della texture, le informazioni sull'illuminazione, ecc. Il Pixel Shader è un piccolo programma che prende questi parametri e li usa per calcolare il colore finale visualizzato sullo schermo. Il Pixel Shader ha accesso a tutti i dati delle texture e può usarli per fare cose interessanti, come fondere due texture (per creare un aspetto 'sporco'), usare una texture come mappa bump (per simulare un rilievo) o simulare i riflessi. L'hardware Dal punto di vista hardware, i Pixel Shader vengono eseguiti sulle 'Shader Unit', piccoli processori della GPU. Ogni Shader Unit è fondamentalmente una CPU molto semplice, ma una scheda video moderna può contenerne migliaia (una AMD Radeon HD6990 ne contiene oltre 3000). Le GPU più vecchie avevano diverse unità Shader per compiti diversi: I Pixel Shader venivano eseguiti su parti diverse del sistema rispetto ai Vertex Shader. Le GPU moderne hanno le cosiddette "unità shader unificate" che possono eseguire tutte queste operazioni.
186
Red light facing forwards? It was nighttime in Manhattan. Isn't more always better when it comes to being seen?
No. You should always ride with a white light facing forward and a red light facing backwards. If you want additional illumination, you can add multiple white/red lights in the appropriate direction. Amber/yellow lights can be used facing any direction for additional visibility. The first reason is that it's the law: (a) Every bicycle when in use during the period from one-half hour after sunset to one-half hour before sunrise shall be equipped with a lamp on the front which shall emit a white light visible during hours of darkness from a distance of at least five hundred feet to the front and with a red or amber light visible to the rear for three hundred feet. Effective July first, nineteen hundred seventy-six, at least one of these lights shall be visible for two hundred feet from each side. More importantly for your safety though, the color of a light conveys a certain meaning. Drivers, pedestrians, and other cyclists associate the color red with a taillight and the color white with a headlight. If you put the wrong color facing the wrong direction, people may think you are traveling the opposite direction. Imagine a car is pulling out of a driveway and sees a red bike light flashing to their left. They may assume that means a bike is moving away from them on the left. If they then pull out of the driveway and you're really moving towards them, you could get hit.
Rotes Licht, das nach vorne zeigt? Es war Nacht in Manhattan. Ist mehr nicht immer besser, wenn es darum geht, gesehen zu werden?
Nein. Sie sollten immer mit einem weißen Licht nach vorne und einem roten Licht nach hinten fahren. Wenn Sie zusätzliche Beleuchtung wünschen, können Sie mehrere weiße/rote Lichter in der entsprechenden Richtung anbringen. Gelbe/gelbe Lichter können für zusätzliche Sichtbarkeit in jede Richtung verwendet werden. Der erste Grund ist, dass dies gesetzlich vorgeschrieben ist: (a) Jedes Fahrrad, das in der Zeit von einer halben Stunde nach Sonnenuntergang bis zu einer halben Stunde vor Sonnenaufgang benutzt wird, muss mit einer Lampe an der Vorderseite ausgestattet sein, die bei Dunkelheit ein weißes Licht ausstrahlt, das aus einer Entfernung von mindestens fünfhundert Fuß nach vorne sichtbar ist, und mit einem roten oder gelben Licht, das aus einer Entfernung von dreihundert Fuß nach hinten sichtbar ist. Vom ersten Juli neunzehnhundertsechsundsiebzig an muss mindestens eines dieser Lichter von jeder Seite aus zweihundert Fuß weit sichtbar sein. Noch wichtiger für Ihre Sicherheit ist jedoch, dass die Farbe eines Lichts eine bestimmte Bedeutung hat. Autofahrer, Fußgänger und andere Radfahrer assoziieren die Farbe Rot mit einem Rücklicht und die Farbe Weiß mit einem Scheinwerfer. Wenn Sie die falsche Farbe in die falsche Richtung leuchten lassen, könnte man denken, Sie fahren in die entgegengesetzte Richtung. Stellen Sie sich vor, ein Auto fährt aus einer Einfahrt und sieht ein rotes Fahrradlicht links von Ihnen blinken. Sie könnten annehmen, dass dies bedeutet, dass sich ein Fahrrad auf der linken Seite von ihnen wegbewegt. Wenn sie dann aus der Einfahrt fahren und Sie tatsächlich auf sie zufahren, könnten Sie angefahren werden.
¿Luz roja hacia delante? Era de noche en Manhattan. ¿No es más siempre mejor cuando se trata de ser visto?
No. Siempre debe circular con una luz blanca orientada hacia delante y una luz roja orientada hacia atrás. Si desea iluminación adicional, puede añadir varias luces blancas/rojas en la dirección adecuada. Las luces ámbar/amarillas pueden utilizarse en cualquier dirección para aumentar la visibilidad. La primera razón es que es la ley: (a) Toda bicicleta en uso durante el período comprendido entre media hora después de la puesta del sol y media hora antes de la salida del sol deberá estar equipada con una lámpara en la parte delantera que emita una luz blanca visible durante las horas de oscuridad desde una distancia de al menos quinientos pies hacia adelante y con una luz roja o ámbar visible hacia atrás a trescientos pies. A partir del primero de julio de mil novecientos setenta y seis, al menos una de estas luces deberá ser visible a una distancia de doscientos pies desde cada lado. Sin embargo, lo más importante para su seguridad es que el color de una luz transmite un cierto significado. Los conductores, peatones y otros ciclistas asocian el color rojo con una luz trasera y el color blanco con un faro delantero. Si pones el color equivocado mirando en la dirección equivocada, la gente puede pensar que estás circulando en sentido contrario. Imagina que un coche está saliendo de una entrada y ve una luz roja de bicicleta parpadeando a su izquierda. Pueden pensar que eso significa que una moto se aleja de ellos por la izquierda. Si entonces salen de la calzada y en realidad te diriges hacia ellos, podrías ser atropellado.
Feu rouge tourné vers l'avant ? Il faisait nuit à Manhattan. N'est-il pas préférable d'être plus nombreux lorsqu'il s'agit d'être vu ?
Non. Vous devez toujours rouler avec un feu blanc orienté vers l'avant et un feu rouge orienté vers l'arrière. Si vous souhaitez un éclairage supplémentaire, vous pouvez ajouter plusieurs feux blancs/rouges dans la direction appropriée. Les feux orange/jaune peuvent être utilisés dans n'importe quelle direction pour améliorer la visibilité. La première raison est que c'est la loi : (a) Toute bicyclette utilisée pendant la période allant d'une demi-heure après le coucher du soleil à une demi-heure avant le lever du soleil doit être équipée d'un feu à l'avant qui émet une lumière blanche visible pendant les heures d'obscurité à une distance d'au moins cinq cents pieds à l'avant et d'une lumière rouge ou orange visible à l'arrière à trois cents pieds. À partir du premier juillet mil neuf cent soixante-seize, au moins un de ces feux sera visible à une distance de deux cents pieds de chaque côté. Plus important encore pour votre sécurité, la couleur d'un feu est porteuse d'une certaine signification. Les conducteurs, les piétons et les autres cyclistes associent la couleur rouge à un feu arrière et la couleur blanche à un feu avant. Si vous placez la mauvaise couleur dans la mauvaise direction, les gens peuvent penser que vous allez dans la direction opposée. Imaginez qu'une voiture sorte d'une allée et voit un feu rouge pour vélo clignoter à sa gauche. Elle peut penser que cela signifie qu'un vélo s'éloigne d'elle sur sa gauche. S'ils sortent ensuite de l'allée et que vous vous dirigez réellement vers eux, vous risquez d'être percuté.
Luce rossa rivolta in avanti? Era notte a Manhattan. Non è sempre meglio avere di più quando si tratta di essere visti?
No. Dovreste sempre guidare con una luce bianca rivolta in avanti e una rossa rivolta all'indietro. Se si desidera un'illuminazione supplementare, è possibile aggiungere più luci bianche/rosse nella direzione appropriata. Le luci gialle/ambra possono essere utilizzate in qualsiasi direzione per aumentare la visibilità. Il primo motivo è che è la legge: (a) Ogni bicicletta utilizzata nel periodo che va da mezz'ora dopo il tramonto a mezz'ora prima del sorgere del sole deve essere dotata di una luce anteriore che emetta una luce bianca visibile durante le ore di buio da una distanza di almeno cinquecento metri sul davanti e una luce rossa o ambra visibile sul retro per trecento metri. A partire dal primo luglio del Novecento Settantasei, almeno una di queste luci deve essere visibile per duecento piedi da ogni lato. Tuttavia, cosa ancora più importante per la vostra sicurezza, il colore di una luce trasmette un certo significato. Gli automobilisti, i pedoni e gli altri ciclisti associano il colore rosso a un fanale posteriore e il colore bianco a un fanale anteriore. Se il colore sbagliato è rivolto nella direzione sbagliata, le persone potrebbero pensare che state viaggiando nella direzione opposta. Immaginate che un'auto stia uscendo da un vialetto e veda una luce rossa per biciclette lampeggiare alla sua sinistra. L'automobilista potrebbe pensare che una bicicletta si stia allontanando da lui sulla sinistra. Se poi l'auto esce dal vialetto e voi state davvero andando verso di loro, potreste essere colpiti.
187
If water is not a good conductor, why are we advised to avoid water near electricity (no wet hands near circuits etc.)?
&quot;Pure&quot; water is a very poor conductor (resistivity is actually used as a measure of purity). &quot;Real&quot; water is not pure - it contains electrolytes and is quite conductive. Also - when your skin is wet, its resistivity is significantly lower. For example - &quot;pure&quot; water has a resistivity of (about) 18.2 M$\Omega\cdot\rm{cm}$. With 10 ppm of dissolved NaCl (&quot;very good quality tap water&quot; would have less than 50 ppm), the resistivity drops to about $43~\rm{k\Omega\cdot cm}$ A lot of detail can be found in &quot;Conduction of Electrical Current to and Through the Human Body: A Review&quot; (Fish and Geddes, ePlasty 2009, 9, e44). > Why immersion in water can be fatal with very low voltages * Immersion wets the skin very effectively and great lowers skin resistance per unit area * Contact area is a large percentage of the entire body surface area * Electric current may also enter the body through mucous membranes, such as the mouth and throat * The human body is very sensitive to electricity. Very small amounts of current can cause loss of ability to swim, respiratory arrest and cardiac arrest
Wenn Wasser kein guter Leiter ist, warum wird uns dann geraten, Wasser in der Nähe von Elektrizität zu vermeiden (keine nassen Hände in der Nähe von Stromkreisen usw.)?
&quot;Reines&quot; Wasser ist ein sehr schlechter Leiter (der spezifische Widerstand wird tatsächlich als Maß für die Reinheit verwendet). &quot;Echtes&quot; Wasser ist nicht rein - es enthält Elektrolyte und ist recht leitfähig. Wenn Ihre Haut nass ist, ist ihr Widerstand deutlich geringer. Ein Beispiel: &quot;reines&quot; Wasser hat einen spezifischen Widerstand von (etwa) 18,2 M$\Omega\cdot\rm{cm}$. Bei 10 ppm gelöstem NaCl (&quot;Leitungswasser von sehr guter Qualität&quot; hätte weniger als 50 ppm) sinkt der spezifische Widerstand auf etwa $43~\rm{k\Omega\cdot cm}$ Viele Details finden sich in &quot;Conduction of Electrical Current to and Through the Human Body: A Review&quot; (Fish und Geddes, ePlasty 2009, 9, e44). > Warum das Eintauchen in Wasser bei sehr niedrigen Spannungen tödlich sein kann * Eintauchen benetzt die Haut sehr effektiv und senkt den Hautwiderstand pro Flächeneinheit erheblich. * Die Kontaktfläche macht einen großen Prozentsatz der gesamten Körperoberfläche aus. * Elektrischer Strom kann auch über die Schleimhäute in den Körper eindringen, z. B. über den Mund und den Rachen. * Der menschliche Körper reagiert sehr empfindlich auf Elektrizität. Schon sehr geringe Strommengen können den Verlust der Schwimmfähigkeit, Atemstillstand und Herzstillstand verursachen.
Si el agua no es un buen conductor, ¿por qué se nos aconseja evitar el agua cerca de la electricidad (no mojarse las manos cerca de los circuitos, etc.)?
El agua pura es muy mala conductora (de hecho, la resistividad se utiliza para medir la pureza). El agua real no es pura: contiene electrolitos y es bastante conductora. Además, cuando la piel está mojada, su resistividad es mucho menor. Por ejemplo, el agua pura tiene una resistividad de aproximadamente 18,2 M$Omega\cdot\rm{cm}$. Con 10 ppm de NaCl disuelto (&quot;agua del grifo de muy buena calidad&quot; tendría menos de 50 ppm), la resistividad cae a alrededor de $43~\rm{k\Omega\cdot cm}$. Se pueden encontrar muchos detalles en &quot;Conduction of Electrical Current to and Through the Human Body: A Review&quot; (Fish y Geddes, ePlasty 2009, 9, e44). > Por qué la inmersión en agua puede ser mortal con voltajes muy bajos * La inmersión humedece la piel de forma muy eficaz y reduce en gran medida la resistencia de la piel por unidad de superficie. * El área de contacto es un gran porcentaje de toda la superficie corporal * La corriente eléctrica también puede entrar en el cuerpo a través de las membranas mucosas, como la boca y la garganta. * El cuerpo humano es muy sensible a la electricidad. Cantidades muy pequeñas de corriente pueden causar pérdida de la capacidad de nadar, parada respiratoria y parada cardiaca
Si l'eau n'est pas un bon conducteur, pourquoi nous conseille-t-on d'éviter l'eau près de l'électricité (pas de mains mouillées près des circuits, etc.) ?
L'eau pure est un très mauvais conducteur (la résistivité est en fait utilisée comme mesure de la pureté). L'eau réelle n'est pas pure : elle contient des électrolytes et est très conductrice. De plus, lorsque votre peau est mouillée, sa résistivité est nettement plus faible. Par exemple, l'eau "pure" a une résistivité d'environ 18,2 M$. Avec 10 ppm de NaCl dissous (une eau du robinet de très bonne qualité en contiendrait moins de 50 ppm), la résistivité tombe à environ $43~\rm{kOmega\cdot cm}$. De nombreux détails peuvent être trouvés dans &quot;Conduction of Electrical Current to and Through the Human Body : A Review&quot ; (Fish et Geddes, ePlasty 2009, 9, e44). > Pourquoi l'immersion dans l'eau peut-elle être fatale avec des tensions très faibles ? * L'immersion mouille très efficacement la peau et réduit considérablement la résistance de la peau par unité de surface. * La zone de contact représente un pourcentage important de la surface totale du corps. * Le courant électrique peut également pénétrer dans le corps par les muqueuses, telles que la bouche et la gorge. * Le corps humain est très sensible à l'électricité. De très petites quantités de courant peuvent entraîner une perte de la capacité à nager, un arrêt respiratoire et un arrêt cardiaque.
Se l'acqua non è un buon conduttore, perché si consiglia di evitare l'acqua vicino all'elettricità (niente mani bagnate vicino ai circuiti, ecc.)?
L'acqua &quot;pura&quot; è un conduttore molto scarso (la resistività è in effetti usata come misura della purezza). L'acqua &quot;reale&quot; non è pura: contiene elettroliti ed è abbastanza conduttiva. Inoltre, quando la pelle è bagnata, la sua resistività è significativamente più bassa. Ad esempio, l'acqua &quot;pura&quot; ha una resistività di (circa) 18,2 M$\Omega\cdot{cm}$. Con 10 ppm di NaCl disciolto (&quot;acqua di rubinetto di ottima qualità&quot; avrebbe meno di 50 ppm), la resistività scende a circa $43~\rm{k\Omega\cdot cm}$. Molti dettagli si trovano in &quot;Conduction of Electrical Current to and Through the Human Body: A Review&quot; (Fish e Geddes, ePlasty 2009, 9, e44). > Perché l'immersione in acqua può essere fatale con tensioni molto basse * L'immersione bagna la pelle in modo molto efficace e abbassa notevolmente la resistenza della pelle per unità di superficie. * L'area di contatto è una grande percentuale dell'intera superficie corporea. * La corrente elettrica può entrare nel corpo anche attraverso le membrane mucose, come la bocca e la gola. * Il corpo umano è molto sensibile all'elettricità. Piccole quantità di corrente possono causare la perdita della capacità di nuotare, l'arresto respiratorio e l'arresto cardiaco.
188
What is the difference between cohesion and coupling? How can coupling and cohesion lead to either good or poor software design? What are some examples that outline the difference between the two, and their impact on overall code quality?
Cohesion refers to what the class (or module) can do. Low cohesion would mean that the class does a great variety of actions - it is broad, unfocused on what it should do. High cohesion means that the class is focused on what it should be doing, i.e. only methods relating to the intention of the class. Example of Low Cohesion: ```------------------- | Staff | ------------------- | checkEmail() | | sendEmail() | | emailValidate() | | PrintLetter() | ------------------- ``` Example of High Cohesion: ```---------------------------- | Staff | ---------------------------- | -salary | | -emailAddr | ---------------------------- | setSalary(newSalary) | | getSalary() | | setEmailAddr(newEmail) | | getEmailAddr() | ---------------------------- ``` As for coupling, it refers to how related or dependent two classes/modules are toward each other. For low coupled classes, changing something major in one class should not affect the other. High coupling would make it difficult to change and maintain your code; since classes are closely knit together, making a change could require an entire system revamp. Good software design has ***high cohesion*** and ***low coupling***.
Was ist der Unterschied zwischen Kohäsion und Kopplung? Wie können Kopplung und Kohäsion zu gutem oder schlechtem Softwaredesign führen? Welche Beispiele verdeutlichen den Unterschied zwischen den beiden und ihre Auswirkungen auf die allgemeine Codequalität?
Kohäsion bezieht sich darauf, was die Klasse (oder das Modul) tun kann. Geringe Kohäsion würde bedeuten, dass die Klasse eine Vielzahl von Aktionen ausführt - sie ist breit gefächert und nicht auf das fokussiert, was sie tun soll. Hohe Kohäsion bedeutet, dass die Klasse sich auf das konzentriert, was sie tun soll, d. h. nur Methoden, die sich auf die Absicht der Klasse beziehen. Beispiel für geringe Kohäsion: ```------------------- | Staff | ------------------- | checkEmail() | | sendEmail() | | emailValidate() | | PrintLetter() | ------------------- ``` Beispiel für hohe Kohäsion: ```---------------------------- | Personal | ---------------------------- | -salary | | -emailAddr | ---------------------------- | setSalary(newSalary) | | getSalary() | | setEmailAddr(newEmail) | | getEmailAddr() | ---------------------------- ``` Was die Kopplung betrifft, so bezieht sie sich darauf, wie verwandt oder abhängig zwei Klassen/Module voneinander sind. Bei gering gekoppelten Klassen sollte eine Änderung in einer Klasse keine Auswirkungen auf die andere Klasse haben. Eine hohe Kopplung würde es schwierig machen, den Code zu ändern und zu pflegen; da die Klassen eng miteinander verbunden sind, könnte eine Änderung eine Umgestaltung des gesamten Systems erfordern. Gutes Softwaredesign hat ***hohe Kohäsion*** und ***geringe Kopplung***.
¿Cuál es la diferencia entre cohesión y acoplamiento? ¿Cómo pueden el acoplamiento y la cohesión conducir a un buen o mal diseño del software? ¿Cuáles son algunos ejemplos que muestran la diferencia entre ambos conceptos y su impacto en la calidad general del código?
La cohesión se refiere a lo que la clase (o módulo) puede hacer. Una cohesión baja significaría que la clase realiza una gran variedad de acciones: es amplia, no está centrada en lo que debe hacer. Alta cohesión significa que la clase está centrada en lo que debe hacer, es decir, sólo métodos relacionados con la intención de la clase. Ejemplo de baja cohesión: ```------------------- | Personal ------------------- | CheckEmail() | EnviarCorreo() | EmailValidate() | Imprimir carta ------------------- ``` Ejemplo de alta cohesión: ```---------------------------- | Personal ---------------------------- | Salario | Dirección de correo electrónico ---------------------------- | SetSalary(newSalary) | getSalary() | SetEmailAddr(newEmail) | getEmailAddr() ---------------------------- ``` En cuanto al acoplamiento, se refiere a lo relacionadas o dependientes que están dos clases/módulos entre sí. Para clases con bajo acoplamiento, cambiar algo importante en una clase no debería afectar a la otra. Un acoplamiento alto dificultaría el cambio y el mantenimiento del código; dado que las clases están estrechamente unidas, realizar un cambio podría requerir la renovación de todo el sistema. Un buen diseño de software tiene ***alta cohesión*** y ***bajo acoplamiento***.
Quelle est la différence entre la cohésion et le couplage ? Comment le couplage et la cohésion peuvent-ils conduire à une bonne ou à une mauvaise conception du logiciel ? Quels sont les exemples qui illustrent la différence entre les deux et leur impact sur la qualité globale du code ?
La cohésion fait référence à ce que la classe (ou le module) peut faire. Une faible cohésion signifierait que la classe effectue une grande variété d'actions - elle est large, non focalisée sur ce qu'elle devrait faire. Une cohésion élevée signifie que la classe se concentre sur ce qu'elle devrait faire, c'est-à-dire uniquement sur les méthodes liées à l'intention de la classe. Exemple de faible cohésion : ```------------------- | Personnel de l'entreprise ------------------- CheckEmail() | CheckEmail() | CheckEmail() | sendEmail() | emailValidate() | emailValidate() | emailValidate() | emailValidate() | emailValidate() | PrintLetter() ------------------- ``` Exemple de forte cohésion : ```---------------------------- | Personnel de l'entreprise ---------------------------- | -salaire | -mailAddr | -salaire ---------------------------- | setSalary(newSalary) | setSalary(newSalary) | setSalary(newSalary) | getSalary() | setEmailAddr(newEmail) | setEmailAddr(newEmail) | setSalary(newSalary) | getSalary() | getEmailAddr() | ---------------------------- ``` En ce qui concerne le couplage, il s'agit du degré de relation ou de dépendance entre deux classes/modules. Dans le cas de classes à faible couplage, la modification d'un élément important dans une classe ne devrait pas avoir d'incidence sur l'autre classe. Un couplage élevé rendrait difficile la modification et la maintenance de votre code ; les classes étant étroitement liées, une modification pourrait nécessiter une refonte de l'ensemble du système. Un logiciel bien conçu présente une ***haute cohésion*** et un ***faible couplage***.
Qual è la differenza tra coesione e accoppiamento? In che modo l'accoppiamento e la coesione possono portare a una buona o cattiva progettazione del software? Quali sono alcuni esempi che evidenziano la differenza tra i due fenomeni e il loro impatto sulla qualità complessiva del codice?
La coesione si riferisce a ciò che la classe (o il modulo) può fare. Una bassa coesione significa che la classe esegue una grande varietà di azioni - è ampia, non focalizzata su ciò che dovrebbe fare. Alta coesione significa che la classe è focalizzata su ciò che dovrebbe fare, cioè solo sui metodi relativi all'intenzione della classe. Esempio di bassa coesione: ```------------------- | Personale ------------------- | checkEmail() | | sendEmail() | | emailValidate() | | StampaLettera() ------------------- ``` Esempio di alta coesione: ```---------------------------- | Personale | ---------------------------- | -salario | | -emailAddr | ---------------------------- | SetSalary(newSalary) | | getSalary() | | SetEmailAddr(newEmail) | | getEmailAddr() | ---------------------------- ``` Per quanto riguarda l'accoppiamento, si riferisce a quanto due classi/moduli sono correlati o dipendenti l'uno dall'altro. Per le classi a basso accoppiamento, la modifica di qualcosa di importante in una classe non dovrebbe influenzare l'altra. Un accoppiamento elevato renderebbe difficile la modifica e la manutenzione del codice; dal momento che le classi sono strettamente collegate tra loro, una modifica potrebbe richiedere la revisione dell'intero sistema. Una buona progettazione del software prevede ***alta coesione*** e ***basso accoppiamento***.
189
Can Romex (NM-B) cable be run through conduit?
Yes, NM (Romex) cable can be in conduit. In fact, National Electrical Code (NEC() calls for it to be in conduit, when protection from physical damage is required. But it really isn't worth it. ## It's a nightmare to pull NM (Romex) is already solid wire except in the large sizes, and now you have 3-4 wires bound together. You are trying to pull this around maybe 14" radius elbows, and if the NM gets twists in it (it always does), it really drags in those places. It's just a stiff, miserable pull - enough to "put you off conduit forever" - which is a shame, because conduit is wonderful when using easy-to-pull stranded wire. Pulling this stiff cable increases the risk of damaging the cable. What's more, "cable in conduit" is often a newbie who chooses cable simply because he is unaware that wire comes in any other forms. Which leads to more risk of damage still. ## It requires ridiculously large conduit You still have to calculate and respect conduit fill rules, and those are very punishing toward cable. Most cable is oblong, and the rules say you use the largest dimension and treat it as a circular wire of that dimension. * For a single "wire", you are allowed 53% conduit fill. That means the conduit ID must be at least 137% of the large cross-section of the cable. That's not so bad, but... * For two "wires", you're only allowed 31% fill. That's to protect the wires from binding. That means the conduit ID must be at least 2.54 times the cable large dimension. * For three "wires", you're allowed 40% fill. That means the conduit must be at least 2.74 times the cable width (at 3 wires), larger for more wires. For instance, someone wanted to squeeze three #6 cables through a 1" conduit. Now this is "easy peasy" with 6 individual #6 THHN wires and 3 bare #10 grounds. However, with three #6 UF cables, the conduit size needed to be 3" instead of 1". Whoa. You are certainly allowed to do it, but you will be using rather enormous conduit, and you will have a hard time pulling.
Können Romex (NM-B)-Kabel durch Leerrohre verlegt werden?
Ja, NM-Kabel (Romex) können in Leerrohren verlegt werden. Der National Electrical Code (NEC()) verlangt sogar, dass es in einem Kabelkanal verlegt wird, wenn ein Schutz vor physischen Schäden erforderlich ist. Aber das ist es wirklich nicht wert. ## Es ist ein Albtraum, sie zu ziehen. NM (Romex) ist bereits ein massiver Draht, außer in den großen Größen, und jetzt haben Sie 3-4 Drähte miteinander verbunden. Man versucht, es um Bögen mit einem Radius von vielleicht 14 Zoll zu ziehen, und wenn sich das NM verdreht (das tut es immer), zieht es an diesen Stellen wirklich. Es ist einfach ein steifer, miserabler Zug - genug, um Sie für immer von Conduits abzubringen" - was eine Schande ist, denn Conduits sind wunderbar, wenn man leicht zu ziehende Litzen verwendet. Das Ziehen dieses steifen Kabels erhöht das Risiko einer Beschädigung des Kabels. Hinzu kommt, dass "Kabel im Leerrohr" oft ein Neuling ist, der sich für Kabel entscheidet, weil er nicht weiß, dass es Kabel in anderen Formen gibt. Das führt zu einem noch größeren Schadensrisiko. ## Es erfordert lächerlich große Kabelkanäle Man muss immer noch die Regeln für die Füllung der Rohre berechnen und beachten, und die sind für Kabel sehr streng. Die meisten Kabel sind länglich, und die Regeln besagen, dass man die größte Abmessung verwendet und sie wie einen kreisförmigen Draht dieser Abmessung behandelt. * Für einen einzelnen "Draht" sind 53 % Rohrfüllung zulässig. Das bedeutet, dass der Innendurchmesser des Rohres mindestens 137 % des großen Querschnitts des Kabels betragen muss. Das ist nicht so schlecht, aber... * Für zwei "Drähte" sind nur 31 % Füllung erlaubt. Das dient dazu, die Drähte vor dem Verklemmen zu schützen. Das bedeutet, dass der Innendurchmesser des Rohrs mindestens das 2,54-fache des Kabelquerschnitts betragen muss. * Bei drei "Drähten" ist eine Füllung von 40 % zulässig. Das bedeutet, dass das Leerrohr mindestens das 2,74-fache der Kabelbreite (bei 3 Drähten) betragen muss, bei mehr Drähten noch mehr. Ein Beispiel: Jemand wollte drei 6er-Kabel durch ein 1-Zoll-Rohr quetschen. Mit 6 einzelnen #6 THHN-Drähten und 3 blanken #10 Erdungen ist das ein Kinderspiel. Bei drei 6er UF-Kabeln musste das Leerrohr jedoch 3" statt 1" groß sein. Wow. Sie dürfen das sicherlich tun, aber Sie werden ein ziemlich großes Rohr verwenden und es wird Ihnen schwer fallen, es zu ziehen.
¿Se puede pasar el cable Romex (NM-B) por un conducto?
Sí, el cable NM (Romex) puede ir en un conducto. De hecho, el Código Eléctrico Nacional (NEC) lo exige cuando es necesario protegerlo de daños físicos. Pero no merece la pena. ## Es una pesadilla para tirar NM (Romex) ya es de alambre sólido, excepto en los grandes tamaños, y ahora tiene 3-4 cables unidos entre sí. Estas intentando tirar de esto alrededor de codos de 14" de radio, y si el NM se tuerce (siempre lo hace), realmente se arrastra en esos lugares. Es simplemente un tirón rígido y miserable, lo suficiente como para "alejarte del conducto para siempre", lo cual es una pena, porque el conducto es maravilloso cuando se utiliza cable trenzado fácil de tirar. Tirar de un cable tan rígido aumenta el riesgo de dañarlo. Además, el "cable en tubo" suele ser un novato que elige el cable simplemente porque no sabe que existen otras formas de cable. Lo que conlleva aún más riesgo de daños. ## Requiere un conducto ridículamente grande Todavía hay que calcular y respetar las normas de llenado de los conductos, y éstas son muy severas con el cable. La mayoría de los cables son oblongos, y las reglas dicen que hay que usar la dimensión mayor y tratarlos como cables circulares de esa dimensión. * Para un solo "cable", se permite un 53% de llenado del conducto. Eso significa que el diámetro interior del conducto debe ser al menos el 137% de la sección transversal del cable. Eso no es tan malo, pero... * Para dos "cables", solo se permite un 31% de relleno. Eso es para proteger los cables de la unión. Eso significa que el ID del conducto debe ser al menos 2,54 veces la dimensión grande del cable. * Para tres "cables", se permite un 40% de relleno. Eso significa que el conducto debe ser al menos 2,74 veces la anchura del cable (a 3 hilos), mayor para más hilos. Por ejemplo, alguien quiere meter tres cables del nº 6 en un conducto de 1". Ahora esto es "fácil" con 6 cables #6 THHN individuales y 3 tierras #10 desnudas. Sin embargo, con tres cables # 6 UF, el tamaño del conducto debe ser de 3 "en lugar de 1". Vaya. Ciertamente puedes hacerlo, pero estarás usando un conducto bastante enorme, y te costará tirar.
Le câble Romex (NM-B) peut-il passer dans un conduit ?
Oui, le câble NM (Romex) peut être placé dans un conduit. En fait, le code national de l'électricité (NEC) exige qu'il soit placé dans un conduit lorsqu'une protection contre les dommages physiques est nécessaire. Mais cela n'en vaut vraiment pas la peine. ## C'est un cauchemar à tirer Le NM (Romex) est déjà un fil solide, sauf dans les grandes dimensions, et vous avez maintenant 3 ou 4 fils liés ensemble. Vous essayez de tirer autour de coudes d'un rayon de 14", et si le NM est tordu (c'est toujours le cas), il traîne vraiment dans ces endroits. C'est juste une traction raide et misérable - assez pour vous faire renoncer à jamais aux conduits - ce qui est dommage, parce que les conduits sont merveilleux lorsqu'on utilise des fils toronnés faciles à tirer. Tirer ce câble raide augmente le risque d'endommager le câble. De plus, le "câble dans le conduit" est souvent un débutant qui choisit le câble simplement parce qu'il ne sait pas que le fil existe sous d'autres formes. Le risque d'endommagement est donc encore plus grand. ## Il faut des conduits ridiculement grands Il faut toujours calculer et respecter les règles de remplissage des conduits, et celles-ci sont très pénalisantes pour le câble. La plupart des câbles sont oblongs, et les règles disent qu'il faut utiliser la plus grande dimension et la traiter comme un fil circulaire de cette dimension. * Pour un seul "fil", vous êtes autorisé à remplir le conduit à 53 %. Cela signifie que le diamètre intérieur du conduit doit être au moins égal à 137 % de la grande section du câble. Ce n'est pas si mal, mais... * Pour deux "fils", vous ne pouvez remplir le conduit qu'à 31 %. Cela permet d'éviter que les fils ne se lient entre eux. Cela signifie que le diamètre intérieur du conduit doit être au moins égal à 2,54 fois la grande dimension du câble. * Pour trois "fils", le taux de remplissage autorisé est de 40 %. Cela signifie que le conduit doit être au moins 2,74 fois la largeur du câble (pour 3 fils), plus grand pour plus de fils. Par exemple, quelqu'un a voulu faire passer trois câbles n° 6 dans un conduit de 1". C'est facile avec 6 fils THHN #6 individuels et 3 fils de terre #10 nus. Cependant, avec trois câbles UF #6, la taille du conduit devait être de 3" au lieu de 1". C'est dire si la situation est délicate. Vous avez certainement le droit de le faire, mais vous utiliserez un conduit plutôt énorme et vous aurez du mal à le tirer.
Il cavo Romex (NM-B) può essere fatto passare attraverso le guaine?
Sì, il cavo NM (Romex) può essere inserito in una guaina. In effetti, il National Electrical Code (NEC() ne prevede l'inserimento quando è richiesta la protezione da danni fisici. Ma non ne vale la pena. ## È un incubo da tirare. L'NM (Romex) è già un filo solido, tranne che nelle dimensioni più grandi, e ora avete 3-4 fili legati insieme. Si cerca di tirarlo intorno a gomiti con raggio di 14" e se il NM si attorciglia (lo fa sempre), si trascina davvero in quei punti. Si tratta di una trazione rigida e penosa, tale da farvi abbandonare per sempre le guaine, ed è un peccato, perché le guaine sono meravigliose quando si usano trefoli facili da tirare. Tirare un cavo così rigido aumenta il rischio di danneggiare il cavo stesso. Inoltre, il "cavo in guaina" è spesso un principiante che sceglie il cavo semplicemente perché non sa che il filo esiste in altre forme. Il che comporta un ulteriore rischio di danneggiamento. ## Richiede guaine di dimensioni ridicole Bisogna comunque calcolare e rispettare le regole di riempimento delle guaine, che sono molto severe nei confronti del cavo. La maggior parte dei cavi è di forma oblunga e le regole dicono di usare la dimensione più grande e di trattarli come fili circolari di quella dimensione. * Per un singolo "filo", è consentito il 53% di riempimento del condotto. Ciò significa che l'ID della guaina deve essere almeno il 137% della sezione trasversale grande del cavo. Non è male, ma... * Per due "fili", è consentito solo il 31% di riempimento. Questo per evitare che i fili si leghino. Ciò significa che l'ID della guaina deve essere pari ad almeno 2,54 volte la dimensione del cavo. * Per tre "fili", è consentito un riempimento del 40%. Ciò significa che la guaina deve essere almeno 2,74 volte la larghezza del cavo (a 3 fili), più grande per più fili. Ad esempio, qualcuno voleva far passare tre cavi #6 in una guaina da 1". Ora, questo è "facile" con 6 singoli fili #6 THHN e 3 masse nude #10. Tuttavia, con tre cavi #6 UF, le dimensioni della guaina dovevano essere di 3" invece che di 1". Wow. È certamente possibile farlo, ma si utilizzerà una guaina piuttosto enorme e sarà difficile tirare.
190
Let's say I have a function which takes an ```std::function```: ```void callFunction(std::function x) { x(); } ``` Should I pass ```x``` by const-reference instead?: ```void callFunction(const std::function& x) { x(); } ``` Does the answer to this question change depending on what the function does with it? For example if it is a class member function or constructor which stores or initializes the ```std::function``` into a member variable.
If you want performance, pass by value if you are storing it. Suppose you have a function called "run this in the UI thread". ```std::future run_in_ui_thread( std::function ) ``` which runs some code in the "ui" thread, then signals the ```future``` when done. (Useful in UI frameworks where the UI thread is where you are supposed to mess with UI elements) We have two signatures we are considering: ```std::future run_in_ui_thread( std::function ) // (A) std::future run_in_ui_thread( std::function const& ) // (B) ``` Now, we are likely to use these as follows: ```run_in_ui_thread( [=]{ // code goes here } ).wait(); ``` which will create an anonymous closure (a lambda), construct a ```std::function``` out of it, pass it to the ```run_in_ui_thread``` function, then wait for it to finish running in the main thread. In case (A), the ```std::function``` is directly constructed from our lambda, which is then used within the ```run_in_ui_thread```. The lambda is ```move```d into the ```std::function```, so any movable state is efficiently carried into it. In the second case, a temporary ```std::function``` is created, the lambda is ```move```d into it, then that temporary ```std::function``` is used by reference within the ```run_in_ui_thread```. So far, so good -- the two of them perform identically. Except the ```run_in_ui_thread``` is going to make a copy of its function argument to send to the ui thread to execute! (it will return before it is done with it, so it cannot just use a reference to it). For case (A), we simply ```move``` the ```std::function``` into its long-term storage. In case (B), we are forced to copy the ```std::function```. That store makes passing by value more optimal. If there is any possibility you are storing a copy of the ```std::function```, pass by value. Otherwise, either way is roughly equivalent: the only downside to by-value is if you are taking the same bulky ```std::function``` and having one sub method after another use it. Barring that, a ```move``` will be as efficient as a ```const&```. Now, there are some other differences between the two that mostly kick in if we have persistent state within the ```std::function```. Assume that the ```std::function``` stores some object with a ```operator() const```, but it also has some ```mutable``` data members which it modifies (how rude!). In the ```std::function const&``` case, the ```mutable``` data members modified will propagate out of the function call. In the ```std::function``` case, they won't. This is a relatively strange corner case. You want to treat ```std::function``` like you would any other possibly heavy-weight, cheaply movable type. Moving is cheap, copying can be expensive.
Nehmen wir an, ich habe eine Funktion, die eine ```std::function``` annimmt: ```void callFunction(std::function x) { x(); } ``` Sollte ich ```x`` stattdessen per const-Referenz übergeben? ```void callFunction(const std::function& x) { x(); } ``` Ändert sich die Antwort auf diese Frage, je nachdem, was die Funktion mit ihr macht? Zum Beispiel, wenn es sich um eine Klassenfunktion oder einen Konstruktor handelt, der die ```std::function``` in einer Mitgliedsvariablen speichert oder initialisiert.
Wenn Sie Leistung wünschen, übergeben Sie den Wert, wenn Sie ihn speichern. Angenommen, Sie haben eine Funktion namens "run this in the UI thread". ````std::future run_in_ui_thread( std::function ) ``` die einen Code im "ui"-Thread ausfuehrt und dann ```future``` signalisiert, wenn sie fertig ist. (Nützlich in UI-Frameworks, wo der UI-Thread derjenige ist, in dem man mit UI-Elementen herumspielen soll) Wir haben zwei Signaturen, die wir in Betracht ziehen: ```std::future run_in_ui_thread( std::function ) // (A) std::future run_in_ui_thread( std::function const& ) // (B) ``` Nun werden wir diese wahrscheinlich wie folgt verwenden: ```run_in_ui_thread( [=]{ // Code geht hier } ).wait(); ``` Dies erzeugt eine anonyme Schließung (ein Lambda), konstruiert daraus eine ```std::function``, übergibt sie an die Funktion ```run_in_ui_thread`` und wartet dann, bis sie im Hauptthread ausgeführt wird. Im Fall (A) wird die ```std::function`` direkt aus unserem Lambda konstruiert, das dann innerhalb der ```run_in_ui_thread`` verwendet wird. Das Lambda wird in die ```std::function`` ``verschoben, so dass jeder bewegliche Zustand effizient in die Funktion übertragen wird. Im zweiten Fall wird eine temporäre ```std::function`` erzeugt, das Lambda in diese ``verschoben``, und dann wird diese temporäre ```std::function`` per Referenz innerhalb des ```run_in_ui_thread``` verwendet. So weit, so gut - die beiden funktionieren identisch. Außer, daß ```run_in_ui_thread`` eine Kopie seines Funktionsarguments erstellt, um es an den ui-Thread zur Ausführung zu schicken! (er kehrt zurück, bevor er mit der Funktion fertig ist, also kann er nicht einfach einen Verweis darauf benutzen). Im Fall (A) ``verschieben`` wir einfach die ```std::function`` in den Langzeitspeicher. Im Fall (B) sind wir gezwungen, die ```std::function`` zu kopieren. Dieser Speicher macht die Übergabe nach Wert optimaler. Wenn die Möglichkeit besteht, dass Sie eine Kopie der ```std::function`` speichern, übergeben Sie nach Wert. Der einzige Nachteil von "by-value" ist, wenn Sie dieselbe sperrige ```std::function`` verwenden und eine Untermethode nach der anderen darauf zugreift. Davon abgesehen, ist ein ```move`` genauso effizient wie ein ``const&``. Nun, es gibt noch einige andere Unterschiede zwischen den beiden, die vor allem dann zum Tragen kommen, wenn wir einen persistenten Zustand innerhalb der ```std::function``` haben. Nehmen wir an, dass die ```std::function`` ein Objekt mit einer ```operator() const`` speichert, aber auch einige ```mutable`` Datenelemente hat, die sie modifiziert (wie unhöflich!). Im ```std::function const&`` Fall werden die ```veränderbaren`` Datenelemente, die verändert wurden, aus dem Funktionsaufruf heraus übertragen. Im ```std::function``-Fall werden sie das nicht. Dies ist ein relativ seltsamer Eckfall. Sie sollten ```std::function`` wie jeden anderen möglicherweise schwergewichtigen, billig verschiebbaren Typ behandeln. Verschieben ist billig, Kopieren kann teuer sein.
Digamos que tengo una función que toma un ``std::function``: ```void llamarFunción(std::función x) { x(); } ``` ¿Debería pasar ```x`` por const-referencia en su lugar?: ```void callFunction(const std::function& x) { x(); } ``` ¿Cambia la respuesta a esta pregunta dependiendo de lo que la función haga con ella? Por ejemplo si es una función miembro de una clase o un constructor que almacena o inicializa la ``std::function`` en una variable miembro.
Si quieres rendimiento, pasa por valor si lo estás almacenando. Supongamos que tienes una función llamada "ejecuta esto en el hilo UI". ```std::future run_in_ui_thread( std::function ) ``` que ejecuta algún código en el hilo "ui", y señala al ```future`` cuando termina. (Útil en frameworks UI donde el hilo UI es donde se supone que se juega con los elementos UI) Tenemos dos firmas que estamos considerando: ```std::future run_in_ui_thread( std::function ) // (A) std::future run_in_ui_thread( std::function const& ) // (B) ``` Ahora, es probable que los utilicemos de la siguiente manera: ```run_in_ui_thread( [=]{ // el código va aquí } ).wait(); ``` que creará un cierre anónimo (una lambda), construirá una ``std::function`` a partir de él, la pasará a la función ```run_in_ui_thread``, y esperará a que termine de ejecutarse en el hilo principal. En el caso (A), la función ``std::function`` se construye directamente a partir de nuestra lambda, que luego se utiliza dentro de la función ``run_in_ui_thread``. La lambda se ``move`` dentro de ``std::function``, por lo que cualquier estado movible se transporta eficientemente a ella. En el segundo caso, se crea una ``std::function`` temporal, se ``move`` la lambda dentro de ella, y esa ``std::function`` temporal se usa por referencia dentro de ```run_in_ui_thread``. Hasta aquí, todo bien -- los dos funcionan de forma idéntica. Excepto que ```run_in_ui_thread`` va a hacer una copia del argumento de su función para enviársela al hilo ui para que la ejecute. (retornará antes de terminar de ejecutarla, por lo que no puede usar una referencia a ella). Para el caso (A), simplemente ```movemos`` la ```std::function`` a su almacenamiento a largo plazo. En el caso (B), nos vemos obligados a copiar ```std::function``. Ese almacenamiento hace que pasar por valor sea más óptimo. Si hay alguna posibilidad de que estés almacenando una copia de ``std::function``, pasa por valor. Por lo demás, cualquiera de las dos formas es más o menos equivalente: el único inconveniente de pasar por valor es si estás tomando la misma voluminosa ``std::function`` y tienes un submétodo tras otro usándola. Salvo eso, un ``move`` será tan eficiente como un ``const&``. Ahora bien, hay otras diferencias entre los dos métodos que aparecen sobre todo si tenemos estado persistente dentro de ``std::function``. Supongamos que ``std::function`` almacena algún objeto con un ``operator() const``, pero también tiene algunos miembros de datos ```mutables`` que modifica (¡qué grosero!). En el caso de ```std::function const&``, los datos ```mutables`` modificados se propagarán fuera de la llamada a la función. En el caso de ``std::function``, no. Este es un caso relativamente extraño. Debes tratar ``std::function`` como tratarías cualquier otro tipo posiblemente pesado y barato de mover. Mover es barato, copiar puede ser caro.
Disons que j'ai une fonction qui prend une ``std::function`` : ``Void callFunction(std::function x) { x() ; } ``` Devrais-je passer ``x`` par référence constante à la place ? ```void callFunction(const std::function& x) { x() ; } ``` La réponse à cette question change-t-elle en fonction de ce que la fonction fait avec ? Par exemple, s'il s'agit d'une fonction membre d'une classe ou d'un constructeur qui stocke ou initialise la ``std::function`` dans une variable membre.
Si vous voulez être performant, passez par la valeur si vous la stockez. Supposons que vous ayez une fonction appelée "exécuter ceci dans le thread de l'interface utilisateur". ```std::future run_in_ui_thread( std::function ) ``` qui exécute du code dans le thread "ui", puis signale le ``future`` lorsqu'il est terminé. (Utile dans les frameworks UI où le thread UI est l'endroit où l'on est supposé manipuler les éléments de l'UI). Nous envisageons deux signatures : ``std::future run_in_ui_thread( std::function ) // (A) std::future run_in_ui_thread( std::function const& ) // (B) ``` Maintenant, nous sommes susceptibles de les utiliser comme suit : ```run_in_ui_thread( [=]{ // le code va ici } ).wait() ; ``` qui va créer une fermeture anonyme (un lambda), construire une ``std::function`` à partir de celle-ci, la passer à la fonction ``run_in_ui_thread``, puis attendre qu'elle finisse de s'exécuter dans le thread principal. Dans le cas (A), la ``std::function`` est directement construite à partir de notre lambda, qui est ensuite utilisé dans la fonction ``run_in_ui_thread``. La lambda est "déplacée" dans la ``std::function``, donc tout état mobile y est efficacement transporté. Dans le second cas, une ``std::function`` temporaire est créée, le lambda est ``move``dans celle-ci, puis cette ``std::function`` temporaire est utilisée par référence dans le ``run_in_ui_thread``. Jusqu'ici, tout va bien - les deux fonctionnent de manière identique. Sauf que le ``run_in_ui_thread`` va faire une copie de son argument de fonction pour l'envoyer au thread ui pour qu'il l'exécute ! (il reviendra avant d'avoir terminé, donc il ne peut pas simplement utiliser une référence). Dans le cas (A), nous déplaçons simplement la ``std::function`` dans son stockage à long terme. Dans le cas (B), nous sommes obligés de copier la ``std::function``. Ce stockage rend le passage par valeur plus optimal. S'il y a une possibilité que vous stockiez une copie de ``std::function``, passez par valeur. Sinon, les deux méthodes sont à peu près équivalentes : le seul inconvénient du passage par valeur est de prendre la même ``std::function`` encombrante et de la faire utiliser par une sous-méthode après l'autre. En dehors de cela, un ``move`` sera aussi efficace qu'un ``const&``. Maintenant, il y a d'autres différences entre les deux qui apparaissent surtout si nous avons un état persistant dans la ``std::function``. Supposons que la ``std::function`` stocke un objet avec un ``operator() const``, mais qu'elle ait aussi des membres de données ``mutables`` qu'elle modifie (quelle impolitesse !). Dans le cas ``std::function const&``, les membres de données ``mutables`` modifiés se propageront hors de l'appel de fonction. Dans le cas ``std::function``, ce n'est pas le cas. C'est un cas relativement étrange. Vous voulez traiter ``std::function`` comme vous le feriez avec n'importe quel autre type lourd et peu coûteux à déplacer. Le déplacement n'est pas cher, la copie peut être coûteuse.
Diciamo che ho una funzione che prende una ``std::function``: ```void callFunction(std::function x) { x(); } ``` Dovrei invece passare ```x`` tramite const-reference? ```void callFunction(const std::function& x) { x(); } ``` La risposta a questa domanda cambia a seconda di cosa fa la funzione? Per esempio, se si tratta di una funzione membro di una classe o di un costruttore che memorizza o inizializza la ``std::function``` in una variabile membro.
Se si vogliono ottenere prestazioni, passare per valore se lo si sta memorizzando. Supponiamo di avere una funzione chiamata "run this in the UI thread". ``std::future run_in_ui_thread( std::function ) ``` che esegue del codice nel thread "ui" e segnala il ```future`` al termine. (Utile nei framework dell'interfaccia utente, dove il thread dell'interfaccia utente è il luogo in cui si suppone che si possa intervenire sugli elementi dell'interfaccia). Abbiamo due firme che stiamo considerando: ``std::future run_in_ui_thread( std::function ) // (A) std::future run_in_ui_thread( std::function const& ) // (B) ``` Ora, è probabile che li useremo come segue: ```run_in_ui_thread( [=]{ // il codice va qui } ).wait(); ``` che creerà una chiusura anonima (una lambda), costruirà una ``std::function`` da essa, la passerà alla funzione ``run_in_ui_thread`` e attenderà che finisca di essere eseguita nel thread principale. Nel caso (A), la ``std::function`` è costruita direttamente dal nostro lambda, che viene poi usato all'interno di ```run_in_ui_thread``. Il lambda viene ```spostato'' all'interno della ``std::function``, quindi ogni stato mobile viene trasportato in modo efficiente al suo interno. Nel secondo caso, viene creata una ``std::function'' temporanea, il lambda viene ```spostato'' al suo interno, quindi questa ``std::function'' temporanea viene usata come riferimento all'interno di ``run_in_ui_thread''. Fin qui tutto bene: le due funzioni sono identiche. Tranne che il ``run_in_ui_thread`` sta per fare una copia del suo argomento funzione da inviare al thread ui per l'esecuzione! (ritornerà prima di aver finito, quindi non può usare un riferimento ad essa). Per il caso (A), si tratta semplicemente di ```spostare'' la ``std::function'' nella sua memoria a lungo termine. Nel caso (B), siamo costretti a copiare la ``std::function``. Questa memorizzazione rende il passaggio per valore più ottimale. Se c'è la possibilità di memorizzare una copia della ``std::function``, passare per valore. Altrimenti, entrambi i modi sono più o meno equivalenti: l'unico svantaggio del by-value è se si prende la stessa ingombrante ``std::function`` e la si fa usare a un metodo secondario dopo l'altro. A parte questo, un ```muovi`` sarà efficiente quanto un ```const&``. Ora, ci sono altre differenze tra i due metodi, che si manifestano soprattutto se abbiamo uno stato persistente all'interno di ``std::function``. Supponiamo che la ``std::function`` memorizzi un oggetto con un ``operatore() const``, ma che abbia anche alcuni membri di dati ``mutabili`` che modifica (che maleducazione!). Nel caso di ``std::function const&```, i membri dei dati ``mutabili`` modificati si propagano al di fuori della chiamata di funzione. Nel caso ``std::function``, non lo faranno. Questo è un caso relativamente strano. Si vuole trattare ``std::function`` come si farebbe con qualsiasi altro tipo pesante e poco costoso. Spostare è economico, copiare può essere costoso.
191
I have an Eloquent model which has a related model: ```public function option() { return $this->hasOne('RepairOption', 'repair_item_id'); } public function setOptionArrayAttribute($values) { $this->option->update($values); } ``` When I create the model, it does not necessarily have a related model. When I update it, I might add an option, or not. So I need to check if the related model exists, to either update it, or create it, respectively: ```$model = RepairItem::find($id); if (Input::has('option')) { if () { $option = new RepairOption(Input::get('option')); $option->repairItem()->associate($model); $option->save(); $model->fill(Input::except('option'); } else { $model->update(Input::all()); } }; ``` Where `````` is the code I am looking for.
A Relation object passes unknown method calls through to an Eloquent query Builder, which is set up to only select the related objects. That Builder in turn passes unknown method calls through to its underlying query Builder. This means you can use the ```exists()``` or ```count()``` methods directly from a relation object: ```$model->relation()->exists(); // bool: true if there is at least one row $model->relation()->count(); // int: number of related rows ``` Note the parentheses after ```relation```: ```->relation()``` is a function call (getting the relation object), as opposed to ```->relation``` which a magic property getter set up for you by Laravel (getting the related object/objects). Using the ```count``` method on the relation object (that is, using the parentheses) will be much faster than doing ```$model->relation->count()``` or ```count($model->relation)``` (unless the relation has already been eager-loaded) since it runs a count query rather than pulling all of the data for any related objects from the database, just to count them. Likewise, using ```exists``` doesn't need to pull model data either. Both ```exists()``` and ```count()``` work on all relation types I've tried, so at least ```belongsTo```, ```hasOne```, ```hasMany```, and ```belongsToMany```.
Ich habe ein Eloquent-Modell, das ein verwandtes Modell hat: ```public function option() { return $this->hasOne('RepairOption', 'repair_item_id'); } public function setOptionArrayAttribute($values) { $this->option->update($values); } ``` Wenn ich das Modell erstelle, hat es nicht unbedingt ein verwandtes Modell. Wenn ich es aktualisiere, kann ich eine Option hinzufügen, oder auch nicht. Ich muss also prüfen, ob das verwandte Modell existiert, um es entweder zu aktualisieren oder zu erstellen: ```$model = RepairItem::find($id); if (Input::has('option')) { if () { $option = new RepairOption(Input::get('option')); $option->repairItem()->associate($model); $option->save(); $model->fill(Input::except('option')); } else { $model->update(Input::all()); } }; ``` Wobei `````` der Code ist, nach dem ich suche.
Ein Relation-Objekt leitet unbekannte Methodenaufrufe an einen Eloquent Query Builder weiter, der so eingerichtet ist, dass er nur die verwandten Objekte auswählt. Dieser Builder wiederum leitet unbekannte Methodenaufrufe an seinen zugrunde liegenden Query Builder weiter. Das bedeutet, dass Sie die Methoden ``exists()`` oder ``count()`` direkt von einem Relation-Objekt verwenden können: ```$model->relation()->exists(); // bool: true, wenn es mindestens eine Zeile gibt $model->relation()->count(); // int: Anzahl der verbundenen Zeilen ``` Beachten Sie die Klammern nach ```Relation``: ```->Relation()``` ist ein Funktionsaufruf (liefert das Relationsobjekt), im Gegensatz zu ```->Relation``, einem magischen Property-Getter, der von Laravel für Sie eingerichtet wurde (liefert das/die Relationsobjekt(e)). Die Verwendung der Methode ```count`` für das Relation-Objekt (d.h. die Verwendung der Klammern) ist viel schneller als ```$model->relation->count()``` oder ```count($model->relation)``` (es sei denn, die Relation wurde bereits eager-loaded), da sie eine Zählabfrage durchführt, anstatt alle Daten für alle verwandten Objekte aus der Datenbank zu holen, nur um sie zu zählen. Ebenso müssen bei der Verwendung von ```exists`` auch keine Modelldaten abgefragt werden. Sowohl ```exists()`` als auch ```count()`` funktionieren bei allen Beziehungstypen, die ich ausprobiert habe, also zumindest ```belongsTo``, ```hasOne``, ```hasMany`` und ```belongsToMany``.
Tengo un modelo Eloquent que tiene un modelo relacionado: ```public function opción() { return $this->hasOne('Opción_reparación', 'repair_item_id'); } public function setOpcionArrayAtributo($valores) { $this->opción->actualizar($valores); } ``` Cuando creo el modelo, no necesariamente tiene un modelo relacionado. Cuando lo actualizo, puedo añadir una opción, o no. Así que necesito comprobar si el modelo relacionado existe, para actualizarlo o crearlo, respectivamente: ```$model = RepairItem::find($id); if (Input::has('opción')) { if () { $option = new RepairOption(Input::get('option')); $option->repairItem()->asociar($model); $opción->guardar(); $model->fill(Input::except('opción'); } else { $model->actualizar(Input::all()); } }; ``` Donde `````` es el código que estoy buscando.
Un objeto de relación transmite llamadas a métodos desconocidos a un generador de consultas de Eloquent, que está configurado para seleccionar únicamente los objetos relacionados. Este constructor, a su vez, pasa las llamadas a métodos desconocidos a su constructor de consultas subyacente. Esto significa que puedes utilizar los métodos ``exists()`` o ``count()`` directamente desde un objeto de relación: ```$model->relation()->exists(); // bool: true si hay al menos una fila $model->relation()->count(); // int: número de filas relacionadas ``` Fíjate en los paréntesis después de ``relation``: ```->relation()`` es una llamada a una función (obteniendo el objeto relación), a diferencia de ```->relation`` que es una propiedad mágica que Laravel obtiene (obteniendo el objeto u objetos relacionados). Usar el método ```count`` en el objeto relación (es decir, usando los paréntesis) será mucho más rápido que hacer ```$model->relation->count()``` o ```count($model->relation)``` (a menos que la relación ya haya sido eager-loaded) ya que ejecuta una consulta de conteo en lugar de extraer todos los datos de cualquier objeto relacionado de la base de datos, sólo para contarlos. Del mismo modo, el uso de ``exists`` tampoco necesita extraer datos del modelo. Tanto ``exists()`` como ``count()`` funcionan en todos los tipos de relación que he probado, así que al menos ```belongsTo```, ```hasOne``, ``hasMany``, y ```belongsToMany``.
J'ai un modèle Eloquent qui a un modèle apparenté : ```fonction publique option() { return $this->hasOne('RepairOption', 'repair_item_id') ; } public function setOptionArrayAttribute($values) { $this->option->update($values) ; } ``` Lorsque je crée le modèle, il n'a pas nécessairement de modèle associé. Lorsque je le mets à jour, je peux ajouter une option, ou non. Je dois donc vérifier si le modèle associé existe, pour le mettre à jour ou le créer, respectivement : ```$model = RepairItem::find($id) ; if (Input::has('option')) { if () { $option = new RepairOption(Input::get('option')) ; $option->repairItem()->associate($model) ; $option->save() ; $model->fill(Input::except('option') ; } else { $model->update(Input::all()) ; } } ; ``` Où `````` est le code que je recherche.
Un objet Relation transmet les appels de méthodes inconnues à un constructeur de requêtes Eloquent, qui est configuré pour ne sélectionner que les objets liés. Ce constructeur transmet à son tour des appels de méthodes inconnues à son constructeur de requêtes sous-jacent. Cela signifie que vous pouvez utiliser les méthodes ``exists()`` ou ``count()`` directement depuis un objet relation : ```$model->relation()->exists() ; // bool : true s'il y a au moins une ligne $model->relation()->count() ; // int : nombre de lignes liées ``` Notez les parenthèses après ``relation`` : ``->relation()`` est un appel de fonction (pour obtenir l'objet relation), contrairement à ``->relation`` qui est une propriété magique mise en place pour vous par Laravel (pour obtenir l'objet ou les objets liés). Utiliser la méthode ``count`` sur l'objet relation (c'est-à-dire utiliser les parenthèses) sera beaucoup plus rapide que de faire ``$model->relation->count()`` ou ``count($model->relation)`` (à moins que la relation n'ait déjà été chargée par anticipation) puisqu'elle exécute une requête de comptage plutôt que d'extraire toutes les données pour les objets liés de la base de données, juste pour les compter. De même, l'utilisation de ``exists`` n'a pas besoin d'extraire les données du modèle non plus. Aussi bien ``exists()`` que ``count()`` fonctionnent sur tous les types de relations que j'ai essayé, donc au moins ``belongsTo``, ``hasOne``, ``hasMany``, et ``belongsToMany``.
Ho un modello Eloquent che ha un modello correlato: ```public function option() { return $this->hasOne('RepairOption', 'repair_item_id'); } public function setOptionArrayAttribute($values) { $this->option->update($values); } ``` Quando creo il modello, non ha necessariamente un modello correlato. Quando lo aggiorno, potrei aggiungere un'opzione, oppure no. Quindi devo verificare se il modello correlato esiste, per aggiornarlo o crearlo, rispettivamente: ```$model = RepairItem::find($id); se (Input::has('option')) { if () { $option = new RepairOption(Input::get('option')); $option->repairItem()->associate($model); $opzione->salva(); $model->fill(Input::except('option'); } else { $model->update(Input::all()); } }; ``` Dove `````` è il codice che sto cercando.
Un oggetto Relation passa le chiamate di metodo sconosciute a un costruttore di query di Eloquent, che è impostato per selezionare solo gli oggetti correlati. Questo costruttore a sua volta passa le chiamate a metodi sconosciuti al costruttore di query sottostante. Questo significa che si possono usare i metodi ``exists()`` o ``count()`` direttamente da un oggetto relazione: ```$model->relation()->exists(); // bool: vero se c'è almeno una riga $model->relation()->count(); // int: numero di righe correlate ``` Si noti la parentesi dopo ```relazione```: ```->relazione()`` è una chiamata di funzione (per ottenere l'oggetto relazione), al contrario di ```->relazione`` che è un getter magico di proprietà impostato da Laravel (per ottenere l'oggetto o gli oggetti correlati). L'uso del metodo ```count`` sull'oggetto relazione (cioè usando le parentesi) sarà molto più veloce di ```$model->relation->count()`` o ```count($model->relation)`` (a meno che la relazione non sia già stata caricata con l'eager), poiché esegue una query di conteggio invece di estrarre tutti i dati degli oggetti correlati dal database, solo per contarli. Allo stesso modo, anche l'uso di ``exists`` non richiede l'estrazione dei dati del modello. Sia ```exists()`` che ```count()`` funzionano su tutti i tipi di relazione che ho provato, quindi almeno ```belongsTo``, ```hasOne``, ```hasMany`` e ```belongsToMany``.
192
NASA is hiring a new 'planetary protection officer' to defend Earth from alien matter, and the pay is a six-figure salary: as much as $187,000 a year. When we are not sure whether aliens exist, why are we still hiring staff for protecting Earth? I do understand we have to take precautions. But when we don't have any proof why spend $187,000 a year? Source: Nasa [sic] hiring new 'planetary protection officer' to defend Earth from alien matter - Times of India, Aug 3, 2017
You're observing shamefully bad journalism. The &quot;protect Earth from aliens&quot; bullet point in the &quot;Highlights&quot; section of the article was put there by an editor who either ignorantly or willfully distorted the actual role of the Planetary Protection Officer. The first paragraph of the story gets a little closer: The full-time role of &quot;planetary protection officer&quot; will involve ensuring that humans in space do not contaminate planets and moons, as well as ensuring that alien matter does not infect Earth. &quot;Planetary Protection Officer&quot; isn't a new position; the current one is retiring. The primary focus of the planetary protection office is sterilizing probes that are going to other planets and moons. This is done both to preserve any existing life elsewhere in the solar system from Terran competition, and so that if and when we find life on other bodies, we will know we didn't bring it ourselves. Preventing microbes from other worlds reaching Earth is also a concern, for similar reasons. Developing and implementing the policies of the planetary protection office is a complex job requiring a broad array of both technical and human skills, and so a $187K salary is not remarkable for it: Candidates will be required to travel frequently — but like any job, there will be a significant amount of emails, proposals and other reading. Candidates must have at least one year's experience as a top-level civilian government employee, and an advanced degree in physical science, engineering or mathematics. They must also have &quot;advanced knowledge&quot; of planetary protection. The position also requires &quot;demonstrated skills in diplomacy that resulted in win-win solutions during extremely difficult and complex multilateral discussions&quot;. The new hire will also receive &quot;secret&quot; security clearance. Only US citizens and US nationals can apply.
Die NASA stellt einen neuen "Planetenschutzbeauftragten" ein, der die Erde vor außerirdischer Materie schützen soll, und die Bezahlung liegt im sechsstelligen Bereich: bis zu 187.000 Dollar pro Jahr. Wenn wir nicht sicher sind, ob Außerirdische existieren, warum stellen wir dann noch Personal zum Schutz der Erde ein? Ich verstehe ja, dass wir Vorsichtsmaßnahmen treffen müssen. Aber wenn wir keine Beweise haben, warum geben wir dann 187.000 Dollar pro Jahr aus? Quelle: Nasa [sic] stellt neuen "Planetenschutzbeauftragten" ein, um die Erde vor außerirdischem Material zu schützen - Times of India, 3. August 2017
Sie beobachten hier beschämend schlechten Journalismus. Der Aufzählungspunkt &quot;Die Erde vor Außerirdischen schützen&quot; im Abschnitt &quot;Highlights&quot; des Artikels wurde von einem Redakteur eingefügt, der die tatsächliche Rolle des Planetenschutzbeauftragten entweder unwissend oder absichtlich verdreht hat. Der erste Absatz des Artikels geht ein wenig näher darauf ein: Die Vollzeitrolle des &quot;Planetenschutzbeauftragten&quot; wird darin bestehen, sicherzustellen, dass Menschen im Weltraum keine Planeten und Monde kontaminieren, sowie sicherzustellen, dass außerirdisches Material die Erde nicht infiziert. Der Posten des Planetenschutzbeauftragten ist nicht neu, der derzeitige geht in den Ruhestand. Das Hauptaugenmerk des Planetenschutzbüros liegt auf der Sterilisierung von Sonden, die zu anderen Planeten und Monden fliegen. Dies geschieht zum einen, um eventuell vorhandenes Leben anderswo im Sonnensystem vor terranischer Konkurrenz zu schützen, und zum anderen, damit wir, falls wir Leben auf anderen Körpern finden, wissen, dass wir es nicht selbst mitgebracht haben. Aus ähnlichen Gründen geht es auch darum, zu verhindern, dass Mikroben aus anderen Welten die Erde erreichen. Die Entwicklung und Umsetzung der Richtlinien des Büros für Planetenschutz ist eine komplexe Aufgabe, die ein breites Spektrum an technischen und menschlichen Fähigkeiten erfordert, und daher ist ein Gehalt von 187.000 Dollar dafür nicht bemerkenswert: Von den Bewerbern wird verlangt, dass sie häufig reisen - aber wie bei jedem anderen Job auch, werden sie eine beträchtliche Menge an E-Mails, Vorschlägen und anderer Lektüre haben. Die Bewerber müssen mindestens ein Jahr Erfahrung als hochrangiger ziviler Regierungsangestellter und einen Hochschulabschluss in Physik, Ingenieurwissenschaften oder Mathematik vorweisen können. Sie müssen außerdem über fortgeschrittene Kenntnisse im Bereich des Planetenschutzes verfügen. Die Stelle erfordert außerdem &quot;nachgewiesene Fähigkeiten in der Diplomatie, die in äußerst schwierigen und komplexen multilateralen Gesprächen zu Lösungen führten, bei denen beide Seiten gewinnen konnten&quot;. Der/die neue Mitarbeiter/in erhält außerdem eine &quot;geheime&quot; Sicherheitsüberprüfung. Nur US-Bürger und US-Staatsangehörige können sich bewerben.
La NASA está contratando a un nuevo "oficial de protección planetaria" para defender a la Tierra de la materia alienígena, y la paga es de seis cifras: hasta 187.000 dólares al año. Cuando no estamos seguros de que los extraterrestres existan, ¿por qué seguimos contratando personal para proteger la Tierra? Entiendo que tenemos que tomar precauciones. Pero cuando no tenemos ninguna prueba, ¿por qué gastar 187.000 dólares al año? Fuente: La Nasa [sic] contrata a un nuevo 'oficial de protección planetaria' para defender a la Tierra de la materia alienígena - Times of India, 3 de agosto de 2017
Estás observando un periodismo vergonzosamente malo. El punto &quot;proteger a la Tierra de los alienígenas&quot; en la sección &quot;Lo más destacado&quot; del artículo fue puesto ahí por un editor que, o bien por ignorancia, o bien voluntariamente distorsionó el papel real del Oficial de Protección Planetaria. El primer párrafo del artículo se acerca un poco más: El papel a tiempo completo del &quot;oficial de protección planetaria&quot; consistirá en garantizar que los seres humanos en el espacio no contaminen planetas y lunas, así como asegurar que la materia alienígena no infecte la Tierra. El &quot;Oficial de Protección Planetaria&quot; no es un puesto nuevo; el actual se jubila. El principal objetivo de la oficina de protección planetaria es esterilizar las sondas que se dirigen a otros planetas y lunas. Esto se hace tanto para preservar cualquier vida existente en otros lugares del sistema solar de la competencia terrestre, como para que si encontramos vida en otros cuerpos, sepamos que no la hemos traído nosotros. Evitar que los microbios de otros mundos lleguen a la Tierra es también una preocupación, por razones similares. Desarrollar e implementar las políticas de la oficina de protección planetaria es un trabajo complejo que requiere un amplio abanico de habilidades tanto técnicas como humanas, por lo que un salario de 187.000 dólares no es destacable para ello: Los candidatos tendrán que viajar con frecuencia, pero, como en cualquier trabajo, habrá una cantidad importante de correos electrónicos, propuestas y otras lecturas. Los candidatos deben tener al menos un año de experiencia como funcionarios civiles de alto nivel y un título superior en ciencias físicas, ingeniería o matemáticas. También deben tener &quot;conocimientos avanzados&quot; sobre protección planetaria. El puesto también requiere &quot;aptitudes demostradas en diplomacia que hayan dado lugar a soluciones beneficiosas para todas las partes durante discusiones multilaterales extremadamente difíciles y complejas&quot;. El nuevo contratado también recibirá una habilitación de seguridad &quot;secreta&quot;. Sólo pueden presentar su candidatura ciudadanos estadounidenses y de otros países.
La NASA recrute un nouveau "responsable de la protection planétaire" pour défendre la Terre contre les extraterrestres, avec un salaire à six chiffres : jusqu'à 187 000 dollars par an. Alors que nous ne savons pas si les extraterrestres existent, pourquoi embauchons-nous encore du personnel pour protéger la Terre ? Je comprends qu'il faille prendre des précautions. Mais si nous n'avons aucune preuve, pourquoi dépenser 187 000 dollars par an ? Source : Nasa [sic] hiring new 'planetary protection officer' to defend Earth from alien matter - Times of India, Aug 3, 2017 (en anglais).
Vous observez un journalisme honteusement mauvais. Le point &quot;protéger la Terre des extraterrestres&quot ; dans la section &quot;Highlights&quot ; de l'article a été placé là par un rédacteur qui a soit ignoré, soit délibérément déformé le rôle réel de l'officier de protection planétaire. Le premier paragraphe de l'article est un peu plus précis : Le rôle à plein temps de l'agent de protection planétaire consistera à veiller à ce que les humains dans l'espace ne contaminent pas les planètes et les lunes, et à ce que les matières extraterrestres n'infectent pas la Terre. Le poste d'agent de protection planétaire n'est pas nouveau ; l'agent actuel part à la retraite. L'objectif principal du bureau de protection planétaire est de stériliser les sondes qui se rendent sur d'autres planètes et lunes. Il s'agit à la fois de préserver toute vie existante ailleurs dans le système solaire de la concurrence terrienne et de faire en sorte que, si nous trouvons de la vie sur d'autres corps, nous sachions que nous ne l'avons pas apportée nous-mêmes. Pour les mêmes raisons, il est également important d'empêcher les microbes d'autres mondes d'atteindre la Terre. L'élaboration et la mise en œuvre des politiques de l'office de protection planétaire est un travail complexe qui requiert un large éventail de compétences techniques et humaines, et un salaire de 187 000 dollars n'est donc pas remarquable : Les candidats seront amenés à voyager fréquemment - mais comme pour tout travail, il y aura une quantité importante de courriels, de propositions et d'autres lectures. Les candidats doivent avoir au moins un an d'expérience en tant que fonctionnaire civil de haut niveau et un diplôme supérieur en sciences physiques, en ingénierie ou en mathématiques. Ils doivent également posséder des connaissances avancées en matière de protection de la planète. Le poste requiert également des "compétences démontrées en diplomatie qui ont permis de trouver des solutions gagnant-gagnant lors de discussions multilatérales extrêmement difficiles et complexes". Le nouveau collaborateur recevra également une habilitation de sécurité "secret". Seuls les citoyens américains et les ressortissants américains peuvent postuler.
La NASA sta assumendo un nuovo "responsabile della protezione planetaria" per difendere la Terra dalla materia aliena, con uno stipendio a sei cifre: ben 187.000 dollari all'anno. Quando non siamo sicuri dell'esistenza degli alieni, perché assumiamo ancora personale per la protezione della Terra? Capisco che dobbiamo prendere delle precauzioni. Ma quando non abbiamo alcuna prova perché spendere 187.000 dollari all'anno? Fonte: La Nasa [sic] assume un nuovo "responsabile della protezione planetaria" per difendere la Terra dalla materia aliena - Times of India, 3 agosto 2017
State osservando un giornalismo vergognosamente scadente. Il punto &quot;proteggere la Terra dagli alieni&quot; nella sezione &quot;In evidenza&quot; dell'articolo è stato messo lì da un redattore che o per ignoranza o per volontà ha distorto il ruolo effettivo del Responsabile della Protezione Planetaria. Il primo paragrafo dell'articolo si avvicina un po' di più: Il ruolo a tempo pieno del &quot;responsabile della protezione planetaria&quot; comporterà la garanzia che gli esseri umani nello spazio non contaminino i pianeti e le lune, oltre a garantire che la materia aliena non infetti la Terra. Il &quot;Responsabile della protezione planetaria&quot; non è una nuova posizione; quella attuale sta andando in pensione. L'obiettivo principale dell'ufficio di protezione planetaria è la sterilizzazione delle sonde dirette verso altri pianeti e lune. Questo sia per preservare la vita esistente altrove nel sistema solare dalla concorrenza dei Terrestri, sia perché se e quando troveremo la vita su altri corpi, sapremo che non l'abbiamo portata noi. Anche impedire che i microbi di altri mondi raggiungano la Terra è una preoccupazione, per ragioni simili. Lo sviluppo e l'attuazione delle politiche dell'ufficio per la protezione planetaria è un lavoro complesso che richiede un'ampia gamma di competenze sia tecniche che umane, per cui uno stipendio di 187.000 dollari non è certo degno di nota: Ai candidati sarà richiesto di viaggiare spesso, ma come in ogni lavoro, ci sarà una quantità significativa di e-mail, proposte e altre letture. I candidati devono avere almeno un anno di esperienza come dipendenti governativi civili di alto livello e una laurea avanzata in scienze fisiche, ingegneria o matematica. Devono inoltre avere una &quot;conoscenza avanzata&quot; della protezione del pianeta. La posizione richiede anche &quot;abilità dimostrate nella diplomazia che hanno portato a soluzioni vincenti durante discussioni multilaterali estremamente difficili e complesse&quot;. Il nuovo assunto riceverà anche un'autorizzazione di sicurezza &quot;segreta&quot;. Possono candidarsi solo cittadini statunitensi e americani.
193
Traditional advice for making megadungeons in older versions of D&D is in addition to any rooms with Monsters, Treasure, Traps, or "Tricks", there should also be at least 50 to 60 percent "Empty" rooms, which contain nothing overtly threatening or valuable. Now, there's several arguments for including these empty rooms that I buy, so I'm not going to accept any answer which primarily says, "Don't include empty rooms". The main issue I run into with empty rooms, however, is that they're boring in the way that I've been including them. They don't do their job of increasing tension, and the set dressing included around them hasn't been sufficiently interesting to my players either. My question is this: How can I make empty rooms interesting, by increasing tension or simply being interesting in and of themselves?
By definition, nothing's going to happen in an empty room (though see below). There are no hidden doors to find, no puzzles to solve, no enemies to fight. So what's their purpose? ## Bringing the dungeon to life While all the orcs may sit around in a guard room waiting for PCs to show up, where do they sleep, what do they eat, what happens to their trash? Think of a dungeon not just as a place to have fights in, but as an actual place that serves a purpose. Once you do, the dungeon will start making sense. &quot;Empty&quot; rooms will increase immersion for the players, and force you to consider things you may not have otherwise. Should there be a pet otyugh that eats the trash? Are the orcs demanding cows from the local farmers for &quot;protection&quot;? Do they keep a famed halfling cook enslaved, to make them rare steaks? ## Foreshadowing Once the dungeon makes sense, you can use that to place clues for things that dwell deeper within. Has a horde of zombies marched through to guard the necromancer's abode within, and left a few rotten body parts here and there? Has a malevolent force been summoned and spoiled all the meat and milk in the dungeon? Is there a golem maintenance station, with oil to grease them, rags to polish them, and a mad goblin mechanic? These may be vital clues PCs need to prepare for a tough fight, or they can simply let them form theories and feel smart about being right once they do come upon a golem or three. #Currently empty These rooms are empty now, but they don't have to stay that way. PCs may choose to fortify a room and bring the enemy to them - such tactical choices could be an important part of dungeoncrawling. Orcs may chase PCs through the dungeon, or randomly come across them in a kitchen because they were feeling peckish. Note that some of these ideas would introduce creatures or things into rooms that PCs may choose to interact with, which would make them non-empty. In a way that's fine: you started with an empty room but found something interesting to put inside after all. If that's not your intention, well, don't put goblins or halflings or otyughs in. Stick to body parts and greasy pots and shadowy portraits and bloodstains and scent of brimstone and fresh flowers and broken mirrors and... Tell a story with your empty rooms, or offer tactical choices. Preferably both.
Traditionelle Ratschläge für die Erstellung von Megadungeons in älteren Versionen von D&D besagen, dass es zusätzlich zu allen Räumen mit Monstern, Schätzen, Fallen oder "Tricks" auch mindestens 50 bis 60 Prozent "leere" Räume geben sollte, die nichts offenkundig Bedrohliches oder Wertvolles enthalten. Nun gibt es mehrere Argumente für die Einbeziehung dieser leeren Räume, die ich akzeptiere, daher werde ich keine Antwort akzeptieren, die in erster Linie besagt: "Keine leeren Räume". Das Hauptproblem, das ich mit leeren Räumen habe, ist jedoch, dass sie auf die Art und Weise, wie ich sie eingebaut habe, langweilig sind. Sie erfüllen nicht ihre Aufgabe, die Spannung zu erhöhen, und die Ausstattung, die um sie herum aufgebaut wird, ist für meine Spieler auch nicht interessant genug. Meine Frage ist folgende: Wie kann ich leere Räume interessant machen, indem ich die Spannung erhöhe oder sie einfach an und für sich interessant mache?
Definitionsgemäß passiert in einem leeren Raum nichts (siehe jedoch unten). Es gibt keine versteckten Türen zu finden, keine Rätsel zu lösen, keine Feinde zu bekämpfen. Was ist also ihr Zweck? ## Den Kerker zum Leben erwecken Während alle Orks in einem Wachraum sitzen und darauf warten, dass die PCs auftauchen, wo schlafen sie, was essen sie, was passiert mit ihren Abfällen? Stellen Sie sich ein Verlies nicht nur als einen Ort vor, an dem Kämpfe ausgetragen werden, sondern als einen Ort, der einem bestimmten Zweck dient. Leere Räume erhöhen die Immersion für die Spieler und zwingen dich, Dinge zu bedenken, die du sonst vielleicht nicht bedacht hättest. Sollte es einen Otyugh als Haustier geben, der den Müll frisst? Verlangen die Orks Kühe von den örtlichen Bauern, um sie zu schützen? Halten sie einen berühmten Halblingskoch versklavt, damit er ihnen seltene Steaks zubereitet? ## Vorahnung Sobald der Kerker einen Sinn ergibt, kannst du ihn nutzen, um Hinweise auf Dinge zu platzieren, die sich tiefer darin befinden. Ist eine Horde Zombies durchmarschiert, um die Behausung des Geisterbeschwörers zu bewachen, und hat hier und da ein paar verrottete Körperteile hinterlassen? Wurde eine bösartige Macht herbeigerufen, die das gesamte Fleisch und die Milch im Kerker verdorben hat? Gibt es eine Wartungsstation für Golems, mit Öl zum Schmieren, Lappen zum Polieren und einem verrückten Goblin-Mechaniker? Dies können wichtige Hinweise sein, die die PCs brauchen, um sich auf einen harten Kampf vorzubereiten, oder sie können sie einfach Theorien aufstellen lassen und sich schlau fühlen, wenn sie richtig liegen, wenn sie auf einen oder drei Golems stoßen. #Zurzeit leer Diese Räume sind jetzt leer, aber das muss nicht so bleiben. Die PCs können sich dafür entscheiden, einen Raum zu befestigen und den Feind zu sich zu holen - solche taktischen Entscheidungen können ein wichtiger Teil des Dungeoncrawlings sein. Orks könnten die PCs durch den Kerker jagen oder sie zufällig in einer Küche antreffen, weil sie gerade Hunger haben. Beachten Sie, dass einige dieser Ideen Kreaturen oder Dinge in die Räume einführen würden, mit denen die PCs interagieren könnten, wodurch sie nicht mehr leer wären. In gewisser Weise ist das in Ordnung: Sie haben mit einem leeren Raum begonnen, aber dann doch etwas Interessantes gefunden, das Sie hineinstellen können. Wenn das nicht Ihre Absicht ist, dann stellen Sie keine Goblins, Halblinge oder Otyughs hinein. Bleiben Sie bei Leichenteilen und fettigen Töpfen und schattenhaften Porträts und Blutflecken und Schwefelgeruch und frischen Blumen und zerbrochenen Spiegeln und... Erzähle eine Geschichte mit deinen leeren Räumen oder biete taktische Möglichkeiten an. Am besten beides.
El consejo tradicional para hacer mazmorras en versiones antiguas de D&D es que además de las salas con Monstruos, Tesoros, Trampas o "Trucos", debería haber al menos un 50 o 60 por ciento de salas "Vacías", que no contengan nada abiertamente amenazador o valioso. Ahora bien, hay varios argumentos a favor de incluir estas habitaciones vacías que yo compro, así que no voy a aceptar ninguna respuesta que diga principalmente: "No incluyas habitaciones vacías". Sin embargo, el principal problema que encuentro con las habitaciones vacías es que son aburridas en la forma en que las he incluido. No cumplen su función de aumentar la tensión, y la escenografía incluida a su alrededor tampoco ha sido lo suficientemente interesante para mis jugadores. Mi pregunta es la siguiente: ¿Cómo puedo hacer que las habitaciones vacías sean interesantes, aumentando la tensión o simplemente siendo interesantes en sí mismas?
Por definición, en una habitación vacía no va a pasar nada (aunque véase más abajo). No hay puertas ocultas que encontrar, ni puzles que resolver, ni enemigos contra los que luchar. Entonces, ¿cuál es su propósito? ## Dar vida a la mazmorra Aunque todos los orcos estén sentados en una sala de guardia esperando a que aparezcan los PJ, ¿dónde duermen, qué comen, qué pasa con su basura? Piensa en una mazmorra no sólo como un lugar en el que tener peleas, sino como un lugar real que sirve para algo. Una vez que lo hagas, la mazmorra empezará a tener sentido. &quot;Las habitaciones vacías&quot; aumentarán la inmersión para los jugadores, y te obligarán a considerar cosas que de otro modo no habrías considerado. ¿Debería haber una mascota otyugh que se coma la basura? ¿Los orcos exigen vacas a los granjeros locales para &quot;protegerse&quot;? ¿Mantienen esclavizado a un famoso cocinero halfling, para que les haga filetes raros? ## Foreshadowing Una vez que la mazmorra tiene sentido, puedes usarla para colocar pistas de cosas que habitan más adentro. ¿Ha desfilado una horda de zombis para vigilar la morada del nigromante, y ha dejado algunos trozos de cuerpos podridos aquí y allá? ¿Se ha invocado a una fuerza malévola que ha echado a perder toda la carne y la leche de la mazmorra? ¿Hay una estación de mantenimiento de golems, con aceite para engrasarlos, trapos para pulirlos y un mecánico goblin loco? Estas pueden ser pistas vitales que los PC necesitan para prepararse para una dura lucha, o pueden simplemente dejar que se formen teorías y sentirse inteligentes por haber acertado una vez que se encuentren con uno o tres gólems. #Actualmente vacías Estas habitaciones están vacías ahora, pero no tienen por qué seguir así. Los PJ pueden elegir fortificar una habitación y atraer al enemigo hacia ellos - tales elecciones tácticas podrían ser una parte importante del dungeoncrawling. Los Orcos pueden perseguir a los PJ por la mazmorra, o encontrarse con ellos al azar en una cocina porque tienen hambre. Ten en cuenta que algunas de estas ideas introducirían criaturas o cosas en las habitaciones con las que los PJ pueden elegir interactuar, lo que haría que no estuvieran vacías. En cierto modo eso está bien: empezaste con una habitación vacía pero al final encontraste algo interesante que poner dentro. Si esa no es tu intención, bueno, no pongas goblins o halflings u otyughs dentro. Limítate a partes de cuerpos y ollas grasientas y retratos sombríos y manchas de sangre y olor a azufre y flores frescas y espejos rotos y... Cuenta una historia con tus habitaciones vacías u ofrece opciones tácticas. Preferiblemente ambas cosas.
Les conseils traditionnels pour créer des méga-donjons dans les anciennes versions de D&D sont les suivants : en plus des salles contenant des monstres, des trésors, des pièges ou des "trucs", il devrait y avoir au moins 50 à 60 % de salles "vides", qui ne contiennent rien d'ouvertement menaçant ou de précieux. Il y a plusieurs arguments en faveur de l'inclusion de ces salles vides, et je n'accepterai donc pas une réponse qui dirait : "N'incluez pas les salles vides". Le principal problème que je rencontre avec les pièces vides, cependant, est qu'elles sont ennuyeuses de la manière dont je les ai incluses. Elles ne font pas leur travail d'augmentation de la tension, et les décors qui les entourent n'ont pas été suffisamment intéressants pour mes joueurs non plus. Ma question est la suivante : Comment puis-je rendre les pièces vides intéressantes, en augmentant la tension ou simplement en étant intéressantes en elles-mêmes ?
Par définition, il ne se passera rien dans une pièce vide (voir ci-dessous). Il n'y a pas de portes cachées à trouver, pas d'énigmes à résoudre, pas d'ennemis à combattre. Quelle est donc leur raison d'être ? ## Donner vie au donjon Si tous les orcs sont assis dans une salle de garde en attendant l'arrivée des PJ, où dorment-ils, que mangent-ils, qu'advient-il de leurs déchets ? Ne considérez pas le donjon comme un simple lieu de combat, mais comme un endroit réel qui sert à quelque chose. Les salles vides augmentent l'immersion des joueurs et vous obligent à réfléchir à des choses que vous n'auriez peut-être pas envisagées autrement. Devrait-il y avoir un animal de compagnie qui mange les ordures ? Les orcs demandent-ils des vaches aux fermiers locaux pour se protéger ? Gardent-ils un célèbre cuisinier halfling en esclavage pour leur préparer des steaks rares ? ## Préfiguration Une fois que le donjon a un sens, vous pouvez l'utiliser pour placer des indices sur les choses qui s'y trouvent plus profondément. Une horde de zombies a-t-elle traversé le donjon pour garder la demeure du nécromancien et a laissé quelques morceaux de corps pourris ici et là ? Une force malveillante a-t-elle été invoquée et a-t-elle gâché toute la viande et le lait du donjon ? Y a-t-il une station d'entretien des golems, avec de l'huile pour les graisser, des chiffons pour les polir et un mécanicien gobelin fou ? Il peut s'agir d'indices vitaux dont les PJ ont besoin pour se préparer à un combat difficile, ou ils peuvent simplement les laisser former des théories et se sentir malins d'avoir raison une fois qu'ils auront rencontré un ou trois golems. #Actuellement vides Ces salles sont actuellement vides, mais elles ne sont pas obligées de le rester. Les PJ peuvent choisir de fortifier une pièce et d'amener l'ennemi à eux - de tels choix tactiques peuvent constituer une part importante de l'exploration des donjons. Les orques peuvent poursuivre les PJ dans le donjon, ou les rencontrer au hasard dans une cuisine parce qu'ils ont un petit creux. Notez que certaines de ces idées introduiraient des créatures ou des choses dans les pièces avec lesquelles les PJ pourraient choisir d'interagir, ce qui les rendrait non vides. D'une certaine manière, c'est très bien : vous avez commencé avec une pièce vide, mais vous avez trouvé quelque chose d'intéressant à y mettre. Si ce n'est pas votre intention, ne mettez pas de gobelins, de halflings ou d'otyughs à l'intérieur. Tenez-vous en aux morceaux de corps, aux pots graisseux, aux portraits ombragés, aux taches de sang, à l'odeur de soufre, aux fleurs fraîches, aux miroirs brisés et... Racontez une histoire avec vos pièces vides, ou offrez des choix tactiques. De préférence les deux.
Il consiglio tradizionale per la creazione di megadungeon nelle vecchie versioni di D&D è che, oltre alle stanze con mostri, tesori, trappole o "trucchi", dovrebbero esserci almeno il 50-60% di stanze "vuote", che non contengono nulla di apertamente minaccioso o prezioso. Ora, ci sono diverse argomentazioni a favore dell'inclusione di queste stanze vuote, quindi non accetterò alcuna risposta che dica principalmente "Non includere le stanze vuote". Il problema principale che riscontro con le stanze vuote, tuttavia, è che sono noiose nel modo in cui le ho inserite. Non fanno il loro lavoro di aumentare la tensione, e nemmeno la scenografia che le circonda è sufficientemente interessante per i miei giocatori. La mia domanda è questa: Come posso rendere interessanti le stanze vuote, aumentando la tensione o semplicemente essendo interessanti di per sé?
Per definizione, in una stanza vuota non succederà nulla (ma vedi sotto). Non ci sono porte nascoste da trovare, né enigmi da risolvere, né nemici da combattere. Quindi qual è il loro scopo? ## Dare vita al dungeon Mentre tutti gli orchi possono starsene seduti in una stanza di guardia in attesa dell'arrivo dei PC, dove dormono, cosa mangiano, che fine fanno i loro rifiuti? Pensate a un dungeon non solo come a un luogo in cui combattere, ma come a un luogo vero e proprio che ha uno scopo. Le stanze vuote aumenteranno l'immersione dei giocatori e vi costringeranno a considerare cose che altrimenti non avreste fatto. Dovrebbe esserci un animale domestico che mangia la spazzatura? Gli orchi chiedono mucche ai contadini locali per &quot;protezione&quot;? Tengono in schiavitù un famoso cuoco halfling per preparare loro bistecche al sangue? ## Prefigurazione Una volta che il dungeon ha un senso, potete usarlo per inserire indizi sulle cose che si trovano più in profondità. Un'orda di zombie ha marciato per sorvegliare la dimora del negromante e ha lasciato qualche pezzo di corpo marcio qua e là? È stata evocata una forza maligna che ha rovinato tutta la carne e il latte del sotterraneo? C'è una stazione di manutenzione dei golem, con olio per ingrassarli, stracci per lucidarli e un meccanico goblin pazzo? Questi possono essere gli indizi vitali di cui i PC hanno bisogno per prepararsi a un combattimento difficile, oppure possono semplicemente lasciare che formino delle teorie e si sentano in gamba per aver ragione una volta che si imbattono in uno o tre golem. #Attualmente vuote Queste stanze sono attualmente vuote, ma non è detto che lo rimangano. I PC possono scegliere di fortificare una stanza e portare il nemico da loro: queste scelte tattiche potrebbero essere una parte importante del dungeoncrawling. Gli orchi possono inseguire i PC attraverso il dungeon o imbattersi casualmente in una cucina perché hanno un certo languorino. Si noti che alcune di queste idee introdurrebbero creature o cose nelle stanze con cui i PC possono scegliere di interagire, rendendole non vuote. In un certo senso va bene così: avete iniziato con una stanza vuota, ma alla fine avete trovato qualcosa di interessante da metterci dentro. Se non è questa la vostra intenzione, beh, non metteteci goblin, halfling o otyugh. Limitatevi a parti di corpo e pentole unte e ritratti in ombra e macchie di sangue e profumo di zolfo e fiori freschi e specchi rotti e... Raccontate una storia con le vostre stanze vuote, o offrite scelte tattiche. Preferibilmente entrambe le cose.
194
Laravel - Eloquent "Has", "With", "WhereHas" - What do they mean? explain in the context of an example
With ```with()``` is for eager loading. That basically means, along the main model, Laravel will preload the relationship(s) you specify. This is especially helpful if you have a collection of models and you want to load a relation for all of them. Because with eager loading you run only one additional DB query instead of one for every model in the collection. Example: ```User > hasMany > Post``` ```$users = User::with('posts')->get(); foreach($users as $user){ $users->posts; // posts is already loaded and no additional DB query is run } ``` Has ```has()``` is to filter the selecting model based on a relationship. So it acts very similarly to a normal WHERE condition. If you just use ```has('relation')``` that means you only want to get the models that have at least one related model in this relation. Example: ```User > hasMany > Post``` ```$users = User::has('posts')->get(); // only users that have at least one post are contained in the collection ``` WhereHas ```whereHas()``` works basically the same as ```has()``` but allows you to specify additional filters for the related model to check. Example: ```User > hasMany > Post``` ```$users = User::whereHas('posts', function($q){ $q->where('created_at', '>=', '2015-01-01 00:00:00'); })->get(); // only users that have posts from 2015 on forward are returned ```
Laravel - Eloquent "Has", "With", "WhereHas" - Was bedeuten sie? anhand eines Beispiels erklären
Mit ``with()```` ist für eifriges Laden. Das bedeutet im Grunde, dass Laravel entlang des Hauptmodells die von Ihnen angegebene(n) Beziehung(en) vorlädt. Dies ist besonders hilfreich, wenn Sie eine Sammlung von Modellen haben und eine Beziehung für alle laden wollen. Denn mit Eager Loading führen Sie nur eine zusätzliche DB-Abfrage durch, anstatt eine für jedes Modell in der Sammlung. Beispiel: ```User > hasMany > Post`` ```$Benutzer = User::with('posts')->get(); foreach($users as $user){ $users->posts; // posts ist bereits geladen und es wird keine zusätzliche DB-Abfrage durchgeführt } ``` Hat Mit ````has()``` wird das Auswahlmodell auf der Grundlage einer Beziehung gefiltert. Es verhält sich also sehr ähnlich wie eine normale WHERE Bedingung. Wenn Sie nur ```has('relation')``` verwenden, bedeutet das, dass Sie nur die Modelle erhalten wollen, die mindestens ein verwandtes Modell in dieser Beziehung haben. Beispiel: ```User > hasMany > Post`` ```$users = User::has('posts')->get(); // nur Benutzer, die mindestens einen Beitrag haben, sind in der Sammlung enthalten ``` WoHat ````whereHas()``` funktioniert im Grunde genauso wie ```has()```, erlaubt es aber, zusätzliche Filter für das zu prüfende Bezugsmodell anzugeben. Beispiel: ```User > hasMany > Post`` ```$users = User::whereHas('posts', function($q){ $q->where('created_at', '>=', '2015-01-01 00:00:00'); })->get(); // nur Benutzer mit Beiträgen ab 2015 werden zurückgegeben ```
Laravel - Eloquent "Has", "With", "WhereHas" - ¿Qué significan? explicar en el contexto de un ejemplo
Con ```with()`` es para la carga ansiosa. Eso básicamente significa que, a lo largo del modelo principal, Laravel precargará la(s) relación(es) que especifiques. Esto es especialmente útil si tienes una colección de modelos y quieres cargar una relación para todos ellos. Porque con eager loading sólo ejecutas una consulta adicional a la BD en lugar de una por cada modelo de la colección. Ejemplo: ```Usuario > hasMany > Publicar``` ```$users = User::with('posts')->get(); foreach($users as $user){ $users->posts; // posts ya está cargado y no se ejecuta ninguna consulta adicional a la BD } ``` Tiene ```has()`` es para filtrar el modelo de selección basado en una relación. Actúa de forma muy similar a una condición WHERE normal. Si sólo utilizas ```has('relación')`` significa que sólo quieres obtener los modelos que tienen al menos un modelo relacionado en esta relación. Ejemplo: ```Usuario > hasMany > Publicar``` ```$users = User::has('posts')->get(); // sólo los usuarios que tienen al menos un post están contenidos en la colección ``` DóndeEstá ``whereHas()`` funciona básicamente igual que ``has()`` pero permite especificar filtros adicionales para que el modelo relacionado los compruebe. Ejemplo: ```Usuario > hasMany > Post``` ```$users = User::whereHas('posts', function($q){ $q->where('created_at', '>=', '2015-01-01 00:00:00'); })->get(); // sólo se devuelven los usuarios que tienen posts de 2015 en adelante ```
Laravel - Eloquent "Has", "With", "WhereHas" - Que signifient-ils ? Expliquer dans le contexte d'un exemple
Avec ``with()`` est pour le chargement anticipé. Cela signifie qu'avec le modèle principal, Laravel va précharger la ou les relation(s) que vous avez spécifiée(s). Ceci est particulièrement utile si vous avez une collection de modèles et que vous voulez charger une relation pour chacun d'entre eux. En effet, avec le chargement anticipé, vous n'exécutez qu'une seule requête supplémentaire à la base de données au lieu d'une pour chaque modèle de la collection. Exemple : ``Utilisateur > hasMany > Post```` ```$users = User::with('posts')->get() ; foreach($users as $user){ $users->posts ; // posts est déjà chargé et aucune requête supplémentaire n'est exécutée. } ``` Has ``has()`` permet de filtrer le modèle de sélection en se basant sur une relation. Il agit donc de manière très similaire à une condition WHERE normale. Si vous utilisez simplement ``has('relation')`` cela signifie que vous voulez seulement obtenir les modèles qui ont au moins un modèle lié dans cette relation. Exemple : ``Utilisateur > hasMany > Post```` ```$users = User::has('posts')->get() ; // seuls les utilisateurs ayant au moins un post sont contenus dans la collection ``` WhereHas ``whereHas()`` fonctionne de la même manière que ``has()`` mais vous permet de spécifier des filtres supplémentaires pour le modèle à vérifier. Exemple : ``Utilisateur > hasMany > Post```` ```$users = User::whereHas('posts', function($q){ $q->where('created_at', '>=', '2015-01-01 00:00:00') ; })->get() ; // seuls les utilisateurs ayant publié des articles à partir de 2015 sont renvoyés ```
Laravel - Eloquente "Has", "With", "WhereHas" - Cosa significano? Spiegare nel contesto di un esempio
Con ```with()`` è per il caricamento anticipato. In pratica significa che, lungo il modello principale, Laravel precarica le relazioni specificate. Questo è particolarmente utile se si ha una collezione di modelli e si vuole caricare una relazione per tutti. Infatti, con l'eager loading si esegue una sola query aggiuntiva al DB, anziché una per ogni modello dell'insieme. Esempio: ```Utente > hasMany > Post``` ```$users = User::with('posts')->get(); foreach($users as $user){ $users->posts; // posts è già caricato e non viene eseguita alcuna ulteriore query al DB } ``` Ha ```has()`` è per filtrare il modello di selezione in base a una relazione. Quindi agisce in modo molto simile a una normale condizione WHERE. Se si usa solo ```has('relation')``, significa che si vogliono ottenere solo i modelli che hanno almeno un modello correlato in questa relazione. Esempio: ```Utente > hasMany > Post``` ```$users = User::has('posts')->get(); // solo gli utenti che hanno almeno un post sono contenuti nella collezione ``` DoveHa ```whereHas()`` funziona fondamentalmente come ``has()``, ma consente di specificare ulteriori filtri per il controllo del modello correlato. Esempio: ```Utente > hasMany > Post``` ```$users = User::whereHas('posts', function($q){ $q->where('created_at', '>=', '2015-01-01 00:00:00'); })->get(); // vengono restituiti solo gli utenti che hanno post dal 2015 in avanti ```
195
What are some of the advantages of using one over the other?
ASP.NET Web Forms and MVC are two web frameworks developed by Microsoft - they are both good choices. Neither of the web frameworks are to be replaced by the other nor are there plans to have them 'merged' into a single framework. Continued support and development are done in parallel by Microsoft and neither will be 'going away'. Each of these web frameworks offers advantages/disadvantages - some of which need to be considered when developing a web application. A web application can be developed using either technology - it might make development for a particular application easier selecting one technology versus the other and vice versa. ASP.NET Web Forms: * Development supports state • Gives the illusion that a web application is aware of what the user has been doing, similar to Windows applications. I.e. Makes 'wizard' functionality a little bit easier to implement. Web forms does a great job at hiding a lot of that complexity from the developer. * Rapid Application Development (RAD) • The ability to just 'jump in' and start delivering web forms. This is disputed by some of the MVC community, but pushed by Microsoft. In the end, it comes down to the level of expertise of the developer and what they are comfortable with. The web forms model probably has less of a learning curve to less experienced developers. * Larger control toolbox • ASP.NET Web Forms offers a much greater and more robust toolbox (web controls) whereas MVC offers a more primitive control set relying more on rich client-side controls via jQuery (Javascript). * Mature • It's been around since 2002 and there is an abundance of information with regards to questions, problems, etc. Offers more third-party control - need to consider your existing toolkits. ASP.NET MVC: * Separation of concerns (SoC) • From a technical standpoint, the organization of code within MVC is very clean, organized and granular, making it easier (hopefully) for a web application to scale in terms of functionality. Promotes great design from a development standpoint. * Easier integration with client side tools (rich user interface tools) • More than ever, web applications are increasingly becoming as rich as the applications you see on your desktops. With MVC, it gives you the ability to integrate with such toolkits (such as jQuery) with greater ease and more seamless than in Web Forms. * Search Engine Optimization (SEO) Friendly / Stateless • URL's are more friendly to search engines (i.e. mywebapplication.com/users/ 1 - retrieve user with an ID of 1 vs mywebapplication/users/getuser.aspx (id passed in session)). Similarly, since MVC is stateless, this removes the headache of users who spawn multiple web browsers from the same window (session collisions). Along those same lines, MVC adheres to the stateless web protocol rather than 'battling' against it. * Works well with developers who need high degree of control • Many controls in ASP.NET web forms automatically generate much of the raw HTML you see when an page is rendered. This can cause headaches for developers. With MVC, it lends itself better towards having complete control with what is rendered and there are no surprises. Even more important, is that the HTML forms typically are much smaller than the Web forms which can equate to a performance boost - something to seriously consider. * Test Driven Development (TDD) • With MVC, you can more easily create tests for the web side of things. An additional layer of testing will provide yet another layer of defense against unexpected behavior. Authentication, authorization, configuration, compilation and deployment are all features that are shared between the two web frameworks.
Was sind die Vorteile der einen gegenüber der anderen?
ASP.NET Web Forms und MVC sind zwei von Microsoft entwickelte Web-Frameworks - beide sind eine gute Wahl. Keines der beiden Web-Frameworks soll durch das andere ersetzt werden, und es gibt auch keine Pläne, sie zu einem einzigen Framework zu "verschmelzen". Support und Entwicklung werden von Microsoft parallel weitergeführt, und keines der beiden Frameworks wird "verschwinden". Jedes dieser Web-Frameworks bietet Vor- und Nachteile, von denen einige bei der Entwicklung einer Webanwendung berücksichtigt werden müssen. Eine Webanwendung kann mit jeder der beiden Technologien entwickelt werden - es kann die Entwicklung einer bestimmten Anwendung einfacher machen, wenn man die eine Technologie gegenüber der anderen wählt und umgekehrt. ASP.NET Web Forms: * Entwicklung unterstützt Zustand - Vermittelt die Illusion, dass eine Webanwendung weiß, was der Benutzer getan hat, ähnlich wie bei Windows-Anwendungen. Macht z.B. die Implementierung von Assistentenfunktionalität ein wenig einfacher. Webformulare leisten hervorragende Arbeit, indem sie einen Großteil dieser Komplexität vor dem Entwickler verbergen. * Schnelle Anwendungsentwicklung (RAD) - Die Möglichkeit, einfach loszulegen und mit der Bereitstellung von Webformularen zu beginnen. Dies wird von Teilen der MVC-Gemeinschaft bestritten, von Microsoft jedoch befürwortet. Letztendlich kommt es auf das Fachwissen des Entwicklers an und darauf, womit er vertraut ist. Das Modell der Webformulare ist für weniger erfahrene Entwickler wahrscheinlich weniger lernintensiv. * Größere Toolbox für Steuerelemente - ASP.NET Web Forms bietet eine viel größere und robustere Toolbox (Websteuerelemente), während MVC einen primitiveren Steuersatz bietet, der sich mehr auf reichhaltige clientseitige Steuerelemente über jQuery (Javascript) stützt. * Ausgereift - Es gibt sie seit 2002 und es gibt eine Fülle von Informationen zu Fragen, Problemen usw. Bietet mehr Kontrolle durch Drittanbieter - Sie müssen Ihre vorhandenen Toolkits berücksichtigen. ASP.NET MVC: * Trennung von Belangen (SoC) - Aus technischer Sicht ist die Organisation des Codes innerhalb von MVC sehr sauber, organisiert und granular, was die Skalierung einer Webanwendung in Bezug auf die Funktionalität (hoffentlich) erleichtert. Aus der Sicht der Entwicklung wird ein gutes Design gefördert. * Leichtere Integration mit clientseitigen Tools (Tools mit reichhaltiger Benutzeroberfläche) - Mehr denn je werden Webanwendungen zunehmend so umfangreich wie die Anwendungen, die Sie auf Ihren Desktops sehen. Mit MVC können Sie solche Toolkits (wie jQuery) einfacher und nahtloser integrieren als mit Web Forms. * Freundlich für die Suchmaschinenoptimierung (SEO) / zustandslos - URLs sind suchmaschinenfreundlicher (z. B. mywebapplication.com/users/ 1 - ruft einen Benutzer mit der ID 1 ab, im Gegensatz zu mywebapplication/users/getuser.aspx (die ID wird in der Sitzung übergeben)). Da MVC zustandslos ist, gibt es auch keine Probleme mehr mit Benutzern, die mehrere Webbrowser im selben Fenster starten (Sitzungskollisionen). In diesem Sinne hält sich MVC an das zustandslose Webprotokoll, anstatt dagegen zu "kämpfen". * Funktioniert gut mit Entwicklern, die ein hohes Maß an Kontrolle benötigen - Viele Steuerelemente in ASP.NET-Webformularen generieren automatisch einen Großteil des Roh-HTML, das Sie sehen, wenn eine Seite gerendert wird. Dies kann Entwicklern Kopfschmerzen bereiten. Mit MVC ist es besser, die vollständige Kontrolle über das zu haben, was gerendert wird, und es gibt keine Überraschungen. Noch wichtiger ist, dass die HTML-Formulare in der Regel viel kleiner sind als die Webformulare, was zu einer Leistungssteigerung führen kann - etwas, das man ernsthaft in Betracht ziehen sollte. * Testgetriebene Entwicklung (TDD) - Mit MVC können Sie leichter Tests für die Web-Seite der Dinge erstellen. Eine zusätzliche Testebene bietet einen weiteren Schutz gegen unerwartetes Verhalten. Authentifizierung, Autorisierung, Konfiguration, Kompilierung und Bereitstellung sind alles Funktionen, die beide Web-Frameworks gemeinsam haben.
¿Cuáles son las ventajas de utilizar uno u otro?
ASP.NET Web Forms y MVC son dos marcos web desarrollados por Microsoft, y ambos son buenas opciones. Ninguno de los dos marcos web será sustituido por el otro ni existen planes para "fusionarlos" en un único marco. Microsoft sigue prestando apoyo y desarrollo en paralelo y ninguno de los dos "desaparecerá". Cada uno de estos marcos de trabajo ofrece ventajas e inconvenientes, algunos de los cuales deben tenerse en cuenta a la hora de desarrollar una aplicación web. Una aplicación web puede desarrollarse utilizando cualquiera de las dos tecnologías, pero el desarrollo de una aplicación concreta puede resultar más sencillo si se elige una tecnología en lugar de otra y viceversa. Formularios Web ASP.NET: * El desarrollo admite el estado - Da la ilusión de que una aplicación web es consciente de lo que el usuario ha estado haciendo, similar a las aplicaciones Windows. Es decir, hace que la funcionalidad de "asistente" sea un poco más fácil de implementar. Los formularios web ocultan gran parte de esa complejidad al desarrollador. * Desarrollo rápido de aplicaciones (RAD) - La capacidad de "lanzarse" y empezar a crear formularios web. Esto es discutido por algunos de la comunidad MVC, pero impulsado por Microsoft. Al final, todo depende del nivel de experiencia del desarrollador y de con qué se sienta cómodo. El modelo de formularios web probablemente tiene menos curva de aprendizaje para los desarrolladores menos experimentados. * Mayor caja de herramientas de control - ASP.NET Web Forms ofrece un conjunto de herramientas (controles web) mucho mayor y más robusto, mientras que MVC ofrece un conjunto de controles más primitivo que depende más de los controles enriquecidos del lado del cliente a través de jQuery (Javascript). * Maduro - Existe desde 2002 y hay abundante información sobre preguntas, problemas, etc. Ofrece más control de terceros - necesidad de considerar sus conjuntos de herramientas existentes. ASP.NET MVC: * Separación de preocupaciones (SoC) - Desde un punto de vista técnico, la organización del código dentro de MVC es muy limpia, organizada y granular, lo que facilita (con suerte) que una aplicación web escale en términos de funcionalidad. Promueve un gran diseño desde el punto de vista del desarrollo. * Integración más fácil con herramientas del lado del cliente (herramientas de interfaz de usuario enriquecida). - Más que nunca, las aplicaciones web son cada vez más tan ricas como las aplicaciones que vemos en nuestros escritorios. Con MVC, le da la capacidad de integrarse con tales conjuntos de herramientas (como jQuery) con mayor facilidad y de forma más fluida que en Web Forms. * Optimización para Motores de Búsqueda (SEO) Amigable / Sin Estado - URL's son más amigables para los motores de búsqueda (por ejemplo, mywebapplication.com/users/ 1 - recuperar usuario con un ID de 1 vs mywebapplication/users/getuser.aspx (id pasado en la sesión)). Del mismo modo, puesto que MVC no tiene estado, esto elimina el dolor de cabeza de los usuarios que generan varios navegadores web desde la misma ventana (colisiones de sesión). En la misma línea, MVC se adhiere al protocolo web sin estado en lugar de "luchar" contra él. * Funciona bien con desarrolladores que necesitan un alto grado de control - Muchos controles en formularios web ASP.NET generan automáticamente gran parte del HTML sin procesar que se ve cuando se renderiza una página. Esto puede causar dolores de cabeza a los desarrolladores. Con MVC, se presta mejor a tener un control completo con lo que se renderiza y no hay sorpresas. Aún más importante, es que los formularios HTML suelen ser mucho más pequeños que los formularios Web, lo que puede equivaler a un aumento del rendimiento - algo a considerar seriamente. * Desarrollo basado en pruebas (TDD) - Con MVC, es más fácil crear pruebas para la parte web. Una capa adicional de pruebas proporcionará otra capa de defensa contra comportamientos inesperados. La autenticación, la autorización, la configuración, la compilación y el despliegue son características que comparten los dos marcos web.
Quels sont les avantages de l'un par rapport à l'autre ?
ASP.NET Web Forms et MVC sont deux cadres web développés par Microsoft - ce sont tous deux de bons choix. Aucun de ces frameworks ne sera remplacé par l'autre et il n'est pas prévu de les "fusionner" en un seul framework. Le support et le développement sont assurés en parallèle par Microsoft et aucun des deux ne disparaîtra. Chacun de ces frameworks web présente des avantages et des inconvénients, dont certains doivent être pris en compte lors du développement d'une application web. Une application web peut être développée à l'aide de l'une ou l'autre technologie - il peut être plus facile de développer une application particulière en choisissant une technologie plutôt qu'une autre et vice versa. ASP.NET Web Forms : * Le développement prend en charge l'état - Donne l'illusion qu'une application web est consciente de ce que l'utilisateur a fait, comme les applications Windows. Par exemple, la fonctionnalité "assistant" est un peu plus facile à mettre en œuvre. Les formulaires Web permettent de dissimuler une grande partie de cette complexité au développeur. * Développement rapide d'applications (RAD) - La possibilité de simplement "sauter dans l'action" et de commencer à fournir des formulaires web. Ce point est contesté par une partie de la communauté MVC, mais poussé par Microsoft. En fin de compte, tout dépend du niveau d'expertise du développeur et de ce avec quoi il est à l'aise. Le modèle des formulaires web présente probablement une courbe d'apprentissage moins importante pour les développeurs moins expérimentés. * Une plus grande boîte à outils de contrôle - ASP.NET Web Forms offre une boîte à outils beaucoup plus grande et plus robuste (contrôles web) alors que MVC offre un ensemble de contrôles plus primitifs reposant davantage sur des contrôles riches côté client via jQuery (Javascript). * Mature - Il existe depuis 2002 et il y a une abondance d'informations concernant les questions, les problèmes, etc. Offre plus de contrôle de la part de tiers - il faut tenir compte de vos boîtes à outils existantes. ASP.NET MVC : * Séparation des préoccupations (SoC) - D'un point de vue technique, l'organisation du code au sein de MVC est très propre, organisée et granulaire, ce qui facilite (espérons-le) l'évolution d'une application web en termes de fonctionnalité. D'un point de vue du développement, le MVC favorise une conception de qualité. * Intégration plus facile avec les outils côté client (outils d'interface utilisateur riche) - Plus que jamais, les applications web deviennent aussi riches que les applications que vous voyez sur vos ordinateurs de bureau. Avec MVC, vous avez la possibilité d'intégrer de tels outils (tels que jQuery) avec plus de facilité et de manière plus transparente qu'avec les formulaires Web. * Favorable à l'optimisation des moteurs de recherche (SEO) / apatride - Les URL sont plus conviviales pour les moteurs de recherche (i.e. mywebapplication.com/users/ 1 - récupérer l'utilisateur avec un ID de 1 vs mywebapplication/users/getuser.aspx (id passé dans la session)). De même, comme MVC est sans état, cela élimine le casse-tête des utilisateurs qui utilisent plusieurs navigateurs web à partir de la même fenêtre (collisions de session). Dans le même ordre d'idées, MVC adhère au protocole web sans état plutôt que de s'y opposer. * Fonctionne bien avec les développeurs qui ont besoin d'un haut degré de contrôle - De nombreux contrôles dans les formulaires web ASP.NET génèrent automatiquement une grande partie du code HTML brut que vous voyez lorsqu'une page est rendue. Cela peut causer des maux de tête aux développeurs. Avec MVC, il est plus facile d'avoir un contrôle total sur ce qui est rendu et il n'y a pas de surprises. Plus important encore, les formulaires HTML sont généralement beaucoup plus petits que les formulaires Web, ce qui peut se traduire par une augmentation des performances - un point à prendre sérieusement en considération. * Développement piloté par les tests (TDD) - Avec MVC, vous pouvez plus facilement créer des tests pour l'aspect web. Une couche supplémentaire de tests fournira une autre couche de défense contre les comportements inattendus. L'authentification, l'autorisation, la configuration, la compilation et le déploiement sont autant de fonctionnalités partagées par les deux frameworks web.
Quali sono i vantaggi dell'utilizzo di uno rispetto all'altro?
ASP.NET Web Forms e MVC sono due framework web sviluppati da Microsoft, entrambi validi. Nessuno dei due framework web verrà sostituito dall'altro, né è prevista la loro "fusione" in un unico framework. Il supporto e lo sviluppo vengono portati avanti in parallelo da Microsoft e nessuno dei due è destinato a scomparire. Ognuno di questi framework web offre vantaggi/svantaggi, alcuni dei quali devono essere presi in considerazione quando si sviluppa un'applicazione web. Un'applicazione web può essere sviluppata utilizzando entrambe le tecnologie; la scelta di una tecnologia rispetto all'altra potrebbe facilitare lo sviluppo di una particolare applicazione e viceversa. ASP.NET Web Forms: * Lo sviluppo supporta lo stato - Dà l'illusione che un'applicazione web sia consapevole di ciò che l'utente ha fatto, in modo simile alle applicazioni Windows. Ad esempio, rende la funzionalità "guidata" un po' più facile da implementare. I moduli Web fanno un ottimo lavoro nel nascondere gran parte della complessità allo sviluppatore. * Sviluppo rapido di applicazioni (RAD) - La possibilità di "buttarsi" e iniziare a distribuire moduli web. Questo aspetto è contestato da alcuni membri della comunità MVC, ma è sostenuto da Microsoft. Alla fine, dipende dal livello di competenza dello sviluppatore e da ciò con cui si trova a suo agio. Il modello dei moduli Web probabilmente presenta una curva di apprendimento meno impegnativa per gli sviluppatori meno esperti. * Una più ampia gamma di strumenti di controllo - ASP.NET Web Forms offre un insieme di strumenti (controlli web) molto più ampio e robusto, mentre MVC offre un insieme di controlli più primitivo che si affida maggiormente ai controlli lato client tramite jQuery (Javascript). * Maturo - Esiste dal 2002 e c'è un'abbondanza di informazioni su domande, problemi, ecc. Offre un maggiore controllo da parte di terzi - è necessario considerare i toolkit esistenti. ASP.NET MVC: * Separazione delle preoccupazioni (SoC) - Da un punto di vista tecnico, l'organizzazione del codice all'interno di MVC è molto pulita, organizzata e granulare, rendendo più facile (si spera) la scalabilità di un'applicazione web in termini di funzionalità. Promuove un ottimo design dal punto di vista dello sviluppo. * Integrazione più semplice con gli strumenti del lato client (strumenti di interfaccia utente). - Le applicazioni web stanno diventando sempre più ricche come le applicazioni che si vedono sui desktop. MVC offre la possibilità di integrarsi con tali strumenti (come jQuery) con maggiore facilità e senza soluzione di continuità rispetto a Web Forms. * Amichevole per l'ottimizzazione dei motori di ricerca (SEO) / Senza stato - Gli URL sono più facili da usare per i motori di ricerca (ad esempio, mywebapplication.com/users/ 1 - recupera l'utente con un ID di 1 rispetto a mywebapplication/users/getuser.aspx (id passato in sessione)). Allo stesso modo, poiché MVC è stateless, elimina il problema degli utenti che avviano più browser web dalla stessa finestra (collisioni di sessione). Sulla stessa linea, MVC aderisce al protocollo web stateless invece di "combattere" contro di esso. * Funziona bene con gli sviluppatori che hanno bisogno di un alto grado di controllo - Molti controlli nei moduli web ASP.NET generano automaticamente gran parte dell'HTML grezzo che si vede quando viene resa una pagina. Questo può provocare mal di testa agli sviluppatori. Con MVC, si presta meglio ad avere un controllo completo su ciò che viene reso e non ci sono sorprese. Ancora più importante è il fatto che i moduli HTML sono in genere molto più piccoli dei moduli Web, il che può comportare un aumento delle prestazioni: un aspetto da prendere seriamente in considerazione. * Sviluppo guidato dai test (TDD) - Con MVC, è più facile creare test per il lato web. Un ulteriore livello di test fornirà un ulteriore livello di difesa contro i comportamenti inattesi. L'autenticazione, l'autorizzazione, la configurazione, la compilazione e la distribuzione sono tutte funzionalità condivise tra i due framework web.
196
What factors determine the maximum altitude for a plane? Is it limited by wing design, engine thrust, and so on? Is there a formula by which one can calculate the maximum altitude a plane can reach?
The higher you get, the lower the density of the air becomes. This lower density results in a lower lift being generated for the same airspeed and angle of attack. Effectively, the higher you fly the higher your minimum speed becomes. So while climbing, your speed needs to increase to compensate for the lower air density. As long a you can fly faster, the lower density at altitude can be compensated for. Basically there are two things that limit your maximum speed: thrust and speed of sound and with that your maximum altitude. First is thrust; the higher you get, the lower the thrust your engines deliver. You might note that drag goes down with the air density as well but since you are flying faster and faster during the climb the drag doesn't decrease at all. If your maximum altitude is limited by thrust then at some point during the climb the thrust and drag are getting close to equal and that is where the climb stops. When you can no longer climb with more than 100ft per minute (for propeller aircraft) or 500ft per minute (for jet / turbofan aircraft) you have reached your service ceiling. If the aircraft maximum altitude is determined by thrust, the absolute ceiling will take very long to reach. At high altitudes air breathing engines will get difficulties eventually. Due to the lower air density the mass flow through the engine is reduced up to a point where it causes a flame out. The other limitation is the speed of sound, at least for subsonic aircraft. In the process of generating lift, air flowing over the top of the wing is accelerated. At one point, when the aircraft is still flying below the speed of sound, shock waves will start to form over the wing. This results in increase of drag and reduces the lift. So provided you have enough engine power at your disposal you can climb to an altitude where your minimum speed is also your maximum speed. This is called the coffin corner. In the coffin corner: * if you fly any faster, you will exceed the maximum Mach number ($M_{mo}$) of your aircraft, resulting in high speed buffet, vibrations and possible loss of control. * if you fly any slower, the maximum lift that the wing can provide will be insufficient to maintain altitude. Descent or the aircraft will stall. * if you fly any higher and you will be too fast and too slow at the same time. * if you turn, you increase the wing loading, thereby increasing the minimum speed needed to create the required lift. Also the outer wing will easily exceed the maximum speed while at the same time the inner wing is below stall speed. This can quickly develop into a spin. Since accurate knowledge of engine performance, drag and wing characteristics of the aircraft is needed, there is not a simple formula to derive the maximum altitude for an aircraft. Apart from the aircraft performance related limitations above there is a certified maximum operating altitude for the pressurized cabin. This takes into account the structural properties of the hull (pressure difference between inside and outside) and the achievable emergency descent rate in case of a depressurization event.
Welche Faktoren bestimmen die maximale Flughöhe eines Flugzeugs? Ist sie durch die Konstruktion der Flügel, den Schub der Triebwerke usw. begrenzt? Gibt es eine Formel, mit der man die maximale Höhe berechnen kann, die ein Flugzeug erreichen kann?
Je höher man kommt, desto geringer wird die Dichte der Luft. Diese geringere Dichte führt dazu, dass bei gleicher Fluggeschwindigkeit und gleichem Anstellwinkel ein geringerer Auftrieb erzeugt wird. Je höher Sie fliegen, desto höher wird Ihre Mindestgeschwindigkeit. Im Steigflug müssen Sie also Ihre Geschwindigkeit erhöhen, um die geringere Luftdichte auszugleichen. Solange Sie schneller fliegen können, kann die geringere Dichte in der Höhe kompensiert werden. Im Grunde gibt es zwei Faktoren, die die Höchstgeschwindigkeit begrenzen: Schubkraft und Schallgeschwindigkeit und damit die maximale Flughöhe. Erstens der Schub: Je höher Sie kommen, desto weniger Schub liefern Ihre Triebwerke. Sie werden feststellen, dass der Luftwiderstand ebenfalls mit der Luftdichte abnimmt, aber da Sie während des Steigflugs immer schneller fliegen, verringert sich der Luftwiderstand überhaupt nicht. Wenn Ihre maximale Flughöhe durch den Schub begrenzt ist, halten sich Schub und Luftwiderstand während des Steigflugs irgendwann fast die Waage, und der Steigflug endet an diesem Punkt. Wenn Sie nicht mehr als 100 Fuß pro Minute (bei Propellerflugzeugen) bzw. 500 Fuß pro Minute (bei Düsen-/Turbofanflugzeugen) steigen können, haben Sie Ihre Dienstgipfelhöhe erreicht. Wenn die maximale Flughöhe des Flugzeugs durch den Schub bestimmt wird, dauert es sehr lange, bis die absolute Obergrenze erreicht ist. In großen Höhen werden luftatmende Triebwerke irgendwann Schwierigkeiten bekommen. Aufgrund der geringeren Luftdichte verringert sich der Massenstrom durch das Triebwerk bis zu einem Punkt, an dem es zu einem Flammabriss kommt. Eine weitere Einschränkung ist die Schallgeschwindigkeit, zumindest bei Unterschallflugzeugen. Bei der Erzeugung des Auftriebs wird die Luft, die über die Oberseite des Flügels strömt, beschleunigt. Irgendwann, wenn das Flugzeug noch unter der Schallgeschwindigkeit fliegt, bilden sich Stoßwellen über der Tragfläche. Dadurch wird der Luftwiderstand erhöht und der Auftrieb verringert. Wenn Sie also genügend Motorleistung zur Verfügung haben, können Sie bis zu einer Höhe steigen, in der Ihre Mindestgeschwindigkeit auch Ihre Höchstgeschwindigkeit ist. Dies nennt man die Sarg-Ecke. In der Sarg-Ecke: * Wenn du noch schneller fliegst, überschreitest du die maximale Machzahl ($M_{mo}$) deines Flugzeugs, was zu Hochgeschwindigkeitsstößen, Vibrationen und möglicherweise zum Verlust der Kontrolle führt. * Wenn Sie noch langsamer fliegen, reicht der maximale Auftrieb des Flügels nicht mehr aus, um die Höhe zu halten. Sinkflug oder Überziehen des Flugzeugs. * Wenn Sie noch höher fliegen, sind Sie gleichzeitig zu schnell und zu langsam. * Wenn Sie drehen, erhöhen Sie die Flächenbelastung und damit die Mindestgeschwindigkeit, die erforderlich ist, um den erforderlichen Auftrieb zu erzeugen. Außerdem wird der äußere Flügel leicht die Höchstgeschwindigkeit überschreiten, während der innere Flügel gleichzeitig unter der Überziehgeschwindigkeit liegt. Dies kann sich schnell zu einem Trudeln entwickeln. Da genaue Kenntnisse über die Triebwerksleistung, den Luftwiderstand und die Flugeigenschaften des Flugzeugs erforderlich sind, gibt es keine einfache Formel, um die maximale Flughöhe eines Flugzeugs zu ermitteln. Abgesehen von den oben genannten leistungsbezogenen Einschränkungen des Flugzeugs gibt es eine zertifizierte maximale Betriebshöhe für die Druckkabine. Dabei werden die strukturellen Eigenschaften des Rumpfes (Druckunterschied zwischen innen und außen) und die erreichbare Notabstiegsgeschwindigkeit im Falle eines Druckabfalls berücksichtigt.
¿Qué factores determinan la altitud máxima de un avión? ¿Está limitada por el diseño del ala, el empuje del motor, etc.? ¿Existe alguna fórmula para calcular la altitud máxima que puede alcanzar un avión?
A mayor altura, menor densidad del aire. Esta menor densidad hace que se genere menos sustentación para la misma velocidad aerodinámica y ángulo de ataque. De hecho, cuanto más alto vueles, mayor será tu velocidad mínima. Por tanto, al ascender, la velocidad debe aumentar para compensar la menor densidad del aire. Mientras puedas volar más rápido, podrás compensar la menor densidad en altitud. Básicamente, hay dos cosas que limitan la velocidad máxima: el empuje y la velocidad del sonido y, con ello, la altitud máxima. En primer lugar, el empuje; cuanto más alto vueles, menor será el empuje de tus motores. Puedes notar que la resistencia disminuye con la densidad del aire, pero como vuelas cada vez más rápido durante el ascenso, la resistencia no disminuye en absoluto. Si tu altitud máxima está limitada por el empuje, entonces en algún momento durante el ascenso el empuje y la resistencia se están igualando y ahí es donde se detiene el ascenso. Cuando ya no puedes subir a más de 100 pies por minuto (para aviones de hélice) o 500 pies por minuto (para aviones jet / turbofan) has alcanzado tu techo de servicio. Si la altitud máxima del avión está determinada por el empuje, el techo absoluto tardará mucho en alcanzarse. A grandes altitudes, los motores que respiran aire acabarán teniendo dificultades. Debido a la menor densidad del aire, el flujo de masa a través del motor se reduce hasta el punto de provocar un apagado de la llama. La otra limitación es la velocidad del sonido, al menos para los aviones subsónicos. En el proceso de generación de sustentación, el aire que fluye por la parte superior del ala se acelera. En un momento dado, cuando el avión todavía vuela por debajo de la velocidad del sonido, se empiezan a formar ondas de choque sobre el ala. Esto provoca un aumento de la resistencia y reduce la sustentación. Así que, siempre que dispongas de suficiente potencia en el motor, puedes ascender hasta una altitud en la que tu velocidad mínima sea también tu velocidad máxima. Esto se llama la esquina del ataúd. En la esquina del ataúd: * Si vuelas más rápido, superarás el número máximo de Mach ($M_{mo}$) de tu avión, lo que provocará una sacudida a alta velocidad, vibraciones y una posible pérdida de control. * Si vuela más despacio, la sustentación máxima que puede proporcionar el ala será insuficiente para mantener la altitud. Descenso o la aeronave entrará en pérdida. * Si vuelas más alto, irás demasiado rápido y demasiado lento al mismo tiempo. * si giras, aumentas la carga alar, aumentando así la velocidad mínima necesaria para crear la sustentación requerida. Además, el ala exterior superará fácilmente la velocidad máxima mientras que al mismo tiempo el ala interior está por debajo de la velocidad de pérdida. Esto puede convertirse rápidamente en un trompo. Dado que es necesario conocer con precisión el rendimiento del motor, la resistencia y las características alares de la aeronave, no existe una fórmula sencilla para deducir la altitud máxima de una aeronave. Aparte de las limitaciones relacionadas con el rendimiento de la aeronave mencionadas anteriormente, existe una altitud máxima de funcionamiento certificada para la cabina presurizada. Esto tiene en cuenta las propiedades estructurales del casco (diferencia de presión entre el interior y el exterior) y la velocidad de descenso de emergencia alcanzable en caso de despresurización.
Quels sont les facteurs qui déterminent l'altitude maximale d'un avion ? Est-elle limitée par la conception des ailes, la poussée des moteurs, etc. Existe-t-il une formule permettant de calculer l'altitude maximale qu'un avion peut atteindre ?
Plus on monte, plus la densité de l'air diminue. Cette densité plus faible se traduit par une portance plus faible pour une même vitesse et un même angle d'attaque. En effet, plus vous volez haut, plus votre vitesse minimale augmente. Ainsi, lorsque vous montez, votre vitesse doit augmenter pour compenser la baisse de la densité de l'air. Tant que vous pouvez voler plus vite, la densité plus faible en altitude peut être compensée. Fondamentalement, deux éléments limitent votre vitesse maximale : la poussée et la vitesse du son et, par conséquent, votre altitude maximale. Le premier facteur est la poussée ; plus vous montez en altitude, plus la poussée de vos moteurs est faible. Vous pouvez noter que la traînée diminue également avec la densité de l'air, mais comme vous volez de plus en plus vite pendant la montée, la traînée ne diminue pas du tout. Si votre altitude maximale est limitée par la poussée, à un moment donné de la montée, la poussée et la traînée sont presque égales et c'est là que la montée s'arrête. Lorsque vous ne pouvez plus monter à plus de 100 pieds par minute (pour les avions à hélice) ou à plus de 500 pieds par minute (pour les avions à réaction / turbosoufflantes), vous avez atteint votre plafond de service. Si l'altitude maximale de l'avion est déterminée par la poussée, le plafond absolu sera très long à atteindre. À haute altitude, les moteurs à air comprimé finissent par rencontrer des difficultés. En raison de la faible densité de l'air, le flux de masse à travers le moteur est réduit jusqu'à un point où il provoque une extinction. L'autre limite est la vitesse du son, du moins pour les avions subsoniques. Pour générer la portance, l'air qui s'écoule sur le dessus de l'aile est accéléré. À un moment donné, lorsque l'avion vole encore en dessous de la vitesse du son, des ondes de choc commencent à se former au-dessus de l'aile. Il en résulte une augmentation de la traînée et une réduction de la portance. Ainsi, si vous disposez d'une puissance moteur suffisante, vous pouvez monter jusqu'à une altitude où votre vitesse minimale est également votre vitesse maximale. C'est ce qu'on appelle le coin du cercueil. Dans le coin du cercueil : * si vous volez plus vite, vous dépasserez le nombre de Mach maximum ($M_{mo}$) de votre avion, ce qui entraînera des vibrations et une éventuelle perte de contrôle. * Si vous volez plus lentement, la portance maximale que l'aile peut fournir sera insuffisante pour maintenir l'altitude. La descente ou le décrochage de l'avion s'ensuivent. * Si vous volez plus haut, vous serez à la fois trop rapide et trop lent. * Si vous tournez, vous augmentez la charge alaire, ce qui accroît la vitesse minimale nécessaire pour créer la portance requise. De plus, l'aile extérieure dépassera facilement la vitesse maximale alors que l'aile intérieure est en dessous de la vitesse de décrochage. Cette situation peut rapidement se transformer en vrille. Comme il faut connaître précisément les performances du moteur, la traînée et les caractéristiques de l'aile de l'avion, il n'existe pas de formule simple pour calculer l'altitude maximale d'un avion. Outre les limitations liées aux performances de l'aéronef mentionnées ci-dessus, il existe une altitude maximale d'exploitation certifiée pour la cabine pressurisée. Cette altitude tient compte des propriétés structurelles de la coque (différence de pression entre l'intérieur et l'extérieur) et du taux de descente d'urgence réalisable en cas de dépressurisation.
Quali fattori determinano l'altitudine massima di un aereo? È limitata dal disegno dell'ala, dalla spinta del motore e così via? Esiste una formula per calcolare l'altitudine massima che un aereo può raggiungere?
Più si sale, più la densità dell'aria diminuisce. Questa minore densità si traduce in una minore portanza generata a parità di velocità e angolo d'attacco dell'aria. In effetti, più si vola in alto, più alta diventa la velocità minima. Quindi, durante la salita, la velocità deve aumentare per compensare la minore densità dell'aria. Finché si può volare più velocemente, la minore densità in quota può essere compensata. Fondamentalmente sono due gli elementi che limitano la velocità massima: la spinta e la velocità del suono e con essa l'altitudine massima. Il primo è la spinta: più si sale, più la spinta dei motori diminuisce. Si può notare che anche la resistenza aerodinamica diminuisce con la densità dell'aria, ma poiché si vola sempre più velocemente durante la salita, la resistenza non diminuisce affatto. Se l'altitudine massima è limitata dalla spinta, a un certo punto della salita la spinta e la resistenza aerodinamica sono quasi uguali e la salita si ferma. Quando non si riesce più a salire con più di 100 piedi al minuto (per gli aerei a elica) o 500 piedi al minuto (per gli aerei a reazione o turboventola) si è raggiunto il limite di servizio. Se l'altitudine massima dell'aeromobile è determinata dalla spinta, il raggiungimento del tetto assoluto richiederà molto tempo. Ad altitudini elevate i motori ad aria compressa finiranno per avere difficoltà. A causa della minore densità dell'aria, il flusso di massa che attraversa il motore si riduce fino a provocare lo spegnimento della fiamma. L'altra limitazione è la velocità del suono, almeno per gli aerei subsonici. Nel processo di generazione della portanza, l'aria che scorre sulla parte superiore dell'ala viene accelerata. A un certo punto, quando l'aereo vola ancora al di sotto della velocità del suono, iniziano a formarsi delle onde d'urto sull'ala. Questo provoca un aumento della resistenza aerodinamica e riduce la portanza. Se si dispone di una potenza sufficiente del motore, è possibile salire a un'altitudine in cui la velocità minima è anche la velocità massima. Questo è chiamato angolo della bara. Nell'angolo della bara: * se si vola più velocemente, si supera il numero di Mach massimo ($M_{mo}$) dell'aeromobile, con conseguente buffet ad alta velocità, vibrazioni e possibile perdita di controllo. * se si vola più lentamente, la portanza massima che l'ala può fornire sarà insufficiente per mantenere la quota. Discesa o stallo dell'aereo. * Se si vola più in alto, si è troppo veloci e troppo lenti allo stesso tempo. * Se si vira, si aumenta il carico alare, aumentando così la velocità minima necessaria per creare la portanza richiesta. Inoltre, l'ala esterna supererà facilmente la velocità massima mentre l'ala interna è al di sotto della velocità di stallo. Questo può trasformarsi rapidamente in un testacoda. Poiché è necessaria una conoscenza accurata delle prestazioni del motore, della resistenza aerodinamica e delle caratteristiche alari dell'aeromobile, non esiste una formula semplice per ricavare l'altitudine massima di un aeromobile. Oltre alle limitazioni relative alle prestazioni dell'aeromobile, esiste un'altitudine operativa massima certificata per la cabina pressurizzata. Questa tiene conto delle proprietà strutturali dello scafo (differenza di pressione tra interno ed esterno) e della velocità di discesa di emergenza raggiungibile in caso di depressurizzazione.
197
Why did the Typescript folks create the ```infer``` keyword? According to the documents, this is an example of how you would use it: ```type ReturnType = T extends (...args: any[]) => infer R ? R : any; ``` I don't understand why this is needed. Why can't it just be: ```type ReturnType = T extends (...args: any[]) => R ? R : any; ``` Why doesn't this work? Why is the ```infer``` keyword necessary ?
With ```infer```, the compiler ensures that you have declared all type variables explicitly: ```type MyType = T extends infer R ? R : never; type T1 = MyType // T1 is { b: string; } ``` Here we declare a new type variable ```R``` in ```MyType```, which gets inferred from ```T```. (Note, that ```infer``` is always used within the ```extends``` clause of a conditional type.) Usage of undeclared type parameters now can result in a compile error: ```type MyType2 = T extends R2 ? R2 : never; // error, R2 undeclared ``` Without ```infer```, the compiler wouldn't know, if you wanted to introduce an additional type variable ```R2``` that is to be inferred (see first case), or if ```R2``` is just an accidental typing error/typo. ```infer``` exists to remove this ambiguity. More precisely the compiler checks, if ```T``` is assignable to ```R``` , when ```infer``` is omitted: ```type R = { a: number } type MyType3 = T extends R ? R : never; // compare T with type R type T3 = MyType3 // T3 is never ``` Note, that ```infer R``` shadows type references of an equally-named type declaration ```R```: ```type R = { a: number } type MyType4 = T extends infer R ? R : never; type T4 = MyType4 // { b: string; } ```
Warum haben die Entwickler von Typescript das Schlüsselwort ``infer`` geschaffen? Den Dokumenten zufolge ist dies ein Beispiel für die Verwendung des Schlüsselworts: ```type ReturnType = T extends (...args: any[]) => infer R ? R : any; ``` Ich verstehe nicht, warum dies notwendig ist. Warum kann es nicht einfach sein: ```type ReturnType = T extends (...args: any[]) => R ? R : any; ``` Warum funktioniert das nicht? Warum ist das Schlüsselwort ``infer`` notwendig?
Mit ```infer`` stellt der Compiler sicher, dass Sie alle Typvariablen explizit deklariert haben: ````Type MyType = T extends infer R ? R : nie; type T1 = MyType // T1 ist { b: string; } ``` Hier deklarieren wir eine neue Typvariable ```R`` in ```MyType``, die von ```T`` abgeleitet wird. (Beachten Sie, dass ```infer`` immer innerhalb der ```extends`` Klausel eines bedingten Typs verwendet wird). Die Verwendung von nicht deklarierten Typparametern kann nun zu einem Kompilierfehler führen: ```Typ MyType2 = T extends R2 ? R2 : never; // Fehler, R2 nicht deklariert ``` Ohne ```infer``` wüßte der Compiler nicht, ob man eine zusätzliche Typvariable ```R2``` einführen wollte, die gefolgert werden soll (siehe erster Fall), oder ob ```R2``` nur ein versehentlicher Tippfehler/Typo ist. ```infer``` ist dazu da, diese Zweideutigkeit zu beseitigen. Genauer gesagt prüft der Compiler, ob ```T`` auf ```R``` zuweisbar ist, wenn ```infer`` weggelassen wird: ```Typ R = { a: Zahl } Typ MyType3 = T erweitert R ? R : never; // vergleiche T mit Typ R Typ T3 = MyType3 // T3 ist nie ``` Beachten Sie, dass ```infer R``` Typreferenzen einer gleichnamigen Typdeklaration ```R``` abschattet: ````Typ R = { a: Zahl } Typ MyType4 = T erweitert infer R ? R : nie; type T4 = MyType4 // { b: string; } ```
¿Por qué la gente de Typescript creó la palabra clave ```infer``? Según los documentos, este es un ejemplo de cómo usarla: ```type ReturnType = T extends (...args: any[]) => inferir R ? R : any; ``` No entiendo por qué se necesita esto. ¿Por qué no puede ser simplemente: ```tipo ReturnType = T extends (...args: any[]) => R ? R : any; ``` ¿Por qué no funciona? ¿Por qué es necesaria la palabra ``infer``?
Con ```infer``, el compilador se asegura de que has declarado todas las variables de tipo explícitamente: ```tipo MiTipo = T extends infer R ? R : nunca; type T1 = MyType // T1 is { b: string; } ``` Aquí declaramos una nueva variable de tipo ```R`` en ```MiTipo``, que se infiere de ```T``. (Ten en cuenta que ``infer`` siempre se usa dentro de la cláusula ``extends`` de un tipo condicional). El uso de parámetros de tipo no declarados ahora puede dar lugar a un error de compilación: ``tipo MiTipo2 = T extends R2 ? R2 : never; // error, R2 no declarado ``` Sin ```infer``, el compilador no sabría si quieres introducir una variable de tipo adicional ```R2`` que debe ser inferida (ver primer caso), o si ```R2`` es sólo un error de tipado accidental. ```infer`` existe para eliminar esta ambigüedad. Más concretamente, el compilador comprueba si ```T`` es asignable a ```R``, cuando se omite ```infer``: ```type R = { a: number } tipo MiTipo3 = T extends R ? R : nunca; // compara T con el tipo R tipo T3 = MiTipo3 // T3 es nunca ``` Nótese, que ``infer R`` hace sombra a las referencias de tipo de una declaración de tipo igualmente denominada ```R``: ```type R = { a: number } tipo MiTipo4 = T extends infer R ? R : nunca; type T4 = MiTipo4 // { b: cadena; } ```
Pourquoi les gens de Typescript ont-ils créé le mot-clé ``infer`` ? D'après les documents, voici un exemple d'utilisation : ```type ReturnType = T extends (...args : any[]) => infer R ? R : any ; ``` Je ne comprends pas pourquoi c'est nécessaire. Pourquoi cela ne pourrait-il pas être simplement : ```type ReturnType = T extends (...args : any[]) => R ? R : any ; ``` Pourquoi cela ne fonctionne-t-il pas ? Pourquoi le mot-clé ``infer`` est-il nécessaire ?
Avec ``infer``, le compilateur s'assure que vous avez déclaré toutes les variables de type explicitement : ``Type MyType = T extends infer R ? R : jamais ; type T1 = MyType // T1 est { b : string ; } ``` Ici, nous déclarons une nouvelle variable de type ``R`` dans ``MyType``, qui est déduite de ``T``. (Notez que ``infer`` est toujours utilisé dans la clause ``extends`` d'un type conditionnel). L'utilisation de paramètres de type non déclarés peut maintenant entraîner une erreur de compilation : ``Type MyType2 = T étend R2 ? R2 : never ; // erreur, R2 non déclaré ``` Sans ``infer``, le compilateur ne saurait pas si vous vouliez introduire une variable de type supplémentaire ``R2`` qui doit être inférée (voir le premier cas), ou si ``R2`` est juste une erreur accidentelle de typage/typo. ``infer`` existe pour lever cette ambiguïté. Plus précisément, le compilateur vérifie si ``T`` est assignable à ``R`` , lorsque ``infer`` est omis : ``type R = { a : nombre } type MyType3 = T étend R ? R : never ; // compare T avec le type R type T3 = MyType3 // T3 n'est jamais ``` Notez que ``infer R``` ombrage les références de type d'une déclaration de type ``R``` de même nom : ```type R = { a : nombre } type MyType4 = T extends infer R ? R : jamais ; type T4 = MyType4 // { b : string ; } ```
Perché quelli di Typescript hanno creato la parola chiave ``infer''? Secondo i documenti, questo è un esempio di utilizzo: ```type ReturnType = T extends (...args: any[]) => inferisce R ? R : any; ``` Non capisco perché sia necessario. Perché non può essere semplicemente: ```type ReturnType = T extends (...args: any[]) => R ? R : any; ``` Perché non funziona? Perché è necessaria la parola chiave ``infer``?
Con ``infer``, il compilatore si assicura che tutte le variabili di tipo siano state dichiarate esplicitamente: ```tipo MyType = T extends infer R ? R : mai; type T1 = MyType // T1 is { b: string; } ``` Qui dichiariamo una nuova variabile di tipo ```R``` in ```MyType``, che viene inferita da ```T```. (Si noti che ``infer`` è sempre usato all'interno della clausola ``extends`` di un tipo condizionale). L'uso di parametri di tipo non dichiarati può ora causare un errore di compilazione: ```tipo MyType2 = T extends R2 ? R2 : never; // errore, R2 non dichiarato ``` Senza ``infer``, il compilatore non saprebbe se si vuole introdurre una variabile di tipo aggiuntiva ```R2`` che deve essere inferita (si veda il primo caso), o se ```R2`` è solo un errore di battitura/tipologia accidentale. ```infer`` esiste per eliminare questa ambiguità. Più precisamente, il compilatore controlla se ```T`` è assegnabile a ```R``, quando ```infer`` è omesso: ```tipo R = { a: numero } tipo MyType3 = T estende R ? R : never; // confronta T con il tipo R tipo T3 = MyType3 // T3 non è mai ``` Si noti che ``infer R`` ombreggia i riferimenti di tipo di una dichiarazione di tipo con lo stesso nome ```R``: ```tipo R = { a: number } tipo MyType4 = T estende infer R ? R : mai; tipo T4 = MyType4 // { b: string; } ```
198
Which is more widely supported: ```window.onload``` or ```document.onload```?
When do they fire? ```window.onload``` * By default, it is fired when the entire page loads, including its content (images, CSS, scripts, etc.). In some browsers it now takes over the role of ```document.onload``` and fires when the DOM is ready as well. ```document.onload``` * It is called when the DOM is ready which can be prior to images and other external content is loaded. How well are they supported? ```window.onload``` appears to be the most widely supported. In fact, some of the most modern browsers have in a sense replaced ```document.onload``` with ```window.onload```. Browser support issues are most likely the reason why many people are starting to use libraries such as jQuery to handle the checking for the document being ready, like so: ```$(document).ready(function() { /* code here */ }); $(function() { /* code here */ }); ``` For the purpose of history. ```window.onload``` vs ```body.onload```: A similar question was asked on codingforums a while back regarding the usage of ```window.onload``` over ```body.onload```. The result seemed to be that you should use ```window.onload``` because it is good to separate your structure from the action.
Was wird am meisten unterstützt: ```Window.onload`` oder ```Document.onload``?
Wann werden sie ausgelöst? ```Window.onload`` * Standardmäßig wird sie ausgelöst, wenn die gesamte Seite geladen wird, einschließlich ihres Inhalts (Bilder, CSS, Skripte usw.). In einigen Browsern übernimmt es nun die Rolle von ```document.onload`` und wird ebenfalls ausgelöst, wenn das DOM bereit ist. ```Document.onload`` * Es wird aufgerufen, wenn das DOM bereit ist, was vor dem Laden von Bildern und anderen externen Inhalten der Fall sein kann. Wie gut werden sie unterstützt? ```Window.onload`` scheint die am meisten unterstützte zu sein. Tatsächlich haben einige der modernsten Browser in gewisser Weise ```document.onload`` durch ```window.onload`` ersetzt. Probleme mit der Browserunterstützung sind höchstwahrscheinlich der Grund dafür, dass viele Leute anfangen, Bibliotheken wie jQuery zu verwenden, um die Überprüfung der Bereitschaft des Dokuments zu handhaben, etwa so: ```$(document).ready(function() { /* code here */ }); $(function() { /* code here */ }); ``` Für den Zweck der Geschichte. ````Window.onload`` vs ```body.onload``: Eine ähnliche Frage wurde vor einer Weile in Codingforums gestellt eine ähnliche Frage bezüglich der Verwendung von ```window.onload`` gegenüber ```body.onload`` gestellt. Das Das Ergebnis schien zu sein, dass man ```window.onload`` verwenden sollte, weil es gut ist gut ist, um die Struktur von der Aktion zu trennen.
¿Qué está más extendido? ``window.onload`` o ``document.onload``?
¿Cuándo se disparan? ``window.onload`` * Por defecto, se activa cuando se carga toda la página, incluyendo su contenido (imágenes, CSS, scripts, etc.). En algunos navegadores, ahora asume el papel de ``document.onload`` y también se activa cuando el DOM está listo. ``document.onload`` * Se llama cuando el DOM está listo, lo que puede ser antes de que se carguen las imágenes y otros contenidos externos. ¿Cómo se soportan? ``window.onload`` parece ser el más ampliamente soportado. De hecho, algunos de los navegadores más modernos han sustituido en cierto modo ``document.onload`` por ``window.onload``. Los problemas de soporte de los navegadores son probablemente la razón por la que mucha gente está empezando a usar librerías como jQuery para manejar la comprobación de que el documento está listo, de esta manera: ```$(document).ready(function() { /* code here */ }); $(function() { /* código aquí */ }); ``` Para el propósito de la historia. ``window.onload`` vs ``body.onload``: Una pregunta similar se hizo en codingforums un tiempo atrás sobre el uso de ``window.onload`` sobre ```body.onload``. El resultado parecía ser que usted debe utilizar ``window.onload`` porque es bueno para separar su estructura de la acción.
Qu'est-ce qui est le plus largement supporté ? ``window.onload`` ou ``document.onload`` ?
Quand se déclenchent-ils ? ``Fenêtre.onload```. * Par défaut, il est déclenché lorsque la page entière est chargée, y compris son contenu (images, CSS, scripts, etc.). Dans certains navigateurs, il reprend le rôle de ``document.onload`` et se déclenche également lorsque le DOM est prêt. ``document.onload`` `a * Il est appelé lorsque le DOM est prêt, ce qui peut être antérieur au chargement des images et autres contenus externes. Comment sont-ils supportés ? ``window.onload`` semble être la plus largement supportée. En fait, certains des navigateurs les plus modernes ont en quelque sorte remplacé ``document.onload`` par ``window.onload``. Les problèmes de support des navigateurs sont très probablement la raison pour laquelle de nombreuses personnes commencent à utiliser des bibliothèques telles que jQuery pour gérer la vérification de la disponibilité du document, comme par exemple : ```$(document).ready(function() { /* code here */ }) ; $(function() { /* code here */ }) ; ``` Pour les besoins de l'histoire. ``window.onload`` vs ``body.onload`` : Une question similaire a été posée sur codingforums il y a quelque temps Il y a quelques temps, une question similaire a été posée sur les forums de codage concernant l'utilisation de ``window.onload`` par rapport à ``body.onload``. Le résultat Le résultat semblait être que vous devriez utiliser ``window.onload`` parce que c'est de séparer la structure de l'action.
Quale dei due è più ampiamente supportato: ```window.onload`` o ```document.onload``?
Quando si attivano? ``window.onload`` * Per impostazione predefinita, viene attivato quando l'intera pagina viene caricata, compreso il suo contenuto (immagini, CSS, script, ecc.). In alcuni browser ha assunto il ruolo di ``document.onload`` e si attiva quando anche il DOM è pronto. ```document.onload`` * Viene chiamato quando il DOM è pronto, il che può avvenire prima del caricamento di immagini e altri contenuti esterni. Come sono supportati? ```window.onload`` sembra essere il più ampiamente supportato. In effetti, alcuni dei browser più moderni hanno in un certo senso sostituito ```document.onload`` con ```window.onload``. I problemi di supporto dei browser sono probabilmente la ragione per cui molti iniziano a usare librerie come jQuery per gestire il controllo del documento pronto, come ad esempio: ```$(document).ready(function() { /* code here */ }); $(function() { /* codice qui */ }); ``` Ai fini della cronologia. ```window.onload`` contro ```body.onload``: Una domanda simile è stata posta su codingforums qualche tempo fa riguardo all'uso di ```window.onload`` rispetto a ```body.onload``. Il risultato risultato sembrava essere che si dovesse usare ```window.onload`` perché è bene separare la struttura dall'azione.
199
I was surprised to learn that Puerto Ricans, despite living in a US territory, were not entitled to vote in the presidential elections. I was even more surprised to learn that US citizens are allowed to vote for president from anywhere in the world - EXCEPT if they happen to live in Puerto Rico. What is the legal/political rationale behind this? What is it about Puerto Rico that magically removes one's right to vote? Has anyone ever challenged this?
This is a peculiarity as a result of the federal nature of the USA and the exceptional position of Puerto Rico as a territory but not a state. Within the States and Territories of the USA, your voting rights depend on residence. If you leave the States and Territories your voting rights depend on former residence or inheritance. In general most citizens of the USA are also citizens of a state of the USA. Since states don't issue their own passports, your citizenship of a state is determined by residence. If a New Yorker moves to Florida, they become Floridians, and so can vote in state elections in Florida, but can't now vote in elections in New York. Now if our New Yorker moves to Timbuktu, this is treated slightly differently. They remain a US citizen and a citizen of New York, and so retain the right to vote in New York elections. Their children could also claim New York citizenship. But Puerto Rico is both part of the USA but not a State or part of a State of the USA. When our New Yorker moves to Puerto Rico, they can vote in Puerto Rican elections but not elections in New York. Now the nature of elections in the US is that there are no national elections There are statewide elections of Senators, Governors and Presidential electors. There are district elections of Representatives and there are local elections of many kinds. Our New Yorker has lost the right to vote in New York elections (just as they would have done if they had moved to Florida) but not gained the right to vote in Puerto Rican elections for Presidential electors (because there are none). This is odd, but something similar is true if the New Yorker moves to DC. They cease to have the right to vote in elections to the Senate.
Ich war überrascht zu erfahren, dass Puertoricaner, obwohl sie in einem US-Territorium leben, nicht berechtigt waren, an den Präsidentschaftswahlen teilzunehmen. Noch erstaunter war ich, als ich erfuhr, dass US-Bürger von überall auf der Welt zur Wahl des Präsidenten zugelassen sind - AUSSER, wenn sie zufällig in Puerto Rico leben. Was ist die rechtliche/politische Begründung dafür? Was hat es mit Puerto Rico auf sich, dass einem auf magische Weise das Wahlrecht entzogen wird? Hat irgendjemand dies jemals in Frage gestellt?
Dies ist eine Besonderheit, die sich aus dem föderalen Charakter der USA und der Ausnahmestellung von Puerto Rico als Territorium, aber nicht als Staat ergibt. Innerhalb der Bundesstaaten und Territorien der USA hängt Ihr Wahlrecht vom Wohnsitz ab. Wenn Sie die Bundesstaaten und Territorien verlassen, hängt Ihr Wahlrecht vom früheren Wohnsitz oder vom Erbe ab. Im Allgemeinen sind die meisten Bürger der USA auch Bürger eines Bundesstaates der USA. Da die Bundesstaaten keine eigenen Pässe ausstellen, wird die Staatsbürgerschaft eines Staates durch den Wohnsitz bestimmt. Zieht ein New Yorker nach Florida, wird er Floridianer und kann somit an den Wahlen in Florida teilnehmen, nicht aber an den Wahlen in New York. Zieht unser New Yorker nun nach Timbuktu, so wird dies etwas anders behandelt. Er bleibt US-Bürger und Bürger von New York und hat somit weiterhin das Recht, an den Wahlen in New York teilzunehmen. Auch ihre Kinder könnten die New Yorker Staatsbürgerschaft beanspruchen. Puerto Rico ist zwar Teil der USA, aber weder ein Bundesstaat noch ein Teil eines Bundesstaates der USA. Wenn unser New Yorker nach Puerto Rico zieht, kann er an puertoricanischen Wahlen teilnehmen, aber nicht an Wahlen in New York. Nun ist es so, dass es in den USA keine nationalen Wahlen gibt. Es gibt landesweite Wahlen von Senatoren, Gouverneuren und Präsidentschaftskandidaten. Es gibt Bezirkswahlen für Repräsentanten und viele Arten von Kommunalwahlen. Unser New Yorker hat das Wahlrecht für die Wahlen in New York verloren (genauso wie er es verloren hätte, wenn er nach Florida umgezogen wäre), aber nicht das Wahlrecht für die Präsidentschaftswahlen in Puerto Rico gewonnen (weil es dort keine gibt). Das ist merkwürdig, aber etwas Ähnliches gilt, wenn ein New Yorker nach DC zieht. Sie haben dann nicht mehr das Recht, an den Wahlen zum Senat teilzunehmen.
Me sorprendió saber que los puertorriqueños, a pesar de vivir en un territorio estadounidense, no tenían derecho a votar en las elecciones presidenciales. Me sorprendió aún más saber que los ciudadanos estadounidenses pueden votar en las elecciones presidenciales de cualquier parte del mundo, EXCEPTO si viven en Puerto Rico. ¿Cuál es el fundamento jurídico y político de esta medida? ¿Qué tiene Puerto Rico que por arte de magia le quita a uno el derecho a votar? ¿Alguien ha cuestionado esto alguna vez?
Se trata de una peculiaridad derivada del carácter federal de los EE.UU. y de la posición excepcional de Puerto Rico como territorio pero no como Estado. Dentro de los Estados y Territorios de los EE.UU., su derecho de voto depende de la residencia. Si abandona los Estados y Territorios, su derecho de voto depende de la residencia anterior o de la herencia. En general, la mayoría de los ciudadanos de EE.UU. son también ciudadanos de un Estado de EE.UU.. Como los Estados no expiden sus propios pasaportes, la ciudadanía de un Estado viene determinada por la residencia. Si un neoyorquino se muda a Florida, se convierte en floridano y, por tanto, puede votar en las elecciones estatales de Florida, pero ya no puede votar en las elecciones de Nueva York. Ahora bien, si nuestro neoyorquino se traslada a Tombuctú, el trato es ligeramente distinto. Sigue siendo ciudadano estadounidense y neoyorquino, por lo que conserva el derecho a votar en las elecciones de Nueva York. Sus hijos también podrían reclamar la ciudadanía neoyorquina. Pero Puerto Rico forma parte de Estados Unidos, pero no es un Estado ni parte de un Estado de Estados Unidos. Cuando nuestro neoyorquino se traslada a Puerto Rico, puede votar en las elecciones puertorriqueñas pero no en las de Nueva York. Ahora bien, la naturaleza de las elecciones en EE.UU. es que no hay elecciones nacionales Hay elecciones estatales de senadores, gobernadores y electores presidenciales. Hay elecciones de distrito de Representantes y hay elecciones locales de muchos tipos. Nuestro neoyorquino ha perdido el derecho a votar en las elecciones de Nueva York (igual que si se hubiera trasladado a Florida) pero no ha ganado el derecho a votar en las elecciones de Puerto Rico para elegir electores presidenciales (porque no hay). Esto es extraño, pero algo similar ocurre si el neoyorquino se traslada a DC. Dejan de tener derecho a voto en las elecciones al Senado.
J'ai été surpris d'apprendre que les Portoricains, bien que vivant dans un territoire américain, n'avaient pas le droit de voter aux élections présidentielles. J'ai été encore plus surpris d'apprendre que les citoyens américains sont autorisés à voter pour le président de n'importe quel pays du monde - SAUF s'il se trouve qu'ils vivent à Porto Rico. Quel est le raisonnement juridique/politique qui sous-tend cette situation ? Qu'est-ce qui, à Porto Rico, retire comme par magie le droit de vote à une personne ? Quelqu'un a-t-il déjà contesté ce principe ?
Il s'agit d'une particularité due à la nature fédérale des États-Unis et à la position exceptionnelle de Porto Rico en tant que territoire mais pas en tant qu'État. Dans les États et territoires des États-Unis, le droit de vote dépend de la résidence. Si vous quittez les États et territoires, votre droit de vote dépend de votre ancienne résidence ou de votre héritage. En général, la plupart des citoyens américains sont également citoyens d'un État américain. Étant donné que les États ne délivrent pas leurs propres passeports, la citoyenneté d'un État est déterminée par la résidence. Si un habitant de New York déménage en Floride, il devient Floridien et peut donc voter aux élections de l'État de Floride, mais ne peut plus voter aux élections de l'État de New York. Si notre New-Yorkais déménage à Tombouctou, le traitement est légèrement différent. Il reste citoyen américain et citoyen de New York, et conserve donc le droit de voter aux élections new-yorkaises. Ses enfants peuvent également prétendre à la citoyenneté new-yorkaise. Toutefois, Porto Rico fait partie des États-Unis, mais n'est ni un État ni une partie d'un État des États-Unis. Lorsque notre New-Yorkais déménage à Porto Rico, il peut voter aux élections portoricaines, mais pas aux élections new-yorkaises. La nature des élections aux États-Unis est qu'il n'y a pas d'élections nationales. Il y a des élections au niveau de l'État pour les sénateurs, les gouverneurs et les électeurs présidentiels. Il y a des élections de représentants au niveau des districts et des élections locales de toutes sortes. Notre New-Yorkais a perdu le droit de voter aux élections new-yorkaises (comme il l'aurait fait s'il avait déménagé en Floride) mais n'a pas obtenu le droit de voter aux élections portoricaines pour les grands électeurs (parce qu'il n'y en a pas). C'est étrange, mais il en va de même si le New-Yorkais déménage à Washington. Il n'a plus le droit de voter aux élections sénatoriales.
Mi ha sorpreso sapere che i portoricani, pur vivendo in un territorio statunitense, non hanno diritto di voto alle elezioni presidenziali. Sono rimasto ancora più sorpreso nell'apprendere che i cittadini statunitensi possono votare per le elezioni presidenziali da qualsiasi parte del mondo - ECCETTO se vivono a Porto Rico. Qual è la logica legale/politica che sta alla base di questa situazione? Cosa c'è in Porto Rico che toglie magicamente il diritto di voto? Qualcuno ha mai contestato questo fatto?
Si tratta di una peculiarità dovuta alla natura federale degli Stati Uniti e alla posizione eccezionale di Porto Rico, che è un territorio ma non uno Stato. All'interno degli Stati e dei Territori degli USA, il diritto di voto dipende dalla residenza. Se si lasciano gli Stati e i Territori, il diritto di voto dipende dalla residenza precedente o dall'eredità. In generale, la maggior parte dei cittadini degli Stati Uniti sono anche cittadini di uno Stato degli Stati Uniti. Poiché gli Stati non emettono passaporti propri, la cittadinanza di uno Stato è determinata dalla residenza. Se un newyorkese si trasferisce in Florida, diventa floridiano e quindi può votare alle elezioni statali in Florida, ma non può votare alle elezioni di New York. Se il nostro newyorkese si trasferisce a Timbuctù, il trattamento è leggermente diverso. Rimane cittadino statunitense e di New York, e quindi mantiene il diritto di voto alle elezioni di New York. Anche i loro figli potrebbero rivendicare la cittadinanza di New York. Ma Porto Rico fa parte degli Stati Uniti ma non è uno Stato o parte di uno Stato degli Stati Uniti. Quando il nostro newyorkese si trasferisce a Porto Rico, può votare alle elezioni portoricane ma non a quelle di New York. La natura delle elezioni negli Stati Uniti è che non ci sono elezioni nazionali. Ci sono elezioni statali di senatori, governatori ed elettori presidenziali. Ci sono elezioni distrettuali dei rappresentanti e ci sono elezioni locali di molti tipi. Il nostro newyorkese ha perso il diritto di votare alle elezioni di New York (proprio come avrebbe fatto se si fosse trasferito in Florida) ma non ha ottenuto il diritto di votare alle elezioni portoricane per gli elettori presidenziali (perché non ce ne sono). Questo è strano, ma qualcosa di simile è vero se il newyorkese si trasferisce a Washington. Cessa di avere il diritto di voto per le elezioni del Senato.