Artikel

17.2: Projektives Modell


Das folgende Bild veranschaulicht die im vorigen Abschnitt beschriebene Karte (Pmapsto hat{P}) — wenn man das linke Bild aufnimmt und die Karte (Pmapsto hat P) anwendet, erhält man die Bild rechts. Die Bilder sind konform und projektives Modell der hyperbolischen Ebene bzw. Die Abbildung (Pmapsto hat P) ist eine „Übersetzung“ von einem in einen anderen.

Im projektiven Modell sieht die Sache anders aus; manche werden einfacher, andere komplizierter.

Linien

Die h-Linien im projektiven Modell sind Akkorde des Absoluten; genauer gesagt Akkorde ohne ihre Endpunkte.

Mit dieser Beobachtung lassen sich Aussagen über Linien und Punkte von der euklidischen Ebene auf die h-Ebene übertragen. Als Beispiel geben wir eine hyperbolische Version des Satzes von Pappus für die h-Ebene an.

Satz (PageIndex{1}) Satz von hyperbolischem Pappus

Angenommen, zwei Tripel von h-Punkten (A), (B), (C) und (A'), (B'), (C') im h in -Ebene sind h-kollinear. Angenommen, die h-Punkte (X), (Y) und (Z) seien definiert durch

(egin{ausgerichtet} X&=(BC')_hcap(B'C)_h, & Y&=(CA')_hcap(C'A)_h, & Z&=(AB')_h cap (A'B)_h.end{ausgerichtet})

Dann sind die Punkte (X), (Y), (Z) h-kollinear.

Im projektiven Modell folgt diese Aussage unmittelbar aus dem ursprünglichen Satz von Pappus 15.6.2. Das gleiche gilt für den Satz 15.6.1 von Desargues. Das gleiche Argument zeigt, dass die nur in Aufgabe 15.8.2 beschriebene Konstruktion einer Tangente mit einem Lineal auch in der h-Ebene funktioniert.

Beachten Sie andererseits, dass es gar nicht so einfach ist, diese Aussage mit dem konformen Modell zu beweisen.

Kreise und Äquidistanten

Die h-Kreise und Äquidistanten im projektiven Modell sind bestimmte Arten von Ellipsen und ihre offenen Bögen.

Daraus folgt, dass die stereographische Projektion Kreise auf der Ebene zu Kreisen auf der Einheitskugel schickt und die Fußpunktprojektion des Kreises zurück auf die Ebene eine Ellipse ist. (Man kann definieren Ellipse als Fußpunktprojektion eines Kreises.)

Distanz

Betrachten Sie ein Paar von h-Punkten (P) und (Q). Seien (A) und (B) der ideale Punkt der h-Linie im projektiven Modell; dh (A) und (B) sind die Schnittpunkte der Euklidischen Geraden ((PQ)) mit dem Absoluten.

Dann nach Lemma 17.1.1,

[PQ_h=dfrac{1}{2} cdot ln dfrac{AQcdot BP}{QBcdot PA}]

unter der Annahme, dass die Punkte (A, P, Q, B) in der gleichen Reihenfolge auf der Geraden erscheinen.

Winkel

Die Winkelmaße im projektiven Modell unterscheiden sich stark von den euklidischen Winkeln und sind durch Betrachten des Bildes schwer zu bestimmen. (Die in der Lösung von Aufgabe 16.3.1 und in der Beweisskizze von Satz 19.4.1 beschriebene Idee kann verwendet werden, um viele projektive Transformationen dieser Art zu konstruieren.) Zum Beispiel sind alle sich schneidenden h-Linien auf dem Bild senkrecht.

Es gibt zwei nützliche Ausnahmen:

  • Wenn (O) der Mittelpunkt des Absoluten ist, dann ist [measuredangle_hAOB=measuredangle AOB.]

  • Ist (O) der Mittelpunkt des Absoluten und (measuredangle OAB=pm fracpi2), dann

(measuredangle_h OAB=measuredangle OAB=pmdfrac{pi}{2}.)

Um das Winkelmaß im projektiven Modell zu ermitteln, können Sie eine Bewegung der h-Ebene anwenden, die den Scheitelpunkt des Winkels zum Mittelpunkt des Absolutwerts verschiebt; Sobald dies erledigt ist, haben der hyperbolische und der euklidische Winkel das gleiche Maß.

Bewegungen

Die Bewegungen der h-Ebene im konformen und projektiven Modell sind für inversive Transformationen und projektive Transformation in gleicher Weise relevant. Nämlich:

  • Inversive Transformationen, die die h-Ebene erhalten, beschreiben Bewegungen der h-Ebene im konformen Modell.

  • Projektive Transformationen, die die h-Ebene beibehalten, beschreiben Bewegungen der h-Ebene im projektiven Modell.1

Die folgende Übung ist ein hyperbolisches Analogon zu Übung 16.5.1. Dies ist das erste Beispiel für eine Aussage, die einen einfacheren Beweis mit dem projektiven Modell zulässt.

Übung (PageIndex{1})

Seien (P) und (Q) die Punkte in der h-Ebene, die im gleichen Abstand vom Mittelpunkt des Absoluten liegen. Beachten Sie, dass im projektiven Modell der h-Mittelpunkt von ([PQ]_h) mit dem euklidischen Mittelpunkt von ([PQ]_h) übereinstimmt.

Schließen Sie, dass, wenn ein h-Dreieck in einen h-Kreis eingeschrieben ist, sich seine Mediane an einem Punkt treffen.

Denken Sie daran, dass ein h-Dreieck auch in einen Horocyclus oder einen gleichen Abstand eingeschrieben sein könnte. Überlegen Sie, wie Sie die Aussage in diesem Fall beweisen können.

Hinweis

Die Beobachtung folgt, da die Spiegelung an der Mittelsenkrechten von ([PQ]) eine Bewegung der euklidischen Ebene und auch eine Bewegung der h-Ebene ist. Ohne Beschränkung der Allgemeinheit können wir annehmen, dass der Mittelpunkt des Umkreises mit dem Mittelpunkt des Absoluten zusammenfällt. In diesem Fall fallen die h-Mediane des Dreiecks mit den euklidischen Medianen zusammen. Es bleibt Satz 8.3.1 anzuwenden.

Übung (PageIndex{2})

Seien (ell) und (m) h-Linien im projektiven Modell. Seien (s) und (t) die euklidischen Linien, die das Absolute an den idealen Punkten von (ell) tangieren. Zeigen Sie, dass, wenn sich die Geraden (s), (t) und die Verlängerung von (m) in einem Punkt schneiden, (ell) und (m) senkrechte h-Linien sind.

Hinweis

Seien (hat{ell}) und (hat{m}) die h-Linien im konformen Modell, die (ell) und (m) entsprechen. Wir müssen zeigen, dass (hat{ell}perphat{m}) als Bögen in der euklidischen Ebene gilt.

Der Punkt (Z), wo (s) auf (t) trifft, ist der Mittelpunkt des Kreises (Gamma), der (hat{ell} enthält).

Wenn (hat{m}) durch (Z) geht, dann vertauschen die Inversionen in (Gamma) die idealen Punkte von (hat{ell}). Insbesondere bildet (hat{ell}) auf sich selbst ab. Daher das Ergebnis.

Übung (PageIndex{3})

Verwenden Sie das projektive Modell, um die Formel für den Parallelitätswinkel herzuleiten (Proposition 13.1.1).

Hinweis

Sei (Q) der Fußpunkt von (P) auf der Geraden und (varphi) der Parallelitätswinkel. Wir können annehmen, dass (P) der Mittelpunkt des Absoluten ist. Daher (PQ = cosvarphi) und

(PQ_h = dfrac{1}{2} cdot ln dfrac{1 + cosvarphi}{1 - cosvarphi}.)

Übung (PageIndex{4})

Verwenden Sie das projektive Modell, um den Innenradius des idealen Dreiecks zu bestimmen.

Hinweis

Wende die Übung (PageIndex{3}) für (varphi = dfrac{pi}{3}) an.

Das projektive Modell der h-Ebene kann verwendet werden, um einen weiteren Beweis des hyperbolischen Satzes des Pythagoras zu geben (Satz 13.6.1).

Erinnern wir uns zunächst an seine Aussage:

[cosh c=cosh acdotcosh b,]

wobei (a=BC_h), (b=CA_h) und (c=AB_h) und ( riangle_hACB) ein h-Dreieck mit rechtem Winkel bei (C) ist.

Beachten Sie, dass wir annehmen können, dass (A) der Mittelpunkt des Absoluten ist. Setze (s=BC), (t =CA), (u=AB). Nach dem euklidischen Satz des Pythagoras (Satz 6.2.1) gilt

[u^2=s^2+t^2.]

Es bleibt, (a), (b) und (c) mit (s), (u) und (t) auszudrücken und zu zeigen, dass 17.2.3 17.2 impliziert. 2.

Fortgeschrittene Übung (PageIndex{5})

Beenden Sie den oben angegebenen Beweis des hyperbolischen Satzes des Pythagoras (Satz 13.6.1).

Hinweis

Beachten Sie, dass (b = dfrac{1}{2} cdot ln dfrac{1 + t}{1 - t}), also

[cosh b = dfrac{1}{2} cdot (sqrt{dfrac{1 + t}{1 - t}} + sqrt{dfrac{1 - t}{1 +t}} ) = dfrac{1}{sqrt{1 - t^2}}.]

Genauso bekommen wir das

[coshc = dfrac{1}{sqrt{1 - u^2}}.]

Seien (X) und (Y) die idealen Punkte von ((BC)_h). Wenden wir wieder den Satz des Pythagoras (Satz 6.2.1) an, so erhalten wir (CX = CY = sqrt{1 - t^2}). Deswegen,

(a = dfrac{1}{2} cdot ln dfrac{sqrt{1 - t^2} + s}{sqrt{1 - t^2} - s},)

und

[cosh a = dfrac{1}{2} cdot (dfrac{sqrt{1 - t^2} + s}{sqrt{1 - t^2} - s} + dfrac{ sqrt{1 - t^2} - s}{sqrt{1 - t^2} + s}) = dfrac{sqrt{1 - t^2}}{sqrt{1 - t^2 - s ^2}} = dfrac{sqrt{1 - t^2}}{sqrt{1 - u^2}}.]

Beachten Sie schließlich, dass 17.2.5, 17.2.6 und 17.2.7 den Satz implizieren.


Einführung in die Datenwissenschaft

Dieser Screening-Test ist zu 99% genau bei der Erkennung eines Zustands.

Dieser Algorithmus erkennt betrügerische Kreditkartentransaktionen mit einer Genauigkeit von 99%.

Beide Aussagen klingen ziemlich gut, aber wir sollten hier nicht aufhören, sondern eher weitere Fragen stellen.

An welcher Messgröße wird die Testqualität bewertet und berichtet? Wie sieht es mit anderen Maßnahmen aus?

Was ist die Basisleistung und die Leistung alternativer Algorithmen?

Drei wichtige Fragen, die Sie sich stellen sollten, bevor Sie versuchen, etwas vorherzusagen:

Wie ist Leistung oder prädiktiver Erfolg? bewertet?

Was ist der Grundlinie Leistung und die Leistung von alternativen Benchmarks?

Unterscheiden Sie zwischen verschiedenen Vorhersagen Aufgaben und das Maße zur Erfolgsbewertung verwendet:

1. Zwei-Prinzip-Vorhersage Aufgaben: Klassifizierung vs. Punktvorhersagen

2. Unterschiedlich Maße zur Bewertung (Quantifizierung) der Qualität von Vorhersagen

Hinweis: Es ist verlockend, Klassifikationsaufgaben und quantitative Aufgaben als zwei Arten von „qualitativen“ vs. „quantitativen“ Vorhersagen zu betrachten. Dies wäre jedoch irreführend, da qualitativ Vorhersagen werden auch in a . ausgewertet quantitativ Mode. Daher ziehen wir es vor, zwischen verschiedenen Aufgaben zu unterscheiden, anstatt zwischen verschiedenen Arten von Vorhersagen.

17.2.1 Arten von Aufgaben

ad 1A: Zwei Arten von prädiktiven Aufgaben

qualitativ Vorhersageaufgaben: Klassifizierungsaufgaben. Hauptziel: Vorhersage der Mitgliedschaft in einer Kategorie.
Sekundäres Ziel: Auswertung durch eine 2x2-Matrix von vorhergesagten vs. wahren Fällen (mit 2 richtigen Fällen und 2 Fehlern).

quantitativ Vorhersageaufgaben: Punktvorhersagen mit numerischen Ergebnissen. Hauptziel: Einen Wert auf einer Skala vorhersagen.
Sekundäres Ziel: Auswertung nach dem Abstand zwischen vorhergesagten und wahren Werten.

Hinweis: Einige Autoren (z. B. in 7 Fitting-Modellen mit Pastinaken von Tidy Modeling mit R) unterscheiden zwischen verschiedenen Modi. Das Modus spiegelt die Art des Vorhersageergebnisses wider. Für numerische Ergebnisse ist der Modus Rückschritt für qualitative Ergebnisse ist es Einstufung.

17.2.2 Bewertung des prädiktiven Erfolgs

ad 1B: Wie wird der prädiktive Erfolg bei einer gewissen Vorhersage bewertet (quantifiziert)?

Erinnere dich an das frühere Beispiel der Mammographie-Problem: Das Screening hat eine hohe Sensitivität und Spezifität, aber einen niedrigen PPV.

Beachten Sie, dass es bei allen Arten von Vorhersagen immer Kompromisse zwischen vielen Alternativen gibt Maße um ihren Erfolg zu quantifizieren. Nur eine davon zu maximieren, kann gefährlich und irreführend sein.

17.2.3 Basisleistung und andere Benchmarks

ad 2. Auf den ersten Blick erscheint die Anweisung „Das interessierende Phänomen vorhersagen mit hohe Genauigkeit.“ scheint eine vernünftige Antwort auf die Frage „Was kennzeichnet einen erfolgreichen Vorhersagealgorithmus?“ zu sein.
Eine hohe Genauigkeit ist jedoch nicht sehr beeindruckend, wenn die Basislinie bereits ziemlich hoch ist. Wenn es zum Beispiel in einer Region nur an 10 % aller Sommertage regnet, wird die Vorhersage von „kein Regen“ immer eine Genauigkeit von 90 % erreichen.

Dies scheint trivial, aber betrachten Sie die obigen Beispiele für die Erkennung eines medizinischen Zustands oder betrügerische Kreditkartentransaktionen: Bei einem seltenen medizinischen Zustand ein gefälschter Pseudotest, der immer sagt „gesund“ würde eine beeindruckende Genauigkeit erreichen. Wenn über 99% aller Kreditkartentransaktionen legitim sind, immer Die Vorhersage von „Transaktion ist in Ordnung“ würde eine Genauigkeit von über 99% erreichen…

Daher sollten wir uns immer fragen:

Was ist der niedrigstmögliche Benchmark (z. B. für zufällige Vorhersagen)?

Welche Ebenen können durch naive oder sehr einfache Vorhersagen erreicht werden?

Da Perfektion normalerweise unmöglich ist, müssen wir entscheiden, wie viel besser unsere Regel als alternative Algorithmen sein muss. Für diese letztere Bewertung ist es wichtig, die Konkurrenz zu kennen.


Oracle® Data Miner

Dieses Dokument enthält aktuelle Informationen und Informationen, die noch nicht Teil der formellen Dokumentation sind.

Dieses Dokument enthält die folgenden Themen:

Neue Funktionen in Oracle Data Miner

Oracle Data Mining-Funktionen

Zu den neuen Oracle Data Mining-Funktionen gehören:

Assoziationsmodell-Aggregationsmetriken

Oracle Data Miner 17.2 unterstützt den erweiterten Assoziationsregelalgorithmus und ermöglicht es dem Benutzer, Elemente zu filtern, bevor das Assoziationsmodell erstellt wird.

Der Benutzer kann die Filter im Knoteneditor für Verknüpfungserstellung, im Verknüpfungsmodell-Viewer und im Knoteneditor für Modelldetails festlegen.

Verbesserungen der Algorithmuseinstellungen

Oracle Data Miner 17.2 wurde verbessert, um Verbesserungen in Oracle Data Mining zu unterstützen, die Build-Einstellungen zum Erstellen von Partitionsmodellen, Stichproben von Trainingsdaten, numerische Datenvorbereitung einschließlich Verschiebungs- und Skalierungstransformationen usw. umfassen.

Diese Einstellungen sind verfügbar, wenn Oracle Data Miner 17.2 mit Oracle Database 12.2 verbunden ist.

Zu den Änderungen an den Algorithmen gehören:

Änderungen an den Einstellungen des Entscheidungsbaum-Algorithmus

Die Einstellung Maximum Supervised Bins CLAS_MAX_SUP_BINS wird im Entscheidungsbaum-Algorithmus hinzugefügt.

Änderungen an den Einstellungen für den Erwartungsmaximierungsalgorithmus

Die Einstellung Detailebene ersetzt die aktuelle Einstellung Clusterstatistiken sammeln.

Die verwendete zugrunde liegende Algorithmuseinstellung ist EMCS_CLUSTER_STATISTICS mit All=ENABLE und Hierarchy=DISABLE. Einige zusätzliche Einstellungen wurden hinzugefügt und einige Einstellungen sind veraltet.

Ungefähre Berechnung ODMS_APPROXIMATE_COMPUTATION

Änderungen an den Algorithmuseinstellungen für verallgemeinerte lineare Modelle

Die folgenden Änderungen sind in den Algorithmuseinstellungen für das generalisierte lineare Modell enthalten. Die Änderungen gelten sowohl für Klassifizierungsmodelle als auch für Regressionsmodelle.

Konvergenztoleranz GLMS_CONV_TOLERANCE

Anzahl der Iterationen GLMS_NUM_ITERATIONS

Batch-Zeilen GLMS_BATCH_ROWS

Sparse-Solver GLMS_SPARSE_SOLVER

Ungefähre Berechnung ODMS_APPROXIMATE_COMPUTATION

Kategorische Prädiktorbehandlung GLMS_SELECT_BLOCK

Probenahme zur Merkmalsidentifikation GLMS_FTR_IDENTIFICATION

Funktionsakzeptanz GLMS_FTR_ACCEPTANCE

Änderungen an den k-Means-Algorithmus-Einstellungen

Die folgenden Änderungen wurden in die Einstellungen des k-Means-Algorithmus aufgenommen.

Detailebenen KMNS_DETAILS

Zufällige Samen KMNS_RANDOM_SEEDS

Änderungen zur Unterstützung der Einstellungen für den Vektormaschinenalgorithmus

Die folgenden Änderungen sind in den Einstellungen des Support Vector Machine-Algorithmus enthalten. Die Änderungen gelten sowohl für lineare als auch für Gaußsche Kernelfunktionen.

Anzahl der Iterationen SVMS_NUM_ITERATIONS

Batch-Zeilen SVMS_BATCH_ROWS

Gilt nur für die Gaußsche Kernelfunktion.

Gilt nur für die Gaußsche Kernelfunktion.

Änderungen an den Einstellungen des Singulärwertzerlegungs- und Hauptkomponentenanalysealgorithmus

Die folgenden Änderungen sind im Algorithmus zur Singulärwertzerlegung und Hauptkomponentenanalyse enthalten.

Zufälliger Seed SVDS_RANDOM_SEED

Oversampling SVDS_OVER_SAMPLING

Leistungsiteration SVDS_POWER_ITERATION

Ungefähre Berechnung ODMS_APPROXIMATE_COMPUTATION

Unterstützung für den expliziten semantischen Analysealgorithmus

Oracle Data Miner 17.2 unterstützt einen neuen Feature-Extraktionsalgorithmus namens Explicit Semantic Analysis-Algorithmus.

Der Algorithmus wird von zwei neuen Knoten unterstützt, dem Explicit Feature Extraction Node und dem Feature Compare Node.

Expliziter Feature-Extraktionsknoten

Der Knoten Explizite Feature-Extraktion wird mit dem Explicit Semantic Analysis-Algorithmus erstellt.

Berechnungen zur Semantik

Funktionsvergleichsknoten

Mit dem Knoten Feature-Vergleich können Sie Semantik-Berechnungen in Textdaten, die in einem Datenquellenknoten enthalten sind, gegen einen anderen Datenquellenknoten durchführen.

Zwei Eingabedatenquellen. Die Datenquelle kann ein Datenfluss von Datensätzen sein, z. B. verbunden durch einen Datenquellenknoten oder ein einzelner Datensatz, der vom Benutzer in den Knoten eingegeben wird. Bei von Nutzern eingegebenen Daten ist die Eingabe der Datenprovider nicht erforderlich.

Ein-Eingabe-Feature-Extraktion oder Explizites Feature-Extraktionsmodell, wobei ein Modell für semantische Berechnungen ausgewählt werden kann.

Erweiterung der Detailansicht des Data Mining-Modells

Die Modellbetrachter in Oracle Data Miner 17.2 wurden verbessert, um die Änderungen in Oracle Data Mining widerzuspiegeln.

Zu den Verbesserungen an den Modellbetrachtern gehören die folgenden:

Die berechneten Einstellungen innerhalb des Modells werden auf der Registerkarte Einstellungen des Modell-Viewers angezeigt.

Die neue vom Benutzer eingebettete Transformationswörterbuchansicht ist in die Registerkarte Eingaben unter Einstellungen integriert.

Die Build-Detaildaten werden auf der Registerkarte Zusammenfassung unter Zusammenfassung angezeigt

Der Cluster-Modell-Viewer erkennt Modelle mit Teildetails und zeigt eine entsprechende Meldung an. Dies gilt auch für k-Means-Modellbetrachter und Erwartungsmaximierungs-Modellbetrachter.

Verbesserungen am Filterspaltenknoten

Oracle Data Mining unterstützt die unbeaufsichtigte Rangfolge der Attributbedeutung. Die Rangfolge der Attributbedeutung einer Spalte wird generiert, ohne dass eine Zielspalte ausgewählt werden muss. Der Knoten Filterspalte wurde verbessert, um die unbeaufsichtigte Rangfolge der Attributwichtigkeit zu unterstützen.

Mining-Modellerstellungswarnungen

Oracle Data Miner protokolliert Warnungen zu Modellerstellungen in den Modellbetrachtern und Ereignisprotokollen.

Modellbetrachter: Die Build-Alerts werden auf der Registerkarte Alerts angezeigt.

Ereignisprotokoll: Alle Build-Warnungen werden zusammen mit anderen Details wie Jobname, Knoten, Unterknoten, Uhrzeit und Nachricht angezeigt.

R-Build-Modellknoten

Oracle Data Mining bietet die Funktion zum Hinzufügen von R-Modellimplementierungen innerhalb des Oracle Data Mining-Frameworks. Zur Unterstützung der R-Modellintegration wurde Oracle Data Miner um einen neuen R Build-Knoten mit Mining-Funktionen wie Klassifizierung, Regression, Clustering und Feature-Extraktion erweitert.

Unterstützung für partitionierte Modelle

Oracle Data Miner unterstützt das Erstellen und Testen von partitionierten Modellen.

Oracle Data Miner-Funktionen

Zu den neuen Oracle Data Miner-Funktionen gehören:

Aggregationsknotenunterstützung für DATE- und TIMESTAMP-Datentypen Type

Der Aggregationsknoten wurde erweitert, um die Datentypen DATE und TIMESTAMP zu unterstützen.

Für die Datentypen DATE und TIMESTAMP sind die verfügbaren Funktionen COUNT(), COUNT (DISTINCT()), MAX(), MEDIAN(), MIN(), STATS_MODE().

Verbesserung des JSON-Abfrageknotens

Der JSON-Abfrageknoten ermöglicht die Angabe von Filterbedingungen für Attribute mit Datentypen wie ARRAY, BOOLEAN, NUMBER und STRING.

JSON Unnest &ndash Wendet einen Filter auf JSON-Daten an, die für die Projektion in ein relationales Datenformat verwendet werden.

Aggregationen &ndash Wendet Filter auf JSON-Daten an, die für die Aggregation verwendet werden.

JSON Unnest und Aggregations &ndash Wendet Filter auf beide an.

Verbesserung der Build-Knoten

Alle Build-Knoten wurden verbessert, um das Abtasten von Trainingsdaten und die Aufbereitung numerischer Daten zu unterstützen.

Die Erweiterung wird in allen Build-Knoten-Editoren auf der Registerkarte Sampling implementiert. Standardmäßig ist die Sampling-Option auf OFF gesetzt. Bei Einstellung auf EIN kann der Benutzer die Stichprobenzeilengröße angeben oder die vom System bestimmten Einstellungen wählen.

Die Datenvorbereitung wird im Association Build-Modell nicht unterstützt.

Anomalieerkennungsknoten bearbeiten

Verknüpfungserstellungsknoten bearbeiten

Klassifikations-Build-Knoten bearbeiten

Clustering-Build-Knoten bearbeiten

Build-Knoten für die explizite Feature-Extraktion bearbeiten

Build-Knoten für Feature-Extraktion bearbeiten

Regressions-Build-Knoten bearbeiten

Verbesserung der Texteinstellungen

Die Texteinstellungen wurden verbessert, um die folgenden Funktionen zu unterstützen:

Textunterstützung für Synonyme (Thesaurus): Text Mining in Oracle Data Miner unterstützt Synonyme. Standardmäßig wird kein Thesaurus geladen. Der Benutzer muss den von Oracle Text bereitgestellten Standardthesaurus manuell laden oder seinen eigenen Thesaurus hochladen.

Neue Einstellungen im Text-Tab hinzugefügt:

Mindestanzahl von Zeilen (Dokumenten), die für ein Token erforderlich sind

Maximale Anzahl von Token über alle Zeilen (Dokumente)

Neue Token für die BIGRAM-Einstellung hinzugefügt:

BIGRAM: Hier werden NORMAL-Token mit ihren Bigrammen gemischt

STEM BIGRAM: Hier werden zuerst STEM-Token extrahiert und dann Stamm-Bigramme gebildet.

Eingabedatendefinition aktualisieren

Verwenden Sie die Option Eingabedatendefinition aktualisieren, wenn Sie den Workflow mit neuen Spalten aktualisieren möchten, die entweder hinzugefügt oder entfernt werden.

Die Option Eingabedatendefinition aktualisieren ist als Kontextmenüoption in Datenquellenknoten und SQL-Abfrageknoten verfügbar.

Unterstützung für zusätzliche Datentypen

Oracle Data Miner erlaubt die folgenden Datentypen für die Eingabe als Spalten in einem Datenquellenknoten und als neue berechnete Spalten innerhalb des Workflows:

Unterstützung für In-Memory-Spalte

Oracle Data Miner unterstützt In-Memory-Spaltenspeicher (IM-Spaltenspeicher) in Oracle Database 12.1.0.2 und höher, einem optionalen statischen SGA-Pool, der Kopien von Tabellen und Partitionen in einem speziellen Spaltenformat speichert.

Oracle Data Miner wurde verbessert, um In-Memory-Spalten in Knoten in einem Workflow zu unterstützen. Für In-Memory-Spalte-Einstellungen sind die Optionen zum Festlegen der Datenkomprimierungsmethode und der Prioritätsstufe im Dialogfeld "Knotenleistungseinstellungen bearbeiten" verfügbar.

Unterstützung für die Workflow-Planung

Oracle Data Miner 17.2 unterstützt die Funktion zum Planen von Workflows für die Ausführung zu einem bestimmten Datum und zu einer bestimmten Uhrzeit.

Ein geplanter Workflow ist nur zum Anzeigen verfügbar. Die Option zum Abbrechen eines geplanten Workflows ist verfügbar. Nach dem Abbrechen eines geplanten Workflows kann der Workflow bearbeitet und neu geplant werden.

Verbesserung der Polling-Leistung

Die Abfrageleistung und die Ressourcennutzungsfunktionalität wurden mit neuen Benutzeroberflächen verbessert.

Wenn POLLING_IDLE_ENABLED auf TRUE gesetzt ist, setzt die automatische Abfrage des Workflow-Status ein. Wenn POLLING_IDLE_ENABLED auf FALSE gesetzt ist, setzt die manuelle Abfrage ein.

Ein neues andockbares Fenster Geplanter Workflow wurde hinzugefügt, das die Liste der geplanten Jobs anzeigt und dem Benutzer ermöglicht, die geplanten Jobs zu verwalten.

Manuelle Aktualisierung von Workflow-Jobs.

Administrative Überschreibung automatischer Updates durch Oracle Data Miner-Repository-Einstellungen.

Zugriff auf die Einstellungen für Workflow-Jobs über die neue Einstellungsoption.

Leistungsverbesserung bei der Workflow-Statusabfrage

Die Leistung der Workflow-Statusabfrage wurde verbessert.

Die Verbesserung umfasst neue Repository-Ansichten, Repository-Eigenschaften und Änderungen an der Benutzeroberfläche:

Die Repository-View ODMR_USER_WORKFLOW_ALL_POLL wird für die Abfrage des Workflow-Status hinzugefügt.

Die folgenden Repository-Eigenschaften werden hinzugefügt:

POLLING_IDLE_RATE: Bestimmt die Rate, mit der der Client die Datenbank abfragt, wenn keine Workflows als ausgeführt erkannt werden.

POLLING_ACTIVE_RATE: Bestimmt die Rate, mit der der Client die Datenbank abfragt, wenn erkannte Arbeitsabläufe ausgeführt werden.

Wenn POLLING_IDLE_ENABLED auf TRUE gesetzt ist, setzt die automatische Abfrage des Workflow-Status ein. Wenn POLLING_IDLE_ENABLED auf FALSE gesetzt ist, setzt die manuelle Abfrage ein.

POLLING_COMPLETED_WINDOW: Bestimmt die Zeit, die benötigt wird, um abgeschlossene Workflows in das Abfrageergebnis der Abfrage aufzunehmen.

PURGE_WORKFLOW_SCHEDULER_JOBS: Löscht alte Oracle Scheduler-Objekte, die durch die Ausführung von Data Miner-Workflows generiert wurden.

PURGE_WORKFLOW_EVENT_LOG: Steuert, wie viele Workflow-Ausführungen für jeden Workflow im Ereignisprotokoll beibehalten werden. Die Ereignisse des älteren Workflows werden gelöscht, um den Grenzwert einzuhalten.

Die neue Benutzeroberfläche enthält das Fenster "Geplante Jobs", auf das über die Data Miner-Option im Menü "Extras" und im Menü "Ansicht" in SQL Developer 17.2 zugegriffen werden kann.

Oracle-Datenbankfunktionen

Die neue Oracle-Datenbankfunktion umfasst Unterstützung für erweiterten Objektnamen.

Unterstützung für erweiterten Objektnamen

Die Unterstützung für Schemaname, Tabellenname, Spaltenname und Synonym mit 128 Byte ist in der kommenden Oracle Database-Version verfügbar. Um Oracle Database zu unterstützen, werden Oracle Data Miner-Repository-Ansichten, -Tabellen, XML-Schemas und PL/SQL-Pakete so erweitert, dass sie 128-Byte-Namen unterstützen.

Unterstützte Plattformen

Voraussetzungen für Oracle Data Miner 17.2

  1. Installieren Sie SQL Developer 17.2 auf Ihrem System.
  2. Sicherer Zugriff auf eine Oracle-Datenbank:
    • Mindestversion: Oracle Database 11.2.0.4 Enterprise Edition, mit der Data Mining-Option.
    • Bevorzugte Version: Oracle Database 12.2 Enterprise Edition.
  3. Erstellen Sie ein Datenbankbenutzerkonto für Data Mining.
  4. Erstellen Sie eine Datenbankverbindung in SQL Developer für den Oracle Data Miner-Benutzer.
  5. Installieren Sie das Oracle Data Miner-Repository.

Das SH-Beispielschema wird nicht mit Oracle Database 12.2 geliefert. Um das Beispielschema zu installieren, gehen Sie zu https://github.com/oracle/db-sample-schemas.

Bekannte Probleme und Einschränkungen

Bekannte Probleme und Einschränkungen in dieser Version umfassen:

Der Knoten Assoziationsmodellerstellung kann keine Daten verarbeiten, die direkt vom JSON-Abfrageknoten stammen.

Benutzer müssen die Daten, die vom JSON-Abfrageknoten stammen, über den Knoten "Tabelle erstellen" speichern und dann die beibehaltenen Daten als Eingabe für den Knoten "Associate Model Build" verwenden.

Klassifizierungsknoten und Regressionsmodell-Build-Knoten können keine Daten verarbeiten, die direkt vom JSON-Abfrageknoten stammen, wenn JSON-Aggregationen (mit Untergruppe nach) definiert sind.

Benutzer müssen die Daten, die vom JSON-Abfrageknoten über den Create Table-Knoten stammen, persistent speichern und dann die persistenten Daten als Eingabe für diese Build-Knoten verwenden.

Build-Knoten können Daten direkt von JSON-Abfrageknoten konsumieren, wenn JSON-Aggregationen (ohne Untergruppe nach) nicht definiert sind.

Das Festlegen von Parallel Query für einen Knoten, der JSON-Daten abfragt, kann zu einem Workflow-Laufzeitfehler führen. JSON-Abfragen schlagen fehl, wenn sie ausgeführt werden, während die Datenbank Parallel Query auf ON gesetzt ist. Die folgende Fehlermeldung wird angezeigt ORA-12805: Parallel Query Server ist unerwartet gestorben.

Das Kontextmenü des Knotens bietet die Möglichkeit, Parallele Abfrage einzustellen. Klicken Sie auf Parallele Abfrage und wählen Sie die Knoten aus, um die parallelen Einstellungen zu konfigurieren.

Der Viewer View Data bietet die Option, Parallel Query auf ON zu setzen, wenn die ausgewählten Datenknoten abgefragt werden.

In beiden Fällen tritt der Fehler auf und die gleiche Fehlermeldung wird angezeigt.

Fordern Sie den Oracle Database 12.1.0.2-Patch über den Oracle-Support an.

Sie können diese Fehlermeldungen während der Installation von Oracle Data Miner 17.2 ignorieren, wenn keine Ausnahmen generiert werden.

Fehlerbehebung

Oracle Data Miner 17.2 hat 122 Fehler behoben.

Zugänglichkeit der Dokumentation

Informationen zum Engagement von Oracle für Barrierefreiheit finden Sie auf der Oracle Accessibility Program-Website unter http://www.oracle.com/pls/topic/lookup?ctx=acc&id=docacc.

Oracle-Kunden, die Support erworben haben, haben über My Oracle Support Zugang zu elektronischem Support. Weitere Informationen finden Sie unter http://www.oracle.com/pls/topic/lookup?ctx=acc&id=info oder unter http://www.oracle.com/pls/topic/lookup?ctx=acc&id=trs, wenn Sie sind hörgeschädigt.

Oracle® Data Miner Versionshinweise, Version 17.2

Copyright & Kopie 2016, 2017, Oracle und/oder verbundene Unternehmen. Alle Rechte vorbehalten.

Diese Software und die zugehörige Dokumentation werden im Rahmen einer Lizenzvereinbarung bereitgestellt, die Nutzungs- und Offenlegungsbeschränkungen enthält, und sind durch Gesetze zum Schutz geistigen Eigentums geschützt. Sofern in Ihrer Lizenzvereinbarung nicht ausdrücklich erlaubt oder gesetzlich zulässig, dürfen Sie keinen Teil in irgendeiner Form verwenden, kopieren, reproduzieren, übersetzen, senden, ändern, lizenzieren, übertragen, verteilen, ausstellen, aufführen, veröffentlichen oder anzeigen oder auf jeden Fall. Reverse Engineering, Disassemblierung oder Dekompilierung dieser Software ist verboten, sofern dies nicht aus Gründen der Interoperabilität gesetzlich vorgeschrieben ist.

Die hierin enthaltenen Informationen können ohne vorherige Ankündigung geändert werden und es wird nicht garantiert, dass sie fehlerfrei sind. Sollten Sie Fehler finden, teilen Sie uns diese bitte schriftlich mit.

Wenn es sich um Software oder zugehörige Dokumentation handelt, die an die US-Regierung oder an eine andere Person, die diese im Namen der US-Regierung lizenziert, geliefert wird, gilt der folgende Hinweis:

ENDBENUTZER DER US-REGIERUNG: Oracle-Programme, einschließlich aller Betriebssysteme, integrierter Software, aller auf der Hardware installierten Programme und/oder Dokumentation, die an Endbenutzer der US-Regierung geliefert werden, sind "kommerzielle Computersoftware" gemäß der geltenden Federal Acquisition Regulation und Agency- besondere ergänzende Regelungen. Als solche unterliegen Nutzung, Vervielfältigung, Offenlegung, Änderung und Anpassung der Programme, einschließlich aller Betriebssysteme, integrierter Software, aller auf der Hardware installierten Programme und/oder Dokumentation, den für die Programme geltenden Lizenzbedingungen und Lizenzbeschränkungen . Der US-Regierung werden keine weiteren Rechte gewährt.

Diese Software oder Hardware wurde für den allgemeinen Gebrauch in einer Vielzahl von Informationsmanagementanwendungen entwickelt. Es ist nicht für den Einsatz in grundsätzlich gefährlichen Anwendungen entwickelt oder vorgesehen, einschließlich Anwendungen, die eine Verletzungsgefahr darstellen können. Wenn Sie diese Software oder Hardware in gefährlichen Anwendungen verwenden, sind Sie dafür verantwortlich, alle geeigneten Ausfallsicherungs-, Backup-, Redundanz- und anderen Maßnahmen zu ergreifen, um ihre sichere Verwendung zu gewährleisten. Die Oracle Corporation und ihre verbundenen Unternehmen lehnen jegliche Haftung für Schäden ab, die durch die Verwendung dieser Software oder Hardware in gefährlichen Anwendungen verursacht werden.

Oracle und Java sind eingetragene Marken von Oracle und/oder seinen verbundenen Unternehmen. Andere Namen können Marken ihrer jeweiligen Eigentümer sein.

Intel und Intel Xeon sind Marken oder eingetragene Marken der Intel Corporation. Alle SPARC-Marken werden unter Lizenz verwendet und sind Marken oder eingetragene Marken von SPARC International, Inc. AMD, Opteron, das AMD-Logo und das AMD Opteron-Logo sind Marken oder eingetragene Marken von Advanced Micro Devices. UNIX ist ein eingetragenes Warenzeichen von The Open Group.

Diese Software oder Hardware und Dokumentation kann Zugang zu oder Informationen über Inhalte, Produkte und Dienstleistungen von Dritten bieten. Die Oracle Corporation und ihre verbundenen Unternehmen sind nicht verantwortlich und lehnen ausdrücklich alle Gewährleistungen jeglicher Art in Bezug auf Inhalte, Produkte und Dienstleistungen Dritter ab, es sei denn, in einer anwendbaren Vereinbarung zwischen Ihnen und Oracle ist etwas anderes festgelegt. Die Oracle Corporation und ihre verbundenen Unternehmen haften nicht für Verluste, Kosten oder Schäden, die durch Ihren Zugriff auf oder Ihre Nutzung von Inhalten, Produkten oder Dienstleistungen Dritter entstehen, es sei denn, dies ist in einer anwendbaren Vereinbarung zwischen Ihnen und Oracle festgelegt.


Einführung in die Datenwissenschaft

Die grundlegenden Modelle von Agenten und Umgebungen, die im vorigen Kapitel (siehe Kapitel 16 über dynamische Simulationen) diskutiert wurden, wurden typischerweise für Einzelpersonen entwickelt. Zum Beispiel ermöglicht der Rahmen des Reinforcement Learning (RL oder die allgemeinere Klasse der Markov-Entscheidungsprozesse, MDPs) einem Agenten, eine Strategie zu erlernen, die eine gewisse Belohnung in einer stabilen Umgebung maximiert. Die Optionen in dieser Umgebung können stochastisch sein (z. B. ein mehrarmiger Bandit, MAB). Sofern der Agent genügend Zeit hat, alle Optionen zu erkunden, findet der Agent garantiert die beste Option. Wenn sich jedoch grundlegende Aspekte der Umgebung ändern (z. B. durch Hinzufügen von Optionen oder Ändern ihrer Belohnungsfunktionen), kann ein lernender Agent nicht mehr auf die beste Option konvergieren.

Soziale Situationen verändern typischerweise eine Umgebung auf verschiedene Weise. Abhängig von den Details der Interaktion zwischen Agenten und Umgebung (z. B. wie Belohnungen verteilt werden) können sie einen Wettbewerb zwischen Agenten, Kooperationsmöglichkeiten und neue Arten von Information und Lernen einführen. Beispielsweise kann der Erfolg einer bestimmten Agentenstrategie entscheidend von den Strategien anderer Agenten abhängen. Somit stellt die Berücksichtigung anderer Agenten viele Ergebnisse in Frage, die für individuelle Situationen gelten, und erfordert zusätzliche Typen von Modellen und Modellierungen.

In diesem Kapitel stellen wir drei grundlegende Paradigmen zur Modellierung sozialer Situationen vor:

17.2.1 Spiele

Die wissenschaftliche Disziplin von Spieltheorie hat wenig Ähnlichkeit mit Kinderspielen, sondern untersucht mathematische Modelle strategischer Interaktionen zwischen rationalen Entscheidungsträgern (siehe Wikipedia). In ähnlicher Weise definiert die Stanford Encyclopedia of Philosophy Spieltheorie wie

… das Studium der Art und Weise, wie interagierende Entscheidungen von Wirtschaftsakteure
produzieren Ergebnisse in Bezug auf die Vorlieben (oder Versorgungsunternehmen) dieser Agenten,
wenn die fraglichen Ergebnisse möglicherweise von keinem der Agenten beabsichtigt waren.

Ross (2019)

Der Artikel fügt sofort hinzu, dass die Bedeutung dieser Definition ein Verständnis der kursiv gedruckten Konzepte erfordert (und stellt diese Details im entsprechenden Artikel zur Verfügung). Für uns ist es interessant, dass Spiele als wirtschaftlicher Austausch ausgedrückt werden, an dem Agenten beteiligt sind, die ihre Ziele verfolgen, aber auch Ergebnisse erzielen können, die auch von den Zielen und Handlungen anderer Agenten abhängen.

Wir können a . definieren Spiel als Auszahlungsmatrix, die die Optionen und die entsprechenden Belohnungen für ihre Spieler anzeigt (in Bezug auf gewonnene oder verlorene Punkte für jede Kombination von Ergebnissen).

Tabelle 17.1 illustriert eines der einfachsten möglichen Spiele. Im passende Pfennige (MP) Spiel, zwei Spieler wählen jeweils eine Seite einer Münze (d. h. Kopf H oder Zahl T). Ein Spieler gewinnt, wenn beide Seiten übereinstimmen, der andere Spieler gewinnt, wenn beide Seiten unterschiedlich sind. Die in Tabelle 17.1 gezeigte Auszahlungsmatrix veranschaulicht die Optionen von Spieler 1 als Reihen und der erste Auszahlungswert in jeder Zelle, während die Optionen von Spieler 2 angezeigt werden als Säulen und die zweiten Auszahlungswerte. Somit gewinnt Spieler 1 einen Punkt ( (+1) ) und Spieler 2 verliert einen Punkt ( (-1) ), wenn beide Spieler die gleich Seite ihrer Münze („HH“ oder „TT“). Spieler 2 gewinnt einen Punkt ( (+1) ) und Spieler 1 verliert einen Punkt ( (-1) ), wenn beide Spieler gewählt haben unterschiedlich Seiten ihrer Münzen („HT“ oder „TH“).

Tabelle 17.1: Die Auszahlungsmatrix der passende Pfennige Spiel.
Optionen h T
h ((+1, -1)) ((-1, +1))
T ((-1, +1)) ((+1, -1))

Das Gewinnen eines Spiels kann der Maximierung der individuellen Belohnung in einem Spiel oder dem Erhalten einer höheren Belohnung als andere Spieler desselben Spiels entsprechen. Da das Ergebnis eines einzelnen Spiels stark von Zufallsfaktoren abhängen kann, wird der Erfolg einer Spielstrategie typischerweise über wiederholte Instanzen desselben Spiels bewertet. Das Ziel, die eigenen Belohnungen zu maximieren, kann zu Dilemmata führen, wenn verschiedene Aggregationsebenen gegenübergestellt werden (z. B. einzelne vs. wiederholte Spiele oder individuelle vs. Bevölkerungsgewinne).

Spiele können in Typen eingeteilt werden, indem die Belohnungsfunktionen der Spieler verglichen werden. Die wichtigsten Spielarten sind:

Nullsumme oder reine Konkurrenz Spiele: Die Gewinne eines Spielers entsprechen den Verlusten eines anderen Spielers, sodass die Summe aller Belohnungen null (0) ergibt.

gemeinsame Interessen, identisch oder symmetrisch Spiele: Alle Spieler haben die gleiche Belohnungsfunktion

allgemeine Summenspiele: Eine Dachkategorie für andere Spiele (d. h. nicht von den anderen Arten).

Beachten Sie, dass sich diese Kategorien nicht gegenseitig ausschließen. Das Matching-Pennies-Spiel (siehe Tabelle 17.1) ist beispielsweise ein symmetrisches, rein kompetitives Nullsummenspiel. Wenn der Gewinn eines Spielers nicht dem Verlust des anderen Spielers entsprach (zB wurden alle Auszahlungen von (-1) durch Auszahlungen von (0) ersetzt), ist das Spiel kein Nullsummenspiel mehr, würde aber immer noch ein symmetrisches Spiel von gemeinsamem Interesse sein.

Als Kontrast zum kompetitiven Matching-Pennies-Spiel zeigt Tabelle 17.2 a Koordinationsspiel. Da beide Spieler immer noch identische Auszahlungen haben, ist dies ein symmetrisches Spiel mit gemeinsamem Interesse, bei dem beide Spieler gewinnen, indem sie die gleiche Seite ihrer Münze wählen. Beachten Sie, dass es in diesem Spiel zwei verschiedene lokale Maxima gibt: Solange beide Optionen übereinstimmen, ist kein Spieler motiviert, seine oder seine Wahl zu ändern. Die Idee, die beste Antwort angesichts der aktuellen Entscheidungen anderer Spieler zu verwenden, ist ein wichtiges Lösungskonzept in der Spieltheorie, bekannt als Nash-Gleichgewicht (NE). Im Koordinationsspiel Wie in Tabelle 17.2 definiert, sind die Auszahlungen für TT höher als für HH, aber wenn ein Spieler Grund zu der Annahme hat, dass der Gegner H wählen wird, dann ist es besser, H zu wählen, als auf T zu bestehen.

Tabelle 17.2: Die Auszahlungsmatrix von a Koordinierung Spiel.
Optionen h T
h ((1, 1)) ((0, 0))
T ((0, 0)) ((2, 2))

Siehe Nowé, Vrancx, &. De Hauwere (2012) für die Auszahlungsmatrizen und Beschreibungen zusätzlicher Arten von Spielen. (Wir werden die Gefangenendilemma, PD und die Kampf der Geschlechter, BoS, Spiel in Aufgabe 17.4.2.)

Spiele können ferner durch die Spielreihenfolge charakterisiert werden (d. h. ob Spieler sequentiell vs. gleichzeitig Spielzüge) und durch die Herausforderungen, die sie ihren Spielern stellen (z. wettbewerbsfähig vs. Koordinierung Spiele). Die meisten Spiele setzen ein ausgewogenes und gemeinsames Verständnis der Ziele und Regeln eines Spiels voraus (z. B. kennen alle Spieler entweder ihre eigenen Optionen und Auszahlungen oder kennen sogar die vollständige Auszahlungsmatrix). Verschiedene Spiele und verschiedene Versionen desselben Spiels können sich jedoch in der Transparenz der Aktionen, Belohnungen und Strategien der Spieler erheblich unterscheiden.

Ein wichtiger Aspekt beim Modellieren von Spielen betrifft die Wissen der Ziele, Aktionen und Belohnungen anderer Spieler. Aus der Sicht des Modellierers müssen wir uns bewusst sein, welcher Aspekt einer potenziell komplexen Situation von einem Modell adressiert wird. Dies läuft im Wesentlichen auf die Frage hinaus: Welche Forschungsfrage wird durch die Modellierung dieses Spiels beantwortet?

Ein Spiel modellieren

Angesichts unserer Erfahrung in der Modellierung dynamischer Agenten und Umgebungen (aus Kapitel 16) benötigen wir möglicherweise keine neuen Werkzeuge, um strategische Spiele zu modellieren. Aus der Perspektive eines Spielers (z. B. eines RL-Agenten) sind die Strategie und das Verhalten anderer Spieler Teil der Umgebung.

Um etwas Interessanteres zu machen, werden wir eine Simulation von Wataru Toyokawa übernehmen (die hier zu finden ist). Das wird ein bisschen herausfordernd, aber erweitern Sie unsere bisherigen Modelle auf drei nützliche Weisen:

Anstatt die wiederholten Begegnungen zweier Individuen zu simulieren, simulieren wir eine räumliche Population von Agenten in einem Gitter/Torus-Design.

Anstatt unser grundlegendes Lernmodell aus Abschnitt 16.2.1 zu verwenden, implementieren wir ein komplexeres Lernmodell: Ein epsilon-gieriges Q-Lernmodell, das ein Softmax-Kriterium für die Auswahl von Optionen verwendet.

Da wir eine räumlich angeordnete Population von Agenten über die Zeit simulieren, werden wir ihre Auswahl als Animation visualisieren.

Methodisch motiviert die Ausweitung von einzelnen Agenten auf eine ganze Population lernender Agenten auch einige dreidimensionale Datenstrukturen (d. h. Arrays), die Slots für jeden Agenten/Spieler (p) und Zeitschritt (t) bereitstellen).

Grundeinstellung

  1. Simulationsparameter:
  • Simulation einer Population von Individuen, die im Quadrat angeordnet sind (ein sogenanntes Gitter oder torus)

Grundidee: Annäherung an die Dynamik eines großen (idealerweise unendlichen) Systems durch Simulation eines räumlichen Rasters seiner Teile.

In jeder Runde spielt jedes Individuum gegen seine 8 Nachbarn (definiert als entweder eine Seite oder eine Ecke mit dem Fokus-Individuum teilend).

Randbedingung: Personen an der Kante(n) spielen gegen diejenigen an der Kante der gegenüberliegenden Seite (unten vs. oben, links vs. rechts).

Abbildung 17.1 zeigt die resultierende Struktur von 100 Individuen. In jeder Runde spielen die Fokus-Individuen in der dunkleren (blau/grün/rosa) Farbe ihre acht Nachbarn in heller (blau/grün/rosa) Farbe.

Abbildung 17.1: Darstellung einer Torusstruktur von 100 Individuen, die auf einem 10x10 Gitter angeordnet sind.

Das Gitter/Torus-Design schafft ein räumliches Kontinuum von Agenten, Strategien und Interaktionen. Aus der Perspektive jedes einzelnen Agenten vervielfacht dieses Setup die Anzahl der Spiele, die sie spielt, und die Vielfalt der Strategien, denen sie begegnet. Aus der Sicht des Modellierers ermöglicht dieser Aufbau die Bewertung der Dichte jeder Strategie zu jedem Zeitpunkt sowie der Verbreitung von Strategien im Laufe der Zeit. Unter Umständen kann aus lokalen Interaktionen ein globales Muster entstehen.

Beachten Sie das dreidimensionale Array von Q-Werten (mit den Dimensionen N_opt , N_t und N_p , d. h. Bereitstellung von 2 x 100 x 100 Slots).

Simulation

Ausführen der Simulation als for-Schleife (für jeden Zeitschritt (t) ):

  • Jeder Spieler wählt seine Wahl einmal zu Beginn jeder Prüfung. Daher betrachtet sie ihre Gegner nicht einzeln.

Ergebnisse

Die Visualisierung von Ergebnissen für eine Population von Agenten erfordert die Berechnung der Dichte ihrer Auswahlmöglichkeiten und nicht der einzelnen. Aus diesem Grund haben wir während der Simulation die Vektoren Density_1 und Density_1 berechnet:

Erstellen einer animierten Handlung

Um die räumliche Dynamik der Agentenauswahl im Laufe der Zeit zu visualisieren, können wir zeigen, welche Option jeder Agent auf dem Gitter/Torus bei jedem Versuch gewählt hat. Dies kann in zwei Schritten als animiertes Gif visualisiert werden:

  • Daten vorbereiten: Transformiere das 3-dimensionale Array von all_choices in eine 2-dimensionale Tabelle all_choices_tb
  • Erstellen Sie ein animiertes Bild (mit der ganimate und gifski Pakete):

Die resultierende Abbildung 17.2 zeigt, dass beide Optionen zunächst gleich stark im Vordergrund stehen, aber die überlegene Option 2 ab Trial 10 immer beliebter wird. Aufgrund der Erkundungstendenz der Agenten wird Option 1 immer noch gelegentlich gewählt.

Abbildung 17.2: Die Verteilung der Agentenauswahl über die Zeit im Koordinierung Spiel.

Trainieren

Diese Übung passt die Simulation des Koordinierung Spiel zum to passende Pfennige (MP) Spiel (definiert durch Tabelle 17.1):

Was ist die optimale Strategie, die Agenten in einem rein kompetitiven Spiel lernen sollten?

Was muss geändert werden, um das obige Modell zur Simulation dieses Spiels zu verwenden?

Übernehmen Sie die Simulation, um Ihre Antworten zu 1. und 2. zu überprüfen.

Lösung

ad 1.: Da jeder vorhersehbare Agent ausgenutzt werden könnte, ist die optimale Wahl für einen einzelnen Agenten die zufällige Auswahl von Optionen. Es ist jedoch unklar, was dies für eine Population von Agenten bedeuten würde, die auf einem Gitter/Torus angeordnet sind.

ad 2.: Theoretisch müssen wir nur die Auszahlungsmatrix des Spiels neu definieren (siehe Tabelle 17.1). Da das obige Modell jedoch einen Fehler ergibt (bei der Umwandlung negativer Auszahlungen in Wahrscheinlichkeiten), addieren wir 1 zu allen Auszahlungen. Dies macht aus einem Nullsummenspiel ein kompetitives Spiel mit symmetrischen Auszahlungen, hat aber keinen Einfluss auf die absoluten Auszahlungsunterschiede, die für unsere RL-Agenten von Bedeutung sind:

  • ad 3.: Abbildung 17.3 zeigt das Ergebnis einer entsprechenden Simulation. In dieser speziellen Simulation entschied sich eine knappe Mehrheit der Agenten für Option 1, aber die Bevölkerung erreichte kein stabiles Gleichgewicht. Da die optimale Strategie jedes Agenten darin besteht, Optionen zufällig zu wählen (d. h. mit einem (p=.5) für jede Option), könnte dies ein Beweis für das Lernen sein. Aber um wirklich erfolgreiches Lernen nachzuweisen, wären weitere Prüfungen notwendig.

Abbildung 17.3: Die Verteilung der Agentenauswahl über die Zeit in a wettbewerbsfähig Spiel.

17.2.2 Soziales Lernen

Lernen kann als Funktion von Belohnungen und dem Verhalten anderer modelliert werden. Wenn eine Option besser ist als eine andere, bietet sie höhere Belohnungen und wird von einem Agenten erlernt, der eine Umgebung erforscht und ausnutzt, um ihren Nutzen zu maximieren. Wenn jedoch andere Agenten vorhanden sind, ist ein zweiter Indikator für die Qualität einer Option ihre Popularität: Wenn andere Dinge gleich sind, sind bessere Optionen beliebter. 19

Die Grundidee von Replikatordynamik (folgende Seite, 2018, S. 308ff.) ist einfach: Die Wahrscheinlichkeit, eine Aktion zu wählen, ist das Produkt ihrer belohnen und sein Popularität.

Gegeben eine Menge von (N_opt) Alternativen mit entsprechenden Belohnungen (pi(1) . pi(n)) , die Wahrscheinlichkeit der Wahl einer Option (k) im Zeitschritt (t+1) ist definiert als:

Beachten Sie, dass der durch den Bruch (frac<ar>>) teilt die aktuelle Belohnung der Option durch die aktuelle durchschnittliche Belohnung aller Optionen. Sein Nenner wird als Summe aller Belohnungswerte berechnet, die mit ihrer Wahrscheinlichkeit in der aktuellen Population gewichtet sind. Da populärere Optionen stärker gewichtet werden, kombiniert dieser Faktor einen Effekt von belohnen mit einer Wirkung von Popularität oder Konformität. Somit hängt die Wahrscheinlichkeit, eine Option im nächsten Entscheidungszyklus zu wählen, von ihrer aktuellen Wahrscheinlichkeit, ihrer aktuellen Belohnung und ihrer aktuellen Popularität ab.

Beachten Sie, dass diese spezielle Konzeptualisierung ein Modell für eine gesamte Population darstellt und nicht für jedes einzelne Element davon. Darüber hinaus wird davon ausgegangen, dass die von jeder Option erhaltenen Belohnungen fest und unabhängig von den Entscheidungen sind, was für viele reale Umgebungen ziemlich unplausibel sein kann.

Welche Veränderungen würden signalisieren, dass die Bevölkerung lernt? Die Wahrscheinlichkeitsverteilung der Aktionen, die in jedem Zeitschritt ausgewählt werden.

Implementierung in R

Da wir alle Zwischenwerte in data gesammelt haben, können wir unsere Simulationsergebnisse einsehen, indem wir die Tabelle ausdrucken:

Tabelle 17.3: Daten aus der Replikatordynamik.
T avg_rew p_A p_B p_C
0 10.00 0.100 0.700 0.200
1 11.50 0.200 0.700 0.100
2 13.26 0.348 0.609 0.043
3 15.16 0.525 0.459 0.016
4 16.89 0.692 0.303 0.005
5 18.18 0.819 0.179 0.002
6 19.01 0.901 0.099 0.000
7 19.48 0.948 0.052 0.000
8 19.73 0.973 0.027 0.000
9 19.87 0.987 0.013 0.000
10 19.93 0.993 0.007 0.000

Wie in Tabelle 17.3 gezeigt, haben wir unsere Schleife mit einem Wert von t = 0 initialisiert. Dies ermöglichte es uns, die ursprüngliche Situation (vor jeder Aktualisierung von prob ) als erste Zeile einzuschließen (d. h. in Zeilendaten[(t + 1), ] ).

Ein Blick in die Zeilen von Tabelle 17.3 macht deutlich, dass die Wahrscheinlichkeiten suboptimaler Optionen (hier: Optionen B und C) abnehmen, während die Wahrscheinlichkeit, die beste Option (A) zu wählen, zunimmt. Daher werden Optionen mit höheren Belohnungen immer beliebter – und die Bevölkerung konvergiert schnell bei der Auswahl der besten Option.

Die systematische Verschiebung der Bevölkerung von ärmeren zu reicheren Optionen impliziert auch, dass der Wert der durchschnittlichen Belohnung (hier: avg_rew ) monoton ansteigt und sich dem Wert der besten Option annähert. Somit ähnelt die Funktion von avg_rew der Rolle von an Anspruchsniveau (A) in Reinforcement-Learning-Modellen (siehe Abschnitt 16.2.1), mit dem Unterschied, dass avg_rew das durchschnittliche Streben der gesamten Bevölkerung widerspiegelt, während (A_) bezeichnet das Aspirationsniveau eines einzelnen Agenten (i) .

Ergebnisse visualisieren

Möglichkeiten, die Verschiebung der kollektiven Dynamik weg vom Schlechten hin zur besten Option darzustellen, bieten die folgenden Datenvisualisierungen. Abbildung 17.4 zeigt die Trends bei der Auswahl jeder Option als Funktion für die Zeitschritte 0 bis 10:

Abbildung 17.4: Trends in der Wahrscheinlichkeit, jede Option pro Zeitschritt zu wählen.

Beachten Sie, dass wir die Daten vor dem Plotten in das lange Format umformatiert haben (um die Optionen als eine Variable statt als drei separate Variablen zu erhalten) und die y-Achse in eine Prozentskala geändert haben.

Da die Wahrscheinlichkeitsverteilung in jedem Zeitschritt die Summe 1 ergeben muss, ist es sinnvoll, sie als gestapeltes Balkendiagramm mit unterschiedlichen Farben für jede Option anzuzeigen (siehe Abbildung 17.5):

Abbildung 17.5: Die Wahrscheinlichkeit, Optionen pro Zeitschritt zu wählen.

Dies zeigt, dass die beste Option (hier: Option A) zunächst unbeliebt ist, aber etwa im 4. Zeitschritt zur dominanten wird. Der hier gezeigte Lernprozess scheint viel schneller zu sein als der eines einzelnen Verstärkungslerners (in Abschnitt 16.2.1). Dies ist vor allem auf eine Änderung unserer Analyseebene zurückzuführen: Unser Modell der Replikatordynamik beschreibt ein ganzes Population von Agenten. Tatsächlich geht unsere Verwendung der Wahrscheinlichkeitsverteilung als Proxy für die Popularität von Optionen implizit davon aus, dass an unendlich Die Bevölkerung der Agenten erlebt die Umgebung und erkundet und nutzt den vollen Satz aller Optionen in jedem Zeitschritt. Während ein einzelner RL-Agent zuerst Optionen prüfen muss und – wenn er Pech hat – viel wertvolle Zeit mit minderwertigen Optionen verschwenden muss, kann eine Gruppe von Agenten das gesamte Optionsspektrum bewerten und schnell auf die beste Option konvergieren.

Konvergenz auf die beste Option ist garantiert, solange alle Optionen gewählt sind (d. h. eine Anfangswahrscheinlichkeit von (p_(i)>0) ) und die Population der Agenten ist groß (idealerweise unendlich).

Trainieren

Beantworten Sie die folgenden Fragen, indem Sie die Grundgleichung der Replikatordynamik studieren:

Welche Auswirkungen haben Optionen, die keine Belohnungen bieten (d. h. (pi(k)=0) )?

Welche Auswirkungen haben nicht gewählte Optionen (d. h. (P_(k)=0) )?

Was passiert, wenn die drei Optionen (A–C) identische Belohnungen liefern (z. B. 10 Einheiten für jede Option)?

Was passiert, wenn die Belohnungen von drei Optionen (A–C) Belohnungen von 10, 20 und 70 Einheiten ergeben, aber ihre anfängliche Popularität umgekehrt ist (d. h. 70 %, 20 %, 10 %).

Reichen 10 Zeitschritte noch aus, um die beste Variante zu lernen?

Was ist, wenn der anfängliche Kontrast noch extremer ist, mit Belohnungen von 1, 2 bzw. 97 Einheiten und anfänglichen Wahrscheinlichkeiten von 97 %, 2 % bzw. 1 %?

Hinweis: Führen Sie diese Simulationen zuerst in Gedanken durch und überprüfen Sie dann Ihre Vorhersagen mit dem obigen Code.

Welche reale Umgebung könnte sich als qualifizieren?

eine, in der die Belohnungen aller Objekte stabil und unabhängig von den Handlungen der Agenten sind?

eine, in der alle Agenten auch identische Präferenzen haben?

Wie würde sich der Lernprozess verändern

wenn die Anzahl der Agenten diskret war (z. B. 10)?

wenn die Anzahl der Optionen die Anzahl der Agenten überschreitet?

Hinweis: Berücksichtigen Sie den Wertebereich, den prob in beiden Fällen annehmen würde und könnte.


Wert von projektiven Tests:

Obwohl diese projektiven Tests entwickelt wurden, um menschliches Verhalten und Emotionen zu verstehen, stimmen nicht viele Menschen vollständig mit ihren Ergebnissen überein. Trotz der Tatsache, dass diese projektiven Tests viele Arten von Einschränkungen haben, werden sie immer noch von vielen Psychiatern und Psychologen verwendet.

Außerdem arbeiten viele Experten, die an diesen projektiven Tests arbeiten, daran, diese Tests so zu aktualisieren, dass sie nicht nur Validität bieten, sondern auch einen gewissen Mehrwert schaffen.

Auch in der Marktforschung werden projektive Tests eingesetzt, um Emotionen, Assoziationen und Denkprozesse im Zusammenhang mit der Marke und den Produkten zu bewerten.


2021 Pennzoil 400 Quoten, Vorhersagen: Überraschendes NASCAR in Las Vegas wählt aus fortgeschrittenem Modell aus

Millionen strömen jedes Jahr nach Las Vegas mit der Hoffnung, den Jackpot zu knacken und als sofortiger Millionär zurückzukehren. Am Sonntag gehen 40 Fahrer hoffnungsvoll an den Start, ihre Startnummer landet bei der Pennzoil 400 2021 auf der Siegesspur. Die grüne Flagge fällt um 15:30 Uhr. ET vom 2,4 km langen Las Vegas Motor Speedway, wobei Titelverteidiger Joey Logano von Platz 15 startet. Kevin Harvick, der zweimal in Las Vegas gewonnen hat und am Sonntag auf der Pole starten wird, ist der 9: 2-Favorit bei den Pennzoil 400-Quoten 2021 von William Hill Sportsbook.

Denny Hamlin ist 6-1, während Logano und Chase Elliott beide 15-2 sind, Brad Keselowski 8-1 und Kyle Larson 17-2 auf der NASCAR 2021 in Las Vegas. Bevor Sie die Startaufstellung der Pennzoil 400 2021 durchkämmen und Ihre NASCAR in Las Vegas-Vorhersagen für Sonntag machen, sollten Sie sich die neuesten Pennzoil 400-Picks 2021 aus dem bewährten Projektionsmodell von SportsLine ansehen.

Dieses proprietäre NASCAR-Vorhersage-Computermodell wurde vom Daily Fantasy-Profi und dem Predictive Data Engineer von SportsLine, Mike McClure, entwickelt und simuliert jedes Rennen 10.000 Mal unter Berücksichtigung von Faktoren wie Streckenverlauf und aktuellen Ergebnissen.

Das Modell begann die Saison 2020, indem es Denny Hamlin auswählte, um seinen zweiten Daytona 500 in Folge mit 10-1 zu gewinnen. Das Model nannte auch Kevin Harvicks Sieg in Atlanta und holte in diesem Rennen satte neun Top-10-Platzierungen. McClure nutzte das Modell dann, um eine 10-1 Wette auf Hamlin für seinen Sieg in Miami abzuschließen.

Bei The Brickyard nannte das Model Harvicks vierten Saisonsieg. Während der NASCAR-Playoffs 2020 traf das Modell dann in aufeinanderfolgenden Rennen seine Auswahl und rief Denny Hamlin zum Sieg mit 17: 2 in Talladega und Chase Elliott zum 7: 2 in Charlotte Roval. Jeder, der seine NASCAR-Picks verfolgt hat, hat enorme Renditen erzielt.

Top 2021 Pennzoil 400 Vorhersagen

Das Model ist hoch bei Ryan Blaney, obwohl er im neuesten NASCAR bei den Quoten 2021 in Las Vegas ein 12: 1-Longshot ist. Er ist ein Ziel für jeden, der nach einem riesigen Zahltag sucht. Blaney war der Victory Lane in Las Vegas verlockend nahe und wurde Zweiter im Rennen der Xfinity Series 2015 und wurde in seinen NASCAR Cup Series-Autos dreimal Fünfter.

Der Fahrer des Team Penske hat einen schwierigen Start in seine Saison 2021 und wurde 30. beim Daytona 500, 15. beim O'Reilly Auto Parts 253 und 29. letzte Woche beim Dixie Vodka 400. Blaney war jedoch vorne dabei Pennzoil 400 vom letzten Frühjahr und South Point 400 vom letzten Herbst und hat viel Erfahrung hinter dem Steuer seines Ford Nr. 12.

Blaney wird von der Position Nr. 26 in der Startaufstellung von Pennzoil 400 2021 beginnen, aber McClure sieht, dass er schnell an die Spitze kommt und liebt seinen Wert als Teil Ihrer Pennzoil 400-Wetten 2021.

Und ein massiver Schocker: Kevin Harvick, der Top-Favorit in Vegas mit 9:2, stolpert gewaltig und knackt die Top 10 kaum. Es gibt weitaus bessere Werte in dieser geladenen 2021er Pennzoil 400-Startaufstellung. Harvick ist zweifacher Sieger in Las Vegas und erzielt 2020 die besten neun Siege seiner Karriere, aber er hat seine Chance, um eine zweite Meisterschaft zu fahren, dank eines enttäuschenden Stretch-Runs verpasst.

Dazu gehörte ein 10. Platz beim South Point 400 2020 in Las Vegas nach dem Start von der Pole und ein 16. Platz beim letzten 2,5-Meilen-Ovalrennen der Saison in Texas. Harvick befindet sich jetzt in einer sieglosen Serie von acht Rennen, und 9-2 ist ein zu hoher Preis, um ihn zu zahlen.

Wie man 2021 NASCAR in Las Vegas auswählt

Das Modell zielt auch auf zwei andere Fahrer mit NASCAR bei Las Vegas-Quoten 2021 von 10-1 oder länger ab, um einen ernsthaften Versuch zu unternehmen, alles zu gewinnen. Jeder, der diese Treiber unterstützt, könnte groß rauskommen. Sie können alle NASCAR-Picks bei SportsLine sehen.

Wer gewinnt also den Pennzoil 400 2021? Und welche Totalen betäuben NASCAR? Sehen Sie sich unten die neuesten Pennzoil 400-Quoten für 2021 an und besuchen Sie dann SportsLine jetzt, um die vollständige projizierte Pennzoil 400-Bestenliste 2021 zu sehen, alle nach dem Modell, das Hamlins Sieg beim Daytona 500 2020 sicherte.

2021 Pennzoil 400 Quoten

Kevin Harvick 9-2
Martin Truex Jr. 6-1
Denny Hamlin 6-1
Verfolge Elliott 15-2
Joey Logano 15-2
Brad Keselowski 8-1
Kyle Larson 17-2
Kyle Busch 10-1
Ryan Blaney 12-1
William Byron 18-1
Alex Bowman 20-1
Kurt Busch 25-1
Christopher Bell 28-1
Austin Dillon 40-1
Aric Almirola 40-1
Tyler Reddick 60-1
Cole Custer 75-1
Matt DiBenedetto 75-1
Chris Buescher 100-1
Ryan Newman 100-1
Bubba Wallace 100-1
Chase Briscoe 100-1
Ross Chastain 125-1
Ricky Stenhouse Jr. 125-1
Michael McDowell 150-1
Erik Jones 150-1
Daniel Suárez 250-1
Ryan Preece 1000-1
Justin Haley 2500-1
Anthony Alfredo 2500-1
Corey Lajoie 2500-1
Timmy Hill 5000-1
Cody Ware 5000-1
Garrett Smithley 5000-1
Josh Bilicki 5000-1
Joey Gas 5000-1
BJ McLeod 5000-1
Quin Houff 5000-1


Inhalt

Hebeeigenschaften Bearbeiten

Die übliche kategorietheoretische Definition bezieht sich auf die Eigenschaft von Heben das von freien zu projektiven Modulen überführt: ein Modul P ist genau dann projektiv, wenn für jeden surjektiven Modulhomomorphismus F : nm und jeder Modulhomomorphismus g : Pm , existiert ein Modulhomomorphismus h : Pn so dass F h = g . (Wir brauchen den Lifting-Homomorphismus nicht h einzigartig zu sein, ist keine universelle Eigenschaft.)

Der Vorteil dieser Definition von "projektiv" besteht darin, dass sie in allgemeineren Kategorien als in Modulkategorien durchgeführt werden kann: Wir brauchen keinen Begriff von "freiem Objekt". Es kann auch dualisiert werden, was zu injektiven Modulen führt. Die Hebeeigenschaft kann auch umformuliert werden als jeder Morphismus von P bis M faktoriert durch jeden Epimorphismus bis M . Somit sind per Definition projektive Module genau die projektiven Objekte in der Kategorie von R-Module.

Split-genaue Sequenzen Bearbeiten

Ein Modul P ist genau dann projektiv, wenn jede kurze exakte Folge von Modulen der Form

ist eine gespaltene exakte Folge. Das heißt, für jeden surjektiven Modulhomomorphismus F : BP es existiert ein Abschnittsplan, also ein Modulhomomorphismus h : PB so dass F h = idP. In diesem Fall, h(P) ist ein direkter Summand von B, h ist ein Isomorphismus von P zu h(P) , und h F ist eine Projektion auf den Summanden h(P) . Äquivalent,

Direkte Summanden von freien Modulen Bearbeiten

Ein Modul P ist genau dann projektiv, wenn es ein weiteres Modul gibt Q so dass die direkte Summe von P und Q ist ein kostenloses Modul.

Genauigkeit Bearbeiten

Ein R-Modul P ist genau dann projektiv, wenn der kovariante Funktor Hom(P, -): R-ModAb ist ein exakter Funktor, wobei R-Mod ist die Kategorie der Linken R-Module und Ab ist die Kategorie der abelschen Gruppen. Wenn der Ring R ist kommutativ, Ab wird vorteilhafterweise ersetzt durch R-Mod in der vorhergehenden Charakterisierung. Dieser Funktor wird immer exakt verlassen, aber wenn P ist projektiv, es ist auch richtig genau. Dies bedeutet, dass P ist genau dann projektiv, wenn dieser Funktor Epimorphismen (surjektive Homomorphismen) oder endliche Colimits erhält.

Doppelbasis Bearbeiten

Die folgenden Eigenschaften von projektiven Modulen lassen sich schnell aus einer der obigen (äquivalenten) Definitionen von projektiven Modulen ableiten:

  • Direkte Summen und direkte Summanden von projektiven Modulen sind projektiv.
  • Ob e = e 2 ist ein Idempotent im Ring R, dann Betreff ist ein projektives linkes Modul über R.

Das Verhältnis von projektiven Modulen zu freien und flachen Modulen ist im folgenden Diagramm der Moduleigenschaften zusammengefasst:

Die Implikationen von links nach rechts gelten für jeden Ring, obwohl einige Autoren torsionsfreie Module nur über eine Domäne definieren. Die Implikationen von rechts nach links gelten für die Ringe, die sie beschriften. Es kann andere Ringe geben, für die sie wahr sind. Zum Beispiel gilt die Implikation mit der Bezeichnung "lokaler Ring oder PID" auch für Polynomringe über einem Körper: Dies ist das Quillen-Suslin-Theorem.

Projektive vs. freie Module Bearbeiten

Jedes freie Modul ist projektiv. Das Umgekehrte gilt in folgenden Fällen:

  • Wenn R ist ein Feld oder ein Schrägfeld: irgendein Modul ist in diesem Fall kostenlos.
  • wenn der ring R ist ein Hauptidealbereich. Dies gilt zum Beispiel für R = Z (die ganzen Zahlen), also ist eine abelsche Gruppe genau dann projektiv, wenn sie eine freie abelsche Gruppe ist. Der Grund dafür ist, dass jedes Submodul eines freien Moduls über einer idealen Hauptdomäne frei ist.
  • wenn der ring R ist ein lokaler Ring. Dieser Tatsache liegt die Intuition von "lokal frei = projektiv" zugrunde. Diese Tatsache ist für endlich erzeugte projektive Module leicht zu beweisen. Im Allgemeinen ist es Kaplansky (1958) zu verdanken, siehe Kaplanskys Theorem über projektive Module.

Im Allgemeinen müssen projektive Module jedoch nicht kostenlos sein:

  • Über ein direktes Produkt von RingenR × S wo R und S sind Ringe ungleich null, beide R × 0 und 0 × S sind nicht-freie projektive Module.
  • Über einer Dedekind-Domäne ist ein nicht-hauptsächliches Ideal immer ein projektives Modul, das kein freies Modul ist.
  • Über einem Matrixring Mn(R), das natürliche Modul Rn ist projektiv, aber nicht frei. Allgemeiner gesagt, über jedem halbeinfachen Ring, jeden Modul ist projektiv, aber das Nullideal und der Ring selbst sind die einzigen freien Ideale.

Der Unterschied zwischen freien und projektiven Modulen wird gewissermaßen durch die algebraische K-Theoriegruppe K0(R), siehe unten.

Projektive vs. flache Module Bearbeiten

Jedes projektive Modul ist flach. [1] Das Umgekehrte gilt im Allgemeinen nicht: die abelsche Gruppe Q ist ein Z-Modul, das flach, aber nicht projektiv ist. [2]

Umgekehrt ist ein endlich verwandtes flaches Modul projektiv. [3]

Govorov (1965) und Lazard (1969) haben bewiesen, dass ein Modul m ist genau dann flach, wenn es sich um eine direkte Grenze endlich erzeugter freier Module handelt.

Im Allgemeinen wurde die genaue Beziehung zwischen Flachheit und Projektivität von Raynaud & Gruson (1971) hergestellt (siehe auch Drinfeld (2006) und Braunling, Groechenig & Wolfson (2016)), die zeigten, dass ein Modul m ist genau dann projektiv, wenn die folgenden Bedingungen erfüllt sind:

  • m ist flach,
  • m ist eine direkte Summe abzählbar erzeugter Module,
  • m eine bestimmte Bedingung vom Mittag-Leffler-Typ erfüllt.

Submodule von projektiven Modulen müssen nicht projektiv ein Ring sein R für die jeder Untermodul eines projektiven linken Moduls projektiv ist, heißt linkshereditär.

Quotienten von projektiven Modulen müssen beispielsweise auch nicht projektiv sein Z/n ist ein Quotient von Z, aber nicht torsionsfrei, also nicht eben und daher nicht projektiv.

Die Kategorie der endlich erzeugten projektiven Module über einem Ring ist eine exakte Kategorie. (Siehe auch algebraische K-Theorie).

Gegeben ein Modul, m, ein projektive Auflösung von m ist eine unendliche exakte Folge von Modulen

mit all dem Pichs projektiv. Jedes Modul besitzt eine projektive Auflösung. Tatsächlich a freie Auflösung (Auflösung durch freie Module) existiert. Die genaue Reihenfolge der projektiven Module kann manchmal abgekürzt werden mit P(m) → m → 0 oder Pm → 0 . Ein klassisches Beispiel für eine projektive Auflösung ist der Koszul-Komplex einer regulären Folge, der eine freie Auflösung des von der Folge erzeugten Ideals ist.

Das Länge endlicher Auflösung ist der Index n so dass Pn ist ungleich null und Pich = 0 für ich größer als n. Ob m erlaubt eine endliche projektive Auflösung, die minimale Länge unter allen endlichen projektiven Auflösungen von m heißt es projektive Dimension und bezeichnet pd(m). Ob m keine endliche projektive Auflösung zulässt, dann wird die projektive Dimension per Konvention als unendlich bezeichnet. Betrachten Sie als Beispiel ein Modul m so dass pd(m) = 0 . In dieser Situation ist die Genauigkeit der Folge 0 → P0m → 0 zeigt an, dass der Pfeil in der Mitte ein Isomorphismus ist, und somit m selbst ist projektiv.

Projektive Module über kommutativen Ringen haben schöne Eigenschaften.

Die Lokalisierung eines projektiven Moduls ist ein projektives Modul über dem lokalisierten Ring. Ein projektives Modul über einen lokalen Ring ist frei. Ein projektives Modul ist also lokal kostenlos (in dem Sinne, dass seine Lokalisierung an jedem Primideal über der entsprechenden Lokalisierung des Rings frei ist).

Für endlich erzeugte Module über noetherschen Ringen gilt das Umgekehrte: Ein endlich erzeugter Modul über einem kommutativen noetherschen Ring ist genau dann lokal frei, wenn er projektiv ist.

Es gibt jedoch Beispiele für endlich erzeugte Module über einem nicht-noetherschen Ring, die lokal frei und nicht projektiv sind. Zum Beispiel hat ein Boolescher Ring alle seine Lokalisierungen isomorph zu F2, das Feld von zwei Elementen, also ist jedes Modul über einem Booleschen Ring lokal frei, aber es gibt einige nichtprojektive Module über Booleschen Ringen. Ein Beispiel ist R/ich wo R ist ein direktes Produkt von abzählbar vielen Kopien von F2 und ich ist die direkte Summe von abzählbar vielen Kopien von F2 Innen R. Das R-Modul R/ich ist lokal kostenlos, da R ist Boolean (und wird endlich erzeugt als an R-Modul auch, mit Spannsatz der Größe 1), aber R/ich ist nicht projektiv, weil ich ist kein Hauptideal. (Wenn ein Quotientenmodul R/ich, für jeden kommutativen Ring R und ideal ich, ist ein projektives R-Modul dann ich ist Hauptsache.)

Allerdings gilt, dass für endlich präsentierte Module m über einen kommutativen Ring R (insbesondere wenn m ist ein endlich erzeugtes R-Modul und R noethersch ist), sind die folgenden äquivalent. [4]

Außerdem, wenn R ein noetherscher Integralbereich ist, dann sind diese Bedingungen nach dem Lemma von Nakayama äquivalent zu

  • Die Dimension des k ( p ) >)> –Vektorraum M ⊗ R k ( p ) k(>)> ist für alle Primideale p >> von R, wobei k ( p ) >)> ist das Restfeld bei p >> . [5] Das heißt, m hat einen konstanten Rang (wie unten definiert).

Lassen EIN ein kommutativer Ring sein. Ob B ist ein (möglicherweise nicht kommutativ) EIN-Algebra, die ein endlich erzeugtes Projektiv ist EIN-Modul enthält EIN als Unterring, dann EIN ist ein direkter Faktor von B. [6]

Rang Bearbeiten

Eine grundlegende Motivation der Theorie ist, dass projektive Module (zumindest über bestimmte kommutative Ringe) Analoga von Vektorbündeln sind. Dies kann sowohl für den Ring stetiger reellwertiger Funktionen auf einem kompakten Hausdorff-Raum als auch für den Ring glatter Funktionen auf einer glatten Mannigfaltigkeit präzisiert werden (siehe Serre-Swan-Theorem, der einen endlich erzeugten projektiven Modul über dem Raum von . sagt glatte Funktionen auf einer kompakten Mannigfaltigkeit ist der Raum der glatten Abschnitte eines glatten Vektorbündels).

Vektorbündel sind lokal kostenlos. Wenn es einen Begriff von "Lokalisierung" gibt, der auf Module übertragen werden kann, wie beispielsweise die übliche Lokalisierung eines Rings, kann man lokal freie Module definieren, und die projektiven Module fallen dann typischerweise mit den lokal freien Modulen zusammen.

Das Quillen-Suslin-Theorem, das Serres Problem löst, ist ein weiteres tiefgreifendes Ergebnis: Wenn K ein Körper oder allgemeiner ein idealer Hauptbereich ist, und R = K[x1. xn] ist ein Polynomring über K, dann ist jedes projektive Modul vorbei R ist gratis. Dieses Problem wurde zuerst von Serre angesprochen mit K ein Feld (und die Module werden endlich erzeugt). Bass hat es für nicht-endlich erzeugte Module entschieden und Quillen und Suslin haben unabhängig und gleichzeitig den Fall endlich erzeugter Module behandelt.

Da jedes projektive Modul über einem idealen Hauptbereich frei ist, könnte man diese Frage stellen: if R ist ein kommutativer Ring, so dass jedes (endlich erzeugte) projektive R-Modul ist frei, dann ist jedes (endlich erzeugte) projektiv R[x]-Modul frei? Die Antwort ist Nein. Ein Gegenbeispiel tritt auf mit R gleich dem lokalen Ring der Kurve ja 2 = x 3 am Ursprung. Somit konnte der Satz von Quillen-Suslin niemals durch eine einfache Induktion über die Anzahl der Variablen bewiesen werden.


2. Erweiterter Geist der dritten Welle und prädiktive Verarbeitung

Danke an John Schwenkler für die Einladung zum Gastblog diese Woche über unser Buch Erweitertes Bewusstsein und prädiktive Verarbeitung: Eine Sicht der dritten Welle (Routledge, 2019):

Wo hört Ihr (bewusster) Verstand auf und der Rest der Welt beginnt? Wir verteidigen, was man als „Dritte Welle“-Erzählung des erweiterten Geistes bezeichnet. In diesem Beitrag möchten wir Ihnen einen Eindruck davon vermitteln, worum es in der Debatte in der Extended-Mind-Community geht. Zweitens werden wir unsere Interpretation der dritten Welle der Vorhersageverarbeitungstheorie des Geistes skizzieren. Wir berücksichtigen nicht, wie die Perspektive der dritten Welle auf den erweiterten Verstand kritisiert werden könnte, ein Thema, das wir in späteren Beiträgen aufgreifen.

Die Terminologie „Welle“ geht auf Sutton (2010) zurück und wird verwendet, um die folgenden drei Argumentationslinien für den erweiterten Verstand zu unterscheiden.

Erweiterter Geist der ersten Welle ist der gute altmodische Rollenfunktionalismus, der entweder mit dem Funktionalismus des gesunden Menschenverstands (Clark & Chalmers 1998) oder mit dem Psychofunktionalismus (Wheeler 2010) in Verbindung gebracht wird. Theoretiker der ersten Welle (wie wir in unserem ersten Beitrag gesehen haben) argumentierten für die Ausdehnung des Geistes in die Welt auf der Grundlage der funktionalen Äquivalenz von Elementen, die sich innerhalb und außerhalb des Individuums befinden. Wenn diese Elemente ähnliche kausale Beiträge zur Verhaltenslenkung einer Person leisten, sollten sie gleich behandelt werden. Genauer gesagt sollten wir das äußere Element nicht einfach aufgrund seiner Position außerhalb des biologischen Körpers davon ausschließen, ein Teil des Geistes einer Person zu sein.

Zweite Welle Die Argumente drehen sich um die unterschiedlichen, aber komplementären Funktionsbeiträge von Werkzeugen und Technologien im Vergleich zum biologischen Gehirn. So ergänzen fiktive Systeme zum Beispiel für die Mathematik die inneren Verarbeitungsmodi des Gehirns, was zu einer Transformation der mathematischen Denkfähigkeiten von Individuen, Gruppen und Abstammungslinien führt. Argumente der zweiten Welle scheinen ein Bild zu suggerieren, in dem interne neuronale Prozesse ihre eigenen proprietären funktionalen Eigenschaften haben, die mit öffentlichen Darstellungssystemen wie Systemen der mathematischen Notation kombiniert werden, die ebenfalls ihre eigenen festen funktionalen Eigenschaften haben. Etwas wirklich Neues entsteht dann (z. B. mathematische Denkfähigkeit), wenn diese Elemente mit eigenständigen funktionalen Eigenschaften kombiniert oder funktional integriert werden.

Dritte Welle Argumente stimmen mit der zweiten Welle überein, in der die materielle Kultur als transformierend für das angesehen wird, was Menschen als Denker tun können. Die Sicht der dritten Welle geht jedoch davon aus, dass dieser Transformationsprozess wechselseitig und kontinuierlich ist. Der menschliche Geist bildet sich im Laufe der Zeit kontinuierlich durch das Ineinandergreifen von verkörperten Handlungen, materiellen Werkzeugen und Technologien und kulturellen Normen für die Verwendung dieser Werkzeuge und Technologien. Einzelne Agenten werden „in eigentümlichen Koordinations- und Koaleszenz-Loci zwischen multiplen strukturierten Medien aufgelöst“ (Sutton 2010, S.213). Kontrolle und Koordination werden über die Medien verteilt und propagiert, die in kulturellen Handlungsmustern aufgenommen werden. Die Beschränkungen (die lokalen Regeln), die die Interaktionen zwischen den Komponenten (intern und extern) von erweiterten kognitiven Systemen regeln, müssen nicht alle aus dem Inneren des biologischen Organismus stammen. Einige der Zwänge können ihren Ursprung in sozialen und kulturellen Praktiken haben, in „den Dingen, die Menschen in Interaktion miteinander tun“ (Hutchins 2011, S. 4). Die Grenzen, die das Individuum von seiner Umwelt und von den Kollektiven, an denen das Individuum teilnimmt, trennen, sind „hart erkämpfte und fragile Entwicklungs- und Kulturleistungen“ (Sutton 2010, S. 213).

Im Gegensatz zu den vorherigen Wellen in der Theorie des erweiterten Geistes fällt die Verpflichtung zu erweitertem Bewusstsein natürlich aus den Argumenten der dritten Welle für den erweiterten Geist. Wir folgen Susan Hurley, indem wir an die materiellen Realisierer des Bewusstseins als erweiterte dynamische Singularitäten denken (Hurley 1998, 2010). Hurley verwendet diesen Begriff, um sich auf eine Singularität im „Feld der kausalen Ströme, die durch die Zeit durch ein Gewirr mehrfacher Rückkopplungsschleifen mit unterschiedlichen Bahnen gekennzeichnet sind“ zu beziehen. Solche kausalen Ströme bilden sich aus den Schleifen der Wahrnehmungs- und Handlungszyklen des Organismus, in denen das komplexe Gewirr von Rückkopplungsschleifen von der Welt geschlossen wird. Die erweiterte dynamische Singularität, sagt sie, „zentriert sich auf den Organismus und bewegt sich mit ihm, aber sie hat keine scharfen Grenzen“ (Hurley 1998, S. 2). Wir weichen jedoch von Hurley ab, indem wir eine Dezentrierung erweiterter dynamischer Singularitäten ermöglichen. Wie der kognitive Anthropologe Ed Hutchins feststellt, haben einige Systeme „ein klares Zentrum, während andere mehrere oder gar kein Zentrum haben“ (Hutchins 2011, S. 5). Die Verbreitung von Aktivitäten über verschiedene Medien wird von einem „leicht ausgestatteten Menschen“ koordiniert, der (manchmal) in Gruppen arbeitet und immer in kulturelle Praktiken eingebettet ist.

Argumente der dritten Welle unterstreichen somit die Notwendigkeit, die Metaphysik zu überdenken, innerhalb derer Argumente für erweiterte Köpfe entwickelt werden. Im Gegensatz zu den Standardbegriffen von Konstitution, Realisierung oder Komposition, die allesamt atemporale oder synchrone Bestimmungsrelationen sind, schlagen wir vor, solche metaphysischen Bestimmungsrelationen zeitlich oder diachron zu verstehen. Kognitive Prozesse sind „Geschöpfe der Zeit“ (Nöe 2006), dh sie sind in ihrer Existenz abhängig von der zeitlichen Entfaltung über verschiedene Medien: teils neuronal oder körperlich, teils mit anderen Menschen und den Ressourcen einer durch unser kulturelles Handeln geprägten Umgebung und Muster der Praxis. Extended Minds sind diachron konstituiert. In der folgenden Tabelle fassen wir vier wesentliche Grundsätze der Sicht der dritten Welle zusammen:

Die wichtigsten Grundsätze des erweiterten Geistes der dritten Welle

1. Erweiterte dynamische Singularitäten: einige kognitive Prozesse sind
aus kausalen Netzwerken mit internen und externen Umlaufbahnen gebildet
mit einem singulären kognitiven System.
2. Flexible und offene Grenzen: die Grenzen des Geistes sind nicht
fest und stabil, aber zerbrechlich und hart erkämpft und immer offen für
Verhandlung.
3. Verteilte kognitive Versammlung: Die aufgaben- und kontextsensitive Zusammenstellung kognitiver Systeme wird nicht vom einzelnen Agenten getrieben, sondern von einem Nexus von Zwängen, teils neuronal, teils körperlich und teils umweltbedingt
(kulturell, sozial, materiell).
4. Diachrone Konstitution: Kognition ist von Natur aus zeitlich und
dynamisch und entfaltet sich über verschiedene, aber interagierende zeitliche Verhaltensskalen.

In unserem Buch zeigen wir, wie die prädiktive Verarbeitungstheorie durch die Linse des erweiterten Geistes der dritten Welle zu interpretieren ist. Prädiktive Verarbeitung macht Agenten zu generativen Modellen ihrer Umgebung. Ein generatives Modell ist eine probabilistische Struktur, die Vorhersagen über die Ursachen von Sinnesreizen generiert. Wir argumentieren, dass die ständige Anpassung und Aufrechterhaltung des generativen Modells durch aktive Inferenz die dynamische Verschränkung von Agent und Umgebung mit sich bringt. In den folgenden drei Beiträgen werden wir diese Perspektive der dritten Welle auf prädiktive Verarbeitung anwenden, um für drei in unserem Buch verteidigte Thesen zu argumentieren:

Beitrag 3: Der von Markov bedeckte Geist: Es gibt keine einzige, feste und dauerhafte Grenze, die das innere Bewusstsein von der Außenwelt trennt. Die Grenze, die bewusste Wesen von der Außenwelt trennt, ist fließend und wird aktiv durch verkörperte Aktivität konstruiert.

Beitrag 4: Sehen, was Sie zu sehen erwarten: Die prädiktive Verarbeitungstheorie behauptet manchmal, dass Wahrnehmungserfahrung als kontrollierte Halluzination betrachtet werden sollte. Der Beitrag der Welt besteht darin, die Vorhersageprozesse des Gehirns zu überprüfen. Im Gegensatz dazu argumentieren wir, dass prädiktive Verarbeitung, die bewusste Erfahrungen generiert, nicht von der Welt getrennt werden kann, sondern explorativ, aktiv und weltinvolvierend ist.

Beitrag 5: Die diachrone Konstitution des erweiterten Bewusstseins: Die Übernahme unserer Perspektive der dritten Welle auf prädiktive Verarbeitung bringt eine neue Metaphysik der Konstitution bewusster Erfahrung als diachron und nicht als synchron mit sich.

Clark, A. und Chalmers, D. (1998). Der erweiterte Geist. Analyse, 50, 7-19.

Hurley, S. L. (1998). Bewusstsein in Aktion. Cambridge, MA: Harvard University Press.

Hutchins, E. (2011). Enkulturation des übergroßen Geistes. Philosophische Studien, 152, 437446.

Nöe, A. (2006). Erleben Sie die Welt in der Zeit. Analyse, 66(1), 26-32

Sutton, J. (2010). Exogramme und Interdisziplinarität: Geschichte, der erweiterte Geist und der Zivilisationsprozess. In R. Menary (Hrsg.), Der erweiterte Geist (S. 189225). Cambridge, MA: Die MIT-Presse.

Wheeler, M.(2010). Zur Verteidigung des erweiterten Funktionalismus. In R. Menary (Hrsg.), Der erweiterte Geist (S. 245-270). Cambridge, MA: Die MIT-Presse.


Ergebnisse

Modell

Wir gehen davon aus, dass eine Person, wenn sie ein Ziel wählt, wie das Strahlungsmodell 32 und das OPS-Modell 42 , zuerst den Nutzen der Standortmöglichkeiten 43 bewertet, wobei der Nutzen zufällig aus einer Verteilung ausgewählt wird P(z). Danach vergleicht der Einzelne umfassend die Vorteile des Ursprungs, des Ziels und der dazwischenliegenden Möglichkeiten und wählt einen Ort als Ziel aus. Um das Verhalten eines individuellen Gesamtnutzenvergleichs der Standorte zu charakterisieren, verwenden wir zwei Parameter α und β. Parameter α spiegelt das Verhalten des Individuums wider, das Ziel zu wählen, dessen Nutzen höher ist als der Nutzen des Ursprungs und der dazwischenliegenden Möglichkeiten. Parameter β spiegelt das Verhalten des Individuums wider, das Ziel zu wählen, dessen Nutzen höher ist als der Nutzen des Ursprungs, und der Nutzen des Ursprungs ist höher als der Nutzen der dazwischenliegenden Gelegenheiten. Nach obiger Annahme ist die Wahrscheinlichkeit, dass Ort J wird von der Person vor Ort ausgewählt ich ist

wo mich ist die Anzahl der Möglichkeiten am Standort ich, mJ ist die Anzahl der Möglichkeiten am Standort J, SichJ ist die Anzahl der dazwischenliegenden Opportunities 30 (d. h. die Summe der Anzahl der Opportunities an allen Standorten, deren Entfernungen von ich sind kürzer als die Entfernung von ich zu J), (_<_+alphacdot _>(z)) ist die Wahrscheinlichkeit, dass der maximale Nutzen nach mich + αSichJ Stichproben ist genau z, (_<eta cdot _>( < z)) ist die Wahrscheinlichkeit, dass der maximale Nutzen nach βSichJ Stichproben sind weniger als z, (_<_>( > z)) ist die Wahrscheinlichkeit, dass der maximale Nutzen nach mJ Stichproben ist größer als z, α und β sind beide nicht negativ und α + β ≤ 1.

Da Prx( < z) = P(<z) x , wir erhalten

Gleichung (1) kann geschrieben werden als

Dann ist die Wahrscheinlichkeit des Individuums am Standort ich Standort auswählen J ist

Wenn wir außerdem die Gesamtzahl der Individuen kennen Öich die vom Standort reisen travel ich, der Fluss TichJ vom Standort ich zum Standort J kann berechnet werden als

Dies ist die endgültige Form des Modells und wir nennen es das Universal Opportunity (UO)-Modell.

Das α und β Parameter im UO-Modell spiegeln die beiden Verhaltenstendenzen des Individuums bei der Auswahl potenzieller Reiseziele wider (wo der Gelegenheitsnutzen höher ist als der Nutzen des Herkunftslandes). Aus Gl. (3) können wir sehen, dass je größer der Wert des Parameters α, desto größer ist die Wahrscheinlichkeit, dass entfernte potenzielle Ziele von der Person ausgewählt werden. Wir nennen diese Verhaltenstendenz die explorative Tendenz. Auf der anderen Seite, je größer der Wert des Parameters β, desto größer ist die Wahrscheinlichkeit, dass potenzielle Ziele in der Nähe von der Person ausgewählt werden. Wir nennen diese Verhaltenstendenz die vorsichtige Tendenz. Wir wählen die durchschnittliche Reisedistanz und die normalisierte Entropie als zwei grundlegende Metriken, um den Einfluss zweier Parameter zu diskutieren discuss α und β über das individuelle Zielauswahlverhalten. Die durchschnittliche Reisedistanz spiegelt die Schüttdichte der individuellen Zielauswahl 44, 45, 46, 47 wider, und die normalisierte Entropie spiegelt die Heterogenität der individuellen Zielauswahl 48 wider. Wie in Fig. 1 gezeigt, weisen die beiden fundamentalen Metriken die gleichen Gesetzmäßigkeiten mit einer Änderung in zwei Parametern auf, unabhängig davon, ob die Anzahl der Zielmöglichkeiten gleichförmig oder zufällig verteilt ist. Wann α = 0, β = 1, ist die durchschnittliche Reisestrecke am kürzesten und der normalisierte Entropiewert am kleinsten, wenn α = 0, β = 0, ist die durchschnittliche Fahrstrecke am längsten und der normalisierte Entropiewert am größten. Aus den Definitionen der beiden Parameter können wir leicht die Gründe für die Regelmäßigkeiten erklären. Wann α ist näher an 0, β näher an 1 liegt, ist der Einzelne vorsichtiger und die Wahrscheinlichkeit, potenzielle Ziele in der Nähe zu wählen, ist höher. Je kürzer die durchschnittliche Reisedistanz und desto stärker die Heterogenität. Wann α ist näher an 1, β näher an 0 liegt, ist die Person explorativer und die Wahrscheinlichkeit, entfernte potenzielle Ziele zu wählen, ist höher, so dass die durchschnittliche Entfernung erhöht wird, während die Heterogenität verringert wird. Wann α und β beide näher an 0 liegen, legt der Einzelne mehr Wert auf den Nutzen, den ihm der Standort bringt und kümmert sich nicht um die Reihenfolge der Standorte, also je länger die durchschnittliche Reisedistanz und desto stärker die Homogenität.

Durchschnittliche Reisestrecke und normalisierte Entropie gegenüber verschiedenen Parameterkombinationen. (ein,B) Durchschnittliche Reisedistanz und normalisierte Entropiewerte, die verschiedenen Parameterkombinationen entsprechen. Hier ist die Anzahl der Zielmöglichkeiten gleichmäßig verteilt. (C,D) Gleiche durchschnittliche Reisedistanz und normalisierte Entropiewerte wie in (ein,B), aber die Anzahl der Zielmöglichkeiten ist eine zufällige Verteilung.

Außerdem, wenn α und β Extremwerte nehmen (d. h. die drei Eckpunkte des Dreiecks in Abb. 1), können wir drei spezielle menschliche Mobilitätsmodelle ableiten. Wann α = 0, β = 0, nennen wir dieses Modell das Opportunity Only (OO)-Modell (siehe Details in Ergänzende Informationen, Die Ableitung des OO-Modells). Bei diesem Modell wählt das Individuum den Standort, dessen Nutzen höher ist als der Nutzen der Herkunft. Dann ist die Wahrscheinlichkeit des Individuums am Standort ich Standort auswählen J wie das Ziel ist

Wann α = 1, β = 0, kann unser Modell auf das OPS-Modell vereinfacht werden, bei dem die Person den Standort wählt, dessen Nutzen höher ist als der Nutzen der Herkunft und die Vorteile der dazwischenliegenden Möglichkeiten (siehe Details in Ergänzende Informationen, Die Ableitung des OPS-Modells ). Dann ist die Wahrscheinlichkeit des Individuums am Standort ich Standort auswählen J wie das Ziel ist

Wann α = 0, β = 1, unser Modell kann auf das Strahlungsmodell vereinfacht werden, bei dem das Individuum den Standort wählt, dessen Nutzen höher ist als der Nutzen des Ursprungs und der Nutzen der dazwischenliegenden Möglichkeiten geringer ist als der Nutzen des Ursprungs (siehe Details in Ergänzung Information, Die Ableitung des Strahlungsmodells). Dann ist die Wahrscheinlichkeit des Individuums am Standort ich Standort auswählen J wie das Ziel ist

Aus Gl. (6)–(8) sehen wir, dass das OO-Modell, das OPS-Modell und das Strahlungsmodell alle Sonderfälle unseres UO-Modells sind.

Vorhersage

Wir verwenden vierzehn empirische Datensätze, darunter Pendelfahrten zwischen den Grafschaften der Vereinigten Staaten (USC), Pendelfahrten zwischen den Provinzen Italiens (ITC), Pendelfahrten zwischen den Unterregionen Ungarns (HUC), Fracht zwischen chinesischen Städten (CNF), interne Jobsuche in China (CNJ), interne Migrationen in den USA (USM), Intercity-Reisen in China (CNT), Intercity-Reisen in den USA (UST), Intercity-Reisen in Belgien (BLT), Intracity-Reisen in Suzhou (SZT), Intracity-Fahrten in Peking (BJT), Intracity-Fahrten in Shenzhen (SHT), Intracity-Fahrten in London (LOT) und Intracity-Fahrten in Berlin (BET) (siehe Methoden), um die Vorhersagefähigkeit des UO-Modells zu validieren. Wir extrahieren zuerst den Fluss TichJ vom Standort ich zum Standort J aus dem Datensatz und erhalten die reale Mobilitätsmatrix. Dann nutzen wir den Sørensen-Ähnlichkeitsindex 38 (SSI, siehe Methoden) um die Ähnlichkeit zwischen der realen Mobilitätsmatrix und der vom UO-Modell vorhergesagten Mobilitätsmatrix unter verschiedenen Parameterkombinationen zu berechnen. Die Ergebnisse sind in Abb. 2 dargestellt. Abb. 2o zeigt die optimalen Werte des Parameters α und β entsprechend dem höchsten SSI für die vierzehn Datensätze.

Ergebnisse für empirische Datensätze. (einn) Wir nutzen SSI, um die Ähnlichkeit zwischen der realen Mobilitätsmatrix und der vorhergesagten Mobilitätsmatrix unter verschiedenen Parameterkombinationen für die vierzehn Datensätze zu berechnen. Hier stellt der Farbbalken den SSI dar, wobei ein dunkelroter (blauer) Punkt einen höheren (niedrigeren) SSI anzeigt. (Ö) Die optimalen Werte der Parameter α und β entsprechen dem höchsten SSI für die vierzehn Datensätze.

Aus Abb. 2a–d ist ersichtlich, dass für USC, ITC, HUC und CNF, wenn α ist nahe 0 und β nahe 1 liegt, ist der SSI relativ groß. Der Grund dafür ist, dass bei Pendlerdatensätzen (USC, ITC und HUC) die Pendlerentfernung bzw. -zeit für Pendler sehr wichtig ist. Infolgedessen neigen die meisten Menschen dazu, bei der Jobsuche aufgrund ihres Wohnorts oder bei der Anpassung ihres Wohnorts nach der Jobsuche in der Nähe potenzieller Ziele zu wählen. Diese vorsichtige Tendenz zur Zielwahl gibt es auch im Frachtverkehr. Fracht zu Fernzielen wird zu einem Anstieg der Transportkosten und einer Verringerung der Frachtfrequenz führen, was sich negativ auf die Frachteinnahmen auswirken wird. Sofern der Nutzen für die Zielgelegenheit nicht sehr hoch ist, tendiert die Person daher dazu, für die Fracht eher ein nahes Ziel als ein weit entferntes Ziel zu wählen. Für die Migrations- und Jobsuche-Datensätze (USM und CNJ), wenn α ist nahe 1 und β nahe 0 ist, ist der SSI relativ groß, wie in Fig. 2e,f gezeigt. Der Grund dafür ist, dass sowohl Arbeitssuchende als auch Migranten mehr auf den Nutzen der Zielmöglichkeit als auf die Entfernung zum Ziel achten. Mit anderen Worten, sie sind explorativer, aber weniger vorsichtig. Auch wenn ein Ziel mit hohem Nutzen in weiter Ferne liegt, wird es dennoch mit relativ hoher Wahrscheinlichkeit von Einzelpersonen ausgewählt. Der Grund dafür ist, dass die Entfernung zum Zielort einen geringeren Einfluss auf das langfristige Mobilitätsverhalten wie Migration und Jobsuche hat als auf das tägliche Pendelverhalten. Für Fernverkehrsdatensätze (CNT, UST und BLT), wenn α und β liegen beide nahe der Mitte der Diagonallinie des Dreiecks, ist der SSI relativ groß, wie in Abb. 2g–i gezeigt. Für die meisten Menschen sind Intercity-Reisen gelegentlich und nicht so häufig wie Pendeln. Reisende sind weniger geneigt als Pendler, potenzielle Ziele in der Nähe zu wählen, aber sie neigen dazu, entfernte potenzielle Ziele zu erkunden. Somit ist der explorative Tendenzparameter α der Intercity-Reisen ist viel größer als die des Pendelns. Andererseits ist die Bedeutung der Reisekosten von Intercity-Reisen höher als die der Migrationskosten. Der vorsichtige Tendenzparameter β der Intercity-Reisen ist größer als die der Migration. Für Intracity-Fahrten-Datensätze (SZT, BJT, SHT, LOT und BET), wenn α und β liegen beide nahe 0, ist der SSI relativ groß, wie in Abb. 2j–n gezeigt. Der Grund dafür ist, dass im Vergleich zum intercity-Mobilitätsverhalten auf einer großen räumlichen Skala die räumliche Skala des innerstädtischen Mobilitätsverhaltens klein ist. In diesem Szenario macht sich die Person nicht unbedingt Gedanken über die Reiseentfernung und konzentriert sich mehr auf den Nutzen, den ihr der Standort direkt bringt. Somit sind die optimalen Werte von α und β sind beide nahe 0, wie in Fig. 2o gezeigt.

Als nächstes vergleichen wir die Vorhersagegenauigkeit der Mobilitätsflüsse des UO-Modells mit dem Strahlungsmodell, dem OPS-Modell und dem OO-Modell. In Bezug auf SSI schneidet das UO-Modell, wie in Abb. 3 und Tabelle 1 gezeigt, am besten ab. Das Strahlungsmodell und das OPS-Modell können jedoch für einige Datensätze nur relativ genaue Vorhersagen liefern. Das Strahlungsmodell kann beispielsweise Pendler- und Frachtfahrten relativ genau vorhersagen, andere Mobilitätsarten jedoch nicht genau vorhersagen. Der Grund dafür ist, dass der Einzelne dazu neigt, im Pendeln und im Frachtverkehr, bei denen die Reisekosten wichtiger sind, eher nahe potenzielle Ziele als entfernte potenzielle Ziele zu wählen. Aus Abb. 2o können wir sehen, dass für Pendler- und Frachtdatensätze der optimale Parameter β (was die vorsichtige Tendenz der Person widerspiegelt) des UO-Modells liegt nahe 1 und der optimale Parameter α (was die Erkundungstendenz des Individuums widerspiegelt) liegt nahe 0. Daher ist die Vorhersagegenauigkeit des Strahlungsmodells, bei dem das Individuum nur das nächstgelegene potenzielle Ziel wählt (d. h. α = 0, β = 1) kommt dem UO-Modell in Pendler- und Frachtdatensätzen nahe. Die Vorhersagegenauigkeit des Strahlungsmodells ist jedoch bei Arbeitssuche, Migration und nicht pendelnden Reisedatensätzen erheblich geringer als die des UO-Modells. Der Grund dafür ist, dass die Person in diesen Datensätzen eher entfernte potenzielle Ziele wählt. In diesen Fällen ist die Vorhersagegenauigkeit des OPS-Modells, bei der die Person dazu neigt, entfernte potenzielle Ziele zu wählen, näher an der des UO-Modells. Wir messen außerdem die von verschiedenen Modellen vorhergesagten Flüsse im Vergleich zu den realen Flüssen und stellen fest, dass die von unserem Modell vorhergesagten durchschnittlichen Flüsse mehr mit den realen Beobachtungen übereinstimmen als die anderen drei Modelle (siehe Details in Ergänzende Informationen, Vergleich zwischen verschiedenen Modellen). Wir verwenden auch einen häufig verwendeten statistischen Index namens Root Mean Square Error (RMSE), um die Vorhersagefehler des UO-Modells und der anderen drei Modelle zu messen, und Tabelle 1 listet die Ergebnisse auf. Aus der Tabelle ist ersichtlich, dass der RMSE des UO-Modells in den meisten Fällen kleiner ist als der der anderen Benchmark-Modelle, obwohl der RMSE nicht das Parameteroptimierungsziel des UO-Modells ist. Diese Ergebnisse belegen, dass die drei Modelle das Zielwahlverhalten des Individuums nur auf einer bestimmten raumzeitlichen Skala erfassen. Unser UO-Modell kann jedoch das Zielauswahlverhalten des Individuums auf verschiedenen raumzeitlichen Skalen genau beschreiben.

Vergleich der Vorhersagegenauigkeit des UO-Modells, des Strahlungsmodells, des OPS-Modells und des OO-Modells in Bezug auf SSI.


17.11 R und Oracle R Enterprise für externe logische SQL-Funktionen installieren

Die externen Logical SQL-Funktionen wie EVALUATE_SCRIPT, FORECAST und CLUSTER liefern Eingabedaten an den eigenständigen R-Prozess oder an Oracle R Enterprise. Um Analysen mit diesen Funktionen zu erstellen, müssen Sie daher entweder die externe R-Engine oder die externe Oracle R Enterprise-Engine in Ihrer Umgebung installieren.

R ist eine weit verbreitete Umgebung für statistische Berechnungen und Grafiken und kann mit vielen verschiedenen Datenquellen einschließlich externer Dateien oder Datenbanken verwendet werden. Oracle R Enterprise wird speziell für die Verwendung mit der Oracle-Datenbank installiert und macht die statistische Open-Source-Programmiersprache R und die Umgebung für die Verwendung durch Oracle BI EE bereit.

17.11.1 Installieren von R- und R-Paketen

Um Analysen mit den externen Logical SQL-Funktionen von Advanced Analytics zu erstellen, müssen Sie R und die erforderlichen R-Pakete installieren.

17.11.1.1 Bevor Sie mit der Installation beginnen

Sie müssen die mit Oracle BI vertriebene Version 3.1.1 R installieren. Sie finden das R-Installationsprogramm am folgenden Speicherort der Oracle BI-Umgebung:

Die verteilte R-Installation unterstützt Linux (OLE 6 und OLE 7) und Windows (7 und 8).

17.11.1.2 R- und R-Pakete auf UNIX-Plattformen installieren

Verwenden Sie die Verfahren in diesem Abschnitt, um R und die R-Pakete auf UNIX-Plattformen zu installieren. Allgemeine Informationen zu den Voraussetzungen finden Sie unter „Bevor Sie mit der Installation beginnen“.

Beachten Sie vor der Installation die folgenden wichtigen Informationen und erforderlichen Aufgaben:

Führen Sie RInstaller.sh als Root aus oder verwenden Sie den Befehl sudo. Weitere Informationen finden Sie in der README.txt, die in r-installer.tar.gz enthalten ist.

Suchen Sie die Datei proxy.txt im RInstaller-Ordner und bearbeiten Sie sie, um die Details des Proxyservers einzuschließen.

Für OLE 7 müssen Sie vor der Installation der Oracle R-Distribution die TexLive- und TexInfo-RPMs installieren.

Die erforderlichen RPM-Versionen sind: texlive-epsf-svn21461.2.7.4-32.el7.noarch.rpm und texinfo-tex-5.1-4.el7.x86_64.rpm.

Laden Sie die RPMs herunter und installieren Sie sie mit rpm -ivh <rpm_name> .

Sie müssen die RPMs in dieser bestimmten Reihenfolge installieren: texlive und dann texinfo.

So installieren Sie R auf UNIX-Plattformen:

Öffnen Sie eine Befehlszeile, navigieren Sie zum Speicherort des Installationsprogramms und geben Sie Folgendes ein, um das verteilte R-Installationsprogramm zu entpacken und auszuführen:

So installieren Sie R-Pakete auf UNIX-Plattformen

Führen Sie auf UNIX-Plattformen nach der Installation von R über dieselbe Befehlszeile den folgenden Befehl aus, um die erforderlichen R-Pakete (forecast, mvoutlier, randomForest, RJSONIO und matrixcalc) herunterzuladen und zu installieren. Durch Ausführen dieses Befehls wird auch das OBIEEAdvancedAnalytics R-Paket installiert. Das Installationsprogramm verwendet die Proxy-Informationen aus proxy.txt, um die Pakete von CRAN herunterzuladen.

17.11.1.3 Installieren von R- und R-Paketen unter Windows

Verwenden Sie die Verfahren in diesem Abschnitt, um R und die R-Pakete unter Windows zu installieren. Allgemeine Informationen zu den Voraussetzungen finden Sie unter „Bevor Sie mit der Installation beginnen“.

Beachten Sie vor der Installation die folgenden wichtigen Informationen und erforderlichen Aufgaben:

Suchen Sie die Datei proxy.txt im RInstaller-Ordner und bearbeiten Sie sie, um die Details des Proxyservers einzuschließen.

Bevor Sie R unter Windows installieren können, müssen Sie sicherstellen, dass Ihre Windows-Umgebung das wget und die Entpack-Dienstprogramme enthält. Sie können diese Dienstprogramme von den folgenden Speicherorten herunterladen:

Suchen und öffnen Sie NQSConfig.INI. Aktualisieren Sie im Abschnitt ADVANCE_ANALYTICS_SCRIPT die R_EXECUTABLE_PATH-Eigenschaft so, dass sie auf den ausführbaren R-Pfad verweist. Beispielsweise:

R_EXECUTABLE_PATH = "C:/Programme/R/R-3.1.1/bin/x64/R"

Entpacken Sie r-installer.tar.gz mit einem Zip-Dienstprogramm.

Wenn Sie dies noch nicht getan haben, gehen Sie zum Ordner RInstaller, suchen Sie die Datei proxy.txt und bearbeiten Sie sie, um die Details des Proxyservers einzuschließen.

Um das Installationsprogramm auszuführen, gehen Sie in den RInstaller-Ordner, in den Sie r-installer.tar.gz entpackt haben, suchen und führen Sie dann './Rinstaller.bat install' in einer Befehlszeilensitzung aus.

So installieren Sie R-Pakete unter Windows:

Nachdem Sie R installiert haben, führen Sie von derselben Befehlszeile aus den folgenden Befehl aus, um die erforderlichen R-Pakete (forecast, mvoutlier, randomForest, RJSONIO und matrixcalc) herunterzuladen und zu installieren. Durch Ausführen dieses Befehls wird auch das OBIEEAdvancedAnalytics R-Paket installiert.

17.11.2 Installieren von Oracle R Enterprise und erforderlichen R-Paketen in der Oracle-Datenbank

Oracle BI EE verwendet die in Oracle R Enterprise enthaltene R-Engine anstelle von R.Oracle BI EE kann die Oracle R Enterprise-Colocation-Option verwenden, bei der die Daten in der Oracle R Enterprise-Datenbank gespeichert werden können. (Bei der Option ohne Colocation befinden sich die Daten nicht in der Oracle R Enterprise-Datenbank.)

Weitere Informationen finden Sie unter „Bevor Sie mit der Installation beginnen“. Wenn Sie andere Datenbanken als die Oracle-Datenbank verwenden, finden Sie weitere Informationen unter "Installieren von R- und R-Paketen".

17.11.2.1 Bevor Sie mit der Installation beginnen

Oracle BI EE erfordert, dass Sie Oracle R Enterprise Version 1.4 oder 1.4.1 installieren. Weitere Informationen finden Sie in Tabelle 17-11.