Portal Diskussion:Statistik/Archiv/2012

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Zahl der Woche

Der Link führt zu einer Fehlermeldung: "Das Internetangebot des Statistischen Bundesamtes wurde überarbeitet. Dabei haben sich auch die Internetadressen der einzelnen Seiten geändert und Sie haben versucht, über eine "alte" URL auf eine Seite zuzugreifen." Leider bin ich selbst nicht in der Lage, einen Link zu basteln, mit dem ich dauerhaft auf die Zahl der Woche zugreifen kann. Könnte jemand Fähigeres das tun? -- 178.15.132.6 14:13, 3. Mai 2012 (CEST)

Ich mach mal die Ingrid: Im Archiv https://www.destatis.de/DE/PresseService/Presse/Pressemitteilungen/zdw/2012/GenTable_2012.html läuft jede Woche die Pressemeldung der Zahl der Woche ein. Da wäre der zugriff vermutlich einfacher. -- Iltu (Diskussion) 11:26, 1. Jun. 2012 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --Sigbert (Diskussion) 22:09, 15. Aug. 2012 (CEST)

Signifikanztests

Liebe Statistikexperten,

die jährliche Spendenkampagne steht vor der Tür und wie ihr vielleicht wisst, führen wir zur kontinuierlichen Verbesserung A/B-Tests vor und während der Kampagne durch. Natürlich legen wir dabei auch wert auf statistische Überprüfung der Ergebnisse. Dabei stellen sich uns einige Fragen, etwa welcher Statistiktest angebracht ist. Wir suchen Feedback von Leuten, die sich wirklich damit auskennen. Habt ihr Lust uns zu unterstützen? Wir würden uns sehr freuen! Um gleich mal mit einer konkreten Frage zu beginnen: Ist in diesem Fall ein T-Test für die Prüfung der Hypothese angebracht, dass es einen Unterschied bei den Durchschnittsspenden gibt? Antworten auch gern auf der Disk. unserer Portalseite. --Tobias Schumann (WMDE) (Diskussion) 10:25, 9. Okt. 2012 (CEST)

Hallo, wenn ich mir die A/B Tests so ansehe, dann habt ihr ja 3 Gruppen gebildet: default layout, Globus_Formular_eingeklappt und Globus_Formular_groß. Zunächst sollte man testen, ob es zwischen den drei Gruppen Unterschiede gibt. Hier kommt die ANOVA (Nullhypothese: alle drei Gruppenmittelwert sind gleich) in Frage oder wenn man Ausreißer befürchtet der Median-Test (Nullhypothese: alle drei Gruppenmediane sind gleich). Gleichzeitig würde ich auch Effektstärken (siehe dort Abschnitt: F-Test bzw.ANOVA) berechnen. Ist der Wert kleiner als 0,1, dann ist der Unterschied zwischen den Bannern klein.
Habt ihr nur 2 Gruppen, dann ist der Zweistichproben-t-Test bzw. der Median-Test bei Ausreisser adäquat. Als Effektstärkemaß kommt Cohen's d bzw. r in Frage. --Sigbert (Diskussion) 20:00, 10. Okt. 2012 (CEST)
Hallo Sigbert, danke für die Infos! Ist es nicht möglich trotz der 3 Gruppen jeweils zwei Gruppen, also je die Kontrollvariante (default layout) mit einer Testvariante, mit dem T-Test zu vergleichen, so als ob es nur zwei Stichproben wären?
Grundsätzlich zum T-Test: Ich las, dass es eine Voraussetzung für diesen Test ist, dass die Merkmalsausprägung (Spendenhöhe) in der Grundgesamtheit normalverteilt ist. Nun ist es aber so:
1. Durch unser Spendenformular werden bestimmte Beträge vorgegeben und entsprechend häufiger genutzt als die freie Betragswahl. So gleicht die Verteilung eher einem "Gebirge" mit vielen Spitzen und Tälern als einer Glockenform.
2. Um die gesamte Stichprobe in den Test einzubeziehen könnte man diejenigen, die nicht spenden, als eine Spende über 0 € werten (in unseren Tabellen die Metrik: "Betrag/Besucher") und hier den Unterschied statistisch testen. Allerdings ist die Verteilung hier erst reicht keine Glocke, da das mit Abstand am stärksten auftretende Merkmal 0 ist. - Siehst du hier Probleme für die Nutzung von T-Test oder ANOVA? --Tobias Schumann (WMDE) (Diskussion) 11:00, 11. Okt. 2012 (CEST)
Hallo,
ich war mir nicht sicher, ob ihr zwei oder drei Gruppen habt; deswegen bin bei drei Gruppen nicht auf den nächsten Schritt eingangen nach der Ablehnung der Nullhypothese in der ANOVA. Man kann sog. Post-Hoc-Tests machen: entweder der Least Significant Difference-Bonferroni Test (was im wesentlichen ein t-Test mit korrigierten Signifikanzniveau ist) oder der Scheffé-Test. Damit bekommt man eine Information, welche Mittelwerte unterschiedlich sind und evtl. auch homogene Untergruppen (zumindest wirft SPSS es mit aus).
zu 1.)
Für den t-Test wird die Normalverteilungsvoraussetzung nur gebraucht, wenn man pro Teilgruppen weniger als 30 Beobachtungen hat, ansonsten garantiert der zentrale Grenzwertsatz, dass zumindest approximativ normalverteilt ist. Und hier sind es mehr als 100 bzw. 200 Beobachtungen pro Teilgruppe. Bei der ANOVA sieht es wieder etwas anders aus, allerdings sind vermutlich in jeder Teilgruppe die Verteilungen deutlich rechtsschief und dann ist das auch kein Problem.
zu 2.)
a) Letztlich ist eine inhaltliche Entscheidung. Wie läuft die Entscheidung für die Spende ab? Entscheidet man sich erst zu spenden und überlegt sich dann eine Spendenhöhe? Dann würde ich es auch in zwei Schritten prüfen: entscheidet man sich zu spenden und falls ja, wieviel spendet man. Oder ist doch nur ein Entscheidungsschritt? Dann wäre eher die zweite Variante mit den mehr als 10.000 Beobachtungen pro Teilgruppe zu wählen.
b) Bei der zweiten Variante gibt es allerdings ein Problem. Alle Tests hängen von der Stichprobengrösse ab: Je größer die Stichprobe desto eher werden auch minimale Differenzen hochsignifikant. Und jede Teilgruppe würde dann jeweils mehr als 10.000 Beobachtungen umfassen. Da muss man in jedem Fall Effektstärken ausrechnen und ich vermute mal, das Ergebnis wird sein: es gibt Unterschiede (da Tests hochsignifikant), aber die Unterschiede sind klein (da Effektstärken klein).
--Sigbert (Diskussion) 12:38, 11. Okt. 2012 (CEST)
Entscheidet man sich in zwei Schritten zu testen, also 1. spendet man überhaupt, dann ergibt ein Chi-Quadrat-Unabhängigkeitstest (spenden/nicht spenden vs. Layout):
Test1 Test 2
Prüfwert 6,968 2,610
p-Wert 0,031 0,271
Cohen's w 0,014 0,011
Also in Test1 gibt es einen signifikanten Unterschied und in Test2 ist es insignifikant, aber die Effektstärke Cohen's w ist in beiden Fällen sehr klein. Schlussfolgerung: das Layout hat nur einen sehr minimalen Einfluß darauf, ob sich jemand entscheidet zu spenden oder nicht. --Sigbert (Diskussion) 13:27, 11. Okt. 2012 (CEST)
Toll, wirklich vielen Dank für die Infos! Ich werde mich nun erstmal in die ANOVA und Post-Hoc-Tests einarbeiten. Bisher hatte ich Chi-Quadrat-Tests einfach immer für Teilgruppen (also mit A und B unter Absehung von Gruppe C in einem A/B/C-Test) gemacht. Offensichtlich ist dies unsauber. Dein Hinweis in Punkt 2 a) ist ebenso sehr hilfreich. Vermutlich geht mit der Entscheidung zu spenden eine gewisse Vorstellung von der Größenordnung der Spende einher. Doch ich denke, die Entscheidung über die Höhe der Spende kann als separat von der Entscheidung zu spenden angenommen und dementsprechend getestet werden. Dafür könnte sprechen, dass Veränderungen der angegebenen Summen Einfluss haben auf die Höhe der Spende. Wenn die Entscheidung bereits fest getroffen wäre, könnte sie nicht mehr beeinflusst werden. --Tobias Schumann (WMDE) (Diskussion) 15:42, 15. Okt. 2012 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: Sigbert (Diskussion) 20:17, 13. Nov. 2012 (CET)

Infobox Verteilungen

Hallo, ich habe folgende Infoxbox erstellt Vorlage:Infobox_Verteilung. Die fuer die Verteilungen verwendet werden kann, Anregungen und Aenderungsvorschlaege willkommen. Mit freundlichen Gruessen --Meisterkoch 12:36, 8. Sep. 2009 (CEST)

Vorlage für Portalmitarbeiter

Unter Benutzer:Sigbert/Vorlage:PortalStatistik habe ich mal eine Vorlage für Portalmitarbeiter zum Einbinden auf ihrer Benutzerseite erstellt. -- Sigbert 11:34, 23. Mai 2010 (CEST)

Basiseffekt

Aus der QS Wirtschaft. Ist eher was für Euch.Karsten11 18:39, 13. Mai 2011 (CEST)

Eigene QS

Hallo, ich habe die Portal-eigene QS wieder eingefügt. Denn nicht alles wird unter QS-Mathe abgedeckt. Allerdings mit dem Hinweis, dass hier nichts selbst diskutiert wird, sondern nur in den jeweiligen Portalen. Gruß --Zulu55 (Diskussion) Unwissen 14:50, 4. Nov. 2013 (CET)

Neue Kategorie: Kostenfreie Statistik-Software?

Moin, es gibt gute Statistik-Software, die keine freie Software, aber dennoch kostenlos ist (z. B. OpenStat oder G*Power). In die Kategorie Freie Statistik-Software gehört nur freie Software, und die kostenfreie Software steht in einer Kategorie mit den kommerziellen Produkten. Viele Leser dürften wohl eher an der Frage des Preises (kostenfrei oder nicht) und erst in zweiter Linie an der Frage der Lizenzoffenheit interessiert sein. Ist es sinnvoll, eine zusätzliche Kategorie "Kostenfreie Statistik-Software" zu etablieren? --Kartenhörnchen (Diskussion) 08:57, 27. Okt. 2014 (CET)

Wenn es ausreichend Artikel dafür gibt fände ich das gut. Viel Erfolg. --Zulu55 (Diskussion) Unwissen 11:42, 27. Okt. 2014 (CET)

WikiDACH 2015 - Wikipedia tut gut

Hallo Redaktion Statistik,

Vom 30. Oktober bis 01. November 2015 findet im Schweriner Schloss die WikiDACH 2015 statt. Informationen zur Konferenz findet ihr auf Seite Wikipedia:WikiDACH/2015

Wir laden Euch ein, die Gelegenheit zu nutzen, um Treffen abzuhalten, Projekte zu beleben und Euch mit anderen Redaktionen, Portalen und WikiProjekten zu vernetzen. Außerdem öffnen wir Euch gern die Türen zur Landesregierung Mecklenburg-Pommern und der Stadt Schwerin. Schreibt bitte gern an mailto:orga@wikidach.org oder auf unserer Diskussionsseite Wikipedia_Diskussion:WikiDACH/2015

--Sebastian Wallroth (Diskussion) 10:39, 2. Aug. 2015 (CEST)

Verwechselung statistischer Grundbegriffe

Liebe Kollegen, hier findet gerade ein äußerst bemerkenswerter Vorgang und eine gleichermaßen bemerkenswerte Diskussion statt. Um dritte Meinungen wird dringend gebeten. Danke.--Saidmann (Diskussion) 16:18, 8. Dez. 2015 (CET)

Extrapolation in der Liste "Tötungsrate nach Ländern" - 3M

Die Liste umfasst Zufallszahlen in Kleinstädten. Diese gehören gelöscht – solche Extrapolationen ändern sich zufällig und jedes Jahr. (Zudem ist im Titel von "Grossstädten" die Rede). Bitte die Wiedereinsetzung von Kleinstädten unter den Titel "Grossstädte" rückgängig machen. Also gerne den diesen Revert ohne Begründung mit kurzer Begründung revertieren. Danke.--Anidaat (Diskussion) 23:02, 31. Jan. 2016 (CET)