Vergleich von Methoden zur Strukturfindung in der Psychometrie mit Hilfe echter Daten
Beschreibung
vor 9 Jahren
Die vorliegende Arbeit beschäftigt sich mit der Evaluation von
strukturfindenden Methoden, die die Items psychologischer
Fragebogendaten in homogene Gruppen von ähnlichen Items
zusammenfassen. Ein wesentlicher Unterschied zwischen Methoden, die
zu diesem Zweck verwendet werden, ist, ob sie ein zugrundeliegendes
Messmodell annehmen oder ob sie nur eine möglichst brauchbare
Gruppierung der Items anstreben. Zum einen gibt es die
modellbasierte Faktorenanalyse (FA), die auf dem Faktormodell
basiert. Der mathematische Ansatz ist ähnlich der
Hauptkomponentenanalyse, oder principal component analysis (PCA).
In der FA wird im Unterschied zur PCA noch angenommen, dass die
Antworten auf die Items kausal von zugrundeliegenden Faktoren plus
einem einzigartigen Residualterm kausal erklärt werden. Und dieser
spezifische Residualterm jedes Items wird als völlig unkorreliert
zu allen anderen Items angenommen. Ein Verfahren, das keine
Modellannahmen trifft, ist die Clusteranalyse (CA). Hier werden
lediglich Objekte zusammengefügt, die sich auf einem bestimmten
Kriterium ähnlicher sind als andere. So wie man Methoden darin
unterscheiden kann, ob sie ein zugrundeliegendes Modell annehmen
oder nicht, kann man auch bei der Evaluation von Methoden diese
Unterscheidung treffen. Eine Evaluationtechnik, die ein Modell
annimmt, ist die Monte Carlo Simulation. Eine Technik, die nicht
zwangsweise ein Modell zugrunde legt, ist das Resampling. Es werden
Stichproben aus einem echten Datensatz gezogen und das Verhalten
der Methode in diesen Stichproben wird untersucht. In der ersten
Studie wurde ein solches Resampling-Verfahren angewandt, das wir
Real World Simulation nennen. Es soll das bestehende Problem der
mangelnden Validität von Monte Carlo Studien zur FA beheben. Es
wurde eine Real World Simulation an zwei großen Datensätzen
durchgeführt und die Schätzer der Modellparameter aus dem echten
Datensatz anschließend für die Monte Carlo Simulation als
Modellparameter verwendet. So kann getestet werden, welchen
Einfluss die spezifischen Datensatzcharakteristiken sowie
kontrollierte Veränderungen von ihnen auf die Funktion der Methoden
haben. Die Ergebnisse legen nahe, dass die Resultate von
Simulationsstudien immer stark von bestimmten Spezifikationen des
Modells und seiner Verletzungen abhängen und daher keine
allgemeingültigen Aussagen getroffen werden können. Die Analyse
echter Daten ist wichtig, um die Funktion verschiedener Methoden zu
verstehen. In der zweiten Studie wurde mit Hilfe dieser neuen
Evaluationstechnik ein neues k-means Clusterungsverfahren zur
Clusterung von Items getestet. Die zwei Verfahren, die
vorgeschlagen wurden, sind: k-means skaliertes Distanzmaß (k-means
SDM) und k-means cor. In den Analysen zeigte sich, dass sich die
neuen Verfahren besser eignen, Items zu Konstrukten zuzuordnen als
die EFA. Lediglich bei der Bestimmung der Anzahl der
zugrundeliegenden Konstrukte, waren die EFA-Verfahren genauso gut.
Aus diesem Grund wird vorgeschlagen eine Kombination dieser beiden
Verfahren zu verwenden. Ein großer Vorteil der neuen Methoden ist,
dass sie das Problem der Unbestimmtheit der Faktorwerte in der EFA
lösen können, da die Clusterwerte der Personen auf den Clustern
eindeutig bestimmt werden können. Am Ende der Arbeit wird auf die
unterschiedlichen Evaluierungs- bzw. Validierungstechniken für
modellbasierte und nicht-modellbasierte Verfahren eingegangen. Für
die Zukunft wird vorgeschlagen, für die Evaluation des neuen
k-means CA Verfahrens zur Clusterung von Items, Real World
Simulationen sowie Validierungen der Clusterwerte mit
Außenkriterien anzuwenden.
strukturfindenden Methoden, die die Items psychologischer
Fragebogendaten in homogene Gruppen von ähnlichen Items
zusammenfassen. Ein wesentlicher Unterschied zwischen Methoden, die
zu diesem Zweck verwendet werden, ist, ob sie ein zugrundeliegendes
Messmodell annehmen oder ob sie nur eine möglichst brauchbare
Gruppierung der Items anstreben. Zum einen gibt es die
modellbasierte Faktorenanalyse (FA), die auf dem Faktormodell
basiert. Der mathematische Ansatz ist ähnlich der
Hauptkomponentenanalyse, oder principal component analysis (PCA).
In der FA wird im Unterschied zur PCA noch angenommen, dass die
Antworten auf die Items kausal von zugrundeliegenden Faktoren plus
einem einzigartigen Residualterm kausal erklärt werden. Und dieser
spezifische Residualterm jedes Items wird als völlig unkorreliert
zu allen anderen Items angenommen. Ein Verfahren, das keine
Modellannahmen trifft, ist die Clusteranalyse (CA). Hier werden
lediglich Objekte zusammengefügt, die sich auf einem bestimmten
Kriterium ähnlicher sind als andere. So wie man Methoden darin
unterscheiden kann, ob sie ein zugrundeliegendes Modell annehmen
oder nicht, kann man auch bei der Evaluation von Methoden diese
Unterscheidung treffen. Eine Evaluationtechnik, die ein Modell
annimmt, ist die Monte Carlo Simulation. Eine Technik, die nicht
zwangsweise ein Modell zugrunde legt, ist das Resampling. Es werden
Stichproben aus einem echten Datensatz gezogen und das Verhalten
der Methode in diesen Stichproben wird untersucht. In der ersten
Studie wurde ein solches Resampling-Verfahren angewandt, das wir
Real World Simulation nennen. Es soll das bestehende Problem der
mangelnden Validität von Monte Carlo Studien zur FA beheben. Es
wurde eine Real World Simulation an zwei großen Datensätzen
durchgeführt und die Schätzer der Modellparameter aus dem echten
Datensatz anschließend für die Monte Carlo Simulation als
Modellparameter verwendet. So kann getestet werden, welchen
Einfluss die spezifischen Datensatzcharakteristiken sowie
kontrollierte Veränderungen von ihnen auf die Funktion der Methoden
haben. Die Ergebnisse legen nahe, dass die Resultate von
Simulationsstudien immer stark von bestimmten Spezifikationen des
Modells und seiner Verletzungen abhängen und daher keine
allgemeingültigen Aussagen getroffen werden können. Die Analyse
echter Daten ist wichtig, um die Funktion verschiedener Methoden zu
verstehen. In der zweiten Studie wurde mit Hilfe dieser neuen
Evaluationstechnik ein neues k-means Clusterungsverfahren zur
Clusterung von Items getestet. Die zwei Verfahren, die
vorgeschlagen wurden, sind: k-means skaliertes Distanzmaß (k-means
SDM) und k-means cor. In den Analysen zeigte sich, dass sich die
neuen Verfahren besser eignen, Items zu Konstrukten zuzuordnen als
die EFA. Lediglich bei der Bestimmung der Anzahl der
zugrundeliegenden Konstrukte, waren die EFA-Verfahren genauso gut.
Aus diesem Grund wird vorgeschlagen eine Kombination dieser beiden
Verfahren zu verwenden. Ein großer Vorteil der neuen Methoden ist,
dass sie das Problem der Unbestimmtheit der Faktorwerte in der EFA
lösen können, da die Clusterwerte der Personen auf den Clustern
eindeutig bestimmt werden können. Am Ende der Arbeit wird auf die
unterschiedlichen Evaluierungs- bzw. Validierungstechniken für
modellbasierte und nicht-modellbasierte Verfahren eingegangen. Für
die Zukunft wird vorgeschlagen, für die Evaluation des neuen
k-means CA Verfahrens zur Clusterung von Items, Real World
Simulationen sowie Validierungen der Clusterwerte mit
Außenkriterien anzuwenden.
Weitere Episoden
In Podcasts werben
Kommentare (0)