第16章:多変量解析 構造方程式モデリング
ナレーション原稿
米倉 こんにちは。講師の米倉です。それでは、今回の内容を始めていきます。今回は、構造方程式モデリングについてお話をします。今回の内容なんですけれども、構造方程式モデリング、英語だとStructural Equation Modeling、SEMというふうに訳されることが多いですけれども、このSEMの利点だったり、潜在変数と観測変数という、SEMで出てくる概念、考え方などについて話をするというのと、SEMというのは適合度の指標、いろんな指標を算出することはできるんですけれども、それを用いてモデルの当てはまりを評価していくわけですが、いろいろな適合指標についてお話をしていきます。
SEMで表現できるいろんないろいろなモデルについてお話をすると。あとはよく保健医療系の研究でよく使わる、確認的因子分析やパス解析などについての話もしていきます。
構造方程式モデリング、SEMというのは直接観測することができる変数です。観測変数というふうに呼びます。直接観測することができない変数、潜在変数の関連性を分析するモデル、統計モデルというのが構造方程式モデリング。
いろいろな呼び方がされていて、構造方程式モデル、訳でSEMというふうに呼ばれることもあります。共分散構造分析というふうに呼ばれていたりすることもあります。共分散構造分析では、Covariance Structure Analysisなので、CSAというふうに呼ばれたりすることもあります。
これまで紹介してきた、多変量解析のいろいろなモデルを表現することができるというもので、因子分析のモデルだったり、主成分分析のモデルだったり、一般線形モデル、重回帰分析などのようなモデルというのを表現することも。
主にSEM、構造方程式モデリングというのは、仮説の検証に用いられます。なので仮説を設定して、それをモデルとして、統計モデルとして表現する必要があります。探索的な分析をする場合には、このSEMを使うよりも重回帰分析や探索的因子分析を使ったほうが使い勝手がいいので、このSEMというのは仮説を設定して、その仮説が正しいかどうかというのを評価するということを主目的にしているというところを、押さえておいてもらえるといいかなというふうに思います。
SEMではいろんな、今までに出てこなかったような新しい用語があります。少し用語を整理しておきますと、観測変数というのは実際にデータが得られている。質問紙の調査や実験だったり、あと検査などをして、実際にデータが得られている変数のことを観測変数というふうに言います。
一方、実際にデータが得られていないものを変数として扱うということもできて、それを実際にデータが得られていないけれども潜在的なものとして、変数として、統計モデルの中で扱う変数として潜在変数というものもあります。
あとは内生変数、外生変数、これは対になっていて、内生変数というのは少なくともモデルの中で1回は他の変数の結果になる変数です。つまり、少なくとも1回は目的変数になっているような変数のことを、内生変数というふうに言います。
それから外生変数というのは、内生変数の逆というか対になっているもので、一度も他の変数の結果にならない変数、つまり説明変数としての役割しかない変数のことを、外生変数というふうに言います。
それから構造方程式モデルでは、測定方程式というものと構造方程式というものを組み合わせて、変数間の関連性を表現するわけですけども、測定方程式というのは因子分析の方程式のことで潜在変数を測定する数式というのが、測定方程式というものになります。
それから構造方程式というのは、変数と変数の関連性を表す方程式で、代表的なものとしては重回帰分析です。重回帰の回帰のモデルなどを表すのが、この構造方程式というものになります。
パス係数というのは、変数から変数への影響力の大きさで、標準化したものと標準化していないものがあります。これは重回帰分析の偏回帰係数や、因子分析の因子負荷量に相当するものというふうに考えてもらえばいいです。つまり構造方程式モデル、SEMで変数と変数の関連の強さ、影響力の大きさというのを表しているのは、このパス係数というものになります。
構造方程式モデルの考え方なんですけれども、構造方程式モデルにはいろいろな変数間の関連の方程式というのを立てて、複雑な変数間の関係というのを表現してあります。この変数間の関連の方程式を作ってあげた後、方程式から観測変数の分散、共分散を回帰係数と誤差分差の、この方程式に含まれるパラメータで表現をしてあげると。
つまり、この分散、共分散で実際に得られているデータというのと、あとはモデルに含まれている係数というのの関連というのを、数式で表現したりですね。この立てられる方程式などではいくつか制限があって、観測変数の分散と共分散との関係を方程式に立ててあげるので、立ててあげるのが構造方程式モデルです。
観測変数の分散と共分散というのは(観測変数の数)×(観測変数の数+1)/2個あるので、立てられる方程式というのは、その数が上限です。なので、上限を超えている場合は、推定することはできないと。あとは、上限を超えていなくても推定できない場合があるので、推定できるように方程式に適切な制限をかけてあげる必要があるというのは、少しモデルを作る時にかかってくる制限としてあります。
なので、かなり自由にこの変数間の関連というのを表現することができるんですけれども、何でもかんでも自由にできるわけではなくて、いくつか制限というのがあるというところが、この構造方程式モデルになります。
目的関数に、あとはこの2の関係式で立てた、関係式というのを代入して最適化してあげる。最適化というのは、今まで回帰分析などで出てきた最小二乗法とかのように、目的関数というのはこの推定方法によって変わります。最小二乗法なら誤差関数、最尤法なら尤度関数、そういったものを使って最適化したりと。SEMでは、観測変数が多変量正規分布に従うというふうに仮定して、最尤法を使って定数、回帰分析の誤差など、残差のばらつきなどを推定することは容易です。
この説明だと何のこっちゃよく分からんという人もいるかなと思いますけれども、この構造方程式モデルでは複雑な変数間の関係を扱うことができます。その分、この変数間の関係を数式だけで表していると、どうしても分かりづらくなってしまうわけです。
そこでこの変数と変数の間の関係というのを、図として表したものがパス図というものになります。このパス図というのはこのルールに従って書かれていて、変数と変数の関係というのは、この要は図として示されている。
どういうルールかというと、一つは潜在変数です。因子分析の因子などは楕円で表すというのが、一つのルール。観測変数は四角で表す。なので、この図でいうと、この楕円で書いてあるものというのは潜在変数。この四角で書いてあるのは観測変数。実際にデータが得られている変数というのは、この四角で表されている。
それから、矢印がいくつかいろんなとこにあると思いますけど、この矢印とは何を表しているかというと、関連がある、もう少し踏み込んで言うと、原因と結果の関係にあるというふうなことを表現しているのはこの矢印になります。原因から結果に向けて矢印を引くというのが、パス図のルールです。
それから矢印が刺さる変数、つまり結果になる変数というのには誤差を付けるということで、矢印が刺さっている変数には、必ずこの誤差、小さい丸が付いていると思いますが、矢印が刺さっている変数には、この誤差というのが付くということになります。
あとは、どちらが原因でどちらが結果かというのが分からなかったり、関心がないというものは共変動というふうな形で表現をして、共分散と相関というのはこの双方向の矢印で表すと。例えば、ここの部分と両方、双方向の矢印というのは相関というのを表しています。
この構造方程式モデルというのは、測定方程式というのと構造方程式の組み合わせでできているわけですけれども、まずそれぞれの説明をしておく。
測定方程式というのは因子分析のモデルと同じということで、このようにそれぞれの観測変数というのが因子と因子負荷量と、あとは独自因子というもので表されているというふうな形になっていると。
この場合「人生満足度」というのが潜在変数で、この潜在変数から観測変数に向けて、矢印が出ているということで、これがまさに因子分析のモデルというふうになっているわけです。因子分析なのでこの観測変数というのは、原則として量的変数である必要がある。最近は量的変数でなくても扱うことができるようなソフトウエアなどありますけれども、原則としては量的変数であるということを仮定しています。
それから構造方程式というのは、測定方程式以外の変数の関連性を表す方程式で、主に代表的なものとしては重回帰分析の式です。例えば、このような回帰式というのをパス図で表現するとどういうふうになるかというと、このyです。yというのが目的変数になっているので、yにx1、x2という説明変数があるんですね。矢印が刺さっている。さらに誤差が付いているというふうな形で、この構造法的というのは、パス図にするとこのように表現することができる。
また戻りますけれども、測定方式の場合はこの方程式、5本の方程式をパス図に表すとこのようになるということです。この方程式のfというのが、「人生満足度」という、それぞれのνですね、それぞれの目的変数になっているものというのは、それぞれのこの観測変数というふうなことになります。
構造方程式の説明に戻ります。目的変数、説明変数は、観測変数でも潜在変数でもどちらでも構造方程式に使うことができます。また原則として、内生変数というのは量的変数である必要があります。それから、外生変数が質的変数の場合はダミー変数にすれば使うことができるというように、構造方程式に使える変数はこのような4条件があるということになります。
構造方程式モデルというのは、SEMの利点なんですけれども、一つは柔軟で自由なモデル設定をすることができるということで、今までの重回帰分析や因子分析などでは、目的変数が1つとか、因子がいくつかいうふうな形で制限があったわけですけれども、複雑な回帰モデルというのを推定することもできます。
パス解析というのは、ある回帰モデルの目的変数になっていたものが、他のモデルの説明変数になり、モデルだったり、あとはそのパス解析などのモデルでは直接効果とか間接効果、総合効果というのを検討したりすることもできます。
それから複数の目的変数を使ったモデル、媒介効果などを検討したりするということもできるというわけです。さらに因子分析と重回帰分析を組み合わせて一つのモデルとして表現するということで、いろんな複雑なモデルというのを設定して、当てはまりの良さというのを検討することができる、というのが一つ大きな利点になります。
それから希薄化の修正というのを行うこともできます。これは因子分析と重回帰分析というのを組み合わせることでできます。これは何かというと、多項目尺度の合計点というのを変数として、観測変数を使った分析よりも、この構造方程式モデルで因子分析モデルと重回帰分析を組み合わせることで、組み合わせた分析を使うことで、関連性を強く出すことができるんですね。そういった希薄化の修正というのをすることもできる。
それから、モデル適合度を算出してモデルを比較するということもできて、豊富な適合度指標でモデル全体の当てはまりを評価したり比較して、どのモデルがいいのかというのを決めるということもできる。
複雑なモデルでよく出てくるのは、こういった間接効果と媒介効果と、そういったものも表現する場合です。直接効果、間接効果というのは一体何かというと、直接効果というのは、説明変数から目的変数に直接影響を与えるというようなものが直接効果。間接効果というのは、他の説明変数を経由して他の目的変数に関連するというようなモデルです。この間接効果の大きさというのは、経路のパス係数を全て掛け合わせることで算出することができる。
それから総合効果というのは、直接効果というのと間接効果というのを合計したものということになります。重回帰分析では、この間接効果を推計するために、このパスでいうとXとM、この2者の関係の回帰分析というのと、MとYの2つのモデルを推定しないと産出できないんですけれども、SEMでは同時に推定して1回でこの両方のパスの大きさ、パス係数の大きさというのを推定することができます。
現在では、この重回帰分析の繰り返しをするパス解析よりも、SEMを使ってパス解析をするほうが望ましいというふうに言われています。このパス解析というのもSEMを使ったほうがいいというふうに言われています。
この直接効果・間接効果・総合効果、パス解析の例ですけれども、この「日常動作の障害」というのと「コントロール感」というのと、あと「CES-D」、これは精神健康度ですが、この3者の関係というのを見る時に、「日常動作の障害」からCES-Dへの直接効果というのは、0.13を含めています。
「日常動作の障害」のコントロール感を介したCES-Dへの間接効果は、この間接効果というのは経路のパスを掛け合わせることで出てくるので、-0.11×-0.20ということで、0.022というふうに出てきます。
そうすると、この「日常動作障害」というのは、直接このCES-D、精神健康度に与える影響というのと、コントロール感をというのを媒介して、介したルートで影響を与える、2つのルートがあってこの2つを合計すると、合計したものを総合効果ということで、総合効果というのは、この2つ、直接効果と間接効果を合計した0.152というのが、総合効果の大きさというふうな形で出すことができるわけです。
このように目的変数が複数あるような複雑なモデルというのを表現して、さらにそこから変数間の関係についていろんな推測をすることができるというのが、SEMの例と、利点ということになります。
それから希薄化の修正というのも利点として挙がっていましたけれども、これは尺度で測定する構成概念というのを、モデルの中で潜在変数化することで、構成概念との関連性というのを強く出すことができるものになります。
ここに出ているのが例で、両方ともこれは同じデータを使って、同じデータっていうか、同じデータセットを使っているんですけれども、こちらは「自尊感情」も「CES-D」も合計得点を計算して、観測変数として関連を見ています。
下のほうは、それぞれの尺度の項目から、潜在変数を構成している潜在変数間で関連を見ています。そうすると、合計点を観測変数として使った場合の相関係数は、-0.31で、潜在変数化した場合は、相関変数が0.41になっています。
符号は逆転しているので分かりづらいかもしれませんけど、絶対値を比較してあげると潜在変数化したほうが値が大きい、絶対値が大きいわけです。つまり関連が強く出ると。同じ構成概念でも観測変数としてモデルに組み込むよりも、このように潜在変数としてモデルに組み込んであげたほうが関連が強く出せる。
なぜかというと、測定の誤差の分を外側に考慮して、新の値というのを潜在変数として潜在変数化してあげることで、この関連というのを強く出せるというのがこのSEMのいいところで、観測変数よりもこちらの潜在変数のほうが誤差が含まれる部分が小さいので、より強く関連を出せるという仕組みになっている。なので、より強く関連を出せるというのも、このSEMの良いところになります。
それからSEMではこれから紹介するように、いろいろな豊富な適合度の指標、モデルの当てはまりの良さの指標というのを使って、モデルを比較したり評価したりすることができます。
いろいろな種類があって、一つはこの乖離度です。観測値とモデルのズレに相当するものをベースにしたものというのがあります。カイニ乗値というのは、乖離度をベースにした適合度指標の一つで、観測値とモデルのズレというのを表しています。ズレが当然小さいほうがいいので、このカイニ乗値は小さいほうが当てはまりが良いと。
あとはカイニ乗値というのは、カイニ乗分布に従う統計量ですので、カイニ乗値を使って検定することができます。帰無化説はモデルがデータに適合しているというものなので、帰無仮説が棄却されなければ、モデルがデータに適合しているというふうに考えることはできます。ただ、欠点としは、サンプルサイズが大きいと帰無仮説が棄却されやすくなってしまうということがありますので、その点は欠点というのがあります。
サンプルサイズに影響されないような、乖離度の指標としてよく使われるのは、このRMSEAというものです。Root Mean Square Error of Approximationです。これは1自由度あたりのモデルの分布と真の分布のズレというもので、この値が0.05以下であれば当てはまりが良い。0.08以下は許容範囲、0.1以上は当てはまりが悪いということで、この基準を元に、モデルの当てはまりの良さというのを評価します。あとはこの値が0.05未満からの検定をすることもできますので、検定をして、当てはまりが良いか悪いかというのの判断をするということもできる。
次は、独立モデルとの比較によるものをベースとした適合度指標で、NFIというのとCFIというのとPCFIというのがあります。NFIというのは独立モデルとの距離です。つまり観測変数間の相関が全くないモデルとの距離で、値が大きいほど当てはまりが良いというふうにいわれているものです。
CFIはこのNFIを0から1の間に収まるように変換したもので、1に近いほど当てはまりが良いというふうに解釈することができます。基準として0.9以上は許容範囲で0.95以上なら当てはまりが良いというふうに評価するというのが、CFIの見方です。PCFIというのはモデルの複雑さでペナルティをかけたものです。なのでパスが多かったり、変数が多いと少し低くなると。シンプルなモデルのほうが評価されるというような指標はPCFIということになります。
それから情報量基準というのも適合度指標として使われていて、AICとかCAICとかBICというのがあります。基本的な考え方は全て一緒で、この値が小さいほど良いモデルであるというふうに評価することができます。
幾つよりも小さければいいというような基準はなくて、複数のモデルを比較する時に使用するのはこのAIC、情報量基準の使い方ということになります。CAICは、AICよりも自由度の小ささ、モデルの複雑さに対するペナルティを強めたもので、AICよりもさらにシンプルな変数や、パスの数が少ないモデルのほうがいいというふうに評価されるものです。
それからこのCAICよりも、モデルの複雑さに対するペナルティを強めたものがこのBICというもので、CAICよりもシンプルなモデルの評価が高くなるというような、指標になります。
それからGFI関連というもので、これは重回帰分析の決定係数と似たような指標で標本、観測データを分散共分散行列と、モデルを当てはめて推定した分散共分散行列を比較して評価するというものです。
推定するパラメータです。パスだったりとか、あと分散とかが多くなればなるほど高くなります。このGFIというのは1以下の値を取り、取って1に近いほど適合度が良いというふうに評価される指標です。経験的な基準としては0.9以上であれば、当てはまりが良いというふうに評価されることになります。
AGFIAというのは、GFIを推定するパラメータの数で調整をしたものです。重回帰分析での、自由度調整済み決定係数と同じようなものというふうに考えてもらえばいいです。このAGFIというのは、同じGFIを取るモデルは2つあれば、パラメータが少ないモデルのほうが良いというふうに評価されたことになります。
このモデルの評価や、評価や比較の仕方ですけれども、1つのモデルを評価する場合は、基準がある指標を用いて評価をしてあげるというのが方法です。例えばRMSEAとか、CFIとかGFIAといったものを使って評価するというのが、一つのモデルを評価する時の考えなんです。
適合度指標は一つだけよければいいというのではなくて、複数の指標の評価から総合的に判断をして当てはまりが良いか悪いかです。RMSEAはいいけど、CFIは悪いというような時には、何かモデルに問題がある可能性があるんで、より修正したモデルのほうがいい可能性があるというふうな形で、判断をするということになります。
それから複数のモデルで比較をする場合には、相対的な評価が可能な基準で、選定比較をしてあげるといいということになります。例えば、先ほど出てきた情報量基準で比較をしたりとか、自由度を調整した指標PCFIとかAGFIとかRMSEAなどで、比較をしたりです。
あと、入れ子関係にあるモデルの比較の場合は、尤度比検定をすることもできる。入れ子になっているモデルというのはどういうものかというと、あるモデルに何らかの制約を加えた形で表現できるモデルのことを、入れ子モデルというふうに言います。
SEMでは、いろいろなモデルというのを表現することはできるんですけれども、ここからいろいろなSEMで実行できるモデルというのを紹介していこうと思います。まずは、探索的因子分析です。探索的因子分析というのもSEMで表現することができて、それぞれの因子から全ての項目にパスを引いたモデルが、探索的因子分析に相当するものになります。
因子の回転というのを因子分析の時、探索的因子分析の時にやったと思いますけれども、直交回転というのは潜在変数間、因子間に相関がないモデルです。直交回転の場合は、因子間に相関のパスを引かないものになります。
斜交回転をするようなモデルでは、潜在変数間に相関のパスを引いたり。ただしSEMでやる意味はあまりないので、ただ表現できるというだけであって、探索的因子分析をやるのであれば、SEMではなくて普通の探索的因子分析でやったほうがいいということになります。
それから因子分析もう一つ、確認的因子分析というのもSEMで実行することができる。これは仮説に基づいて因子負荷、因子と観測変数の間の関連というのを設定してあげて、確認的因子分析では因子帰属がないと考える項目の因子負荷は、積極的にゼロに固定をする。つまりパスを引かないというふうな形で、単純構造にしてあげるということになります。
全てのパラメータが自由パラメータ、推定するパラメータのモデルというのは、推定することができないので、確認的因子分析をする場合には、この2つのうちのどちらかの制約をかけてあげる必要があります。
その制約というのはどういうものかというと、全ての因子の分散を1に固定をするという制約をかけるか、もしくはそれぞれの因子から項目への因子負荷量のうち一つを1に固定するか、このどちらかの制約をかけてあげないと確認的因子分析というのは、推定することはできません。
観測変数が2つ以下の場合は、さらに制約が必要で、観測変数が1つの場合は誤差分散を固定しない。観測変数が2つの場合は、因子負荷が等しいという制約を置くか、誤差分散が等しい制約を置く。もしくは、他の因子と相関があるモデルにするという、制約をかけないと推定をすることができないということになります。
それから重回帰分析だったり、あとは目的変数が複数あるようなパス解析のモデルというのをSEMで実行することもできます。説明変数間に因果関係の仮説がある場合だったり、あとは複雑な複数の媒介変数とかそういうのがあるというふうに想定される場合に、使ってあげるということになります。
特にこの説明変数の間に因果関係の仮説がないような場合には、普通の重回帰分析をしたほうが良いというふうになります。それから質的変数というのは、ダミー変数にすればモデルに組み込むことができます。ただし、質的変数になる場合は特別な処理が必要になります。ここでは詳しくお話ししませんけども、ソフトウエアでいろんな特殊な処理することで、ダミー変数、質的変数の目的変数にすることも可能です。
それから因子分析モデルと重回帰モデルというのを組み合わせることもできて、多項目尺度で測定する概念を潜在変数にして、因子分析を、確認的因子分析のモデルと、重回帰分析のモデルというのを組み合わせて、このような形でモデル化するということもできます。
それから多母集団モデルというのは、いくつかのグループごとにモデルを当てはめるモデル。グループ間で因子構造が違うかどうかを検討したり、変数同士の関連性が違うかどうかというのを検討することができる。
今までの回帰モデルでいうと、交互作用を入れたモデルに少し似てるかと思います。グループ間で違うかどうか。第3の因子によって関連性が違うかどうかというのを検討したりする時に、使うことができるかということになります。
それから潜在曲線モデルというのは、時系列データを切片と傾きを潜在変数化して記述するモデルです。切片や傾きも目的変数に、目的変数と説明変数について、さらに複雑なモデルにするということもできます。これが潜在変数モデルのパス図の例です。
それから時系列のデータを扱うモデルとしては、ラグ付き変数モデルというのと、道具的変数モデルというのもあります。ラグ付き変数モデルというのは、縦断データを使って時点間のデータを使って因果関係、複数の変数の間の因果関係を検討するようなモデル。道具的変数モデルというのは、ある時点における2変数の双方向の因果関係を検討するためのモデルということになります。
分析結果の論文などでも表示の例として、確認的因子分析について紹介しておこうと思います。これは慢性疾患患者を対象とした、ピアサポートの技術を測定する尺度の因子行動について、1因子のモデルというのと、2因子のモデルというのを比較したものです。
それぞれ左上のところに適合度の指標が出てきていますけど、1因子モデルだと、先ほど出てきたCFIとかRMSEAとかっていうのがかなり悪い、あまり良くないと。CFIは0.806で、基準となるような、0.9とか0.95には届いていない、RMSEAは0.1を超えていて不良なモデル。
一方、2因子にしてあげるとこのように、CFIは大幅に改善して0.946になって、RMSEAも小さくなって、許容範囲である0.8を下回るというような形で、2因子モデルのほうが適合度良好で、かつ概ね基準がある質量についても満たしている、2因子モデルのほうがいいよというふうな形で採択されるということになります。
それからさっき出てた、交差遅延モデルとモデル比較についても例をお話ししていこうと思います。これはストレス対処能力と、あとは生徒から受容されている感覚というのの因果関係というものを検討したもので、交差遅延モデル、このストレス対処能力SOCというのと、学校帰属感覚、学校に飛び込んでいるような感覚というのは、どちらが原因かというのを検討したものです。
このようにSOCが原因になっている可能性もあるし、生徒から受容されている感覚というのが原因になっている可能性、両方あって、どのモデルがいいのかっていうのを4つのモデルを比較してあげていると。
その4つのモデルというのが、双方向の因果にあるというモデルと、SOCが原因になっているというモデルと、あとは受容されている、生徒から受容されている感覚が原因になっているモデルと、どちらも原因と結果の関係になっていないというモデル、4つを比較したわけです。
そうすると、このCFIを見てあげると、この双方向の因果というのと、SOCが原因になっているモデルというのが両方出てきている。このCFIとRMSEAは双方向の因果と、SOCが原因になっているモデルというのが、ほぼ互角になっています。
AICとかBCCというのを見てあげると、SOCが受容されている感覚の原因になっているモデルのほうが低いと。SOCが原因になっているほうのモデルのほうが低い。AICの値が低いので、SOCが受容されている感覚の原因になっているというモデルを、採択することができるということになります。
あとは、それぞれのこのモデルのパス係数というのを見てあげると、このSOCから受容されている感覚へのパスというのが有意になっていくと。この時点、1年生1学期のSOCから2年生の時の受容されている感覚が有意な関連があって、2年生時のSOCから3年生時の受容されている感覚が有意な関連だということで、SOC、ストレス対処能力が高い人のほうが受容されている感覚を得られているということが、このモデル比較から分かるということになります。
SEMを使って論文を書く時に書くべきこととして、この3点が最低限必要になってくる。1つは仮説モデルの設定根拠です。これは緒言か方法に記述する。仮説モデルというのは、事前に示しておいて、それぞれ測定モデル(因子構造)や、構造モデル(変数間の関連)については、理論的な背景を踏まえて、なぜそこにパスを引くのかという根拠を示しておく必要があります。
それから当てはまりを評価するためにどの適合式を使うかというのと、あとはどういう基準で良好と判断するかというのも方法に書いておいて、さらにその結果は、結果のセクションにも書いておく必要があるということです。
モデルの当てはまりの評価に使用した、適合度指標の値を示したというのと、あとは適合度指標というのは、先ほども少し触れましたけれども、一つだけではなくて性質の違う複数の指標を示すのが望ましいというふうに言われています。
それから複数のモデルを比較した場合は、この適合度指標を表にして比較できるようにしてあげたほうが見やすいということになります。それからパス係数や因子負荷量というのは、結果に記述をしてあげるということで、パス図に示すか、表にして示すというのが、構造方程式モデルの結果の見せ方ということになります。
今回は構造方程式モデルについてお話ししました。これで、今回の内容は終わりにしたいと思います。(終了)
統計講義動画
- 第1章 イントロダクション:データの作り方
- 第2章 記述統計と推測統計、データの型
- 第3章 1変量の集計
- 第4章 2変量の集計
- 第5章 推定と検定
- 第6章 パラメトリック検定とノンパラメトリック検定
- 第7章 パラメトリック検定
- 第8章 ノンパラメトリック検定
- 第9章 重回帰分析その1多変量解析の基礎
- 第10章 重回帰分析その2回帰分析の多変量バージョン重回帰分析
- 第11章 重回帰分析その3重回帰分析の応用
- 第12章 因子分析その1尺度による潜在変数の測定
- 第13章 因子分析その2探索的因子分析の基礎
- 第14章 因子分析その3因子の回転と解釈
- 第15章 多変量解析 ロジスティック回帰分析
- 第16章 多変量解析 構造方程式モデリング
統計コンテンツクイズ
設問 16-1
以下の用語の意味について、最も適切だと考えられるものをそれぞれ1つ選択しなさい。
用語
a. 観測変数
→C) 質問紙への回答や検査で直接測定できる変数
b. 潜在変数
→D) 直接測定できない変数
c. 目的変数
→B)分析者が結果であると考える変数
d. 尺度の信頼性
→G)尺度による測定の再現性の程度
e. 尺度の妥当性
→H) 尺度にって測定したいものを測定できている程度