finale形式のファイルをmusescoreでオープン

はじめに

著作権が切れたとみられる楽曲を集めて、世界中からダウンロードできる様に整理しているサイトがあります。IMSLPとかペトルッチとか呼ばれています。先日自分で吹いてみたい曲を見つけたのですが、ソロのパートがin Cで書かれていました。自分のコルネットがin B♭なので、Cの譜面を見ながら頭の中でB♭に読み替えをするか、あるいは、in B♭に綺麗に書き換えるか、と言う選択肢を選ぶことになりました。

IMSLPのサイトを見ていると、in Cで書かれたPDF形式の楽譜意外にfinaleで書かれた.mus形式のデータも掲載されていました。そこで、この.mus形式のデータをmusescoreで読み込んで清書するまでの手順を記録しておこうと言うのがこの記事の趣旨です。

中間ファイル形式

musescoreは、そのままではfinaleの.mus形式のファイルを開くことができません。それではどうしたら良いかと言うと、finaleの.mus形式のファイルを開くことができるアプリケーションでファイルをオープンし、music xml形式で出力して、そのmusic xml形式のファイルであればmusescoreでオープンできるだろうと考えました。music xml形式ではうまくいかない様でしたら、standard midi file形式で保存して、そのmidiファイルをmusescoreでオープンしようと考えました。

xmlとmidiどちらでも基本的な音符や休符の情報はmusescoreで読み取れるのですが、midiですとタイトルや作曲者名をはじめ多くの符号の情報がmusescore側で読み取れません。ですので、可能でしたらxml形式で楽曲をmusescoreがわに移したいという気持ちがあります。

finale 2012

finaleの.mus形式のファイルを開けるアプリは、もちろんfinaleです。10年前の年号が刻まれたfinale 2012を保有していました。しかし、このアプリとても高機能で素人がちょっと譜面を清書したい向きにはオーバースペックである以上に、どこに機能があるのか探すのが大変でした。マニュアルやアンチョコ本を買って勉強しながら使っていましたが、たまにしか使わないということもあって、本当に慣れることができなかったアプリです。購入前からその状況はある程度情報収集していたのですが、残念ながら当時調べた範囲で、商用の楽譜清書アプリでMacで使えるものは事実上finaleしかない様な状況でした。

それでも、今回の様な目的には使えるかもしれない、と想ったのですが、10年間の間にOSのバージョンが上がり、途中からfinale 2012も起動しなくなっていました。アップデートして新しいMac OSにも対応したバージョンに乗り換えることもできたのですが、finaleからは気持ちが離れmusescoreに乗り換えてしまいました。

Finale NotePad

Finaleのファイルをオープンできるフリーウェアがないか検索していましたら、ありました。無料版のfinale と言えるFinale NotePadというアプリです。これはfinaleと同じ会社が製造販売している様です。ただ、難点はOSがWindowsでのみ提供されている点です。早速、レガシーWindowsアプリ用のPCにインストールしました。

Finale NotePadで.musファイルをオープンして、music xml 形式で保存するのは、このアプリでストレスなくできました。方法としては次の様な感じです。ファイルメニューのオープンから目的の.mus形式のファイルをオープンしました。ファイルメニューのオープンからxml形式で保存。

musesocreでパート譜をpdf形式で保存するまで

XML形式のファイルをオープン

【ファイル】ー【開く】をクリックします

 

xmlファイルを保存したフォルダへ移動し、オープンしたいファイルを選択して【開く】をクリック

 

保存されたxml形式のファイルが開けます(次図)

 

楽器の調性を変えます

楽器名の箇所、この例ではTrumpet in Cと書かれた場所を右クリックして、出現するメニューで【譜表/パートのプロパティ…】をクリックします

 

出現するプロパティ設定画面(下図)、今回はCの楽器で入力していたところをDの楽器で演奏する用の譜面に変更したいので、「C」と表示されている「パート名」「楽器名称」「楽器略称」の三箇所のCをDに書き換えます。

 

次に、「移調」の行の【0ー完全1度】と書かれているプルダウンメニューから【長2度】を選んで、【OK】をクリックします。

 

パート譜の作成

前項までの作業で「C管のトランペット」と表示されていたのが「D管のトランペット」用の楽譜であることが表示される様になり、また、譜面上「ソ」の音で始まっていたのが「ファ」になっているのと、フラットが2つ表示されるようになりました。次にパート譜を作成して、パート譜を書き出します。

【ファイル】ー【パート】

 

パート譜の設定画面が表示されます

 

右上ボタンの【全てのパート】をクリックし、【Trumpet in D】3箇所を選んで右下の【OK】をクリック

元々あった「Sonata Prima 1*」タブの下に、「Sonata Prima 1*」(スコアのこと)「Trumpet in D」「Organ」のタブがそれぞれ出現します。

 

「Trumpet in D」のタブをクリックして、パート譜が作成されていることを確認します。元のファイルの設定の問題かパート譜にも楽器名以外に「Score」とか表示されています。気になりますので私はこれをクリックして削除しました。他にも気になる点がありましたので、細かい手直しをしました。

【ファイル】ー【エクスポート】

 

今回は、パート譜だけエクスポートしたいので、必要なものにだけチェックが入っている様にして「エクスポート」ボタンをクリックしてパート譜pdfを適切な場所へ保存しました。

 

YAMAHA NX-B150 端子の説明

NX-B150

パソコンデスクの音響にはヤマハのブルートゥーススピーカNX-B150を使っています。ここにケーブルで音源を入力したいと思ったのですが、入力端子がよくわかりません。AUX入力端子がどこにあるのか、ウーハーの裏側に回れば簡単に判るのですが、ウーハーはデスク下の奥の方に設置してしまって、たくさんのケーブルが巻き付いているので簡単には移動できません。取扱説明書を見れば端子の説明があるはずなのですが、取扱説明書もどこかにしまいこんでいます。

ということでヤマハのホームページを検索したら製品ページ簡単に行き着くのですが、今後のことを考えて端子にかかる情報部分だけ抜粋してメモとしてココに記載しておきます。

取説より端子の情報

右端の9番の端子が3.5mmのAUX端子で、手前からだと左手で差し込めば良さそうです。

REMOTE HOST IDENTIFICATION HAS CHANGED!

表題のようなエラーメッセージが出てssh接続が拒否された

大学のサーバーに接続しようとしてssh 接続を試みたところ、エラーが出て接続できませんでした。

my.name@local.host ~ % ssh plaza.umin.ac.jp
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@    WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED!     @
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
IT IS POSSIBLE THAT SOMEONE IS DOING SOMETHING NASTY!
Someone could be eavesdropping on you right now (man-in-the-middle attack)!
It is also possible that a host key has just been changed.
The fingerprint for the ECDSA key sent by the remote host is
SHA256:YsHL5PM6こんな感じのおまじないの文字列vpH8w072Y.
Please contact your system administrator.
Add correct host key in /Users/my.name/.ssh/known_hosts to get rid of this message.
Offending ECDSA key in /Users/my.name/.ssh/known_hosts:1
ECDSA host key for plaza.umin.ac.jp has changed and you have requested strict checking.
Host key verification failed.

このサーバーは今年の2月に更新されて、物理的には新しいコンピューターに置き換わっています。サーバーが新しいコンピューターになってから今回のローカルホストからssh接続するのは初めてです。ECDSA keyが何かは知りませんが、ローカルホストに保存されているサーバーのキーを更新しないといけないようです。

Please contact your system administrator. とかあるので、週明けに大学のサーバーのアドミニストレーターに連絡しないといけないか?と思ったのですが、この”your system” 実は端末の自分のパソコンの事のようです。紛らわしい。自分のパソコンならroot権限もあるから自分がsystem administratorです。でも、自分に問い合わせても、答えを持っていません。

とりあえず解決しました

どうやって調べたか、誰の記事が役に立ったのか記録してなかったのですが、手元のターミナルアプリのログを見ると次のようにして解決できたようです。

my.name@local.host ~ % ssh-keygen -R plaza.umin.ac.jp
# Host plaza.umin.ac.jp found: line 1
/Users/my.name/.ssh/known_hosts updated.
Original contents retained as /Users/my.name/.ssh/known_hosts.old

接続できました

以前通り接続できました。やれやれ。

my.name@local.host ~ % ssh user.ID@plaza.umin.ac.jp
user.ID@plaza.umin.ac.jp's password: 

Last login: Wed *** 16 08:57:11 20** from ***.*.**.**
[user.ID@blackett ~]$ 

MuseScoreで影譜を作成する

MuseScoreで影譜(ガイド譜)を作成

影譜とガイド譜

「フィナーレ」のホームページによりますと以下のような説明があります。

  • 「ガイド音符」とは楽譜上に置かれた縮小サイズの音符のことで、通常は演奏されません。一般的には、他の楽器で演奏される内容を示したり、休符が続いている場合などに譜面上の位置確認をするための補助として使用されます。また、本来演奏すべき楽器が演奏できない、あるいは本来演奏すべき奏者が演奏できない場合などに、そのパートの奏者が演奏する内容を指定するものとして使用する場合もあります。

「フィナーレ」の説明は、私が理解していたのと大体同じ。【「影譜」は代理で演奏しても良い音符で、「ガイド譜」は休符が続くときに迷子にならないように位置を示すだけで演奏しないものである】と使い分けるような記載もあります。譜面上は小さく書くということは共通しています。

MuseScore3.6で音符を小さくするには

これを調べたのですがすぐにはわからなかったので、その方法を忘備録的に残します。実はMuseScoreのホームページで解説してあるのですが、淡々と書かれていて見落としていました。難しかった理由は、音符を小さくする方法がMuseScoreのバージョンごとに異なるらしく、古い情報を拾ってしまい、自分のバージョン3.6だとできないような方法を試していたというのがあります。

ここでは、影譜・ガイド譜として使用したい音符はすでに入力してあるものとして、その音符を小さくする方法を記載します。次の図の緑の音符を小さくしようとしています。

インスペクタウインドウを表示させる

デフォルトでは表示されていない「インスペクタ」ウインドウを表示させます。メニューから【「表示」ー「インスペクタ」】を選択します。

インスペクタウインドウ

下の図の、画面右側がインスペクタのウインドウです。音符の選択状況で中身が違うのですが、ウインドウの名前が「インスペクタ」であれば正解です。

・ 図の左のように音頭サイズを小さくしたい範囲を選択します。

・ 図の右赤で囲ってある「音符ボタン」をクリックします、そうするとインスペクタウインドウの中身が、一段下に掲載した図のようになります。

・ 下図の右ウインドウの赤で囲った「小音頭」のチェックボックスをチェック

・ 下図の左ウインドウのように音頭が小さくなります

ファンクションキーがロックされた

ファンクションキーのロック

仕事でPanasonic Let’s note CF-QV を使用している。今朝文字を打ち込もうとした時に奇妙な変換がなされた。「m」と打ったら「0」と打ったように表示された。

いろいろ試すと、ほかにも「JKLUIO」が「123456」となる等奇妙な挙動が観察された。調べたところ、「ファンクションキー」が「ロックされている」らしい。

解決方法を調べるのに苦労したので忘備録として記載。

解決方法

右上の方の「NumLk」というキーを押したら元通り mjkluioが入力できるようになった。

オミクロン株 omicron (o) variant (B.1.1.529)

はじめに

2021.11.26 WHOがCOVID-19の原因ウイルスであるSARS-CoV-2の新規の変異(B.1.1.529)を評価するために、アドバイザリーグループThe Technical Advisory Group on SARS-CoV-2 Virus Evolution (TAG-VE))を開催しました。

南アフリカの最近の感染拡大と、B.1.1.529の検出の増加がcoinciding (一致している?)していて、予備的な検証ではこのバリアントによる再感染のリスクが高いことが示唆されているそうです。

現在のSARS-CoV-2PCR診断では、引き続きこの変異体が検出されます。いくつかの研究室で、広く使用されている1つのPCRテストでは、3つのターゲット遺伝子の1つが検出されない(S遺伝子ドロップアウトまたはS遺伝子ターゲット障害と呼ばれる)ため、シーケンスの確認が完了するまで、このテストをこのバリアントのマーカーとして使用できることが示されています。このアプローチを使用すると、このバリアントは以前の感染の急増よりも速い速度で検出されており、このバリアントが感染拡大にアドバンテージを持っている可能性があることを示唆しています。

アルファベット順で ν(ニュー)とξ(クサイ)をスキップしてのο(オミクロン)だそうです。習という中国で多い名前や英語の単語のnewを避けるためだそうです。

> avoid confusion with the English word “new” and the common Chinese surname Xi

変異が多い

B.1.1.529は多くの変異を示します。(下図はwiki pediaから)多くの箇所に変異が検出されます。

spike蛋白のアミノ酸残基にかかる変異だけでも以下のものが含まれるそうです。

A67V, Δ69-70, T95I, G142D, Δ143-145, Δ211, L212I, ins214EPE, G339D, S371L, S373P, S375F, K417N, N440K, G446S, S477N, T478K, E484A, Q493K, G496S, Q498R, N501Y, Y505H, T547K, D614G, H655Y, N679K, P681H, N764K, D796Y, N856K, Q954H, N969K, L981F

 

どう、料理したら良いかなぁ

テストページ

Choosing wisely among possible courses of action requires knowledge about the effects of those actions. Public health and medical decision makers therefore need sound causal inferences to know what works and what harms people. Decision makers prefer inferences based on randomized trials because random assignment of treatment strategies is expected to result in comparable treatment groups, permitting outcome differences to be attributed to the treatment rather than to preexisting differences between groups.

Indeed, for each question about causality, the target of inference can be specified as a randomized trial that would answer the question — the “target trial.” But we cannot conduct enough target trials to answer all causal questions about all treatment strategies and all outcomes in all population groups, and trials may take years to complete.

If an appropriate target trial does not exist when a decision must be made, causal inference may need to rely on observational population data (e.g., electronic medical records generated during routine medical care). Because causal inference from observational data can be viewed as an attempt to emulate a target trial, the question is not whether observational data should be used for causal inference, but rather how to use them most effectively.

Causal inference involves specifying a causal question and answering it. The question is articulated in the form of the target-trial protocol, which incorporates eligibility criteria, treatment strategies, treatment assignment, start and end of follow-up, outcomes, causal contrasts (or estimands), and a data-analysis plan. These elements define the causal question and how it will be answered; then the target trial is conducted according to the protocol.

For researchers using observational data, a useful way to specify a question is to design the target trial that would answer it and then emulate the protocol as closely as possible. Emulating randomization generally requires data on prognostic factors that are associated with treatment decisions. If all such confounders were correctly measured and adjusted for, there would be no difference between a randomized trial and an observational analysis emulating it. The idea of target-trial emulation, or its logical equivalents, was central to causal inference methods developed during the 20th century1; James Robins2 generalized it to encompass treatment strategies that are sustained over time.Outline of a Target-Trial Protocol: Specification and Emulation Using Observational Data.

Target trials emulated using observational data are necessarily pragmatic trials lacking a placebo, blind treatment assignment, and blind outcome ascertainment — design features that don’t occur in the real world. Therefore, observational data are not a good fit for causal questions that cannot be expressed in terms of a pragmatic trial. The tableoutlines the elements of the protocol of a target trial and its observational emulation. The principles of target-trial emulation are applicable to any causal question that can be translated into a contrast between sufficiently well-defined interventions.

One example of causal inference from observational data can be found in the story of the HIV-treatment-as-prevention strategy. In 2010, millions of people worldwide had HIV infection. With no vaccine in sight, a possible strategy for reducing transmission was to immediately treat anyone with a positive HIV test (because antiretroviral therapy reduces viral concentration). U.S. guidelines, however, recommended starting therapy in asymptomatic people at CD4 cell counts of 350 per cubic millimeter. Earlier initiation at 500 cells per cubic millimeter or higher was not recommended because of concerns about drug toxicity and accumulating resistance. A decision to change guidelines required evidence about the effectiveness and safety of early therapy initiation, but no randomized trials had generated that evidence.

In 2011, using observational data, U.S. clinical guidelines began recommending that antiretroviral therapy be initiated at 500 cells per cubic millimeter. Earlier, data from an international consortium of observational HIV cohorts had been used to emulate a target trial of various strategies for initiating antiretroviral therapy.3 The analyses indicated that early therapy initiation resulted in the lowest risk of AIDS and death, a finding later validated by a randomized trial of early versus deferred treatment initiation.4

This example illustrates the complementarity of randomized trials and observational analyses for causal inference: the effect estimates from observational data were used for provisional decision making until estimates from randomized trials became available, and randomized trial estimates were used as a benchmark for the observational analyses. After an emulation produces results close to the benchmark, there is greater confidence in expanded observational analyses that answer causal questions not considered by the randomized trial. In this case, the observational cohorts were also used to emulate target trials with outcomes (death, drug resistance) and in subgroups (people over 50) that could not be studied with precision in the randomized trial. This interplay between study types may fail in the absence of adequate target-trial emulation: observational analyses that did not specify a target trial led to implausibly high estimates of the benefit of early antiretroviral therapy initiation.5

Traditional analyses of observational data are often based on allocation of person-time to “exposed” and “unexposed” groups, rather than on explicit specification and emulation of a target trial. Resulting estimates may not correspond to a relevant causal contrast and therefore may not be easily mappable onto real-world interventions.5 This lack of actionable causal inference arises frequently in traditional analyses of both medical and nonmedical factors. An important reason to explicitly specify and emulate a target trial is to compare well-defined courses of action, which helps decision makers.

Another reason for emulating a target trial is to avert the selection and immortal time biases that arise from mishandling the start of follow-up (time zero) in analyses. As a rule, in causal analyses of both randomized trials and observational data, each participant’s time zero must be the time when they meet the eligibility criteria and are assigned to a treatment strategy. This rule is automatically enforced in randomized trials and in observational analyses emulating target trials. Observational analyses deviating from this rule led to conclusions, which were later disproved, that statins reduce cancer risk and that estrogen-plus-progestin therapy reduces the risk of coronary heart disease in postmenopausal women. Though sometimes appropriate, deviations from this rule must be justified on a case-by-case basis; for example, given the long period between exposure and outcome, the effect of cigarette smoking on lung cancer may be approximately quantified even when people are not followed from the time they begin smoking.

Causal effect estimates from observational analyses are often distrusted because of the lack of randomization, which may lead to confounded estimates due to noncomparable treatment groups. Confounding is a serious concern, but many high-profile observational failures have resulted instead from mishandling of time zero. In fact, reanalyses of observational data that explicitly emulated a target trial (and thus handled time zero correctly) yielded estimates compatible with those from randomized trials in the examples above. That is, the observational data were sufficient to approximately emulate randomization (i.e., to adjust for confounding); the failures were caused by selection and immortal time biases that can be avoided by explicitly emulating a target trial. Alternatively, these biases can be avoided by studious application of principles of causal inference and study design, but the target-trial approach helps in implementing these principles.

By itself, however, target-trial emulation cannot overcome confounding bias from noncomparable treatment groups. Despite correctly emulating all other components of a target trial, observational analyses may be invalidated if confounding cannot be adequately adjusted for. Sophisticated adjustment methods are sometimes necessary, but they work only when good data on confounders are available. Machine learning and artificial intelligence methods cannot compensate for missing data.

When confounder data are not available in an observational database, certain causal questions cannot feasibly be answered. For example, insurance claims databases may be inadequate for estimating effects of preventive interventions on all-cause mortality. It’s important to build safeguards (such as negative controls) into observational analyses to alert investigators when the danger of confounding is too high. Confounding adjustment is also infeasible for causal questions involving interventions (e.g., antihypertensive therapy) that are used almost exclusively by people with risk factors for the outcome (e.g., cardiovascular disease).

When data on confounders are insufficient, researchers can sometimes use methods such as instrumental variable estimation, which replace the need to adjust for confounders with other strong untestable conditions. For causal questions about the effects of an intervention (such as a policy change or new program) newly implemented in a population, the requirement for data on confounders for each person can, under certain conditions, be replaced by comparisons between preintervention and postintervention periods. For complicated causal questions involving interactions between persons in the population or systemwide effects, observational data sets cannot by themselves be used to emulate hypothetical target trials. For example, attempts to quantify individual and societal effects of interventions for controlling the U.S. opioid epidemic require simulation models integrating observational and experimental findings with assumptions about the structure of society and the health system.5

Explicit target-trial emulation increases the transparency and replicability of observational effect estimates. By including descriptions of target-trial protocols and their emulations in reports of observational analyses, investigators tell us precisely which causal effects they are estimating so that our replication attempts can be accurate. Also, explicit specification of the target trial imposes constraints on data analysis, reducing multiple comparisons and selective reporting of results. And it prevents data manipulations resulting in hard-to-interpret estimates that don’t correspond to any relevant intervention.

Determining the effectiveness and safety of many health interventions will continue to rely on observational data because randomized trials are not always feasible, ethical, or timely. Explicit emulation of a target trial using observational data helps eliminate unnecessary sources of bias so that concerns can focus on potential confounding bias due to nonrandomization.

Translate »