RU2829111C1 - Structured illumination microscopy systems and methods - Google Patents
Structured illumination microscopy systems and methods Download PDFInfo
- Publication number
- RU2829111C1 RU2829111C1 RU2022109852A RU2022109852A RU2829111C1 RU 2829111 C1 RU2829111 C1 RU 2829111C1 RU 2022109852 A RU2022109852 A RU 2022109852A RU 2022109852 A RU2022109852 A RU 2022109852A RU 2829111 C1 RU2829111 C1 RU 2829111C1
- Authority
- RU
- Russia
- Prior art keywords
- sub
- image
- fragments
- images
- fragment
- Prior art date
Links
Abstract
Description
ПРИОРИТЕТНЫЕ ЗАЯВКИPRIORITY APPLICATIONS
[0001] Настоящая заявка испрашивает преимущество и включает в себя ссылки на предварительную заявку на патент США №62/924,130 под заголовком «Системы и способы микроскопии структурированного освещения» (номер патентного реестра ILLM 1012-1), поданную 21 октября 2019 г., и предварительную заявку на патент США №62/924,138 под заголовком «Повышенная эффективность расчета для микроскопии структурированного освещения» (номер патентного реестра ILLM 1022-1), поданную 21 октября 2019 г. Настоящая заявка также испрашивает преимущество и включает в себя ссылки на обычную заявку на патент США №17/075,692 под заголовком «Системы и способы микроскопии структурированного освещения» (номер патентного реестра ILLM 1012-2), поданную 21 октября 2020 г., и обычную заявку на патент США №17/075,694 под заголовком «Повышенная эффективность расчета для микроскопии структурированного освещения» (номер патентного реестра ILLM 1022-2), поданную 21 октября 2020 г., обе из которых испрашивают преимущество вышеупомянутых предварительных заявок.[0001] This application claims the benefit of and incorporates references to U.S. Provisional Patent Application No. 62/924,130, entitled “Systems and Methods for Structured Illumination Microscopy” (Accession Number ILLM 1012-1), filed October 21, 2019, and U.S. Provisional Patent Application No. 62/924,138, entitled “Improved Calculation Efficiency for Structured Illumination Microscopy” (Accession Number ILLM 1022-1), filed October 21, 2019. This application also claims the benefit of and incorporates references to regular U.S. Patent Application No. 17/075,692, entitled “Systems and Methods for Structured Illumination Microscopy” (Accession Number ILLM 1012-2), filed October 21, 2020 and U.S. Patent Application No. 17/075,694, entitled “Improved Calculation Efficiency for Structured Illumination Microscopy” (Accession Number ILLM 1022-2), filed October 21, 2020, both of which claim the benefit of the above-mentioned provisional applications.
ОБЪЕДИНЕНИЕ ПРИЗНАКОВ ИЗОБРЕТЕНИЯCOMBINATION OF FEATURES OF THE INVENTION
[0002] Следующие заявки и материалы включены в настоящий документ путем отсылки во всех отношениях, как если бы они были полностью изложены в настоящем документе: Предварительная заявка на патент США №62/692,303 под заголовком «Устройство для люминесцентной визуализации», поданная 29 июня 2018 г. (неопубликованная), и обычная заявка на патент США под заголовком «Устройство для люминесцентной визуализации», поданная 29 июня 2019 г. (номер патентного реестра P-1683-US).[0002] The following applications and materials are incorporated herein by reference in all respects as if fully set forth herein: U.S. Provisional Patent Application No. 62/692,303, entitled “Luminescence Imaging Device,” filed June 29, 2018 (unpublished), and U.S. Regular Patent Application entitled “Luminescence Imaging Device,” filed June 29, 2019 (Accession Number P-1683-US).
ОБЛАСТЬ ОПИСЫВАЕМОЙ ТЕХНОЛОГИИAREA OF THE DESCRIBED TECHNOLOGY
[0003] Описанная технология относится к микроскопии структурированного освещения (SIM). В частности, описанная технология относится к захвату и обработке в режиме реального времени множества фрагментов изображения на большой плоскости изображения, путем их разделения на субфрагменты, эффективной обработки субфрагментов и генерирования изображения с улучшенным разрешением из субфрагментов. Изображения с улучшенным разрешением можно объединять в улучшенные изображения и использовать в последующих стадиях анализа.[0003] The described technology relates to structured illumination microscopy (SIM). In particular, the described technology relates to capturing and processing in real time a plurality of image fragments on a large image plane by dividing them into sub-fragments, efficiently processing the sub-fragments, and generating an image with improved resolution from the sub-fragments. The images with improved resolution can be combined into improved images and used in subsequent stages of analysis.
[0004] Описанная технология относится к микроскопии структурированного освещения. В частности, описанная технология относится к уменьшению вычислений для обработки в режиме реального времени множества фрагментов изображения на большой плоскости изображения и получении изображений с улучшенным разрешением из фрагментев/субфрагментов изображения. В ходе некоторых промежуточных преобразований в технологической цепи SIM почти половина умножения и деления, необходимых в других случаях, может быть заменена на операции поиска с использованием конкретных применений симметрии.[0004] The described technology relates to structured illumination microscopy. In particular, the described technology relates to reducing the computations for real-time processing of multiple image fragments on a large image plane and obtaining images with improved resolution from image fragments/sub-fragments. During some intermediate transformations in the SIM technological chain, almost half of the multiplication and division required in other cases can be replaced by search operations using specific applications of symmetry.
ПРЕДПОСЫЛКИ СОЗДАНИЯ ИЗОБРЕТЕНИЯPREREQUISITES FOR THE CREATION OF THE INVENTION
[0005] Объект изобретения, описанный в настоящем разделе, не следует считать известным техническим решением только на основании его упоминания в настоящем разделе. Аналогичным образом, проблема, упомянутая в настоящем разделе или связанная с объектом изобретения, представленным в настоящем разделе, не должна считаться признанной ранее в известных технических решениях. Объект изобретения в этом разделе лишь представляет различные подходы, которые сами по себе также могут соответствовать вариантам реализациям заявленной технологии.[0005] The subject matter of the invention described in this section should not be considered a known technical solution solely by virtue of its mention in this section. Likewise, the problem mentioned in this section or related to the subject matter of the invention presented in this section should not be considered to have been previously recognized in known technical solutions. The subject matter of the invention in this section merely represents various approaches, which in themselves may also correspond to embodiments of the claimed technology.
[0006] Более десяти лет назад первооткрыватели в области микроскопии структурированного освещения получили Нобелевскую премию по физике. Выдающимся открытием стало получение разрешения изображения выше дифракционного предела Аббе.[0006] More than a decade ago, the pioneers of structured illumination microscopy won the Nobel Prize in Physics. The breakthrough was achieving image resolution above the Abbe diffraction limit.
[0007] Микроскопия SIM 2D и 3D применялась для визуализации биологических образцов, например частей отдельных клеток. Для изучения внутреннего строения клеток было приложено много усилий, результатом которых стало множество альтернативных технических вариаций.[0007] SIM 2D and 3D microscopy has been used to visualize biological samples, such as parts of individual cells. Much effort has been put into studying the internal structure of cells, resulting in many alternative technical variations.
[0008] Разрешение миллионов источников, распределенных по плоскости изображения, представляет совершенно иную проблему, чем изучение внутреннего строения клеток. Например, одним из новых разработанных подходов стало объединение нескольких изображений со спектральным освещением для получения изображения с улучшенным разрешением после обширного вычисления. Обработка большой плоскости изображения в реальном времени при скромных ресурсах требует радикально иного подхода, чем тот, который используется сейчас.[0008] Resolving millions of sources distributed over an image plane presents a completely different challenge than studying the internal structure of cells. For example, one new approach that has been developed is to combine multiple spectral illumination images to produce an image with improved resolution after extensive computation. Processing a large image plane in real time with modest resources requires a radically different approach than is currently used.
[0009] Соответственно, возникает возможность внедрения новых способов и систем, адаптированных к обработке больших плоскостей изображения при более низких требованиях к вычислительным ресурсам.[0009] Accordingly, the possibility arises of introducing new methods and systems adapted to processing large image planes with lower requirements for computing resources.
КРАТКОЕ ОПИСАНИЕ ГРАФИЧЕСКИХ МАТЕРИАЛОВBRIEF DESCRIPTION OF GRAPHIC MATERIALS
[0010] Цветные графические материалы в приоритетных заявках, которые соответствуют черно-белым графическим материалам в данной заявке, можно запросить в Ведомстве по патентам и товарным знакам США (USPTO) в PAIR на вкладке Supplemental Content (Дополнительное содержимое). Одинаковые обозначения позиций на различных графических материалах указывают на аналогичные компоненты. Кроме того, масштаб компонентов на графических материалах может отличаться от реального; основное внимание при их составлении обычно уделяется иллюстрированию принципов описываемой технологии. В описании ниже представлены различные варианты реализации описываемой технологии со ссылкой на следующие графические материалы, на которых изображено следующее:[0010] Color drawings in priority applications that correspond to the black and white drawings in this application may be requested from the United States Patent and Trademark Office (USPTO) in PAIR under the Supplemental Content tab. The same reference numbers in different drawings indicate similar components. In addition, the drawings may not be to scale; the focus of their preparation is usually on illustrating the principles of the described technology. The description below presents various embodiments of the described technology with reference to the following drawings, which illustrate the following:
[0011] ФИГ. 1А иллюстрирует формирование муаровой интерференционной полосы путем использования решетки с одномерной (1D) модуляцией.[0011] FIG. 1A illustrates the formation of a moire interference fringe using a one-dimensional (1D) modulation grating.
[0012] ФИГ. 1В представляет графическую иллюстрацию интенсивностей освещения, создаваемого двумерным (2D) рисунком структурированного освещения.[0012] FIG. 1B is a graphical illustration of illumination intensities produced by a two-dimensional (2D) structured lighting pattern.
[0013] ФИГ. 1С иллюстрирует пример геометрической структуры для расположения нанолунок.[0013] FIG. 1C illustrates an example of a geometric structure for arranging nanowells.
[0014] ФИГ. 2 иллюстрирует систему визуализации с помощью микроскопии структурированного освещения, которая может использовать пространственно структурированный возбуждающий свет для формирования изображения образца.[0014] FIG. 2 illustrates a structured illumination microscopy imaging system that can use spatially structured excitation light to form an image of a sample.
[0015] ФИГ. 3 представляет собой схему оптической системы, иллюстрирующую пример оптической конфигурации двухплечевой системы визуализации SIM.[0015] FIG. 3 is a diagram of an optical system illustrating an example of an optical configuration of a dual-arm SIM imaging system.
[0016] ФИГ. 4А и 4В представляют собой схемы, иллюстрирующие оптическую конфигурацию системы визуализации SIM с двумя оптическими решетками для слайдов.[0016] FIG. 4A and 4B are diagrams illustrating an optical configuration of a SIM imaging system with two optical arrays for slides.
[0017] ФИГ. 5А иллюстрирует нежелательные изменения параметра разноса, которые могут происходить в системах визуализации SIM.[0017] FIG. 5A illustrates unwanted changes in the spacing parameter that may occur in SIM imaging systems.
[0018] ФИГ. 5В иллюстрирует нежелательные изменения параметра фазы, которые могут происходить в системах визуализации SIM.[0018] FIG. 5B illustrates unwanted phase parameter changes that may occur in SIM imaging systems.
[0019] ФИГ. 5С иллюстрирует нежелательные изменения угла ориентации, которые могут происходить в системах визуализации SIM.[0019] FIG. 5C illustrates unwanted orientation angle changes that may occur in SIM imaging systems.
[0020][0020]
[0021] ФИГ. 6 иллюстрирует упрощенные рисунки интерференционных полос освещения, которые можно спроецировать на плоскость образца с помощью вертикальных и горизонтальных решеток системы визуализации SIM.[0021] FIG. 6 illustrates simplified patterns of interference fringes of illumination that can be projected onto a sample plane using the vertical and horizontal gratings of the SIM imaging system.
[0022] ФИГ. 7 иллюстрирует упрощенные рисунки интерференционных полос освещения, которые можно спроецировать на плоскость с помощью первой и второй решеток системы визуализации SIM с двумя оптическими решетками для слайдов.[0022] FIG. 7 illustrates simplified patterns of interference fringes of illumination that can be projected onto a plane using the first and second gratings of a SIM imaging system with two optical gratings for slides.
[0023] ФИГ. 8А иллюстрирует упрощенное изображение параллельных линий, изогнутых из-за искажения увеличивающей линзы.[0023] FIG. 8A illustrates a simplified image of parallel lines curved due to distortion of a magnifying lens.
[0024] ФИГ. 8В и 8С иллюстрируют разнос между номинально параллельными линиями.[0024] FIGS. 8B and 8C illustrate the spacing between nominally parallel lines.
[0025] ФИГ. 8D иллюстрирует пример субфрагментов или субполей изображения полного поля обзора (FOV).[0025] FIG. 8D illustrates an example of sub-portions or sub-fields of a full field of view (FOV) image.
[0026] ФИГ. 9 иллюстрирует общее изображение поверхности с цветовой кодировкой, которая точно соответствует наблюдаемым точкам данных, показанным красным цветом.[0026] FIG. 9 illustrates a general image of a surface with color coding that closely matches the observed data points shown in red.
[0027] ФИГ. 10А и 10В в форме перевернутой чаши иллюстрируют измеренный разнос относительно разноса в субполе, расположенном близко к центру.[0027] FIGS. 10A and 10B in the form of an inverted bowl illustrate the measured spacing relative to the spacing in a subfield located close to the center.
[0028] На ФИГ. 11А, 11В и 11С приведено сравнение измеренного искажения разноса с аппроксимацией квадратичной и кубической поверхностей.[0028] FIGS. 11A, 11B, and 11C show a comparison of the measured spacing distortion with a quadratic and cubic surface approximation.
[0029] ФИГ. 12А иллюстрирует измеренные точки данных без сглаживания путем аппроксимации кривой.[0029] FIG. 12A illustrates measured data points without smoothing by curve fitting.
[0030] ФИГ. 12В иллюстрирует фактические данные в сравнении с квадратично аппроксимированной поверхностью.[0030] FIG. 12B illustrates actual data compared to a quadratically fitted surface.
[0031] ФИГ. 13А-13Е иллюстрируют улучшение аппроксимации кривой путем обрезания вдоль границы датчика.[0031] FIGS. 13A-13E illustrate improvement of curve approximation by truncation along the sensor boundary.
[0032] ФИГ. 14А графически иллюстрирует уменьшение среднеквадратичной погрешности (MSE) при различных коэффициентах усадки.[0032] FIG. 14A graphically illustrates the reduction in mean square error (MSE) for different shrinkage ratios.
[0033] ФИГ. 14B-14G иллюстрируют улучшение квадратичной аппроксимации для модели углового искажения путем постепенного увеличения коэффициента усадки, примененного к данным изображения полного FOV.[0033] FIGS. 14B-14G illustrate an improvement in the quadratic approximation for the angular distortion model by gradually increasing the shrinkage factor applied to the full FOV image data.
[0034] ФИГ. 14Н представляет собой график, иллюстрирующий незначительное улучшение аппроксимации квадратичной поверхности, когда значение коэффициента усадки составляет шесть.[0034] FIG. 14H is a graph illustrating a slight improvement in the approximation of a quadratic surface when the shrinkage factor value is six.
[0035] ФИГ. 15А и 15В иллюстрируют квадратичную аппроксимацию реакционной поверхности, полученную путем аппроксимации искажения разноса интерференционных полос (А) и искажения разноса углов (В) по данным изображения полного FOV.[0035] FIGS. 15A and 15B illustrate a quadratic approximation of a reaction surface obtained by approximating the fringe spacing distortion (A) and the angle spacing distortion (B) from full FOV image data.
[0036] ФИГ. 16А иллюстрирует перенос фазового смещения субфрагмента из системы координат субфрагмента в систему координат изображения полного FOV.[0036] FIG. 16A illustrates the transfer of a sub-fragment phase offset from the sub-fragment coordinate system to the full FOV image coordinate system.
[0037] ФИГ. 16В иллюстрирует положение точки в субфрагменте относительно системы координат субфрагмента и системы координат изображения полного FOV.[0037] FIG. 16B illustrates the position of a point in a sub-fragment relative to the coordinate system of the sub-fragment and the coordinate system of the full FOV image.
[0038] ФИГ. 17 представляет собой пример справочной таблицы фазового смещения для субфрагментов в изображении полного FOV.[0038] FIG. 17 is an example of a phase shift lookup table for sub-tiles in a full FOV image.
[0039] ФИГ. 18 представляет собой обзор этапов процесса в неизбыточном алгоритме восстановления изображения SIM фрагмента.[0039] FIG. 18 is an overview of the process steps in a non-redundant SIM fragment image recovery algorithm.
[0040] ФИГ. 19 иллюстрирует симметрию в пространстве Фурье для матриц с четным и нечетным числом строк и столбцов.[0040] FIG. 19 illustrates symmetry in Fourier space for matrices with even and odd numbers of rows and columns.
[0041] ФИГ. 20 иллюстрируют неизбыточные и избыточные половины полных матриц в частотной области, представляющей три изображения, полученные с помощью одного угла пика освещения.[0041] FIG. 20 illustrates non-redundant and redundant halves of full matrices in the frequency domain representing three images obtained using a single illumination peak angle.
[0042] ФИГ. 21 иллюстрирует изменение конфигурации неизбыточных половин трех матриц в частотной области, представляющей три изображения, полученные с помощью одного угла пика освещения.[0042] FIG. 21 illustrates a change in the configuration of non-redundant halves of three matrices in the frequency domain representing three images obtained using a single illumination peak angle.
[0043] ФИГ. 22 иллюстрирует процесс разделения полосы путем умножения матрицы обратного разделения полосы на матрицу с измененной формой с ФИГ. 21.[0043] FIG. 22 illustrates a process of dividing a band by multiplying an inverse band division matrix by the reshaped matrix of FIG. 21.
[0044] ФИГ. 23А иллюстрирует пример операции сдвига (1, 1), примененного к матрице.[0044] FIG. 23A illustrates an example of a (1, 1) shift operation applied to a matrix.
[0045] ФИГ. 23В и 23С иллюстрируют усреднение первого и среднего столбцов в неизбыточном восстановлении изображения SIM.[0045] FIGS. 23B and 23C illustrate averaging of the first and middle columns in non-redundant reconstruction of a SIM image.
[0046] ФИГ. 24 представляет собой упрощенную блок-схему компьютерной системы, которая может использоваться для реализации описанной технологии.[0046] FIG. 24 is a simplified block diagram of a computer system that may be used to implement the described technology.
[0047] ФИГ. 25А и 25В представляют уменьшение частоты появления ошибок и показателя процентов полосного фильтра в кластерах (%PF) с обновлениями в алгоритме восстановления изображения SIM.[0047] FIGS. 25A and 25B illustrate a reduction in the error rate and the cluster percent bandpass filter (%PF) metric with updates in the SIM image recovery algorithm.
[0048] ФИГ. 26А-26С графически иллюстрируют уменьшение частоты появления ошибок в течение нескольких циклов при прогонах секвенирования.[0048] FIGS. 26A-26C graphically illustrate the reduction in error rate over multiple cycles of sequencing runs.
[0049] ФИГ. 26D графически иллюстрируют уменьшение частоты появления ошибок путем включения методов фазового обучения и локального устранения проблем в исходный алгоритм SIM.[0049] FIG. 26D graphically illustrates the reduction in error rate by incorporating phase learning and local problem elimination techniques into the original SIM algorithm.
ПОДРОБНОЕ ОПИСАНИЕDETAILED DESCRIPTION
[0050] Следующее описание представлено для того, чтобы любой специалист в данной области мог изготовить и использовать описываемую технологию. Описание предоставляется в контексте конкретного применения и его требований. Специалистам в данной области будут очевидны различные модификации описанных вариантов реализации, а общие принципы, определенные в настоящем документе, можно применить к другим вариантам реализации и применения без отступления от сущности и объема описываемой технологии. Таким образом, описываемая технология не ограничена представленными вариантами реализации, но должна охватывать все количество возможных вариантов, согласованных с принципами и признаками, описанными в данном документе.[0050] The following description is provided to enable any person skilled in the art to make and use the described technology. The description is provided in the context of a particular application and its requirements. Various modifications to the described embodiments will be apparent to those skilled in the art, and the general principles defined herein may be applied to other embodiments and applications without departing from the spirit and scope of the described technology. Thus, the described technology is not limited to the embodiments shown, but should encompass a variety of possible variations consistent with the principles and features described herein.
ВведениеIntroduction
[0051] Микроскопия структурированного освещения в двух и трех измерениях позволила исследовать внутреннюю структуру живых клеток и даже молекулярную структуру биологических материалов, поскольку она улучшает разрешение систем захвата изображения. См., например, Sydor, Andrew & Czymmek, Kirk & Puchner, Elias & Mennella, Vito. (2015). Super-Resolution Microscopy: From Single Molecules to Supramolecular Assemblies. Trends in Cell Biology. 25. 10.1016/j.teb.2015.10.004; также Lal et al. 2015, A, Shan, C, & Xi, P. (2015). Алгоритм реконструкции изображения с помощью микроскопии структурированного освещения. IEEE Journal of Selected Topics in Quantum Electronics, 22(4), 50-63. Для читателей, которые хотят освежить в памяти принцип SIM, Lal et al. 2015 представляет собой отличную комбинацию иллюстраций и математического объяснения, не считая вывода используемых уравнений. Данное описание охватывает технологию SIM для обработки изображения проточных кювет с использованием нескольких технологий, которые можно использовать отдельно или в комбинации.[0051] Structured illumination microscopy in two and three dimensions has made it possible to probe the internal structure of living cells and even the molecular structure of biological materials, as it improves the resolution of image acquisition systems. See, for example, Sydor, Andrew & Czymmek, Kirk & Puchner, Elias & Mennella, Vito. (2015). Super-Resolution Microscopy: From Single Molecules to Supramolecular Assemblies. Trends in Cell Biology. 25. 10.1016/j.teb.2015.10.004; also Lal et al. 2015, A, Shan, C, & Xi, P. (2015). An image reconstruction algorithm using structured illumination microscopy. IEEE Journal of Selected Topics in Quantum Electronics, 22(4), 50–63. For readers who want to refresh their memory on the SIM principle, Lal et al. 2015 is an excellent combination of illustrations and mathematical explanation, not to mention the derivation of the equations used. This description covers SIM technology for flow cell imaging using several technologies that can be used separately or in combination.
[0052] SIM обеспечивает возможность развертывания плотно упакованных образцов из проточных кювет с флуоресцентными сигналами из миллионов точек образа, тем самым уменьшая количество реагентов, необходимых для обработки, и увеличивая производительность обработки изображений. Прием состоит в том, чтобы развернуть флуоресцентные образцы с плотной компоновкой ближе дифракционного предела Аббе для развертывания соседних источников света SIM. Образцы могут находиться в регулярно разнесенных нанолунках или могут являться кластерами, распределенными случайным образом. Большая часть нижеследующего описания относится к нанолункам с упорядоченной структурой, но технология SIM также применима к кластерам, распределенным случайным образом.[0052] SIM enables the deployment of densely packed samples from flow cells with fluorescent signals from millions of image points, thereby reducing the amount of reagents required for processing and increasing the throughput of imaging. The technique is to deploy densely packed fluorescent samples near the Abbe diffraction limit to deploy adjacent SIM light sources. The samples may be in regularly spaced nanowells or may be randomly distributed clusters. Much of the following description applies to nanowells with an ordered structure, but the SIM technology is also applicable to randomly distributed clusters.
[0053] Технические проблемы, связанные с искажениями линзы и необходимыми вычислительными ресурсами, возникают из-за развертывания источников с плотной компоновкой. Данное описание решает эти технические проблемы.[0053] Technical issues related to lens distortion and the computational resources required arise from the deployment of densely packed sources. This description addresses these technical issues.
[0054] Структурированное освещение может создавать изображения, которые имеют в несколько раз больше развернутых источников освещения, чем при нормальном освещении. Информация создается не сама по себе. Напротив, множественные изображения с меняющимися углами и фазовыми смещениями структурированного освещения используют для преобразования близко расположенных, иначе неразворачиваемых, элементов с высокой пространственной частотой в сигналы более низкой частоты, которые могут быть восприняты оптической системой без нарушения дифракционного предела Аббе. Этот предел физически заложен в формирование изображений природой света и оптики и выражается как функция от длины волны света и числовой апертуры (NA) конечной линзы объектива. При применении реконструкции SIM информацию из множества изображений преобразуют из пространственной области в область Фурье, объединяют и обрабатывают, затем реконструируют в улучшенное изображение.[0054] Structured illumination can create images that have several times more deployed illumination sources than under normal illumination. The information is not created by itself. Instead, multiple images with varying angles and phase shifts of structured illumination are used to transform closely spaced, otherwise non-deployable, high spatial frequency features into lower frequency signals that can be sensed by an optical system without violating the Abbe diffraction limit. This limit is physically inherent in image formation by the nature of light and optics and is expressed as a function of the wavelength of the light and the numerical aperture (NA) of the final objective lens. Using SIM reconstruction, information from multiple images is transformed from the spatial domain to the Fourier domain, combined and processed, and then reconstructed into an enhanced image.
[0055] В SIM используют решетку или формируют интерференционный рисунок между источником освещения и образцом, чтобы сформировать рисунок освещения, такой как рисунок, интенсивность которого меняется в соответствии с синусоидой или косинусоидой. В контексте SIM помимо обозначения поверхности, которая создает рисунок структурированного освещения, термин «дифракционная решетка» иногда означает спроецированный рисунок структурированного освещения. В альтернативном варианте осуществления рисунок структурированного освещения может быть сформирован в виде интерференционного рисунка между частями расщепленного когерентного луча.[0055] In SIM, a grating is used or an interference pattern is formed between the illumination source and the sample to form an illumination pattern, such as a pattern whose intensity varies according to a sine or cosine wave. In the context of SIM, in addition to referring to a surface that creates a structured illumination pattern, the term "diffraction grating" sometimes refers to a projected structured illumination pattern. In an alternative embodiment, the structured illumination pattern may be formed as an interference pattern between portions of a split coherent beam.
[0056] Проекция структурированного освещения на плоскость образца, например, как показано на ФИГ. 1, смешивает рисунок освещения с флуоресцентными (или отражающими) источниками в образце и вызывает новый сигнал, иногда называемый муаровой интерференционной полосой или наложением спектров. Новый сигнал сдвигает информацию высокой пространственной частоты в более низкую пространственную частоту, которая может быть захвачена без нарушения дифракционного предела Аббе. После захвата изображений образца, освещенного с помощью одномерного (1D) рисунка модуляции интенсивности, как показано на ФИГ. 1А, или двумерного (2D) рисунка модуляции интенсивности, как показано на ФИГ. 1В, решают систему линейных уравнений и используют ее для выделения из множества изображений муаровой интерференционной полосы или наложения спектров частей нового сигнала, который содержит информацию, сдвинутую от более высокой к более низкой пространственной частоте. Чтобы решить линейные уравнения, захватывают три изображения или больше с пошаговым сдвигом или смещением рисунка структурированного освещения. Часто могут быть захвачены изображения с меняющимися фазами (3-7 фаз) на каждый угол (1-5 углов) и затем разделены по полосам для сдвига области Фурье и повторного объединения. Увеличение количества изображений может улучшить качество реконструируемых изображений за счет повышения отношения сигнал/шум. Однако это может также увеличить время вычисления. Представление Фурье разделенных полосами изображений сдвигают и суммируют для получения реконструированной суммы. В итоге с помощью обратного быстрого преобразования Фурье (FFT) из реконструированный суммы реконструируют новое изображение с высоким разрешением.[0056] Projection of structured illumination onto a sample plane, such as shown in FIG. 1, mixes the illumination pattern with fluorescent (or reflective) sources in the sample and produces a new signal, sometimes called a moire fringe or aliasing. The new signal shifts high spatial frequency information to a lower spatial frequency that can be captured without violating the Abbe diffraction limit. After capturing images of a sample illuminated with a one-dimensional (1D) intensity modulation pattern, as shown in FIG. 1A, or a two-dimensional (2D) intensity modulation pattern, as shown in FIG. 1B, a system of linear equations is solved and used to extract from a plurality of moire fringe or alias images portions of the new signal that contains information shifted from a higher to a lower spatial frequency. To solve the linear equations, three or more images are captured with a stepwise shift or offset of the structured illumination pattern. Often, images with varying phases (3-7 phases) per angle (1-5 angles) can be captured and then striped to shift the Fourier domain and recombine. Increasing the number of images can improve the quality of the reconstructed images by increasing the signal-to-noise ratio. However, it can also increase the computation time. The Fourier representation of the striped images is shifted and summed to obtain a reconstructed sum. Finally, a new high-resolution image is reconstructed from the reconstructed sum using the inverse fast Fourier transform (FFT).
[0057] Применение множества изображений и смещение только улучшает информацию об изображении в конкретном направлении, вдоль которой сдвигается рисунок структурированного освещения 1D, поэтому структурированное освещение или дифракционная решетка поворачивается, а процедура смещения повторяется. Поворот рисунка 1D, например на 45, 60, 90 или 120 градусов, может быть применен для получения шести или девяти изображений в три этапа. Факторы окружающей среды, такие как повреждение молекул на поверхности проточных кювет из-за лазеров синего и зеленого цвета, наклона фрагментов на поверхности проточных кювет и т.п., могут вызывать искажения в оценках смещения фаз для субфрагментов изображения или субокон полного поля обзора (FOV). Они также могут вызывать различия между фрагментами на подложке. Более частые оценки параметров восстановления изображения SIM могут быть выполнены для компенсации этих факторов окружающей среды. Например, фазовые смещения субфрагментов могут быть повторно оценены для каждого фрагмента, чтобы с каждым циклом восстановления сводить к минимуму эти ошибки. Параметры угла и разноса не изменяются так часто, как фазовое смещение, и, следовательно, увеличение частоты их оценки может вносить дополнительные вычисления, которые не являются необходимыми. Однако параметры угла и разноса можно вычислять чаще, если требуется.[0057] The use of multiple images and shifting only improves the image information in a specific direction along which the 1D structured illumination pattern is shifted, so the structured illumination or diffraction grating is rotated and the shifting procedure is repeated. A rotation of the 1D pattern, for example by 45, 60, 90 or 120 degrees, can be applied to obtain six or nine images in three steps. Environmental factors such as damage to molecules on the surface of the flow cells due to blue and green lasers, tilting of fragments on the surface of the flow cells, etc., can cause distortions in the phase shift estimates for image sub-tiles or sub-windows of the full field of view (FOV). They can also cause differences between tiles on the substrate. More frequent estimates of the SIM image reconstruction parameters can be performed to compensate for these environmental factors. For example, the phase shifts of the sub-tiles can be re-estimated for each tile to minimize these errors with each reconstruction cycle. The angle and offset parameters do not change as frequently as the phase offset, and therefore increasing the frequency of their evaluation may introduce additional calculations that are not necessary. However, the angle and offset parameters can be calculated more frequently if required.
Применение SIM к анализу изображения проточной кюветыApplication of SIM to Flow Cell Image Analysis
[0058] Визуализация проточной кюветы с несколькими миллионами флуоресцентных образцов более похожа на пространство сканирования с телескопом, чем на изучение микроструктур живой клетки. Сканирование проточной кюветы с помощью бюджетной оптики больше похоже на захват изображений инстаматической камерой, чем на использование адаптивной оптики Паломарской обсерватории. Сканирование проточной кюветы или небесного свода включает множество изображений, которые покрывают фрагменты цели, в отличие от визуализации живой клетки в зоне наилучшего восприятия линзы. Количество изображений, необходимых для охвата любой цели, зависит от поля зрения каждого фрагмента изображения и степени перекрытия. Экономичная линза имеет искажения на краях поля зрения, что усложняет создание улучшенных изображений.[0058] Imaging a flow cell with millions of fluorescent samples is more like scanning a telescope than studying the microstructures of a living cell. Scanning a flow cell with low-cost optics is more like capturing images with an instamatic camera than using the adaptive optics at Palomar Observatory. Scanning a flow cell or the sky involves many images that cover portions of the target, as opposed to imaging a living cell in the sweet spot of a lens. The number of images needed to cover any given target depends on the field of view of each image portion and the degree of overlap. The low-cost lens has distortions at the edges of the field of view, making it difficult to create enhanced images.
[0059] Расчеты, используемые в реконструкции SIM, чувствительны к искажениям линзы, выравниванию рисунка в конкретном наборе изображений и тепловым эффектам для выравнивания эталонов по сравнению с циклами визуализации, которые прогрессируют в течение нескольких часов. Увеличение поля обзора с использованием большей части линзы вместо зоны наилучшего восприятия в центре делает реконструкцию изображений SIM восприимчивой к искажениям, вызываемым аберрациями в линзе. Эти аберрации, такие как несимметрическая аберрация, искажают структурированный рисунок освещения и делают параллельные линии пиков освещения похожими на кривые, как в целом показано на ФИГ. 8А, изменяя расстояние между пиками яркости рисунка и видимых углов рисунка.[0059] The calculations used in SIM reconstruction are sensitive to lens distortions, pattern alignment in a particular set of images, and thermal effects for reference alignment over imaging cycles that progress over several hours. Increasing the field of view by using more of the lens instead of the sweet spot in the center makes SIM image reconstruction susceptible to distortions caused by lens aberrations. These aberrations, such as asymmetric aberration, distort the structured illumination pattern and make parallel lines of illumination peaks look like curves, as generally shown in FIG. 8A, changing the distance between the pattern brightness peaks and the apparent corners of the pattern.
[0060] На практике инструменты должны обладать характеристиками, которые позволяют сопоставлять искажения и смещения между частями фрагмента. Из-за продолжительности визуализации проточной кюветы в течение нескольких циклов некоторые инструменты получат преимущество от обновленных характеристик в начале цикла или даже во время цикла. Термическое искажение в течение нескольких часов визуализации проточной кюветы в течение нескольких сотен циклов может сделать возможным временное или регулярное регенерирование угла, разноса и фазы (сдвига) структурированного освещения.[0060] In practice, instruments must have characteristics that allow distortions and offsets to be compared between parts of a fragment. Due to the duration of flow cell imaging over several cycles, some instruments will benefit from updated characteristics at the beginning of a cycle or even during a cycle. Thermal distortion over several hours of flow cell imaging over several hundred cycles may allow temporary or regular regeneration of the angle, spacing, and phase (offset) of the structured illumination.
[0061] Угол (вращение) и разнос (шкала) проецированного структурированного рисунка освещения можно определить с помощью пиковой оценки интерференционной полосы при определении характеристик прибора. Расчетная фаза или смещение повторяющегося рисунка в направлении выполнения могут быть выражены в виде пространственного сдвига от 0 до 360 градусов или в радианах. Искажение линзы усложняет оценку параметров, что приводит к предложениям затратных по вычислениям реконструкций из множества изображений. См., например, Ayuk et al. (2013) Structured illumination fluorescence microscopy with distorted excitations using a filtered blind-SIM algorithm. Optics letters. 38. 4723-6. 10.1364/OL.38.004723; и Mudry et al. (2012) Structured illumination microscopy using unknown speckle patterns. Nature Photonics. 6. 312-315. Описанная технология упрощает оценку повторных параметров и снижает количество необходимых вычислений в повторных циклах оценки.[0061] The angle (rotation) and spacing (scale) of the projected structured illumination pattern can be determined using the peak fringe estimate in device characterization. The estimated phase or offset of the repeating pattern in the execution direction can be expressed as a spatial shift from 0 to 360 degrees or in radians. Lens distortion complicates the parameter estimation, leading to proposals for computationally expensive reconstructions from multiple images. See, e.g., Ayuk et al. (2013) Structured illumination fluorescence microscopy with distorted excitations using a filtered blind-SIM algorithm. Optics letters. 38. 4723-6. 10.1364/OL.38.004723; and Mudry et al. (2012) Structured illumination microscopy using unknown speckle patterns. Nature Photonics. 6. 312-315. The described technology simplifies the evaluation of repeated parameters and reduces the number of necessary calculations in repeated evaluation cycles.
[0062] Оценка параметров в реальном времени для реконструкции SIM является сложной задачей в вычислительном отношении. Вычислительная мощность, необходимая для реконструкции SIM, увеличивается пропорционально кубу числа пикселей в поле или субполе изображения. Например, для изображения с шириной М пикселей и высотой N пикселей преобразование Фурье может иметь следующую вычислительную сложность: k*M*N(log(M*N)). Таким образом, порядок величины ресурсов для реконструкции изображения SIM может увеличиваться пропорционально квадрату O(N2) или кубу O(N3) по мере увеличения числа пикселей на изображениях. Таким образом, двукратное увеличение размеров изображения, например от 512 × 512 до 1024 × 1024, может привести к увеличению вычислительных затрат в восемь раз. Особенно сложным является восстановление улучшенного изображения из шести или девяти изображений с разрешением 20 мегапикселей на ЦП со скоростью одного завершенного восстановления в течение 0,3 секунды во время выполнения сканирования. Обработка в режиме реального времени желательна для снижения требований к хранению и отслеживания качества обработки проточной кюветы в течение нескольких часов, когда происходит сканирование и секвенирование. Описанная технология уменьшает количество ряда ключевых вычислений приблизительно наполовину за счет использования симметрии и приблизительной симметрии в матрицах коэффициентов домена Фурье.[0062] Real-time parameter estimation for SIM reconstruction is a computationally challenging task. The computational power required for SIM reconstruction increases with the cube of the number of pixels in an image field or subfield. For example, for an image with a width of M pixels and a height of N pixels, the Fourier transform may have the following computational complexity: k*M*N(log(M*N)). Thus, the order of magnitude of the resources for SIM image reconstruction may increase in proportion to the square of O(N 2 ) or the cube of O(N 3 ) as the number of pixels in the images increases. Thus, doubling the image dimensions, for example from 512 × 512 to 1024 × 1024, may result in an eightfold increase in computational costs. Particularly challenging is reconstructing an enhanced image from six or nine 20-megapixel images on a CPU at a rate of one completed reconstruction within 0.3 seconds during a scan. Real-time processing is desirable to reduce storage requirements and to track the quality of flow cell processing over the hours that scanning and sequencing occurs. The described technology reduces the number of key calculations by approximately half by exploiting the symmetry and approximate symmetry in the Fourier domain coefficient matrices.
Устранение искажений линзыEliminating lens distortion
[0063] Описанная технология решает проблему не очень серьезных искажений линзы для оптической системы в пределах бюджетных производственных допусков путем деления захваченного фрагмента изображения на субфрагменты и обработки субфрагмента, расположенного вблизи центра, иным способом по сравнению с другими субфрагментами. Изображение, захваченное оптическим датчиком, может называться фрагментом. Цикл формирования изображения для проточной кюветы захватывает множество фрагментов изображения с некоторым перекрытием. Каждый фрагмент изображения разделен на субфрагменты, которые оцениваются независимо. Субфрагменты могут быть реконструированы независимо друг от друга, даже параллельно. Реконструкции из улучшенных субфрагментов могут быть сшиты вместе для создания реконструированного фрагмента с улучшенным пространственным разрешением.[0063] The described technology solves the problem of minor lens distortions for an optical system within budget manufacturing tolerances by dividing the captured image fragment into sub-fragments and processing the sub-fragment located near the center in a different way compared to the other sub-fragments. An image captured by an optical sensor may be called a fragment. An imaging cycle for a flow cell captures multiple image fragments with some overlap. Each image fragment is divided into sub-fragments, which are evaluated independently. The sub-fragments may be reconstructed independently of each other, even in parallel. Reconstructions from the improved sub-fragments may be stitched together to create a reconstructed fragment with improved spatial resolution.
[0064] Технология интерполяции, описанная для отношения параметров реконструкции ближайшего к центру субфрагмента к другим субфрагментам, аппроксимирует нелинейную функцию, например квадратичную кривую, с помощью фрагментарной аппроксимации. Описанная технология разбивает фрагмент изображения на субфрагменты, так что линии пика приблизительно равномерно разнесены в пределах субфрагмента, тем самым достигая более хорошего качества изображения из реконструированных субфрагментов в поле обзора линзы.[0064] The interpolation technique described for the ratio of the reconstruction parameters of the closest sub-fragment to the other sub-fragments approximates a non-linear function, such as a quadratic curve, using a fragmentary approximation. The described technique breaks an image fragment into sub-fragments such that the peak lines are approximately evenly spaced within the sub-fragment, thereby achieving better image quality from the reconstructed sub-fragments in the field of view of the lens.
[0065] Создание субфрагментов для уменьшения искажения интерференционных полос создает новую проблему: параметры реконструкции должны быть оценены для каждого субфрагмента. Оценка параметров представляет собой наиболее затратный набор заданных значений в реконструкции SIM, а разделение на субфрагменты увеличивает время выполнения оценки параметров по меньшей мере на один порядок величины, например при разделении изображения на 5×5 субфрагментов будет создан алгоритм, который в 25 раз медленнее. При разделении фрагмента на 8×11 субфрагментов требуется 88 наборов параметров реконструкции вместо одного набора.[0065] Sub-tile creation to reduce fringe distortion introduces a new problem: reconstruction parameters must be estimated for each sub-tile. Parameter estimation is the most expensive set of values in SIM reconstruction, and sub-tile division increases the execution time of parameter estimation by at least one order of magnitude, e.g., sub-tile division of an image into 5×5 sub-tiles will produce an algorithm that is 25 times slower. Sub-tile division of a tile into 8×11 sub-tiles requires 88 sets of reconstruction parameters instead of one set.
[0066] Описанная технология изучает функцию, которая сопоставляет искажение и тем самым уменьшает количество вычислений в повторных циклах. Найденная функция действительна для всех циклов и наборов изображений, поскольку она сопоставляет оптические характеристики оптической системы, которые изменяются при изменении оптической системы, например при повторном совмещении. Во время циклов оценки между характеристиками прибора, затратное вычисление параметров фокусируется на одном субфрагменте, ближайшем к центру. Параметры для каждого субфрагмента сопоставляются с измерениями в циклах, удаленных от центрального эталонного субфрагмента и других субфрагментов.[0066] The described technology learns a function that matches the distortion and thereby reduces the amount of computation in repeated cycles. The found function is valid for all cycles and image sets, since it matches the optical characteristics of the optical system that change when the optical system is changed, for example, during repeated alignment. During the evaluation cycles between the instrument characteristics, the expensive calculation of the parameters is focused on one sub-patch closest to the center. The parameters for each sub-patch are matched with measurements in cycles distant from the central reference sub-patch and other sub-patch.
[0067] Для субфрагментов сопоставляют три параметра: угол пика освещения, разнос пика освещения и фазовое смещение. Угол пика освещения также называют углом решетки. Разнос пика освещения также называют разносом решетки. Описанная технология сопоставляет угол и разнос с использованием квадратичных моделей искажения поверхности. Фазовое смещение или просто фаза - это сдвиг структурированного рисунка освещения или решетки при проецировании на плоскость образца.[0067] Three parameters are matched for sub-patterns: illumination peak angle, illumination peak spacing, and phase shift. The illumination peak angle is also called the grating angle. The illumination peak spacing is also called the grating spacing. The described technique matches the angle and spacing using quadratic models of surface distortion. The phase shift, or simply phase, is the shift of the structured illumination pattern or grating when projected onto the sample plane.
[0068] Модели искажения разноса и угла, которые можно использовать повторно, вычисляют a priori, используя подход субфрагментов для характеристики полного FOV. При подходе окон или субфрагментов фрагмент разделяют на перекрывающиеся окна или субфрагменты изображений и выполняют оценку параметров SIM на каждом субфрагменте. Результаты оценки параметров субфрагмента затем отправляют в регрессию наименьших квадратов, в которой генерируются квадратичные поверхности искажения. Затем для экстраполяции параметров субфрагментов или в любом местоположении полного поля зрения можно использовать сохраненные коэффициенты уравнений. В альтернативных вариантах реализации коэффициенты можно хранить и использовать, а также переносить в таблицу поиска субфрагментов, которая соотносит ближайший к центру субфрагмент с другими субфрагментами. В качестве эталона используют ближайший к центру субфрагмент, поскольку искажение в центре линзы меньше, чем по краям.[0068] Reusable models of spacing and angle distortion are computed a priori using a sub-fragment approach to characterize the full FOV. In a window or sub-fragment approach, a fragment is divided into overlapping windows or image sub-fragments and SIM parameters are estimated on each sub-fragment. The results of the sub-fragment parameter estimates are then fed to a least-squares regression, which generates quadratic distortion surfaces. Stored coefficients of the equations can then be used to extrapolate the parameters of the sub-fragments or at any location in the full field of view. In alternative embodiments, the coefficients can be stored and used, and transferred to a sub-fragment lookup table that relates the sub-fragment closest to the center to other sub-fragments. The sub-fragment closest to the center is used as a reference because the distortion at the center of the lens is less than at the edges.
[0069] Для фазового соотношения между субфрагментами таблица поиска подходит лучше, чем аппроксимация кривой, как представлено ниже.[0069] For the phase relationship between sub-fragments, the lookup table is better suited than the curve fitting, as shown below.
[0070] В ходе выполнения, которое занимает несколько часов, можно применять периодическую реклассификацию для защиты от термической нестабильности и смещения в его результате. После переопределения коэффициентов экстраполяции процесс возобновляет оценки экстраполирования параметров ближайшего к центру субфрагмента с другими субфрагментами путем экстраполяции и без затратных оценок параметров для других субфрагментов.[0070] During a run that takes several hours, periodic reclassification can be used to protect against thermal instability and the resulting bias. After redefining the extrapolation coefficients, the process resumes extrapolating the parameters of the closest sub-chunk to the center with other sub-chunks by extrapolation and without the cost of extrapolating the parameters for other sub-chunks.
Использование симметрии для снижения затрат вычисленийUsing symmetry to reduce computational costs
[0071] При визуализации одной кюветы реконструкцию SIM из множества изображений часто выполняют на специализированном оборудовании, например на GPU, FPGA или CGRA. За счет избыточных вычислительных ресурсов алгоритмы реконструкции работают с полностью избыточными преобразованиями Фурье, смещенными к центру. Используя вместо этого центральный процессор, авторы описывают реконструкцию SIM с использованием неизбыточных коэффициентов изображений после преобразования Фурье. Вариант реализации описан на основе симметрии данных в пространстве преобразования Фурье, смещенном к углу. Использование определенной симметрии повышает сложность программы, но может уменьшить количество данных для вычисления в ключевом наборе наполовину, а количество необходимых вычислений - наполовину при сохранении почти одинаковой точности. Также уменьшают количество вычислений, необходимых для смещения представлений Фурье в отношении объединенных изображений.[0071] When imaging a single cuvette, SIM reconstruction from multiple images is often performed on specialized hardware such as a GPU, FPGA, or CGRA. Due to the computational overhead, reconstruction algorithms operate on fully redundant Fourier transforms that are biased toward the center. Using a CPU instead, the authors describe a SIM reconstruction using non-redundant coefficients of Fourier-transformed images. An embodiment is described based on the symmetry of the data in the corner-shifted Fourier transform space. Using a certain symmetry increases the complexity of the program, but can reduce the amount of data to compute in the key set by half and the number of required computations by half while maintaining nearly the same accuracy. The number of computations required to bias the Fourier representations with respect to the combined images is also reduced.
Адаптация к рисункам освещения 2DAdaptation to 2D Lighting Drawings
[0072] Стандартные алгоритмы для одномерного (1D) модулированного освещения требуют модификации при использовании их с двумерным (2D) рисунком модулированного освещения. Сюда входят оценка разноса пика освещения и угла пика освещения, что требует двумерного (2D) разделения полосы, а не одномерного (1D). Кроме того, модификация включает в себя оценку фазы по Уикеру, в которой требуется использовать две точки (вместо одной), чтобы оценить фазу в двух измерениях. Одномерный (1D) интерференционный рисунок может быть сформирован одномерной дифракционной решеткой, как показано на ФИГ. 1А, или в результате интерференционного рисунка двух лучей.[0072] Standard algorithms for one-dimensional (1D) modulated illumination require modification when used with a two-dimensional (2D) modulated illumination pattern. This includes estimating the illumination peak spacing and the illumination peak angle, which requires a two-dimensional (2D) strip separation rather than a one-dimensional (1D) one. In addition, the modification includes estimating the Wicker phase, which requires using two points (instead of one) to estimate the phase in two dimensions. The one-dimensional (1D) interference pattern can be formed by a one-dimensional diffraction grating, as shown in FIG. 1A, or by an interference pattern of two beams.
[0073] На ФИГ. 1В показано распределение интенсивности, которое может быть получено посредством двумерной (2D) дифракционной решетки или посредством интерференции четырех лучей света. Два луча света создают рисунок интенсивности (горизонтальные яркие и темные линии) вдоль оси у и поэтому называются у-парой падающих лучей. Еще два луча света создают рисунок интенсивности (вертикальные яркие и темные линии) вдоль оси х и поэтому называются х-парой падающих лучей. Интерференция у-пары с х-парой лучей света создает двумерный (2D) рисунок освещения. На ФИГ. 1В показано распределение интенсивности такого двумерного (2D) рисунка освещения.[0073] FIG. 1B shows an intensity distribution that can be obtained by a two-dimensional (2D) diffraction grating or by interference of four light beams. Two light beams create an intensity pattern (horizontal bright and dark lines) along the y-axis and are therefore called a y-pair of incident rays. Two more light beams create an intensity pattern (vertical bright and dark lines) along the x-axis and are therefore called an x-pair of incident rays. The interference of the y-pair with the x-pair of light beams creates a two-dimensional (2D) illumination pattern. FIG. 1B shows the intensity distribution of such a two-dimensional (2D) illumination pattern.
[0074] На ФИГ. 1С показано расположение нанолунок на поверхности проточной кюветы в углах прямоугольника. При использовании одномерного (1D) структурированного освещения угол пика освещенности выбран так, что изображения получают вдоль линии, соединяющей по диагонали противоположные углы прямоугольника. Например, можно получить два набора из трех изображений (всего шесть изображений) под углами +45 градусов и -45 градусов. Поскольку расстояние вдоль диагонали больше расстояния между любыми двумя сторонами прямоугольника, можно получить изображение более высокого разрешения. Нанолунки могут быть расположены в виде других геометрических фигур, таких как шестиугольник. В таком случае можно получить три или более изображения вдоль каждой из трех диагоналей шестиугольника, что в итоге дает, например, девять или пятнадцать изображений.[0074] FIG. 1C shows the arrangement of nanowells on the surface of a flow cell at the corners of a rectangle. When using one-dimensional (1D) structured illumination, the angle of the peak illumination is selected such that images are obtained along a line connecting diagonally opposite corners of the rectangle. For example, two sets of three images (a total of six images) can be obtained at angles of +45 degrees and -45 degrees. Since the distance along the diagonal is greater than the distance between any two sides of the rectangle, a higher resolution image can be obtained. The nanowells can be arranged in other geometric shapes, such as a hexagon. In this case, three or more images can be obtained along each of the three diagonals of the hexagon, which ultimately gives, for example, nine or fifteen images.
[0075] Описанные новые и специализированные технологии можно применять по отдельности или в комбинации для улучшения характеристик сканирования при обнаружении флуоресценции нескольких миллионов образцов, распределенных по проточной кювете, за несколько циклов. В последующих разделах авторы вводят терминологию, описывают инструмент визуализации, который можно улучшить с помощью описанной технологии, а также новые технологии улучшения изображения, которые можно использовать по отдельности или в комбинации.[0075] The described new and specialized technologies can be used individually or in combination to improve scanning performance in detecting fluorescence of several million samples distributed over a flow cell over several runs. In the following sections, the authors introduce terminology, describe an imaging tool that can be improved by the described technology, and describe new image enhancement technologies that can be used individually or in combination.
ТерминологияTerminology
[0076] Термин «частота», используемый в настоящем документе в отношении параметра структурированного освещения, означает величину, обратную расстоянию между интерференционными полосами или линиями рисунка структурированного освещения (например, рисунка интерференционных полос или решетки), т.к. частота и период находятся в обратной зависимости. Например, рисунок, имеющий большее расстояние между интерференционными полосами, будет иметь частоту ниже, чем рисунок, имеющий меньшее расстояние между интерференционными полосами.[0076] The term "frequency" as used herein in relation to a structured illumination parameter means the reciprocal of the spacing between fringes or lines of a structured illumination pattern (e.g., a fringe pattern or grating), since frequency and period are inversely related. For example, a pattern having a larger spacing between fringes will have a lower frequency than a pattern having a smaller spacing between fringes.
[0077] Термин «фаза», используемый в настоящем документе в отношении параметра структурированного освещения, означает фазу рисунка структурированного освещения, освещающего образец. Например, фаза может быть изменена перемещением рисунка структурированного освещения относительно освещаемого образца.[0077] The term "phase" as used herein in relation to a structured illumination parameter means the phase of the structured illumination pattern illuminating the sample. For example, the phase can be changed by moving the structured illumination pattern relative to the illuminated sample.
[0078] Термин «ориентация», используемый в настоящем документе в отношении параметра структурированного освещения, означает относительную ориентацию между рисунком структурированного освещения (например, рисунком интерференционных полос или решетки) и образцом, освещаемым этим рисунком. Например, ориентация может быть изменена вращением рисунка структурированного освещения относительно освещаемого образца.[0078] The term "orientation" as used herein in relation to a structured illumination parameter means the relative orientation between a structured illumination pattern (e.g., an interference fringe or grating pattern) and a sample illuminated by that pattern. For example, the orientation can be changed by rotating the structured illumination pattern relative to the illuminated sample.
[0079] Термины «предсказывать» или «предсказание», используемые в настоящем документе в отношении параметра структурированного освещения, означают либо вычисление значений параметра без непосредственного измерения параметра, либо оценку параметра по захваченному изображению, соответствующему параметру. Например, фаза рисунка структурированного освещения в момент t1 времени может быть предсказана путем интерполяции между значениями фазы, непосредственно измеренными или оцененными (например, по захваченным фазовым изображениям) в моменты времени t2 и t3, причем t2<t1<t3. В качестве еще одного примера частота рисунка структурированного освещения в момент t1 времени может быть предсказана путем экстраполяции из значений частоты, непосредственно измеренных или оцененных (например, по захваченным фазовым изображениям) в моменты времени t2 и t3, причем t2<t3<t1.[0079] The terms "predict" or "prediction" as used herein in relation to a structured illumination parameter mean either calculating values of the parameter without directly measuring the parameter or estimating the parameter from a captured image corresponding to the parameter. For example, the phase of a structured illumination pattern at time t1 may be predicted by interpolating between phase values directly measured or estimated (e.g., from captured phase images) at times t2 and t3, where t2<t1<t3. As another example, the frequency of a structured illumination pattern at time t1 may be predicted by extrapolating from frequency values directly measured or estimated (e.g., from captured phase images) at times t2 and t3, where t2<t3<t1.
[0080] Термин «порядок» или «порядковый номер», используемый в настоящем документе в отношении света, дифрагированного дифракционной решеткой, означает количество целочисленных длин волн, которые представляют разницу длины пути света из смежных щелей или структур дифракционной решетки для конструктивной интерференции. Взаимодействие падающего луча света с повторяющимся рядом структур решетки или других структур, расщепляющих луч, может перенаправить или дифрагировать части луча света в предсказуемых угловых направлениях относительно первоначального луча. Термин «нулевого порядка» или «максимум нулевого порядка» означает центральную яркую интерференционную полосу, излучаемую дифракционной решеткой, в которой нет дифракции. Термин «первого порядка» означает две яркие интерференционные полосы, дифрагированные в обе стороны от интерференционной полосы нулевого порядка, причем разница длин пути равна ±1 длине волны. Полосы более высокого порядка дифрагируются на более высокие углы от первоначального луча. Свойствами решетки можно манипулировать для управления степенью интенсивности луча, направляемой в полосы различного порядка. Например, фазовая решетка может быть изготовлена так, чтобы максимизировать передачу лучей ±1 порядков и минимизировать передачу луча нулевого порядка.[0080] The term "order" or "ordinal number" as used herein with respect to light diffracted by a diffraction grating means the number of integer wavelengths that represent the difference in path length of light from adjacent slits or structures of the diffraction grating for constructive interference. The interaction of an incident beam of light with a repeating row of grating structures or other beam-splitting structures can redirect or diffract portions of the beam of light in predictable angular directions relative to the original beam. The term "zero order" or "zero order maximum" means a central bright interference fringe emitted by a diffraction grating in which there is no diffraction. The term "first order" means two bright interference fringes diffracted to either side of a zero order interference fringe, where the path length difference is equal to ±1 wavelength. Higher order fringes are diffracted at higher angles from the original beam. The properties of the grating can be manipulated to control the degree of beam intensity directed into fringes of different orders. For example, a phase grating can be designed to maximize the transmission of ±1 order beams and minimize the transmission of zero order beams.
[0081] Термин «элемент», используемый в настоящем документе в отношении образца, означает точку или область в структуре, которую можно отличить от других точек или областей на основании относительного расположения. Отдельный элемент может включать одну или несколько молекул определенного типа. Например, элемент может включать одну целевую молекулу нуклеиновой кислоты, имеющую конкретную последовательность, или элемент может включать несколько молекул нуклеиновой кислоты, имеющих одинаковую последовательность (и/или комплементарную ей последовательность).[0081] The term "element" as used herein in relation to a sample means a point or region in a structure that can be distinguished from other points or regions based on relative position. An individual element may include one or more molecules of a particular type. For example, an element may include a single target nucleic acid molecule having a particular sequence, or an element may include multiple nucleic acid molecules having the same sequence (and/or a complementary sequence).
[0082] Используемый в настоящем документе термин «плоскость ху» означает 2-мерную область, определяемую прямыми осями х и у в декартовой системе координат. При использовании в отношении детектора и объекта, наблюдаемого детектором, область может быть дополнительно определена как ортогональная оси луча или направлению наблюдения между детектором и обнаруживаемым объектом.[0082] As used herein, the term "xy plane" means a 2-dimensional region defined by the straight x and y axes in a Cartesian coordinate system. When used in relation to a detector and an object observed by the detector, the region may be further defined as orthogonal to the beam axis or the viewing direction between the detector and the object being detected.
[0083] Используемый в настоящем документе термин «координата z» предназначен для обозначения информации, которая устанавливает местоположение точки, линии или области вдоль оси, ортогональной плоскости XY. В конкретных вариантах реализации ось z перпендикулярна области объекта, наблюдаемой детектором. Например, направление фокуса оптической системы может быть установлено вдоль оси z.[0083] As used herein, the term "z coordinate" is intended to refer to information that specifies the location of a point, line, or region along an axis orthogonal to the XY plane. In particular embodiments, the z axis is perpendicular to the region of the object observed by the detector. For example, the focal direction of an optical system may be set along the z axis.
[0084] Используемый в настоящем документе термин «оптически связанный» означает один элемент, адаптируемый для прямой или косвенной передачи света другому элементу.[0084] As used herein, the term "optically coupled" means one element adapted to directly or indirectly transmit light to another element.
Оборудование для SIMSIM equipment
[0085] Этот раздел основан на описании, ранее представленном заявителем в предварительной заявке США№62/692,303, поданной 29 июня 2018 года (неопубликованной). Микроскопия структурированного освещения (SIM) описывает способ, посредством которого пространственно структурированный (т.е. в форме рисунка) свет может быть использован для визуализации образца и увеличения бокового разрешения микроскопа на два порядка или более. На ФИГ. 1А показана формация муаровой интерференционной полосы (или муарового рисунка) с использованием решетки с модуляцией 1D. Поверхность, содержащая образец, освещается структурированным рисунком интенсивности света, как правило, синусоидальной, для воздействия на формацию муаровой интерференционной полосы. На ФИГ. 1А показаны два синусоидальных рисунка, на которых их частотные векторы, в частотном или обратном пространстве, (а) параллельны и (b) непараллельны. На ФИГ. 1А представлена типичная иллюстрация сдвига высокочастотной пространственной информации в сторону более низкой частоты, которую можно обнаружить оптически. Новый сигнал называют муаровой интерференционной полосой или наложением В некоторых случаях во время формирования изображения образца получают три изображения рисунков интерференционных полос с различными фазами рисунка (например, 0°, 120° и 240°), чтобы каждое местоположение на образце подвергалось воздействию диапазона интенсивностей освещения, причем эту процедуру повторяют, поворачивая ориентацию рисунка вокруг оптической оси на 2 (например, 45°, 135°) или 3 (например, 0°, 60° и 120°) отдельных угла. Полученные изображения (например, шесть или девять изображений) могут быть собраны в одно изображение с расширенной полосой пространственной частоты, которое можно повторно преобразовать в реальное пространство и создать изображение, с более высоким разрешением по сравнению с изображением, полученным с помощью стандартного микроскопа.[0085] This section is based on the disclosure previously provided by Applicant in U.S. Provisional Application No. 62/692,303, filed June 29, 2018 (unpublished). Structured illumination microscopy (SIM) describes a method by which spatially structured (i.e., patterned) light can be used to visualize a specimen and increase the lateral resolution of a microscope by two orders of magnitude or more. FIG. 1A shows the formation of a moiré interference fringe (or moiré pattern) using a 1D modulated grating. A surface containing a specimen is illuminated with a structured pattern of light intensity, typically sinusoidal, to affect the formation of the moiré interference fringe. FIG. 1A shows two sinusoidal patterns in which their frequency vectors, in frequency or reciprocal space, are (a) parallel and (b) non-parallel. FIG. 1A is a typical illustration of the shift of high frequency spatial information to a lower frequency that can be detected optically. The new signal is called a moiré fringe or alias. In some cases, during sample imaging, three images of the fringe patterns are acquired at different pattern phases (e.g., 0°, 120°, and 240°) so that each location on the sample is exposed to a range of illumination intensities, and this procedure is repeated while rotating the pattern orientation around the optical axis by 2 (e.g., 45°, 135°) or 3 (e.g., 0°, 60°, and 120°) separate angles. The resulting images (e.g., six or nine images) can be assembled into a single image with an expanded spatial frequency bandwidth, which can be re-transformed into real space to produce an image with a higher resolution than that obtained with a standard microscope.
[0086] В некоторых вариантах реализации систем SIM линейно поляризованный луч света направляют через оптический расщепитель луча, который расщепляет луч на два или более отдельных порядка, которые могут быть объединены и спроецированы на образец, изображение которого формируют, в виде рисунка интерференционных полос с синусоидальным изменением интенсивности. Примерами расщепителей луча являются дифракционные решетки, которые могут формировать лучи с высокой степенью когерентности и стабильными углами распространения. Когда два таких луча объединяются, интерференция между ними может создавать рисунок из равномерных регулярно повторяющихся интерференционных полос, причем расстояние между ними определяется факторами, включающими угол между интерферирующими лучами.[0086] In some embodiments of SIM systems, a linearly polarized beam of light is directed through an optical beam splitter that splits the beam into two or more separate orders that can be combined and projected onto a sample, the image of which is formed, in the form of a pattern of interference fringes with a sinusoidal change in intensity. Examples of beam splitters are diffraction gratings that can form beams with a high degree of coherence and stable propagation angles. When two such beams are combined, the interference between them can create a pattern of uniform, regularly repeating interference fringes, and the distance between them is determined by factors including the angle between the interfering beams.
[0087] На ФИГ. 1В представлен пример двумерного (2D) структурированного освещения. Двумерное (2D) структурированное освещение может быть сформировано двумя ортогональными одномерными (1D) дифракционными решетками, наложенными друг на друга. Как и в случае одномерных (1D) рисунков структурированного освещения, двумерные (2D) рисунки освещения могут быть сформированы либо путем использования двумерных (2D) дифракционных решеток, либо посредством интерференции между четырьмя лучами света, которые создают регулярно повторяющийся рисунок интерференционных полос.[0087] FIG. 1B shows an example of a two-dimensional (2D) structured illumination. The two-dimensional (2D) structured illumination can be formed by two orthogonal one-dimensional (1D) diffraction gratings superimposed on each other. As with one-dimensional (1D) structured illumination patterns, two-dimensional (2D) illumination patterns can be formed either by using two-dimensional (2D) diffraction gratings or by interference between four beams of light that create a regularly repeating pattern of interference fringes.
[0088] Во время захвата и/или последующей сборки или реконструкции нескольких изображений в одно с расширенной полосой пространственной частоты необходимо учитывать следующие структурированные параметры освещения: ориентация или угол рисунка интерференционных полос также обозначается как угол освещения относительно освещенного образца, причем разнос между смежными интерференционными полосами обозначается как разнос пика освещения (т.е. частота рисунка интерференционных полос) и фазовое смещение структурированного рисунка освещения. В идеальной системе визуализации, которая не подвергается воздействию таких факторов, как механическая нестабильность и термические вариации, каждый из этих параметров не сбивается или иным образом изменяется с течением времени, поэтому должны быть известны точные параметры частоты, фазы и ориентации SIM, связанные с данным образцом изображения. Однако из-за таких факторов, как механическая нестабильность траектории луча возбуждения и/или теплового расширения/сжатия визуализируемого образца, эти параметры могут сбиться или иным образом измениться с течением времени.[0088] During the acquisition and/or subsequent assembly or reconstruction of multiple images into a single image with an extended spatial frequency bandwidth, the following structured illumination parameters must be taken into account: the orientation or angle of the interference fringe pattern is also referred to as the illumination angle relative to the illuminated sample, with the spacing between adjacent interference fringes referred to as the illumination peak spacing (i.e., the frequency of the interference fringe pattern) and the phase shift of the structured illumination pattern. In an ideal imaging system that is not subject to factors such as mechanical instability and thermal variations, each of these parameters does not drift or otherwise change over time, so the exact frequency, phase, and orientation parameters of the SIM associated with a given image sample must be known. However, due to factors such as mechanical instability of the excitation beam path and/or thermal expansion/contraction of the sample being imaged, these parameters may drift or otherwise change over time.
[0089] Таким образом, может потребоваться оценка структурированных параметров освещения системы визуализации SIM для учета их изменения с течением времени. Поскольку многие системы визуализации SIM не выполняют обработку изображения SIM в режиме реального времени (например, они обрабатывают захваченные изображения автономно), такие системы SIM могут тратить значительное количество времени на вычисления для обработки изображения SIM и оценки параметров структурированного освещения для этого изображения.[0089] Thus, it may be necessary to estimate the structured illumination parameters of a SIM imaging system to account for their change over time. Since many SIM imaging systems do not perform real-time SIM image processing (e.g., they process captured images offline), such SIM systems may spend a significant amount of time computing to process a SIM image and estimate the structured illumination parameters for that image.
[0090] На ФИГ. 2-4В представлены три таких примера системы визуализации SIM. Следует отметить, что, хотя эти системы описаны прежде всего в контексте систем визуализации SIM, которые формируют одномерные (1D) рисунки освещения, описанная в настоящем документе технология может быть реализована с помощью систем визуализации SIM, которые формируют рисунки освещения большей размерности (например, двумерные рисунки решетки).[0090] FIGS. 2-4B illustrate three such examples of a SIM rendering system. It should be noted that, although these systems are described primarily in the context of SIM rendering systems that generate one-dimensional (1D) lighting patterns, the technology described herein may be implemented using SIM rendering systems that generate higher-dimensional lighting patterns (e.g., two-dimensional lattice patterns).
[0091] На ФИГ. 2 показана система 100 визуализации с помощью микроскопии структурированного освещения (SIM), которая может реализовывать предсказание параметра структурированного освещения в соответствии с некоторыми вариантами реализации, описанными в настоящем документе. Например, система 100 может представлять собой систему флуоресцентной микроскопии структурированного освещения, которая использует пространственно структурированный возбуждающий свет для формирования изображения биологического образца.[0091] FIG. 2 shows a structured illumination microscopy (SIM) imaging system 100 that can implement structured illumination parameter prediction in accordance with some embodiments described herein. For example, the system 100 may be a structured illumination fluorescence microscopy system that uses spatially structured excitation light to form an image of a biological sample.
[0092] В примере на ФИГ. 2 излучатель 150 света выполнен с возможностью испускания луча света, который коллимируют коллиматорной линзой 151. Коллимированный свет структурируют (придают рисунок) посредством оптического узла 155 структурирования света и направляют посредством дихроичного зеркала 160 через линзу 142 объектива на образец в контейнере 110 для образцов, который помещен на подвижный столик 170. В случае флуоресцентного образца образец флуоресцирует в ответ на структурированный возбуждающий свет, и получающийся в результате свет собирается линзой 142 объектива и направляется на датчик изображения системы 140 камеры для обнаружения флуоресценции.[0092] In the example of FIG. 2, the light emitter 150 is configured to emit a beam of light that is collimated by a collimator lens 151. The collimated light is patterned by a light structuring optical unit 155 and directed by a dichroic mirror 160 through an objective lens 142 onto a sample in a sample container 110 that is placed on a movable stage 170. In the case of a fluorescent sample, the sample fluoresces in response to the structured excitation light, and the resulting light is collected by the objective lens 142 and directed to an image sensor of a camera system 140 for detecting fluorescence.
[0093] Оптический узел 155 структурирования света включает одну или более оптических дифракционных решеток или других расщепляющих луч элементов (например, куб или пластину расщепителя луча) для формирования светового рисунка (например, интерференционных полос, обычно синусоидальных), который проецируют на образцы в контейнере 110 для образцов. Дифракционные решетки могут быть одномерными или двумерными передающими или отражающими решетками. Дифракционные решетки могут быть дифракционными решетками с синусоидальной амплитудой или решетками с синусоидальной фазой.[0093] The optical light structuring assembly 155 includes one or more optical diffraction gratings or other beam-splitting elements (e.g., a cube or a beam-splitting plate) for forming a light pattern (e.g., interference fringes, typically sinusoidal) that is projected onto samples in the sample container 110. The diffraction gratings may be one-dimensional or two-dimensional transmitting or reflecting gratings. The diffraction gratings may be diffraction gratings with a sinusoidal amplitude or gratings with a sinusoidal phase.
[0094] В некоторых вариантах реализации дифракционные решетки могут не использовать вращающийся столик для изменения ориентации рисунка структурированного освещения. В других вариантах реализации дифракционная(-ые) решетка(-и) может (могут) быть установлена(-ы) на вращающемся столике. В некоторых вариантах реализации дифракционные решетки могут быть неподвижными во время работы системы визуализации (т.е. не требуют вращательного или линейного движения). Например, в конкретном варианте реализации, дополнительно описанном ниже, дифракционные решетки могут включать две фиксированные одномерные передающие дифракционные решетки, ориентированные перпендикулярно друг другу (например, горизонтальная дифракционная решетка и вертикальная дифракционная решетка).[0094] In some embodiments, the diffraction gratings may not use a rotating stage to change the orientation of the structured illumination pattern. In other embodiments, the diffraction grating(s) may be mounted on a rotating stage. In some embodiments, the diffraction gratings may be stationary during operation of the imaging system (i.e., do not require rotational or linear motion). For example, in a particular embodiment, described further below, the diffraction gratings may include two fixed one-dimensional transmission diffraction gratings oriented perpendicular to each other (e.g., a horizontal diffraction grating and a vertical diffraction grating).
[0095] Как показано в примере на ФИГ. 2, оптический узел 155 структурирования света испускает рассеянные лучи света первого порядка (например, m=±1 порядок), при этом блокируя или сводя к минимуму лучи всех других порядков, включая лучи нулевого порядка. Однако в альтернативных вариантах реализации на образец могут быть спроецированы лучи света дополнительных порядков.[0095] As shown in the example of FIG. 2, the optical light structuring unit 155 emits diffuse light rays of the first order (e.g., m=±1 order), while blocking or minimizing rays of all other orders, including rays of the zero order. However, in alternative embodiments, light rays of additional orders may be projected onto the sample.
[0096] В течение каждого цикла формирования изображения система 100 визуализации использует оптический узел 155 структурирования света для получения множества изображений при различных фазах с боковым смещением рисунка интерференционных полос в направлении модуляции (например, в плоскости х-у и перпендикулярно интерференционным полосам), причем эту процедуру повторяют один или более раз, поворачивая ориентацию рисунка вокруг оптической оси (т.е. относительно плоскости х-у образца). Затем захваченные изображения могут быть реконструированы при помощи вычислений для формирования изображения с более высоким разрешением (например, изображения, имеющего примерно в два раза большее боковое пространственное разрешение по сравнению с отдельными изображениями).[0096] During each imaging cycle, the imaging system 100 uses the optical light structuring unit 155 to acquire multiple images at different phases with a lateral shift of the interference fringe pattern in the modulation direction (e.g., in the x-y plane and perpendicular to the interference fringes), and this procedure is repeated one or more times, rotating the orientation of the pattern around the optical axis (i.e., relative to the x-y plane of the sample). The captured images can then be reconstructed using computations to form an image with a higher resolution (e.g., an image having approximately twice the lateral spatial resolution compared to individual images).
[0097] В системе 100 излучатель 150 света может быть некогерентным излучателем света (например, излучать лучи света, выводимые одним или более возбуждающими диодами) или когерентным излучателем света, таким как излучатель света, испускаемого одним или более лазерами или лазерными диодами. Как показано в примере системы 100, излучатель 150 света включает оптическое волокно 152 для направления оптического луча, подлежащего выпуску. Однако могут быть использованы другие конфигурации излучателя 150 света. В вариантах реализации, использующих структурированное освещение в многоканальной системе визуализации (например, в многоканальном флуоресцентном микроскопе, использующем множество длин волн света), оптическое волокно 152 может быть оптически связано со множеством различных источников света (не показаны), причем каждый источник света излучает свет с другой длиной волны. Хотя показано, что система 100 имеет один излучатель 150 света, некоторые варианты реализации могут включать множество излучателей 150 света. Например, множество излучателей света могут быть включены в случае системы визуализации со структурированным освещением, использующей множество плеч, которая дополнительно рассмотрена ниже.[0097] In the system 100, the light emitter 150 may be an incoherent light emitter (for example, emitting light beams output by one or more excitation diodes) or a coherent light emitter, such as an emitter of light emitted by one or more lasers or laser diodes. As shown in the example of the system 100, the light emitter 150 includes an optical fiber 152 for directing an optical beam to be emitted. However, other configurations of the light emitter 150 may be used. In embodiments using structured illumination in a multi-channel imaging system (for example, in a multi-channel fluorescence microscope using multiple wavelengths of light), the optical fiber 152 may be optically coupled to a plurality of different light sources (not shown), wherein each light source emits light with a different wavelength. Although the system 100 is shown to have one light emitter 150, some embodiments may include a plurality of light emitters 150. For example, a plurality of light emitters may be included in the case of a structured illumination imaging system using a plurality of arms, which is discussed further below.
[0098] В некоторых вариантах реализации система 100 может включать трубчатую линзу 156, которая может включать элемент линзы для шарнирного соединения вдоль оси z для регулировки формы и пути структурированного луча. Например, компонент трубчатой линзы может быть шарнирно перемещен для учета диапазона толщин образцов (например, разной толщины покровного стекла) образца в контейнере 110.[0098] In some embodiments, the system 100 may include a tubular lens 156, which may include a lens element for pivoting along the z-axis to adjust the shape and path of the structured beam. For example, the tubular lens component may be pivotally moved to accommodate a range of sample thicknesses (e.g., different cover glass thicknesses) of the sample in the container 110.
[0099] В примере системы 100 модуль или устройство 190 подачи текучей среды может направлять поток реагентов (например, флуоресцентно-меченных нуклеотидов, буферов, ферментов, расщепляющих реагентов и т.д.) в (и через) контейнер 110 для образцов и сливной клапан 120. Контейнер 110 для образцов может содержать одну или более подложек, на которых представлены образцы. Например, в случае системы для анализа большого количества различных последовательностей нуклеиновых кислот контейнер 110 для образцов может включать одну или более подложек, к которым прикреплены или присоединены нуклеиновые кислоты, подлежащие секвенированию. Подложка может включать любую инертную подложку или матрицу, к которой могут быть прикреплены нуклеиновые кислоты, такую как, например, стеклянные поверхности, пластмассовые поверхности, латекс, декстран, полистироловые поверхности, полипропиленовые поверхности, полиакриламидные гели, золотые поверхности и кремниевые пластины. В некоторых областях применения подложка находится внутри канала или другой области во множестве местоположений, образованных в матрице или массиве по всему контейнеру 110 для образцов. Система 100 может также включать исполнительный механизм 130 блока температуры и нагреватель/охладитель 135, которые могут при необходимости регулировать температурный режим текучих сред в контейнере 110 для образцов.[0099] In an example of system 100, fluid delivery module or device 190 may direct a flow of reagents (e.g., fluorescently labeled nucleotides, buffers, enzymes, cleavage reagents, etc.) into (and through) sample container 110 and drain valve 120. Sample container 110 may contain one or more supports on which samples are presented. For example, in the case of a system for analyzing a large number of different nucleic acid sequences, sample container 110 may include one or more supports to which nucleic acids to be sequenced are attached or linked. The support may include any inert support or matrix to which nucleic acids can be attached, such as, for example, glass surfaces, plastic surfaces, latex, dextran, polystyrene surfaces, polypropylene surfaces, polyacrylamide gels, gold surfaces, and silicon wafers. In some applications, the substrate is located within a channel or other region at a plurality of locations formed in a matrix or array throughout the sample container 110. The system 100 may also include a temperature unit actuator 130 and a heater/cooler 135 that can, if necessary, regulate the temperature of the fluids in the sample container 110.
[00100] В конкретных вариантах реализации контейнер 110 для образцов может быть реализован в виде структурированной проточной кюветы, содержащей прозрачную накладную пластину, подложку и содержащуюся между ними жидкость, а биологический образец может быть помещен на внутренней поверхности прозрачной накладной пластины или внутренней поверхности подложки. Проточная кювета может содержать большое количество (например, тысячи, миллионы или миллиарды) лунок (также называемых нанолунками) или областей, которые структурированы в массив определенной формы (например, шестиугольный массив, прямоугольный массив и т.д.) в подложке. Каждая область может образовывать кластер (например, моноклональный кластер) биологического образца, такого как ДНК, РНК или другой геномный материал, который может быть секвенирован, например, с использованием секвенирования путем синтеза. Проточная кювета может быть дополнительно разделена на ряд разнесенных дорожек (например, восемь дорожек), причем каждая дорожка содержит шестиугольный массив кластеров.[00100] In particular embodiments, the sample container 110 may be implemented as a structured flow cell that includes a transparent overlay plate, a substrate, and a liquid contained therebetween, and a biological sample may be placed on an inner surface of the transparent overlay plate or an inner surface of the substrate. The flow cell may comprise a large number (e.g., thousands, millions, or billions) of wells (also referred to as nanowells) or regions that are structured into an array of a certain shape (e.g., a hexagonal array, a rectangular array, etc.) in the substrate. Each region may form a cluster (e.g., a monoclonal cluster) of a biological sample, such as DNA, RNA, or other genomic material, that may be sequenced, such as using sequencing by synthesis. The flow cell may be further divided into a number of spaced lanes (e.g., eight lanes), with each lane comprising a hexagonal array of clusters.
[00101] Контейнер 110 для образцов может быть установлен на столике 170 для образцов, чтобы обеспечивать перемещение и выравнивание контейнера для образцов 110 относительно линзы 142 объектива. Столик для образцов может иметь один или более исполнительных механизмов, позволяющих ему перемещаться в любом из трех измерений. Например, с точки зрения декартовой системы координат могут быть предусмотрены исполнительные механизмы, позволяющие столику перемещаться в направлениях X, Y и Z относительно линзы объектива. Это может позволить расположить одно или несколько мест для образцов на контейнере 110 для образцов так, чтобы оптически совместить их с линзой 142 объектива. Перемещение столика 170 для образцов относительно линзы 142 объектива может быть достигнуто путем перемещения самого столика для образцов, линзы объектива, некоторых других компонентов системы визуализации или любой комбинации вышеперечисленного. Другие варианты реализации могут также включать перемещение всей системы визуализации над неподвижным образцом. В альтернативном варианте реализации контейнер 110 для образцов может быть неподвижен во время формирования изображения.[00101] The sample container 110 may be mounted on the sample stage 170 to allow movement and alignment of the sample container 110 relative to the objective lens 142. The sample stage may have one or more actuators that allow it to move in any of three dimensions. For example, in terms of a Cartesian coordinate system, actuators may be provided that allow the stage to move in the X, Y, and Z directions relative to the objective lens. This may allow one or more sample locations to be positioned on the sample container 110 so as to optically align them with the objective lens 142. Movement of the sample stage 170 relative to the objective lens 142 may be achieved by moving the sample stage itself, the objective lens, some other components of the imaging system, or any combination of the above. Other embodiments may also include movement of the entire imaging system over a stationary sample. In an alternative embodiment, the sample container 110 may be stationary during imaging.
[00102] В некоторых вариантах реализации для управления позиционированием оптических компонентов относительно контейнера 110 для образцов в направлении фокуса (обычно называемом осью z или направлением z) может быть включен фокусирующий компонент 175 (оси z). Фокусирующий компонент 175 может включать один или более исполнительных механизмов, физически соединенных со столиком для оптики или столиком для образцов, либо и с тем и с другим, для перемещения контейнера 110 для образцов на столике 170 для образцов относительно оптических компонентов (например, линзы 142 объектива), чтобы обеспечивать надлежащую фокусировку для операции формирования изображения. Например, исполнительный механизм может быть физически соединен с соответствующим столиком, например, посредством прямого или опосредованного механического, магнитного, гидравлического или другого присоединения к столику или контакта со столиком. Один или более исполнительных механизмов могут быть выполнены с возможностью перемещения столика в направлении z с сохранением положения столика для образцов в одной и той же плоскости (например, с сохранением уровня или горизонтального положения, перпендикулярного оптической оси). Один или более исполнительных механизмов могут быть также выполнены с возможностью наклона столика. Это может быть сделано, например, для динамического выравнивания контейнера 110 для образцов с учетом любого наклона его поверхностей.[00102] In some embodiments, a focusing component 175 (z-axis) may be included to control the positioning of the optical components relative to the sample container 110 in a focal direction (typically referred to as the z-axis or z-direction). The focusing component 175 may include one or more actuators physically coupled to the optics stage or the sample stage, or both, to move the sample container 110 on the sample stage 170 relative to the optical components (e.g., the objective lens 142) to provide proper focusing for the imaging operation. For example, the actuator may be physically coupled to the corresponding stage, such as by direct or indirect mechanical, magnetic, hydraulic, or other connection to the stage or contact with the stage. One or more actuators may be configured to move the stage in the z direction while maintaining the position of the sample stage in the same plane (e.g. maintaining a level or horizontal position perpendicular to the optical axis). One or more actuators may also be configured to tilt the stage. This may be done, for example, to dynamically align the sample container 110 taking into account any tilt of its surfaces.
[00103] Структурированный свет, исходящий из тестового образца в местоположении образца, изображение которого формируют, может быть направлен посредством дихроичного зеркала 160 на один или более детекторов системы 140 камеры. Некоторые варианты реализации могут включать узел 165 переключения фильтров с одним или более эмиссионными фильтрами, причем один или более эмиссионных фильтров могут быть использованы для пропускания излучения с конкретными длинами волн и блокировки (или отражения) излучения с другими длинами волн. Например, один или более эмиссионных фильтров могут быть использованы для переключения между различными каналами системы визуализации. В конкретном варианте реализации эмиссионные фильтры могут быть реализованы в виде дихроичных зеркал, которые направляют излучаемый свет разных длин волн на разные датчики изображения системы 140 камеры.[00103] Structured light emitted from the test sample at the location of the sample, the image of which is formed, can be directed by means of a dichroic mirror 160 to one or more detectors of the camera system 140. Some embodiments can include a filter switching unit 165 with one or more emission filters, wherein the one or more emission filters can be used to pass radiation with specific wavelengths and block (or reflect) radiation with other wavelengths. For example, one or more emission filters can be used to switch between different channels of the imaging system. In a particular embodiment, the emission filters can be implemented as dichroic mirrors that direct emitted light of different wavelengths to different image sensors of the camera system 140.
[00104] Система 140 камеры может включать один или более датчиков изображения для контроля и отслеживания формирования изображения (например, секвенирования) контейнера 110 для образцов. Система 140 камеры может быть реализована, например, в виде камеры с датчиком изображения на приборе с зарядовой связью (ПЗС), однако могут быть использованы другие технологии датчика изображения (например, активно-пиксельный датчик).[00104] The camera system 140 may include one or more image sensors for monitoring and tracking the imaging (e.g., sequencing) of the sample container 110. The camera system 140 may be implemented, for example, as a camera with a charge-coupled device (CCD) image sensor, but other image sensor technologies (e.g., an active-pixel sensor) may be used.
[00105] Выходные данные (например, изображения) из системы 140 камеры могут быть переданы в компонент 191 формирования изображений SIM в режиме реального времени, который может быть реализован в виде программного приложения, которое, как дополнительно описано ниже, может реконструировать изображения, захваченные во время каждого цикла формирования изображений, чтобы создавать изображение, имеющее более высокое пространственное разрешение. Реконструированные изображения могут учитывать изменения параметров структурированного освещения, которые предсказывают с течением времени. Кроме того, компонент 191 формирования изображений SIM может быть использован для отслеживания предсказываемых параметров SIM и/или для предсказания параметров SIM с учетом предыдущих оцененных и/или предсказанных параметров SIM.[00105] The output data (e.g., images) from the camera system 140 may be transmitted to the SIM imaging component 191 in real time, which may be implemented as a software application that, as further described below, may reconstruct the images captured during each imaging cycle to create an image having a higher spatial resolution. The reconstructed images may take into account changes in the structured illumination parameters that are predicted over time. In addition, the SIM imaging component 191 may be used to track the predicted SIM parameters and/or to predict the SIM parameters given the previously estimated and/or predicted SIM parameters.
[00106] Для управления работой системы 100 визуализации со структурированным освещением, в том числе синхронизацией различных оптических компонентов системы 100, может быть предусмотрен контроллер 195. Контроллер может быть реализован для управления аспектами работы системы, такими как, например, конфигурирование оптического узла 155 структурирования света (например, выбор и/или линейное перемещение дифракционных решеток), перемещение трубчатой линзы 156, фокусировка, перемещение столика и операции формирования изображения. Контроллер может быть также выполнен с возможностью управления элементами оборудования системы 100 для коррекции изменений параметров структурированного освещения со временем. Например, контроллер может быть выполнен с возможностью передачи сигналов управления двигателям или другим устройствам, управляющим конфигурацией оптического узла 155 структурирования света, движением столика 170 или некоторыми другими элементами системы 100 для коррекции или компенсации изменений фазы, частоты и/или ориентации структурированного освещения со временем. В вариантах реализации эти сигналы могут быть переданы в соответствии с параметрами структурированного освещения, предсказанными с использованием компонента 191 формирования изображения SIM. В некоторых вариантах реализации контроллер 195 может включать запоминающее устройство для хранения предсказанных или оцененных параметров структурированного освещения, соответствующих различным моментам времени и/или положениям образца.[00106] A controller 195 may be provided to control the operation of the structured illumination imaging system 100, including the synchronization of various optical components of the system 100. The controller may be implemented to control aspects of the operation of the system, such as, for example, configuring the light structuring optical assembly 155 (e.g., selecting and/or linearly moving the diffraction gratings), moving the tubular lens 156, focusing, moving the stage, and imaging operations. The controller may also be configured to control elements of the equipment of the system 100 to correct for changes in the parameters of the structured illumination over time. For example, the controller may be configured to transmit control signals to motors or other devices that control the configuration of the light structuring optical assembly 155, the movement of the stage 170, or some other elements of the system 100 to correct or compensate for changes in the phase, frequency, and/or orientation of the structured illumination over time. In embodiments, these signals can be transmitted in accordance with the parameters of the structured illumination predicted using the SIM imaging component 191. In some embodiments, the controller 195 can include a memory device for storing the predicted or estimated parameters of the structured illumination corresponding to different moments of time and/or positions of the sample.
[00107] В различных вариантах реализации контроллер 195 может быть выполнен с возможностью использования оборудования, алгоритмов (например, машиноисполняемых команд) или комбинации вышеперечисленного. Например, в некоторых вариантах реализации контроллер может включать один или более центральных процессоров (ЦП), графических процессоров (ГП) или процессоров со связанным запоминающим устройством. В качестве еще одного примера контроллер может представлять собой оборудование или другую электрическую схему для управления работой, такую как компьютерный процессор и энергонезависимый машиночитаемый носитель с хранящимися на нем машиночитаемыми командами. Например, это схемное решение может включать одно или более из следующего: программируемая пользователем вентильная матрица (FPGA), интегральная схема специального назначения (ASIC), программируемое логическое устройство (PLD), сложное программируемое логическое устройство (CPLD), программируемая логическая матрица (PLA), программируемая матричная логика (PAL) и другие подобные устройства обработки или схемные решения. В качестве еще одного примера контроллер может представлять собой комбинацию этого схемного решения с одним или более процессорами.[00107] In various embodiments, the controller 195 may be configured to use hardware, algorithms (e.g., computer-executable instructions), or a combination of the above. For example, in some embodiments, the controller may include one or more central processing units (CPUs), graphics processing units (GPUs), or processors with associated memory. As another example, the controller may be hardware or other electrical circuitry for controlling operation, such as a computer processor and a non-transitory computer-readable medium with computer-readable instructions stored thereon. For example, this circuit solution may include one or more of the following: a field programmable gate array (FPGA), an application-specific integrated circuit (ASIC), a programmable logic device (PLD), a complex programmable logic device (CPLD), a programmable logic array (PLA), a programmable array logic (PAL), and other similar processing devices or circuit solutions. As another example, the controller may be a combination of this circuit design with one or more processors.
[00108] На ФИГ. 3 показана схема оптической системы, иллюстрирующая пример оптической конфигурации двухплечевой системы 200 визуализации SIM, которая может реализовывать предсказание параметра структурированного освещения в соответствии с некоторыми вариантами реализации, описанными в настоящем документе. Первое плечо системы 200 содержит излучатель света 210А, первый оптический коллиматор 220А для коллимирования света от излучателя 210А, дифракционную решетку 230А в первой ориентации относительно оптической оси, поворотное зеркало 240А и второй оптический коллиматор 250А. Второе плечо системы 200 включает излучатель света 210В, первый оптический коллиматор 220В для коллимирования света от излучателя 210В, дифракционную решетку 230В в первой ориентации относительно оптической оси, поворотное зеркало 240В и второй оптический коллиматор 250В. Хотя в данном примере проиллюстрированы дифракционные решетки, в других вариантах реализации для разделения света, полученного на каждом плече системы 200 визуализации SIM можно использовать другие элементы разделения луча, например куб или пластину расщепителя луча.[00108] FIG. 3 shows a diagram of an optical system illustrating an example of an optical configuration of a two-arm SIM imaging system 200 that can implement structured illumination parameter prediction in accordance with some embodiments described herein. The first arm of the system 200 comprises a light emitter 210A, a first optical collimator 220A for collimating light from the emitter 210A, a diffraction grating 230A in a first orientation relative to an optical axis, a rotating mirror 240A, and a second optical collimator 250A. The second arm of the system 200 includes a light emitter 210B, a first optical collimator 220B for collimating light from the emitter 210B, a diffraction grating 230B in a first orientation relative to the optical axis, a rotating mirror 240B, and a second optical collimator 250B. Although diffraction gratings are illustrated in this example, in other embodiments, other beam splitting elements, such as a cube or beam splitter plate, may be used to split the light received at each arm of the SIM imaging system 200.
[00109] Каждый излучатель 210А-210 В света может быть некогерентным излучателем света (например, излучать лучи света, выводимые одним или более возбуждающими диодами) или когерентным излучателем света, таким как излучатель света, испускаемого одним или более лазерами или лазерными диодами. В примере системы 200 каждый излучатель 210А-210 В света представляет собой оптическое волокно, которое выводит оптический луч, коллимированный соответствующим коллиматором 220А-220В.[00109] Each light emitter 210A-210B may be a non-coherent light emitter (e.g., emitting light beams output by one or more excitation diodes) or a coherent light emitter, such as an emitter of light emitted by one or more lasers or laser diodes. In the example of system 200, each light emitter 210A-210B is an optical fiber that outputs an optical beam collimated by a corresponding collimator 220A-220B.
[00110] В некоторых вариантах осуществления каждое оптическое волокно может быть оптически соединено с соответствующим источником света (не показан), таким как лазер. Во время визуализации каждое оптическое волокно может быть включено или выключено с помощью высокоскоростного затвора (не показан), расположенного на оптическом пути между волокном и источником света, или путем импульсного включения во время визуализации соответствующего источника света на волоконном канале с заданной частотой. В некоторых вариантах осуществления каждый оптоволоконный канал может быть оптически соединен с одним и тем же источником света. В таких вариантах осуществления для направления света от источника в каждый оптоволоконный канал можно использовать разделитель луча или другой подходящий оптический элемент. В таких примерах каждый оптоволоконный канал может быть включен или выключен с помощью высокоскоростного затвора (не показан), расположенного на оптическом пути между волоконным каналом и разделителем лучей.[00110] In some embodiments, each optical fiber may be optically coupled to a corresponding light source (not shown), such as a laser. During imaging, each optical fiber may be turned on or off using a high-speed shutter (not shown) located in the optical path between the fiber and the light source, or by pulsing the corresponding light source on the fiber channel during imaging at a given frequency. In some embodiments, each optical fiber channel may be optically coupled to the same light source. In such embodiments, a beam splitter or other suitable optical element may be used to direct light from the source into each optical fiber channel. In such examples, each optical fiber channel may be turned on or off using a high-speed shutter (not shown) located in the optical path between the fiber channel and the beam splitter.
[00111] В примере системы 200 визуализации SIM первое плечо содержит фиксированную вертикальную решетку 230А для проецирования структурированного рисунка освещения или решетчатого рисунка в первой ориентации (например, вертикального рисунка интерференционных полос) на образец, а второе плечо содержит фиксированную горизонтальную решетку 230В для проецирования структурированного рисунка освещения или решетчатого рисунка во второй ориентации (например, горизонтального рисунка интерференционных полос) на образец 271. Решетки системы 200 визуализации SIM не нужно механически вращать или перемещать, и это может улучшать характеристики скорости, надежности и повторяемости системы.[00111] In an example of a SIM imaging system 200, a first arm comprises a fixed vertical grating 230A for projecting a structured illumination pattern or a grating pattern in a first orientation (e.g., a vertical pattern of interference fringes) onto a sample, and a second arm comprises a fixed horizontal grating 230B for projecting a structured illumination pattern or a grating pattern in a second orientation (e.g., a horizontal pattern of interference fringes) onto a sample 271. The gratings of the SIM imaging system 200 do not need to be mechanically rotated or moved, and this can improve the speed, reliability, and repeatability characteristics of the system.
[00112] В альтернативных вариантах реализации решетки 230А и 230В могут быть установлены на соответствующих линейных подвижных столиках, которые могут перемещаться для изменения длины оптического пути (и, следовательно, фазы) света, излучаемого решетками 230А и 230В. Ось линейного движения столиков может быть перпендикулярна или иным образом смещена относительно ориентации их соответствующей решетки, чтобы рисунок решетки можно было передать вдоль образца 271.[00112] In alternative embodiments, the gratings 230A and 230B may be mounted on respective linear moving stages that may be moved to change the optical path length (and hence the phase) of the light emitted by the gratings 230A and 230B. The axis of linear motion of the stages may be perpendicular or otherwise offset from the orientation of their respective grating so that the grating pattern can be transferred along the sample 271.
[00113] Решетки 230А-230В могут представлять собой светопроницаемые дифракционные решетки с множеством дифракционных элементов (например, параллельных прорезей или канавок), образованных в стеклянную подложку или другую подходящую поверхность. Решетки могут быть реализованы в виде фазовых решеток, которые обеспечивают периодическое изменение показателя преломления материала решетки. Шаг канавок или элементов может быть выбран так, чтобы она рассеивала свет под подходящими углами и была настроена для минимального размера разрешения образцов, изображение которых формируют, для работы системы 200 визуализации SIM. В других вариантах реализации решетки могут представлять собой отражательные дифракционные решетки.[00113] The gratings 230A-230B may be translucent diffraction gratings with a plurality of diffraction elements (e.g., parallel slits or grooves) formed in a glass substrate or other suitable surface. The gratings may be implemented as phase gratings that provide a periodic change in the refractive index of the grating material. The pitch of the grooves or elements may be selected so that it scatters light at suitable angles and is adjusted for a minimum resolution size of the samples, the image of which is formed, for the operation of the SIM visualization system 200. In other embodiments, the gratings may be reflective diffraction gratings.
[00114] В примере системы 200 визуализации SIM вертикальные и горизонтальные рисунки смещены приблизительно на 90 градусов. В других вариантах осуществления для создания смещения приблизительно 90 градусов можно использовать другие ориентации решеток. Например, решетки могут быть ориентированы таким образом, что они проецируют изображения, которые смещены ±45 градусов от плоскости х или у образца 271. Конфигурация примера системы 200 визуализации SIM может быть особенно выигрышной при использовании образца 271 с равномерно сформированным рисунком и элементами на прямоугольной решетке, поскольку структурированное улучшение разрешения может быть достигнуто с использованием только двух перпендикулярных решеток (например, вертикальной и горизонтальной).[00114] In the example of the SIM imaging system 200, the vertical and horizontal patterns are offset by approximately 90 degrees. In other embodiments, other orientations of the gratings can be used to create an offset of approximately 90 degrees. For example, the gratings can be oriented such that they project images that are offset by ±45 degrees from the x or y plane of the sample 271. The configuration of the example of the SIM imaging system 200 can be particularly advantageous when using a sample 271 with a uniformly formed pattern and elements on a rectangular grating, since a structured improvement in resolution can be achieved using only two perpendicular gratings (e.g., vertical and horizontal).
[00115] Решетки 230А-230В в примере системы 200 выполнены с возможностью рассеяния входных лучей в ряде порядков (например, 0 порядка, ±1 порядка, ±2 порядка и т.д.), из которых лучи ±1 порядка могут быть проецированы на образец 271. Как показано в данном примере, вертикальная решетка 230А рассеивает коллимированный луч света в рассеянные лучи первого порядка (±1 порядка), распределяя первые порядки на плоскости страницы, а горизонтальная решетка 230В рассеивает коллимированный луч света в рассеянные лучи первого порядка, распределяя порядки на плоскости страницы (т.е. в плоскости, перпендикулярной странице). Для повышения эффективности системы можно блокировать лучи нулевого порядка и все другие рассеянные лучи более высокого порядка (например, ±2 порядка и выше), например отфильтровывать рисунок освещения, проецируемый на образец 271. Например, элемент блокирования луча (не показан), такой как фильтр порядка, может быть вставлен в оптический путь после каждой дифракционной решетки для блокирования луча нулевого порядка и лучей более высокого порядка. В некоторых вариантах реализации дифракционные решетки 230А-230В могут быть выполнены с возможностью рассеяния лучей только в лучи первых порядков, а луч нулевого порядка (нерассеянный луч) может быть заблокирован некоторым элементом, блокирующим луч.[00115] The gratings 230A-230B in the example system 200 are configured to scatter the input beams into a number of orders (e.g., 0 order, ±1 order, ±2 orders, etc.), from which the ±1 order beams can be projected onto the sample 271. As shown in this example, the vertical grating 230A scatters the collimated light beam into first order (±1 order) scattered beams, distributing the first orders on the plane of the page, and the horizontal grating 230B scatters the collimated light beam into first order scattered beams, distributing the orders on the plane of the page (i.e., in a plane perpendicular to the page). To improve the efficiency of the system, it is possible to block the zero-order beams and all other higher-order scattered beams (e.g., ±2 orders and higher), such as by filtering the illumination pattern projected onto the sample 271. For example, a beam blocking element (not shown), such as an order filter, can be inserted into the optical path after each diffraction grating to block the zero-order beam and higher-order beams. In some embodiments, the diffraction gratings 230A-230B can be configured to scatter beams only into first-order beams, and the zero-order beam (the unscattered beam) can be blocked by some beam blocking element.
[00116] Каждое плечо содержит модулятор оптической фазы или фазовращатель 240А-240В для фазового сдвига рассеянного света каждой из решеток 230. Например, во время структурированной визуализации оптическая фаза каждого рассеянного луча может быть сдвинута на некоторую часть (например, на 1/2, 1/3, 1/4 и т.д.) шага (λ) каждой интерференционной полосы структурированного рисунка. В примере на ФИГ. 3 фазовые модуляторы 240А и 240В реализованы в виде вращающихся окон, которые могут использовать гальванометр или другой вращательный приводной механизм для вращения и модуляции длины оптического пути для каждого рассеянного луча. Например, окно 240А может вращаться вокруг вертикальной оси для сдвига изображения, проецируемого вертикальной решеткой 230А на образце 271 слева или справа, а окно 240В может вращаться вокруг горизонтальной оси для смещения изображения, проецируемого горизонтальной решеткой 230В на образец 271 вверх или вниз.[00116] Each arm comprises an optical phase modulator or phase shifter 240A-240B for phase shifting the scattered light of each of the gratings 230. For example, during structured imaging, the optical phase of each scattered beam may be shifted by a certain fraction (e.g., 1/2, 1/3, 1/4, etc.) of the pitch (λ) of each interference fringe of the structured pattern. In the example of FIG. 3, the phase modulators 240A and 240B are implemented as rotating windows that may use a galvanometer or other rotary drive mechanism to rotate and modulate the optical path length for each scattered beam. For example, window 240A may rotate about a vertical axis to shift the image projected by vertical grating 230A onto sample 271 to the left or right, and window 240B may rotate about a horizontal axis to shift the image projected by horizontal grating 230B onto sample 271 up or down.
[00117] В других вариантах реализации могут быть использованы другие фазовые модуляторы, которые изменяют длину оптического пути рассеянного света (например, линейные подвижные столики, клинья и т.д.). Кроме того, хотя модуляторы с оптической фазой 240А-240В показаны после решетки 230А-230В, в других вариантах реализации они могут быть размещены в других местах в системе освещения.[00117] In other embodiments, other phase modulators may be used that change the length of the optical path of the scattered light (e.g., linear moving tables, wedges, etc.). In addition, although the optical phase modulators 240A-240B are shown after the array 230A-230B, in other embodiments they may be placed in other places in the lighting system.
[00118] В альтернативных вариантах реализации однофазный модулятор может работать в двух разных направлениях для разных рисунков интерференционных полос, или однофазный модулятор может использовать одно движение для регулировки длины обоих путей. Например, большое вращающееся оптическое окно может быть расположено после зеркала 260 с отверстиями 261. В этом случае большое окно может быть использовано вместо окон 240А и 240В для модуляции фаз обоих наборов рассеянных лучей, испускаемых вертикальными и горизонтальными дифракционными решетками. Ось вращения большого вращающегося окна может не быть параллельной относительно оптической оси одной из решеток, но может быть смещена на 45 градусов (или с другим угловым смещением) от оптической оси каждой вертикальной и горизонтальной решетки для обеспечения сдвига фазы вдоль обоих направлений по одной общей оси вращения большого окна. В некоторых вариантах реализации большое вращающееся окно может быть заменено на клиновидное оптическое устройство, вращающееся вокруг номинальной оси луча.[00118] In alternative embodiments, the single-phase modulator may operate in two different directions for different fringe patterns, or the single-phase modulator may use a single motion to adjust the length of both paths. For example, a large rotating optical window may be positioned after the mirror 260 with apertures 261. In this case, the large window may be used instead of the windows 240A and 240B to modulate the phases of both sets of scattered beams emitted by the vertical and horizontal diffraction gratings. The axis of rotation of the large rotating window may not be parallel to the optical axis of one of the gratings, but may be offset by 45 degrees (or other angular offset) from the optical axis of each vertical and horizontal grating to provide a phase shift along both directions along one common axis of rotation of the large window. In some embodiments, the large rotating window may be replaced by a wedge-shaped optical device rotating about the nominal beam axis.
[00119] В примере системы 200 зеркало 260 с отверстиями 261 объединяет два плеча в оптический путь без потерь (например, без значительной потери оптической силы, кроме небольшого поглощения отражающим покрытием). Зеркало 260 может быть расположено таким образом, что рассеянные лучи разного порядка от каждой из решеток пространственно разворачиваются, а нежелательные лучи разного порядка могут быть заблокированы. Зеркало 260 пропускает лучи первых порядков, испускаемые первым плечом через отверстия 261. Зеркало 260 отражает лучи первых порядков, испускаемые вторым плечом. Таким образом, структурированный рисунок освещения может быть переключен с вертикальной ориентации (например, решетки 230А) на горизонтальную ориентацию (например, решетку 230В), путем включения или выключения каждого излучателя или путем открытия и закрытия оптического затвора, который направляет свет от источника через оптоволоконный кабель. В других вариантах осуществления структурированный рисунок освещения может быть переключен с помощью оптического переключателя для изменения плеча, которое освещает образец.[00119] In the example of the system 200, the mirror 260 with the openings 261 combines the two arms into a lossless optical path (e.g., without a significant loss of optical power, except for a small absorption by the reflective coating). The mirror 260 can be arranged such that the scattered rays of different orders from each of the gratings are spatially deployed, and the unwanted rays of different orders can be blocked. The mirror 260 transmits the first order rays emitted by the first arm through the openings 261. The mirror 260 reflects the first order rays emitted by the second arm. In this way, the structured illumination pattern can be switched from a vertical orientation (e.g., grating 230A) to a horizontal orientation (e.g., grating 230B), by turning on or off each emitter or by opening and closing an optical shutter that directs light from the source through an optical fiber cable. In other embodiments, the structured illumination pattern may be switched using an optical switch to change the arm that illuminates the sample.
[00120] Также в качестве примера система 200 визуализации представляет собой трубчатую линзу 265, полуотражающее зеркало 280, объект 270 и камеру 290. Например, трубчатая линза 265 может быть выполнена с возможностью поворота вдоль оси z для регулировки формы и траектории структурированного луча. Полуотражающее зеркало 280 может представлять собой дихроичное зеркало для отражения структурированного света, принятого от каждого плеча, до объектива 270 для проекции на образец 271 и прохождения через свет, излучаемый образцом 271 (например, флуоресцентный свет, длина волны которого отличается от длины волны возбуждения) на камеру 290.[00120] Also as an example, the imaging system 200 is a tubular lens 265, a semi-reflective mirror 280, an object 270 and a camera 290. For example, the tubular lens 265 can be configured to rotate along the z-axis to adjust the shape and trajectory of the structured beam. The semi-reflective mirror 280 can be a dichroic mirror for reflecting the structured light received from each arm to the objective 270 for projection onto the sample 271 and passing through the light emitted by the sample 271 (for example, fluorescent light, the wavelength of which differs from the excitation wavelength) to the camera 290.
[00121] Выходные данные (например, изображения) из камеры 290 могут быть переданы в компонент формирования изображений SIM в режиме реального времени (не показан), который может быть реализован в виде программного приложения, которое, как дополнительно описано ниже, может реконструировать изображения, захваченные во время каждого цикла формирования изображений, чтобы создавать изображение, имеющее более высокое пространственное разрешение. Реконструированные изображения могут учитывать изменения параметров структурированного освещения, которые предсказывают с течением времени. Кроме того, компонент формирования изображений SIM в режиме реального времени может быть использован для отслеживания предсказываемых параметров SIM и/или для предсказания параметров SIM с учетом предыдущих оцененных и/или предсказанных параметров SIM.[00121] The output data (e.g., images) from the camera 290 may be transmitted to a real-time SIM imaging component (not shown), which may be implemented as a software application that, as further described below, may reconstruct the images captured during each imaging cycle to create an image having a higher spatial resolution. The reconstructed images may take into account changes in the structured illumination parameters that are predicted over time. In addition, the real-time SIM imaging component may be used to track the predicted SIM parameters and/or to predict the SIM parameters given the previously estimated and/or predicted SIM parameters.
[00122] Для управления работой системы 200 визуализации со структурированным освещением, в том числе синхронизацией различных оптических компонентов системы 200, может быть предусмотрен контроллер (не показан). Контроллер может быть реализован в целях управления работой системы, такой как, например, конфигурация каждого оптического плеча (например, включение/выключение каждого оптического плеча во время захвата фазовых изображений, приведение в действие модуляторов фазы 240А-240В), перемещение трубчатой линзы 265, перемещение столика (если они используются) образца 271 и операции визуализации. Контроллер может быть также выполнен с возможностью управления элементами оборудования системы 200 для коррекции изменений параметров структурированного освещения со временем. Например, контроллер может быть выполнен с возможностью передачи сигналов управления на устройства (например, на модуляторы фазы 240А-240В), управляющие конфигурацией каждого оптического плеча или некоторыми другими элементами системы 100, для коррекции или компенсации изменений фазы, частоты и/или ориентации структурированного освещения со временем. В качестве другого примера, когда решетки 230А-230В установлены на линейных подвижных столиках (например, вместо использования модуляторов фазы 240А-240В), контроллер может быть выполнен с возможностью управления линейными подвижными столиками для коррекции или компенсации изменений фазы. В вариантах реализации эти сигналы могут быть переданы в соответствии с параметрами структурированного освещения, предсказанными с использованием компонента формирования изображения SIM. В некоторых вариантах реализации контроллер может включать память для хранения предсказанных или оцененных параметров структурированного освещения, соответствующих различным моментам времени и/или положениям образца.[00122] A controller (not shown) may be provided to control the operation of the structured illumination imaging system 200, including the synchronization of various optical components of the system 200. The controller may be implemented to control the operation of the system, such as, for example, the configuration of each optical arm (e.g., turning each optical arm on/off during phase image acquisition, actuating the phase modulators 240A-240B), moving the tubular lens 265, moving the stage (if used) of the sample 271, and imaging operations. The controller may also be configured to control hardware elements of the system 200 to correct for changes in structured illumination parameters over time. For example, the controller may be configured to transmit control signals to devices (e.g., phase modulators 240A-240B) that control the configuration of each optical arm or some other elements of the system 100 to correct or compensate for changes in phase, frequency, and/or orientation of the structured illumination over time. As another example, when the gratings 230A-230B are mounted on linear sliding stages (e.g., instead of using the phase modulators 240A-240B), the controller can be configured to control the linear sliding stages to correct or compensate for phase changes. In embodiments, these signals can be transmitted in accordance with the structured illumination parameters predicted using the SIM imaging component. In some embodiments, the controller can include memory for storing the predicted or estimated structured illumination parameters corresponding to different times and/or sample positions.
[00123] Следует отметить, что для простоты оптические компоненты системы 200 визуализации SIM могут быть исключены из предшествующего описания. Кроме того, хотя в этом примере система 200 проиллюстрирована в виде одноканальной системы, в других вариантах реализации она может быть реализована в виде многоканальной системы (например, с использованием двух различных камер и источников света, излучающих волны двух разных длин).[00123] It should be noted that for simplicity, the optical components of the SIM imaging system 200 may be omitted from the foregoing description. Furthermore, although in this example the system 200 is illustrated as a single-channel system, in other embodiments it may be implemented as a multi-channel system (e.g., using two different cameras and light sources emitting two different wavelengths).
[00124] Хотя система 200 иллюстрирует структурированную систему освещения с двумя плечами, которая включает в себя две решетки, ориентированные под двумя разными углами, следует отметить, что в других вариантах реализации технология, описанная в настоящем документе, может быть реализована в виде систем, в которых используется более двух плеч. В случае образца с регулярным рисунком и элементами на прямоугольной сетке улучшение разрешения может быть достигнуто только с двумя перпендикулярными углами (например, вертикальной решеткой и горизонтальной решеткой), как описано выше. С другой стороны, для улучшения разрешения изображения во всех направлениях для других образцов (например, образцов с прямоугольными рисунками) можно использовать три угла освещения. Например, система с тремя плечами может включать в себя три излучателя света и три фиксированные дифракционные решетки (по одной на плечо), где каждая дифракционная решетка ориентирована вокруг оптической оси системы для проецирования соответствующей ориентации рисунка на образец (например, рисунок под углом 0°, рисунок под углом 120° или рисунок под углом 240°). В таких системах для объединения дополнительных изображений дополнительных решеток в систему без потерь могут быть использованы дополнительные зеркала с отверстиями. В альтернативном варианте осуществления в такие системах можно использовать один или более поляризационных элементов разделения луча для объединения изображений каждой из решеток.[00124] Although the system 200 illustrates a structured illumination system with two arms that includes two gratings oriented at two different angles, it should be noted that in other embodiments, the technology described herein can be implemented in the form of systems that use more than two arms. In the case of a sample with a regular pattern and elements on a rectangular grid, an improvement in resolution can be achieved with only two perpendicular angles (e.g., a vertical grating and a horizontal grating), as described above. On the other hand, three illumination angles can be used to improve the image resolution in all directions for other samples (e.g., samples with rectangular patterns). For example, a three-arm system can include three light emitters and three fixed diffraction gratings (one per arm), where each diffraction grating is oriented around the optical axis of the system to project a corresponding pattern orientation onto the sample (e.g., a pattern at an angle of 0°, a pattern at an angle of 120°, or a pattern at an angle of 240°). In such systems, additional apertured mirrors may be used to combine additional images of additional gratings into a lossless system. In an alternative embodiment, such systems may use one or more polarizing beam splitters to combine images of each of the gratings.
[00125] На ФИГ. 4А и 4В показана схема, иллюстрирующая пример оптической конфигурации системы 500 визуализации SIM с двумя оптическими решетками для слайдов, которая может реализовывать структурированное прогнозирование параметров освещения в соответствии с некоторыми вариантами реализации, описанными в настоящем документе. В примере системы 500 все изменения структурированного рисунка освещения или рисунка решетки, проецируемого на образец 570 (например, фазовые сдвиги или вращения рисунка), могут быть выполнены путем линейного перемещения подвижного столика 530 вдоль одной оси движения для выбора решетки 531 или 532 (т.е. выбора ориентации решетки) или фазового сдвига одной из решеток 531-532.[00125] FIG. 4A and 4B show a diagram illustrating an example of an optical configuration of a SIM imaging system 500 with two optical gratings for slides, which can implement a structured prediction of illumination parameters in accordance with some embodiments described in this document. In the example system 500, all changes to the structured illumination pattern or grating pattern projected onto the sample 570 (e.g., phase shifts or pattern rotations) can be performed by linearly moving the movable stage 530 along one axis of motion to select the grating 531 or 532 (i.e., select the orientation of the grating) or a phase shift of one of the gratings 531-532.
[00126] Система 500 содержит излучатель 510 света (например, оптоволоконный канал, оптически соединенный с источником света), первый оптический коллиматор 520 (например, коллимирующую линзу) для коллимирования выходного сигнала света излучателем 510, линейный подвижный столик 530 с первой дифракционной решеткой 531 (например, горизонтальной) и второй дифракционной решеткой 532 (например, вертикальной), трубчатую линзу 540, полуотражающее зеркало 550 (например, дихроичное зеркало), объект 560, образец 570 и камеру 580. Для простоты оптические компоненты системы 500 визуализации SIM могут быть не показаны на ФИГ. 4А. Кроме того, хотя в этом примере система 500 проиллюстрирована в виде одноканальной системы, в других вариантах реализации она может быть реализована в виде многоканальной системы (например, с использованием двух различных камер и источников света, излучающих волны двух разных длин).[00126] The system 500 comprises a light emitter 510 (e.g., a fiber optic channel optically coupled to a light source), a first optical collimator 520 (e.g., a collimating lens) for collimating the light output of the emitter 510, a linear moving stage 530 with a first diffraction grating 531 (e.g., horizontal) and a second diffraction grating 532 (e.g., vertical), a tubular lens 540, a semi-reflective mirror 550 (e.g., a dichroic mirror), an object 560, a sample 570, and a camera 580. For simplicity, the optical components of the SIM imaging system 500 may not be shown in FIG. 4A. Furthermore, although in this example the system 500 is illustrated as a single-channel system, in other embodiments it may be implemented as a multi-channel system (e.g., using two different cameras and light sources emitting two different wavelengths).
[00127] Как показано на ФИГ. 4А, решетка 531 (например, горизонтальная дифракционная решетка) может рассеивать коллимированный световой пучок в рассеянные лучи света первого порядка (на плоскости страницы). Как показано на ФИГ. 4В, дифракционная решетка 532 (например, вертикальная дифракционная решетка) может отклонять луч в лучи первого порядка (выше и ниже плоскости страницы). В этой конфигурации для изображения образца 570 требуется только одно оптическое плечо с одним излучателем 510 (например, оптическим волокном) и одним линейным подвижным столиком, что может обеспечивать преимущества системы, такие как уменьшение количества движущихся частей для повышения скорости, упрощения и снижения стоимости. Кроме того, в системе 500 отсутствие поляризатора может обеспечить ранее упомянутое преимущество: высокую оптическую эффективность. Конфигурация примера системы 200 визуализации SIM может быть особенно выигрышной при использовании образца 570 с регулярным рисунком и элементами на прямоугольной решетке, поскольку структурированное улучшение разрешения может быть достигнуто с использованием только двух перпендикулярных решеток (например, вертикальной и горизонтальной).[00127] As shown in FIG. 4A, the grating 531 (for example, a horizontal diffraction grating) can disperse the collimated light beam into first-order scattered light rays (on the plane of the page). As shown in FIG. 4B, the diffraction grating 532 (for example, a vertical diffraction grating) can deflect the beam into first-order rays (above and below the plane of the page). In this configuration, only one optical arm with one emitter 510 (for example, an optical fiber) and one linear moving stage are required to image the sample 570, which can provide system advantages such as a reduction in the number of moving parts for increased speed, simplicity and reduced cost. In addition, in the system 500, the absence of a polarizer can provide the previously mentioned advantage: high optical efficiency. The configuration of the example SIM imaging system 200 may be particularly advantageous when using a sample 570 with a regular pattern and elements on a rectangular lattice, since a structured resolution improvement can be achieved using only two perpendicular lattices (e.g., vertical and horizontal).
[00128] Для повышения эффективности системы можно блокировать лучи нулевого порядка и все другие рассеянные лучи более высокого порядка (например, ±2 порядка и выше), формируемые каждой решеткой (например, отфильтровывать рисунок освещения, проецируемый на образец 570). Например, после подвижного столика 530 в оптический путь может быть вставлен элемент, блокирующий луч (не показан), такой как фильтр порядка. В некоторых вариантах реализации дифракционные решетки 531-532 могут быть выполнены с возможностью рассеяния лучей только в лучи первых порядков, а луч нулевого порядка (нерассеянный луч) может быть заблокирован некоторым элементом, блокирующим луч.[00128] To improve the efficiency of the system, it is possible to block the zero-order rays and all other higher-order scattered rays (e.g., ±2 orders and higher) generated by each grating (e.g., to filter the illumination pattern projected onto the sample 570). For example, after the movable stage 530, a beam blocking element (not shown), such as an order filter, can be inserted into the optical path. In some embodiments, the diffraction gratings 531-532 can be configured to scatter rays only into first-order rays, and the zero-order beam (the unscattered beam) can be blocked by some beam blocking element.
[00129] В примере системы 500 две решетки могут быть расположены приблизительно под углом ±45° от оси движения (или под другим углом от оси движения, например около +40°/-50°, около +30°/-60° и т.д.), так что фазовый сдвиг может быть реализован для каждой решетки 531 и 532 вдоль одной оси линейного движения. В некоторых вариантах осуществления две решетки могут быть объединены в один физический оптический элемент. Например, одна сторона физического оптического элемента может иметь структурированный рисунок освещения или решетчатый рисунок в первой ориентации, а смежная сторона физического оптического элемента может иметь структурированный рисунок освещения или решетчатый рисунок во второй ориентации, расположенной под прямым углом к первой ориентации.[00129] In an example of system 500, two gratings may be located at an angle of approximately ±45° from the axis of motion (or at another angle from the axis of motion, such as about +40°/-50°, about +30°/-60°, etc.), so that a phase shift can be implemented for each grating 531 and 532 along one axis of linear motion. In some embodiments, two gratings may be combined into one physical optical element. For example, one side of the physical optical element may have a structured illumination pattern or a grating pattern in a first orientation, and an adjacent side of the physical optical element may have a structured illumination pattern or a grating pattern in a second orientation located at a right angle to the first orientation.
[00130] Линейный подвижный столик 530 с одной осью может содержать один или несколько исполнительных механизмов, позволяющих ему перемещаться по оси X относительно плоскости образца или по оси Y относительно плоскости образца. Во время работы линейный подвижный столик 530 может обеспечивать достаточное перемещение (например, приблизительно 12-15 мм) и точность (например, повторяемость с приблизительной погрешностью менее 0,5 микрометра), чтобы вызвать проецирование точных рисунков освещения для эффективной реконструкции изображения. В вариантах реализации, в которых подвижный столик 530 используют в автоматизированной системе визуализации, например флуоресцентном микроскопе, он может обеспечивать высокую скорость работы, минимальную вибрацию и продолжительный срок службы. В вариантах реализации линейный подвижный столик 530 может включать в себя скрещенные роликовые опоры, линейный двигатель, линейный кодер с высокой точностью и/или другие компоненты. Например, подвижный столик 530 может быть реализован в виде высокоточного подвижного столика со ступенчатым или пьезоприводом, который можно перемещать с помощью контроллера.[00130] The linear moving stage 530 with a single axis may include one or more actuators that allow it to move along the X-axis relative to the plane of the sample or along the Y-axis relative to the plane of the sample. During operation, the linear moving stage 530 can provide sufficient movement (for example, approximately 12-15 mm) and accuracy (for example, repeatability with an approximate error of less than 0.5 micrometers) to cause the projection of accurate illumination patterns for effective image reconstruction. In embodiments in which the moving stage 530 is used in an automated imaging system, such as a fluorescence microscope, it can provide high speed of operation, minimal vibration and a long service life. In embodiments, the linear moving stage 530 may include crossed roller supports, a linear motor, a high-precision linear encoder and/or other components. For example, the movable table 530 can be implemented as a high-precision movable table with a step or piezo drive, which can be moved using a controller.
[00131] Выходные данные (например, изображения) из камеры 580 могут быть переданы в компонент формирования изображений SIM в режиме реального времени (не показан), который может быть реализован в виде программного приложения, которое, как дополнительно описано ниже, может реконструировать изображения, захваченные во время каждого цикла формирования изображений, чтобы создавать изображение, имеющее более высокое пространственное разрешение. Реконструированные изображения могут учитывать изменения параметров структурированного освещения, которые предсказывают с течением времени. Кроме того, компонент формирования изображений SIM в режиме реального времени может быть использован для отслеживания предсказываемых параметров SIM и/или для предсказания параметров SIM с учетом предыдущих оцененных и/или предсказанных параметров SIM.[00131] The output data (e.g., images) from the camera 580 may be transmitted to a real-time SIM imaging component (not shown), which may be implemented as a software application that, as further described below, may reconstruct the images captured during each imaging cycle to create an image having a higher spatial resolution. The reconstructed images may take into account changes in the structured illumination parameters that are predicted over time. In addition, the real-time SIM imaging component may be used to track the predicted SIM parameters and/or to predict the SIM parameters given previously estimated and/or predicted SIM parameters.
[00132] Для управления работой системы 500 визуализации со структурированным освещением, в том числе синхронизацией различных оптических компонентов системы 500, может быть предусмотрен контроллер (не показан). Контроллер может быть реализован в целях управления работой системы, например перемещением линейного подвижного столика 530, перемещением трубчатой линзы 540, перемещением столика (если он используется) образца 570 и операциями визуализации. Контроллер может быть также выполнен с возможностью управления элементами оборудования системы 500 для коррекции изменений параметров структурированного освещения со временем. Например, контроллер может быть выполнен с возможностью передачи сигналов управления устройствам (например, линейному подвижному столику 530) для коррекции или компенсации изменений фазы, частоты и/или ориентации структурированного освещения со временем. В вариантах реализации эти сигналы могут быть переданы в соответствии с параметрами структурированного освещения, предсказанными с использованием компонента формирования изображения SIM. В некоторых вариантах реализации контроллер может включать память для хранения предсказанных или оцененных параметров структурированного освещения, соответствующих различным моментам времени и/или положениям образца.[00132] A controller (not shown) may be provided to control the operation of the structured illumination imaging system 500, including the synchronization of various optical components of the system 500. The controller may be implemented to control the operation of the system, such as movement of the linear stage 530, movement of the tubular lens 540, movement of the stage (if used) of the sample 570, and imaging operations. The controller may also be configured to control hardware elements of the system 500 to correct for changes in structured illumination parameters over time. For example, the controller may be configured to transmit control signals to devices (e.g., the linear stage 530) to correct for or compensate for changes in phase, frequency, and/or orientation of the structured illumination over time. In embodiments, these signals may be transmitted in accordance with structured illumination parameters predicted using the SIM imaging component. In some embodiments, the controller may include memory for storing predicted or estimated structured illumination parameters corresponding to various times and/or positions of the sample.
[00133] Хотя пример на ФИГ. 4А-4В иллюстрирует систему визуализации с двумя оптическими решетками для слайдов, которая может реализовывать структурированное прогнозирование параметров освещения, структурированное прогнозирование параметров освещения может быть реализовано в системах визуализации SFM, которые используют привод линейного движения, установленный с более чем двумя дифракционными решетками.[00133] Although the example in FIGS. 4A-4B illustrates a two-grating slide imaging system that can implement structured prediction of illumination parameters, structured prediction of illumination parameters can be implemented in SFM imaging systems that use a linear motion actuator mounted with more than two diffraction gratings.
Оценка параметров проекцииEstimation of projection parameters
[00134] Оценка параметров для обработки изображения SIM может потребоваться для коррекции нежелательных изменений параметров структурированного освещения с течением времени. В качестве примера на ФИГ. 5А-5С показаны нежелательные изменения частоты или разноса пика освещения (ФИГ. 5А), фазы или фазового смещения (ФИГ. 5В) и ориентации или угла пика освещенности (ФИГ. 5С), которые могут происходить с течением времени в системе визуализации SIM, которая проецирует одномерный структурированный рисунок освещения на образец с регулярным рисунком. В частности, на ФИГ. 5А представлен образец 50 с элементами 51, освещенными одномерным структурированным рисунком освещения с интерференционными полосами 60 до и после сдвигов частоты. Перед любыми смещениями частоты смежные интерференционные полосы 60 имеют шаг или межцентровое расстояние Р, соответствующее начальной частоте f. Со временем при изменении температуры в системе шаг Р может увеличиваться или уменьшаться. Например, тепловое расширение может привести к увеличению шага Р до Р+ΔP1, соответственно уменьшая частоту f до f-Δf1. И наоборот, тепловое сжатие может привести к уменьшению шага Р до Р-ΔP1, соответственно увеличивая частоту f до f+Δf2.[00134] Parameter estimation for SIM image processing may be required to correct for unwanted changes in structured illumination parameters over time. As an example, FIGS. 5A-5C illustrate unwanted changes in the frequency or spacing of the illumination peak (FIG. 5A), the phase or phase shift (FIG. 5B), and the orientation or angle of the illumination peak (FIG. 5C) that may occur over time in a SIM imaging system that projects a one-dimensional structured illumination pattern onto a sample with a regular pattern. In particular, FIG. 5A shows a sample 50 with elements 51 illuminated by a one-dimensional structured illumination pattern with interference fringes 60 before and after frequency shifts. Before any frequency shifts, adjacent interference fringes 60 have a pitch or center-to-center distance P corresponding to an initial frequency f. Over time, as the temperature in the system changes, the pitch P may increase or decrease. For example, thermal expansion can lead to an increase in the pitch P to P+ΔP 1 , correspondingly decreasing the frequency f to f-Δf 1 . Conversely, thermal contraction can lead to a decrease in the pitch P to P-ΔP 1 , correspondingly increasing the frequency f to f+Δf 2 .
[00135] На ФИГ. 5 В показан образец 50, освещенный одномерным структурированным рисунком освещения с интерференционными полосами 60 до и после изменений фазы. Как показано, перед смещением фазы первое фазовое состояние Ф может соответствовать интерференционным полосам, полностью освещающим каждый второй столбец элементов 51 образца 50. Со временем положение интерференционных полос 60 относительно образца 50 может смещаться таким образом, что все изображения фаз смещаются на ΔФ. Например, механические колебания в системе визуализации SIM (например, в траектории луча возбуждения), погрешность столика поступательного перемещения, используемого решеткой или столиком для образцов, термические вариации и/или другие факторы могут вызывать нежелательное изменение фазы. После изменения фазы на ΔФ состояние первой фазы меняется до Ф+ΔФ, интерференционные полосы смещаются от центра в каждом втором столбце элементов.[00135] FIG. 5B shows a sample 50 illuminated with a one-dimensional structured illumination pattern with interference fringes 60 before and after phase changes. As shown, before the phase shift, the first phase state Φ may correspond to interference fringes that completely illuminate every other column of elements 51 of the sample 50. Over time, the position of the interference fringes 60 relative to the sample 50 may shift such that all phase images are shifted by ΔΦ. For example, mechanical vibrations in the SIM imaging system (e.g., in the excitation beam path), an error in the translation stage used by the grating or sample stage, thermal variations and/or other factors may cause an unwanted phase change. After the phase change by ΔΦ, the first phase state changes to Φ+ΔΦ, the interference fringes are shifted from the center in every second column of elements.
[00136] На ФИГ. 5С показан образец 50, освещенный одномерным структурированным рисунком освещения с интерференционными полосами 60 до и после изменений ориентации. Как показано, до изменения ориентация интерференционных полос относительно образца 50 является полностью вертикальной. Со временем ориентация может изменяться из-за таких факторов, как изменения в траектории луча возбуждения, перемещения образца, тепловые вариации и/или другие факторы. После поворота ориентации на угол Δθ интерференционные полосы становятся не полностью вертикальными относительно образца.[00136] FIG. 5C shows a sample 50 illuminated with a one-dimensional structured illumination pattern with interference fringes 60 before and after orientation changes. As shown, before the change, the orientation of the interference fringes relative to the sample 50 is completely vertical. Over time, the orientation may change due to factors such as changes in the excitation beam path, sample movements, thermal variations, and/or other factors. After the orientation is rotated by an angle Δθ, the interference fringes are no longer completely vertical relative to the sample.
[00137] Оценка параметров во время процесса визуализации SIM для точного учета изменений в параметрах структурированного освещения, как описано выше, помогает обеспечить отсутствие артефактов и точную реконструкцию изображения из выборки изображений. Однако такой процесс подразумевает затратные вычисления и часто выполняется после получения изображения. Для критически важных систем визуализации SIM, которые включают обработку и реконструкцию изображений в реальном времени, и, таким образом, оценку в реальном времени таких параметров, как частота, фаза, ориентация и порядок модуляции, эти вычислительные требования могут привести к потере пропускной способности для передачи данных (например, в единицу времени может обрабатываться меньше данных). В таких системах скорость, при которой формируются образцы, может превышать скорость, при которой параметры структурированного освещения могут быть непосредственно оценены из полученных изображений. Таким образом, существует потребность в способе генерирования оценки параметров с низкой сложностью и низким временем обработки.[00137] Estimation of parameters during the SIM imaging process to accurately account for changes in structured illumination parameters, as described above, helps to ensure the absence of artifacts and accurate reconstruction of an image from a sample of images. However, such a process involves expensive computations and is often performed after image acquisition. For mission-critical SIM imaging systems that involve real-time image processing and reconstruction, and thus real-time estimation of parameters such as frequency, phase, orientation, and modulation order, these computational requirements can result in a loss of data throughput (e.g., less data can be processed per unit of time). In such systems, the rate at which samples are generated may exceed the rate at which the structured illumination parameters can be directly estimated from the acquired images. Thus, there is a need for a method for generating parameter estimates with low complexity and low processing time.
[00138] С этой целью варианты реализации технологии, описанной в настоящем документе, направлены на прогнозирование параметров структурированного освещения для конкретной точки во времени, пространстве и/или температуре с использованием оценок параметров структурированного освещения, полученных из изображений, захваченных системой структурированного освещения. Конкретные варианты реализации направлены на прогнозирование структурированного освещения, фазы, ориентации и/или параметров порядка модуляции.[00138] To this end, embodiments of the technology described herein are directed to predicting structured lighting parameters for a specific point in time, space, and/or temperature using estimates of structured lighting parameters obtained from images captured by a structured lighting system. Specific embodiments are directed to predicting structured lighting, phase, orientation, and/or modulation order parameters.
[00139] В соответствии с некоторыми вариантами реализации параметр структурированного освещения может быть предсказан для заданной точки во времени, пространстве и/или температуре путем интерполяции оценок параметра структурированного освещения из захвата изображения. Например, первая частота может быть оценена из первого выбранного изображения, вторая частота может быть оценена из второго выбранного изображения, а частота, соответствующая точке времени между первым захваченным изображением и вторым захваченным изображением (например, частота для изображения, выполненного между первым и вторым изображениями), может быть предсказана путем интерполяции с использованием по меньшей мере определенной скорости изменения частоты между первым захваченным изображением и вторым захваченным изображением.[00139] According to some embodiments, a structured illumination parameter may be predicted for a given point in time, space, and/or temperature by interpolating estimates of the structured illumination parameter from an image capture. For example, a first frequency may be estimated from a first selected image, a second frequency may be estimated from a second selected image, and a frequency corresponding to a point in time between the first captured image and the second captured image (e.g., a frequency for an image made between the first and second images) may be predicted by interpolation using at least a certain rate of change of frequency between the first captured image and the second captured image.
[00140] В соответствии с некоторыми вариантами реализации параметр структурированного освещения может быть предсказан для заданной точки во времени, пространстве и/или температуре путем экстраполяции с использованием оценок параметра структурированного освещения, полученного из двух захватов изображения. Например, первая ориентация может быть оценена из первого выбранного изображения, вторая ориентация может быть оценена из второго выбранного изображения, а ориентация, соответствующая точке времени после первого и второго захваченных изображений (например, ориентация для третьего изображения, полученного после первого и второго изображений), может быть предсказана путем экстраполяции с использованием по меньшей мере определенной скорости изменения ориентации от первого захваченного изображения до второго захваченного изображения. Во втором примере первая ориентация может быть оценена из первого выбранного изображения, вторая ориентация может быть оценена из второго выбранного изображения, а ориентация, соответствующая точке во времени после первого и второго захваченных изображений (например, ориентация для третьего изображения, полученного после первого и второго изображений), может быть предсказана путем удержания значения из второго захваченного изображения.[00140] According to some embodiments, a structured illumination parameter may be predicted for a given point in time, space, and/or temperature by extrapolation using estimates of the structured illumination parameter obtained from two image captures. For example, a first orientation may be estimated from a first selected image, a second orientation may be estimated from a second selected image, and an orientation corresponding to a point in time after the first and second captured images (e.g., an orientation for a third image obtained after the first and second images) may be predicted by extrapolation using at least a certain rate of change of orientation from the first captured image to the second captured image. In a second example, the first orientation may be estimated from the first selected image, the second orientation may be estimated from the second selected image, and an orientation corresponding to a point in time after the first and second captured images (e.g., an orientation for a third image obtained after the first and second images) may be predicted by holding a value from the second captured image.
[00141] В примерах реализации оцененные и прогнозируемые параметры структурированного освещения могут быть использованы для узкого пространства поиска для других параметров структурированного освещения, которые прогнозируются. Например, учитывая оцененное значение параметра структурированного освещения для первой точки во времени, пространстве и/или температуре, значение параметра структурированного освещения для второй точки во времени, пространстве и/или температуре, которые находятся рядом с первой точкой во времени, пространстве и/или температуре могут быть предсказаны с учетом прогнозируемого или оцененного значения в первой точке во времени, пространстве и/или температуре.[00141] In example implementations, the estimated and predicted structured lighting parameters may be used to narrow the search space for other structured lighting parameters that are predicted. For example, given an estimated value of a structured lighting parameter for a first point in time, space, and/or temperature, a value of a structured lighting parameter for a second point in time, space, and/or temperature that is near the first point in time, space, and/or temperature may be predicted based on the estimated or predicted value at the first point in time, space, and/or temperature.
[00142] В примерах реализации оцененные и прогнозируемые параметры структурированного освещения могут храниться в запоминающем устройстве системы структурированного освещения для последующего использования системой. Например, прогнозируемые и оцененные параметры могут храниться в файле истории, таком как таблица поиска. Прогнозируемые параметры, которые хранятся в памяти, могут быть определены из оцененных параметров, или они могут быть установлены на основании физических характеристик системы структурированного освещения. Например, можно хранить номинальное расстояние между решетками системы структурированного освещения. После этого сохраненные параметры могут быть привязаны к выполнению операций, таких как: калиброванное восстановление изображения, предоставление обратной связи к аппаратному компоненту для коррекции изменений параметров структурированного освещения и сужения пространства поиска при прогнозировании дополнительных параметров структурированного освещения.[00142] In example implementations, the estimated and predicted parameters of the structured lighting may be stored in a memory device of the structured lighting system for subsequent use by the system. For example, the predicted and estimated parameters may be stored in a history file, such as a lookup table. The predicted parameters that are stored in the memory may be determined from the estimated parameters, or they may be established based on the physical characteristics of the structured lighting system. For example, a nominal spacing between gratings of the structured lighting system may be stored. The stored parameters may then be associated with performing operations such as: calibrated image restoration, providing feedback to a hardware component to correct for changes in the structured lighting parameters, and narrowing the search space when predicting additional structured lighting parameters.
Рисунки интерференционных полос освещенияDrawings of interference fringes of illumination
[00143] На ФИГ. 6 представлены упрощенные рисунки интерференционных полос освещения, которые можно проецировать на плоскость образца 271 посредством вертикальной решетки 230А и горизонтальной решетки 230В системы 200 визуализации SIM во время одного цикла визуализации для использования структурированного света для создания изображения высокого разрешения. В этом примере три фазовых изображения с вертикальной ориентацией освещения могут быть захвачены с использованием вертикальной решетки 230А, а трехмерные изображения с горизонтальной ориентацией освещения могут быть захвачены с помощью горизонтальной решетки 230В. Для каждой ориентации проецируемые интерференционные полосы могут быть сдвинуты с шагом 1/3λ (например, путем установки модулятора фазы 230А или 230В в три разных положения) для захвата трех фазовых изображений рисунка ориентации.[00143] FIG. 6 shows simplified patterns of interference fringes of illumination that can be projected onto a plane of a sample 271 by a vertical grating 230A and a horizontal grating 230B of a SIM imaging system 200 during a single imaging cycle to use structured light to create a high resolution image. In this example, three phase images with a vertical illumination orientation can be captured using the vertical grating 230A, and three-dimensional images with a horizontal illumination orientation can be captured using the horizontal grating 230B. For each orientation, the projected interference fringes can be shifted in 1/3λ increments (e.g., by setting the phase modulator 230A or 230B to three different positions) to capture three phase images of the orientation pattern.
[00144] Во время захвата каждого фазового изображения любой свет, излучаемый образцом, может быть захвачен камерой 290. Например, флуоресцентные красители, расположенные на различных элементах образца 271, могут флуоресцировать, а полученный свет может быть собран линзой 270 объектива и направлен на датчик изображения камеры 290 для обнаружения флуоресценции. Полученные шесть изображений можно использовать для формирования изображения всего образца или определения местоположения большего образца.[00144] During the capture of each phase image, any light emitted by the sample may be captured by the camera 290. For example, fluorescent dyes located on various elements of the sample 271 may fluoresce, and the resulting light may be collected by the objective lens 270 and directed to the image sensor of the camera 290 to detect fluorescence. The resulting six images may be used to form an image of the entire sample or to determine the location of a larger sample.
[00145] После захвата всех изображений для цикла визуализации (в данном примере шести изображений) изображение высокого разрешения может быть составлено из захваченных изображений. Например, изображение высокого разрешения может быть восстановлено из шести изображений, показанных на ФИГ. 6. Подходящие алгоритмы могут использоваться для объединения этих различных изображений для синтеза одного изображения образца со значительно более высоким пространственным разрешением, чем любое из отдельных изображений компонента.[00145] After capturing all images for an imaging cycle (in this example, six images), a high-resolution image can be composed from the captured images. For example, a high-resolution image can be reconstructed from the six images shown in FIG. 6. Suitable algorithms can be used to combine these different images to synthesize a single image of the sample with a significantly higher spatial resolution than any of the individual component images.
[00146] Во время составления изображения высокого разрешения нежелательные сдвиги или изменения в параметрах структурированного освещения (таких как угол, разнос и фаза) могут быть компенсированы с помощью алгоритма с параметрами структурированного освещения, предсказанными в соответствии с данным изобретением (например, предсказанные изменения угла, разноса или фазы). Например, могут быть компенсированы смещения в фазах, угле и/или разносе вертикальных изображений освещения и/или горизонтальных изображений освещения.[00146] During high-resolution image composition, unwanted shifts or changes in structured illumination parameters (such as angle, spacing, and phase) can be compensated for using an algorithm with structured illumination parameters predicted in accordance with the present invention (e.g., predicted changes in angle, spacing, or phase). For example, shifts in phases, angle, and/or spacing of vertical illumination images and/or horizontal illumination images can be compensated for.
[00147] В некоторых вариантах реализации нежелательные сдвиги или изменения в параметрах структурированного освещения могут быть компенсированы до захвата изображения путем управления одним или несколькими аппаратными элементами системы 200 для компенсации этих изменений в системе визуализации SIM. Например, перед последовательностью визуализации и/или между захватом изображений последовательности визуализации изменение фазы может быть компенсировано для каждого оптического плеча путем регулирования элемента фазового сдвига (например, вращающегося зеркала, линейного исполнительного механизма и т.д.). В некоторых вариантах осуществления может быть реализована комбинация аппаратных и алгоритмических компенсаций.[00147] In some embodiments, unwanted shifts or changes in the structured illumination parameters may be compensated for prior to image capture by controlling one or more hardware elements of the system 200 to compensate for these changes in the SIM imaging system. For example, prior to an imaging sequence and/or between image captures of an imaging sequence, a phase change may be compensated for each optical arm by adjusting a phase shift element (e.g., a rotating mirror, a linear actuator, etc.). In some embodiments, a combination of hardware and algorithmic compensations may be implemented.
[00148] На ФИГ. 6 представлен вариант осуществления, в котором проточная кювета содержит симметрично расположенные нанолунки. В некоторых вариантах осуществления нанолунки могут быть расположены асимметрично, например, нанолунки могут иметь форму или конфигурацию для образования удлиненной структуры. Удлиненная структура относится к форме, в которой размер по первой оси больше размеров по второй оси. Асимметрично расположенные нанолунки могут быть эллиптическими, прямоугольными и т.д. В таких вариантах осуществления образец может быть развернут вдоль направления или оси длинной стороны, a SIM используется для увеличения разрешения вдоль короткой стороны. Если более короткая сторона нанолунок расположена вдоль оси х, а более длинная сторона вдоль оси у, шаг Рх асимметрично расположенной проточной кюветы узкий или плотный, что приводит к увеличению разрешения, при этом по оси у шаг Ру больше. Соответственно, разрешение увеличивают вдоль оси х и фиксируют только три изображения для надлежащего развертывания образца, содержащегося в нанолунках проточной кюветы.[00148] FIG. 6 shows an embodiment in which the flow cell comprises symmetrically arranged nanowells. In some embodiments, the nanowells may be arranged asymmetrically, for example, the nanowells may have a shape or configuration to form an elongated structure. An elongated structure refers to a shape in which the dimension along the first axis is larger than the dimensions along the second axis. Asymmetrically arranged nanowells may be elliptical, rectangular, etc. In such embodiments, the sample may be deployed along the direction or axis of the long side, and SIM is used to increase the resolution along the short side. If the shorter side of the nanowells is located along the x-axis and the longer side along the y-axis, the pitch Px of the asymmetrically arranged flow cell is narrow or tight, which leads to an increase in resolution, while the pitch Py is larger along the y-axis. Accordingly, the resolution is increased along the x-axis and only three images are captured for proper deployment of the sample contained in the nanowells of the flow cell.
[00149] На ФИГ. 7 представлены упрощенные рисунки интерференционных полос освещения, которые могут быть проецированы на плоскость образца 570 первой дифракционной решеткой и второй дифракционной решеткой системы 500 визуализации SIM с двумя оптическими решетками для слайдов для визуализации в процессе захвата изображения для цикла визуализации структурированного освещения. Например, система 500 визуализации SIM может использовать первую дифракционную решетку 531 и вторую дифракционную решетку 532 для создания рисунков освещения, показанных на ФИГ. 7. Как показано в примере на ФИГ. 7, две решетки проецируют перпендикулярные рисунки интерференционных полос на поверхность образца 570 и расположены приблизительно под углом ±45° от оси движения линейного подвижного столика 530.[00149] FIG. 7 shows simplified patterns of interference fringes of illumination that can be projected onto a plane of a sample 570 by a first diffraction grating and a second diffraction grating of a SIM imaging system 500 with two optical gratings for imaging slides during an image capture process for a structured illumination imaging cycle. For example, the SIM imaging system 500 can use a first diffraction grating 531 and a second diffraction grating 532 to create the illumination patterns shown in FIG. 7. As shown in the example of FIG. 7, the two gratings project perpendicular patterns of interference fringes onto the surface of the sample 570 and are located at an angle of approximately ±45° from the axis of motion of the linear moving stage 530.
[00150] Первая решетка (например, решетка 531) может проецировать интерференционные полосы освещения первого порядка на образец 570. Любой свет, излучаемый образцом, может быть захвачен камерой 580, а первое изображение фазы первого рисунка (например, рисунка под углом +45°) может быть захвачено для создания первого изображения фазы. Чтобы захватывать дополнительные изображения со сдвигом фазы, рисунок, проецируемый решеткой, может быть сдвинут по фазе путем перемещения линейного подвижного столика. Эти перемещения фазового сдвига проиллюстрированы как этапы 1 и 2 на ФИГ. 7. Перемещение фазовых сдвигов может обеспечивать небольшие (например, приблизительно от 3 до 5 микрометров или меньше) перемещения решеток для небольшого сдвига рисунка интерференционных полос, проецируемого на решетку.[00150] A first grating (e.g., grating 531) can project interference fringes of a first order of illumination onto a sample 570. Any light emitted by the sample can be captured by camera 580, and a first phase image of a first pattern (e.g., a pattern at an angle of +45°) can be captured to create a first phase image. In order to capture additional phase-shifted images, the pattern projected by the grating can be phase-shifted by moving the linear sliding stage. These phase-shifting movements are illustrated as steps 1 and 2 in FIG. 7. Moving the phase shifts can provide small (e.g., approximately 3 to 5 micrometers or less) movements of the gratings to slightly shift the interference fringe pattern projected onto the grating.
[00151] После захвата всех изображений со сдвигом фаз для дифракционной решетки система 500 может переключать дифракционные решетки путем перемещения линейного подвижного столика 530 для оптического соединения другой дифракционной решетки с источником света системы визуализации (например, переход от ФИГ. 4А к 4В). Это движение показано как этап 3 в примере на ФИГ. 7. В случае изменения дифракционной решетки линейный подвижный столик может обеспечивать относительно большое перемещение (например, порядка 12-15 мм).[00151] After capturing all phase-shifted images for a diffraction grating, the system 500 may switch diffraction gratings by moving the linear moving stage 530 to optically couple another diffraction grating to the light source of the imaging system (e.g., moving from FIG. 4A to 4B). This movement is shown as step 3 in the example of FIG. 7. In the case of changing the diffraction grating, the linear moving stage may provide a relatively large movement (e.g., on the order of 12-15 mm).
[00152] Затем можно захватить серию фазовых изображений для следующей решетки. Например, как показано на ФИГ. 7, вторая дифракционная решетка может проецировать световые интерференционные полосы первого порядка на образец, а положение проецируемых интерференционных полос изменить путем перемещения линейного подвижного столика 530 для захвата трех фазовых изображений рисунка решетки (например, этапы 4 и 5 на ФИГ. 7).[00152] A series of phase images for the next grating can then be captured. For example, as shown in FIG. 7, the second diffraction grating can project first-order light interference fringes onto the sample, and the position of the projected interference fringes can be changed by moving the linear moving stage 530 to capture three phase images of the grating pattern (e.g., steps 4 and 5 in FIG. 7).
[00153] После захвата всех изображений для цикла визуализации (в данном примере шести изображений) изображение высокого разрешения может быть составлено из захваченных изображений. Например, изображение высокого разрешения может быть восстановлено из шести изображений, показанных на ФИГ. 7. Подходящие алгоритмы могут использоваться для объединения этих различных изображений для синтеза одного изображения образца со значительно более высоким пространственным разрешением, чем любое из отдельных изображений компонента.[00153] After capturing all images for an imaging cycle (in this example, six images), a high resolution image can be composed from the captured images. For example, a high resolution image can be reconstructed from the six images shown in FIG. 7. Suitable algorithms can be used to combine these different images to synthesize a single image of the sample with a significantly higher spatial resolution than any of the individual component images.
[00154] Во время составления изображения высокого разрешения нежелательные сдвиги или изменения в параметрах структурированного освещения (таких как угол, разнос и фаза) могут быть компенсированы с помощью алгоритма с параметрами структурированного освещения, оцененными в соответствии с данным изобретением (например, предсказанные изменения угла, разноса или фазы). Например, могут быть компенсированы смещения в фазах, угле и/или разносе вертикальных изображений освещения и/или горизонтальных изображений освещения. В одном варианте осуществления одно или несколько смещений в фазах, угле и/или разносе изображений могут быть рассчитаны периодически, например в первом цикле прогона секвенирования. Частота этих оценок может быть увеличена или уменьшена на основе факторов окружающей среды, влияющих на стабильность процесса.[00154] During high-resolution image composition, unwanted shifts or changes in structured illumination parameters (such as angle, spacing, and phase) can be compensated for using an algorithm with structured illumination parameters estimated in accordance with the present invention (e.g., predicted changes in angle, spacing, or phase). For example, shifts in phases, angle, and/or spacing of vertical illumination images and/or horizontal illumination images can be compensated for. In one embodiment, one or more shifts in phases, angle, and/or spacing of images can be calculated periodically, such as in the first cycle of a sequencing run. The frequency of these evaluations can be increased or decreased based on environmental factors that affect the stability of the process.
[00155] В некоторых вариантах реализации нежелательные сдвиги или изменения в параметрах структурированного освещения могут быть компенсированы до захвата изображения путем управления одним или несколькими аппаратными элементами системы 500 для компенсации этих изменений в системе визуализации SIM. Например, перед последовательностью визуализации и/или между захватом изображений последовательности визуализации изменение фазы может быть компенсировано путем перемещения линейного подвижного столика 530. В некоторых вариантах осуществления может быть реализована комбинация аппаратных и алгоритмических компенсаций.[00155] In some embodiments, unwanted shifts or changes in the structured illumination parameters may be compensated for prior to image capture by controlling one or more hardware elements of the system 500 to compensate for these changes in the SIM imaging system. For example, prior to an imaging sequence and/or between image captures of an imaging sequence, a phase change may be compensated for by moving the linear sliding stage 530. In some embodiments, a combination of hardware and algorithmic compensations may be implemented.
[00156] В соответствии с описанными в настоящем документе вариантами реализации параметры структурированного освещения могут быть предсказаны для конкретной точки времени с использованием оценок параметров структурированного освещения, полученных из изображений, захваченных до и/или после этого времени. Например, ограничения вычислительных ресурсов могут ограничивать скорость, с которой система визуализации SIM (например, система 100, 200 или 500) может непосредственно оценивать параметры структурированного освещения, такие как фаза, частота и/или ориентация, из захваченных изображений. В некоторых случаях система визуализации SIM может непосредственно оценивать или измерять параметр структурированного освещения на каждом фазовом изображении, в этом случае может не потребоваться прогнозирование параметров структурированного освещения. Однако в других случаях система визуализации SIM может непосредственно оценивать или измерять параметр структурированного освещения для некоторых фазовых изображений цикла визуализации, один раз в цикл визуализации или даже реже (например, каждые 3, 5, 10, 50 или 100 циклов визуализации). В таких случаях для поддержания скорости выборки изображения системы может быть целесообразно использовать прямую оценку параметра структурированного освещения, который был получен для конкретной точки во времени и/или пространстве, чтобы сделать прогнозы о параметре структурированного освещения в других точках во времени и/или пространстве.[00156] According to embodiments described herein, structured illumination parameters may be predicted for a particular point in time using estimates of structured illumination parameters obtained from images captured before and/or after that time. For example, computational resource limitations may limit the rate at which a SIM imaging system (e.g., system 100, 200, or 500) can directly estimate structured illumination parameters, such as phase, frequency, and/or orientation, from captured images. In some cases, a SIM imaging system may directly estimate or measure a structured illumination parameter in each phase image, in which case prediction of the structured illumination parameters may not be required. However, in other cases, the SIM imaging system may directly estimate or measure a structured illumination parameter for some phase images of an imaging cycle, once per imaging cycle, or even less frequently (e.g., every 3, 5, 10, 50, or 100 imaging cycles). In such cases, to maintain the image sampling rate of the system, it may be appropriate to use a direct estimate of the structured illumination parameter that was obtained for a particular point in time and/or space to make predictions about the structured illumination parameter at other points in time and/or space.
[00157] Для математического описания одного примера этого основного значения одним из способов оценки параметров структурированного освещения является корреляция относительно эталона.[00157] To mathematically describe one example of this fundamental value, one way to estimate the parameters of structured lighting is by correlation with respect to a reference.
где h(x) представляет собой эталон, который может быть либо известен, либо получен из данных изображения, с(х) получают из данных изображения, которые коррелируют с эталоном, а ƒ представляет собой значение, которое должно быть оценено (в этом примере - частота). Следует отметить, что в соответствии с данным изобретением можно использовать другие альтернативные методики оценки.where h(x) is a reference that may be either known or obtained from image data, c(x) is obtained from image data that correlate with the reference, and ƒ is the value to be estimated (in this example, frequency). It should be noted that other alternative estimation techniques may be used in accordance with the present invention.
[00158] В примере уравнения (1) можно генерировать один выходной корреляционный сигнал для каждого множества гипотетических значений ƒ Оценка параметров ƒ может быть получена как значение ƒ которое максимизирует величину корреляции. Однако во многих случаях необходимо попытаться увеличить количество гипотетических значений ƒ для максимизации выходного корреляционного выходного сигнала. Большое пространство поиска может увеличить вычислительные требования и в результате привести к снижению производительности системы (т.е. в единицу времени может обрабатываться меньше данных).[00158] In the example of equation (1), one output correlation signal can be generated for each set of hypothetical values of ƒ. The estimate of the parameters ƒ can be obtained as the value of ƒ that maximizes the magnitude of the correlation. However, in many cases it is necessary to try to increase the number of hypothetical values of ƒ in order to maximize the output correlation signal. A large search space can increase the computational requirements and as a result lead to a decrease in the performance of the system (i.e., less data can be processed per unit of time).
Искажение оптического средства (в частности, линзы)Distortion of an optical device (in particular, a lens)
[00159] В следующих двух разделах представлены методики оценки параметров для реконструкции изображения SIM. Некоторые из раскрытых методик компенсируют линии пиков интерференционных полос, которые искажены или искривлены из-за несовершенств линзы. Линии рисунка, которые должны быть параллельными, остаются таковыми возле центра изображения, но обычно сходятся или становятся непараллельными возле краев линзы. Это влияет на угол или ориентацию пика освещенности, разнос пика освещенности и фазовое смещение. На ФИГ. 8А показано разделение фрагмента изображения на перекрывающиеся области, называемые субфрагментами, субокнами или субобластями. Субфрагменты достаточно малы, чтобы можно было установить параметры, которые дадут удовлетворительную реконструкцию для всего субфрагмента. Оценка параметров может быть выполнена в два этапа. Сначала можно выполнить оценку параметров для ближайшего к центру субфрагмента изображения. Затем можно выполнить оценку параметров для других субфрагментов и сравнить с ближайшим к центру субфрагментом, чтобы определить искажения и поправки на искажения относительно параметров для ближайшего к центру субфрагмента.[00159] The next two sections present parameter estimation techniques for reconstructing a SIM image. Some of the disclosed techniques compensate for fringe peak lines that are distorted or curved due to lens imperfections. Pattern lines that should be parallel remain so near the center of the image, but typically converge or become non-parallel near the edges of the lens. This affects the angle or orientation of the illumination peak, the spacing of the illumination peak, and the phase shift. FIG. 8A shows dividing an image fragment into overlapping regions called sub-fragments, sub-windows, or sub-regions. The sub-fragments are small enough that parameters can be set that will give a satisfactory reconstruction for the entire sub-fragment. Parameter estimation can be performed in two steps. First, parameter estimation can be performed for the sub-fragment of the image closest to the center. The parameters for the other sub-fragments can then be estimated and compared with the closest sub-fragment to determine distortion and distortion corrections relative to the parameters for the closest sub-fragment.
[00160] Чтобы проиллюстрировать реализацию этих методик, авторы настоящего изобретения представляют пример псевдокода для оценки параметров в алгоритме «сопоставление угла и разноса субфрагмента» (который также называют алгоритмом 2А) и в алгоритме «сопоставление фаз субфрагмента» (который также называют алгоритмом 2В). В качестве примера авторы также представляют псевдокод для определения искажений и коррекции искажений в оцененных параметрах для нецентральных субфрагментов в сравнении с ближайшими к центру субфрагментами в «алгоритме калибровки окончательного искажения» (который также называют алгоритмом 1).[00160] To illustrate the implementation of these techniques, the present inventors present an example of pseudocode for estimating parameters in a "sub-fragment angle and spacing matching" algorithm (also referred to as Algorithm 2A) and in a "sub-fragment phase matching" algorithm (also referred to as Algorithm 2B). As an example, the inventors also present pseudocode for determining distortions and correcting distortions in the estimated parameters for non-central sub-fragments compared to sub-fragments closest to the centre in a "final distortion calibration algorithm" (also referred to as Algorithm 1).
[00161] На ФИГ. 8А-8С показаны физические аспекты полного поля обзора (FOV). В одном варианте осуществления используют прямоугольный датчик размером 5472 пикселя на 3694 пикселя. Конечно, может быть использован квадратный или иного размера датчик, например 5472 × 5472 пикселя или 4800 × 4800 пикселей. При использовании прямоугольного датчика искажение больше всего к краям линзы. Линза часто бывает круглой, поэтому прямоугольный датчик не приближается к краю линзы на длинной стороне так близко, как на короткой стороне.[00161] FIGS. 8A-8C show the physical aspects of a full field of view (FOV). In one embodiment, a rectangular sensor of 5472 pixels by 3694 pixels is used. Of course, a square or other sized sensor can be used, such as 5472 x 5472 pixels or 4800 x 4800 pixels. When using a rectangular sensor, the distortion is greatest at the edges of the lens. The lens is often circular, so the rectangular sensor does not approach the edge of the lens on the long side as closely as on the short side.
[00162] На ФИГ. 8А представлены две иллюстрации, которые показывают искажение разноса интерференционных полос по всему полю обзора (FOV). Фигура 801 слева представляет собой упрощенное изображение 801 параллельных линий, изогнутых из-за искажения увеличивающей линзы. Изображенные линии должны быть параллельными в плоскости изображения. При просмотре через линзу они кажутся сходящимися на правом и левом концах по сравнению с разносом в центре. Фигура 805 справа представляет собой еще один преувеличенный пример. На этой фигуре интерференционные полосы ориентированы по диагонали между верхним левым и нижним правым углами. Разнос интерференционных полос преувеличен, чтобы было легче увидеть. Линии интерференционных полос сходятся в верхнем левом и нижнем правом углах относительно центра. Для линз конкретного изготовителя рисунок интерференционных полос может быть неоднородным.[00162] FIG. 8A provides two illustrations that show the distortion of the spacing of the interference fringes across the field of view (FOV). Figure 801 on the left is a simplified illustration 801 of parallel lines that are curved due to the distortion of a magnifying lens. The lines shown should be parallel in the image plane. When viewed through the lens, they appear to converge at the right and left ends compared to being spaced apart in the center. Figure 805 on the right is another exaggerated example. In this figure, the interference fringes are oriented diagonally between the upper left and lower right corners. The spacing of the interference fringes is exaggerated to make them easier to see. The interference fringe lines converge at the upper left and lower right corners relative to the center. For a particular manufacturer's lens, the interference fringe pattern may not be uniform.
[00163] На ФИГ. 8В и 8С изображены измерения разноса на изображении между номинально параллельными пиками интерференционных полос в плоскости изображения для освещения зеленым и синим лазерами. Цветная шкала указывает вариацию разноса между 2,08 и 2,22 (пикселя датчика). На обоих рисунках цветовая шкала указывает, что центральный разнос между параллельными линиями составляет приблизительно 2,14. Неоднородность при освещении с длиной волны зеленого света видна в верхнем правом углу на ФИГ. 8В. Более существенная неоднородность при освещении с длиной волны синего света видна на ФИГ. 8С вдоль правого и левого краев. На этих фигурах рисунок интерференционных полос представляет собой ряд параллельных линий из нижнего левого угла в верхний правый угол фигур. Таким образом, разнос измеряют в нормальном положении относительно общего направления стрелки на ФИГ. 8С. Эти фигуры обосновывают коррекцию искажений, вызываемых линзой. Поскольку линзы изготавливают и устанавливают индивидуально, после сборки желательна калибровка и коррекция отдельных систем.[00163] FIGS. 8B and 8C illustrate measurements of the image spacing between nominally parallel fringe peaks in the image plane for green and blue laser illumination. The color scale indicates the variation in spacing between 2.08 and 2.22 (sensor pixels). In both figures, the color scale indicates that the central spacing between parallel lines is approximately 2.14. Non-uniformity for green wavelength illumination is visible in the upper right corner of FIG. 8B. More significant non-uniformity for blue wavelength illumination is visible in FIG. 8C along the right and left edges. In these figures, the fringe pattern is a series of parallel lines from the lower left corner to the upper right corner of the figures. Thus, the spacing is measured in a normal position relative to the general direction of the arrow in FIG. 8C. These figures substantiate the correction for lens-induced distortions. Since lenses are manufactured and installed individually, calibration and correction of individual systems is desirable after assembly.
[00164] ФИГ. 8В в оттенках серого иллюстрирует три концептуальных контурных овала с основной осью вдоль диагональной поверхности из левого верхнего в правый нижний угол. Линии контура приблизительно указывают области с разным разнесением между параллельными линиями. В предварительной заявке на приоритет с цветными чертежами на цветной схеме более детально прорисованы оцененные вариации. Рисунок интерференционных полос представляет собой ряд параллельных линий под углом 45° из левого нижнего угла в правый верхний угол фигуры. Разнесение между параллельными линиями увеличивается в центральной зоне, как показано более светлым оттенком серого. При переходе от центральной зоны к правому верхнему или левому нижнему участкам разнесение между линиями интерференционных полос уменьшается. Основные оси трех контурных линий приблизительно перпендикулярны направлению линий интерференционных полос. Расстояние между размерами уменьшается по мере выхода из области в центральной контурной линии. ФИГ. 8С серого цвета также содержит контурные линии. Контурные линии на ФИГ. 8С имеют такое же значение, как описано выше, и указывают области с разными диапазонами искажений между разносами.[00164] FIG. 8B in grayscale illustrates three conceptual contour ovals with the main axis along the diagonal surface from the upper left to the lower right corner. The contour lines approximately indicate areas of different spacing between the parallel lines. In the provisional priority application with color drawings, the evaluated variations are drawn in more detail on the color scheme. The interference fringe pattern is a series of parallel lines at an angle of 45° from the lower left corner to the upper right corner of the figure. The spacing between the parallel lines increases in the central area, as shown by the lighter shade of gray. As one passes from the central area to the upper right or lower left areas, the spacing between the interference fringe lines decreases. The main axes of the three contour lines are approximately perpendicular to the direction of the interference fringe lines. The distance between the dimensions decreases as one exits the area in the central contour line. FIG. 8C in grayscale also contains contour lines. The contour lines in FIG. 8C have the same meaning as described above and indicate areas with different distortion ranges between spacings.
[00165] На ФИГ. 8D показаны субфрагменты или субполя полного поля обзора (FOV) на фрагменте изображения. На этой фигуре показан субфрагмент размером 512 пикселей на 512 пикселей. Эти субфрагменты могут разбивать поле обзора, как показано, или могут перекрываться. Субфрагменты могут быть больше или меньше. Например, было показано, что можно работать с субфрагментами 400 × 400 и 1024 × 1024. На фигуре показано 5×7 субфрагментов. Более крупный датчик, названный выше, может иметь 8 × 11 субфрагментов. Могут быть использованы другие конфигурации субфрагментов, такие как 3 × 3, 5 × 5, 5 × 7, 9 × 9, 9 × 16. Более крупные датчики могут быть разделены на большее количество субфрагментов. Субфрагменты могут перекрываться по меньшей мере 2 пикселями оптического датчика. Для перекрытия между субфрагментами можно использовать большее и меньшее количество пикселей. Например, для субфрагмента шириной 512 пикселей можно использовать перекрытие вплоть до 256 пикселей, а для субфрагмента шириной 1024 пикселя можно использовать перекрытие вплоть до 256 пикселей. В соответствии с ФИГ. 8В и 8С существуют несколько потенциально пригодных близких к центру субфрагментов 803, причем все они находятся в зоне наилучшего восприятия линзы, включая центральный субфрагмент в массиве субфрагментов с нечетным количеством строк и столбцов. Используемый в настоящем документе ближайший к центру субфрагмент включает центральный пиксель датчика или примыкает к субфрагменту, который включает центральный пиксель. В некоторых оптических системах, которые являются плоскими и имеют малую ошибку, субфрагмент, находящийся дальше от субфрагментов, смежных с центральным субфрагментом, может быть использован в качестве опорного без оказания влияния на общую компенсацию искажения.[00165] FIG. 8D shows sub-tiles or sub-fields of a full field of view (FOV) in a fragment of an image. This figure shows a sub-tile of 512 pixels by 512 pixels. These sub-tiles may split the field of view as shown, or may overlap. The sub-tiles may be larger or smaller. For example, it has been shown that it is possible to work with sub-tiles of 400 x 400 and 1024 x 1024. The figure shows 5 x 7 sub-tiles. The larger sensor mentioned above may have 8 x 11 sub-tiles. Other sub-fragment configurations may be used, such as 3 x 3, 5 x 5, 5 x 7, 9 x 9, 9 x 16. Larger sensors may be divided into more sub-fragments. The sub-fragments may overlap by at least 2 pixels of the optical sensor. More and fewer pixels may be used for the overlap between the sub-fragments. For example, for a sub-fragment with a width of 512 pixels, an overlap of up to 256 pixels may be used, and for a sub-fragment with a width of 1024 pixels, an overlap of up to 256 pixels may be used. According to FIGS. 8B and 8C, there are several potentially suitable sub-fragments 803 near the center, all of which are in the sweet spot of the lens, including the central sub-fragment in an array of sub-fragments with an odd number of rows and columns. As used herein, the sub-tile closest to the center includes the central pixel of the sensor or is adjacent to a sub-tile that includes the central pixel. In some optical systems that are flat and have a small error, a sub-tile further from the sub-tiles adjacent to the central sub-tile may be used as a reference without affecting the overall distortion compensation.
[00166] Описанная технология включает сопоставление искажения, измеренного практически по всему полному полю обзора, захватываемому датчиком. Три параметра, от которых зависит реконструкция SIM с улучшенным разрешением на основе правильно структурированного освещения, включают разнос интерференционных полос, угол интерференционных полос и фазовое смещение рисунка интерференционных полос. Эти переменные также называют разносом, углом и фазовым смещением рисунка структурированного освещения или решетки. Отклонения разноса и угла от значения центрального фрагмента могут быть аппроксимированы по всему полю обзора с использованием полиномиальных поверхностей. Были исследованы как квадратичные, так и кубические поверхности. Также можно использовать полиномиальные поверхности высшего порядка.[00166] The described technique involves matching a distortion measured over substantially the entire full field of view captured by the sensor. Three parameters that determine the resolution-enhanced SIM reconstruction based on properly structured illumination include the fringe spacing, the fringe angle, and the fringe pattern phase shift. These variables are also referred to as the spacing, angle, and phase shift of the structured illumination or grating pattern. The deviations of the spacing and angle from the value of the central patch can be approximated over the entire field of view using polynomial surfaces. Both quadratic and cubic surfaces have been investigated. Higher-order polynomial surfaces can also be used.
[00167] Как разнос интерференционных полос, так и угол интерференционных полос на фрагменте изображения могут быть аппроксимированы квадратичными поверхностями. Анализ чувствительности показывает, что квадратичные поверхности аппроксимируются очень близко, как и кубические поверхности. Квадратичная поверхность соответствует уравнению:[00167] Both the fringe spacing and the fringe angle on an image fragment can be approximated by quadratic surfaces. Sensitivity analysis shows that quadratic surfaces are approximated very closely, as are cubic surfaces. A quadratic surface corresponds to the equation:
В последующих циклах визуализации можно охарактеризовать сжатие или расширение разноса между центральным субфрагментом из-за изменений температуры и применить такую же коррекцию отклонения к остальной части изображения. В зависимости от сокращения и расширения вблизи центрального субфрагмента коррекция отклонения может быть изменена и перенесена соответствующим образом. Авторы наблюдали относительные отклонения в субфрагментах по отношению к центральному или ближайшему к центру субфрагменту, который используется в качестве эталона.In subsequent imaging runs, the compression or expansion of the spacing between the central sub-fragment due to temperature changes can be characterized and the same offset correction can be applied to the rest of the image. Depending on the contraction and expansion near the central sub-fragment, the offset correction can be modified and transferred accordingly. The authors observed relative offsets in the sub-fragments with respect to the central or closest sub-fragment, which is used as a reference.
[00168] ФИГ. 9 иллюстрирует изображение поверхности с цветовой кодировкой, которая соответствует измеренным точкам данных, показанным красным цветом. Так как это трехмерная поверхность, рекомендуется обратиться к цветной версии фигуры для понимания контуров. Темные участки на ФИГ. 9, показанные в оттенках серого, представляют темные цвета в верхней и нижней частях трехмерного графика. Например, темный правый верхний участок графика на ФИГ. 9 обозначает темно-красный цвет, а темный участок внизу обозначает синие цвета на цветном графике. В момент подачи приоритетной заявки USPTO (Ведомство США по патентам и товарным знакам) сохранило цветную версию на вкладке дополнительного содержимого онлайн-системы PAIR, где позднее она станет общедоступной.[00168] FIG. 9 illustrates a color-coded image of a surface that corresponds to measured data points shown in red. Since this is a three-dimensional surface, it is recommended to refer to the color version of the figure to understand the contours. The dark areas in FIG. 9, shown in grayscale, represent the dark colors at the top and bottom of the three-dimensional graph. For example, the dark upper right portion of the graph in FIG. 9 represents the dark red color, and the dark area at the bottom represents the blue colors in the color graph. At the time of filing of the priority application, the USPTO (United States Patent and Trademark Office) stored the color version in the additional content tab of the PAIR online system, where it will later be publicly available.
[00169] На практике было отмечено, что разность искажений в поле обзора может быть представлена в форме чаши или перевернутой чаши, в то время как искажение угла обычно представлено в форме седла. ФИГ. 10А и 10В в форме перевернутой чаши иллюстрируют измеренный разнос относительно разноса в субфрагменте, расположенном близко к центру. ФИГ. 12А и 12В в форме седла иллюстрируют измеренные углы относительно угла рисунка интерференционных полос в субфрагменте, расположенном близко к центру.[00169] In practice, it has been noted that the difference in distortion in the field of view can be represented in the form of a bowl or an inverted bowl, while the distortion of the angle is usually represented in the form of a saddle. FIGS. 10A and 10B in the form of an inverted bowl illustrate the measured spacing relative to the spacing in a sub-fragment located close to the center. FIGS. 12A and 12B in the form of a saddle illustrate the measured angles relative to the angle of the interference fringe pattern in a sub-fragment located close to the center.
[00170] На ФИГ. 10А и 10В ось х соответствует длине датчика. Ось у идет вдоль ширины датчика. Метки на оси х и оси у представляют собой индексы субфрагмента. Разнос по вертикальной оси нормализован до 1,000 разноса на оси z между регулярно разнесенными интерференционными полосами, наблюдаемыми в ближайшем к центру субфрагменте. На ФИГ. 10А показаны измеренные точки данных без сглаживания путем аппроксимации кривой. Это показывает изменение приблизительно в 1,2 процента по наблюдаемому разносу интерференционных полос между измерениями в центральном и правом нижнем участках датчика. На ФИГ. 10В фактические точки данных, показанные синим цветом, показаны в сравнении с квадратично аппроксимированной поверхностью. В следующем разделе авторы представляют измерение искажений разноса и угла для полного FOV в сравнении с ближайшим к центру субфрагментом. Черно-белые версии ФИГ. 10А и 10В имеют темные участки в верхней и нижней частях графиков. Темный оттенок в верхних частях представляет красный цвет, а темный оттенок в нижней части - синий цвет.[00170] In FIGS. 10A and 10B, the x-axis corresponds to the length of the sensor. The y-axis runs along the width of the sensor. The labels on the x-axis and y-axis are sub-section indices. The vertical axis spacing is normalized to 1.000 of the z-axis spacing between regularly spaced fringes observed in the near-center sub-section. FIG. 10A shows the measured data points without curve-fitting smoothing. This shows a change of approximately 1.2 percent in the observed fringe spacing between measurements in the center and lower right portions of the sensor. In FIG. 10B, the actual data points, shown in blue, are shown compared to a quadratically fitted surface. In the next section, the authors present the measurement of spacing and angle distortion for the full FOV compared to the near-center sub-section. Black and white versions of FIGS. 10A and 10B have dark areas at the top and bottom of the graphs. The dark shade at the top represents red, and the dark shade at the bottom represents blue.
Калибровка искажения разноса и углаCalibration of spacing and angle distortion
[00171] В данном разделе дополнительно описаны способы калибровки полного поля зрения (FOV) датчика, применяемые для захвата структурированного освещения и обеспечения соответствия функции нелинейных эффектов, вызванных искажением линзы. Структурированное освещение включает в себя проецирование рисунка с регулярным разнесением и наклоном на плоскость изображения. Фрагмент изображения - это захваченная часть проецированного рисунка структурированного освещения. Из полного поля обзора выбирают ближайший к центру субфрагмент. Измеряют разнос и угол субфрагмента, включая вариацию в самом субфрагменте. Затем определяют разнос и угол рисунка других субфрагментов в полном поле обзора. Разнос и угол рисунка в полном поле обзора выражают относительно разноса и угла рисунка ближайшего к центру субфрагмента. Многократно подгоняют полиномиальные поверхности к разносу и углу рисунка практически по всему полному полю обзора.[00171] This section further describes methods for calibrating the full field of view (FOV) of the sensor used to capture structured illumination and ensure that the function matches the nonlinear effects caused by lens distortion. Structured illumination includes projecting a pattern with a regular spacing and tilt onto an image plane. An image fragment is a captured portion of the projected structured illumination pattern. From the full field of view, a sub-fragment closest to the center is selected. The spacing and angle of the sub-fragment are measured, including the variation in the sub-fragment itself. The spacing and angle of the pattern of other sub-fragments in the full field of view are then determined. The spacing and angle of the pattern in the full field of view are expressed relative to the spacing and angle of the pattern of the sub-fragment closest to the center. Polynomial surfaces are repeatedly fitted to the spacing and angle of the pattern over substantially the entire full field of view.
[00172] На ФИГ. 11А, 11В и 11С приведено сравнение измеренного искажения разноса с аппроксимацией квадратичной и кубической поверхностей. Изменение цвета практически незаметно на трех фигурах, поскольку отклонение разноса в поле обзора меньше 2% на всех трех фигурах. Визуальный анализ этих фигур и расчет ошибок аппроксимации позволяют предположить, что квадратичная полиномиальная поверхность обеспечивает достаточно хорошую аппроксимацию искажения разноса. Сущность и методика настоящего описания охватывают полиномиальные поверхности высшего порядка и альтернативные схемы аппроксимации, которые могут давать несколько лучшие или худшие результаты, чем при использовании квадратичной полиномиальной поверхности. Черно-белые версии ФИГ. 11А, 11В и 11С включают темные тона в центральных участках, которые представляют темно-красный цвет, а внешние участки справа вверху и слева внизу имеют более светлые тона, которые представляют светло-красный цвет, переходящий в оранжевый и желтый вблизи границ.[00172] FIGS. 11A, 11B, and 11C show a comparison of the measured spread distortion with a quadratic and cubic surface approximation. The color change is virtually imperceptible in the three figures because the spread deviation in the field of view is less than 2% in all three figures. Visual analysis of these figures and calculation of the approximation errors suggest that the quadratic polynomial surface provides a reasonably good approximation of the spread distortion. The spirit and methodology of the present disclosure encompass higher-order polynomial surfaces and alternative approximation schemes that may provide somewhat better or worse results than using a quadratic polynomial surface. Black and white versions of FIGS. 11A, 11B, and 11C include dark tones in the central areas that represent deep red, while the outer areas at the top right and bottom left have lighter tones that represent light red, fading to orange and yellow near the borders.
[00173] ФИГ. 12А и 12В имеют одинаковую конфигурацию осей х и у с ФИГ. 10А и 10В. Вертикальная ось на этих фигурах указывает угол ориентации интерференционных полос, наблюдаемых в поле обзора. Номинальный угол можно принять за 45°. Диапазон измеренных углов составляет от 44,85 до 45,15 градуса, что представляет собой отклонение в 0,6%. На ФИГ. 12А показаны измеренные точки данных без сглаживания путем аппроксимации кривой. На ФИГ. 12В фактические точки данных, показанные синим цветом, показаны в сравнении с квадратично аппроксимированной поверхностью. Черно-белые версии ФИГ. 12А и 12В имеют темные участки в верхней и нижней частях графиков. Темные тона в верхней части обозначает темно-красный цвет, а темные тона в нижней части - темно-синий цвет.[00173] FIGS. 12A and 12B have the same x- and y-axis configuration as FIGS. 10A and 10B. The vertical axis in these figures indicates the orientation angle of the interference fringes observed in the field of view. The nominal angle can be taken as 45°. The range of measured angles is from 44.85 to 45.15 degrees, which represents a deviation of 0.6%. FIG. 12A shows the measured data points without smoothing by curve fitting. In FIG. 12B, the actual data points, shown in blue, are shown in comparison with the quadratically fitted surface. The black and white versions of FIGS. 12A and 12B have dark areas at the top and bottom of the graphs. The dark tones at the top represent dark red, and the dark tones at the bottom represent dark blue.
[00174] На ФИГ. 13А-13Е и 14 В-14Н показано, как обрезка вдоль границы датчика может улучшить аппроксимацию кривой для разноса и угла интерференционных полос в диапазоне датчика. Оси х и у графиков на этих фигурах представляют положения пикселей по длине и ширине датчика. Как показано на ФИГ. 8С, обрезка обозначена границей вблизи краев датчика. На фигуре показано, что эта обрезка или усадка удаляет искажение вблизи краев изображения, захваченного датчиком. На следующих фигурах показано, как это уменьшение изображения обеспечивает хорошую аппроксимацию данных FOV на модели поверхности. Коэффициент усадки или блок усадки могут быть равны усадке изображения на один шаг раздвижного окна. Значение шага может быть выбрано по размеру субфрагментов или эмпирическим путем на основании количества пикселей на краях датчика, которые могут вызывать искажение. Например, если выбран шаг в 200 пикселей, то один блок усадки может удалить внешние 200 пикселей данных изображения с низким качеством со всех сторон изображения. Можно использовать шаг менее 200 пикселей, например, 25, 50 или 100 пикселей, или более 200 пикселей, например 225, 250 или 300 пикселей.[00174] FIGS. 13A-13E and 14B-14H show how cropping along the boundary of the sensor can improve the curve approximation for the spacing and angle of the interference fringes in the range of the sensor. The x- and y-axes of the graphs in these figures represent the positions of the pixels along the length and width of the sensor. As shown in FIG. 8C, cropping is indicated by the boundary near the edges of the sensor. The figure shows that this cropping or shrinkage removes distortion near the edges of the image captured by the sensor. The following figures show how this image reduction provides a good approximation of the FOV data on the surface model. The shrinkage factor or shrinkage unit can be equal to the shrinkage of the image by one step of the sliding window. The step value can be selected based on the size of the sub-fragments or empirically based on the number of pixels at the edges of the sensor that can cause distortion. For example, if a step of 200 pixels is selected, one shrink block can remove the outer 200 pixels of low-quality image data from all sides of the image. You can use a step of less than 200 pixels, such as 25, 50, or 100 pixels, or more than 200 pixels, such as 225, 250, or 300 pixels.
[00175] На ФИГ. 13А синим пунктиром показана квадратичная поверхность модели для аппроксимации искажения разноса по данным изображения для полного поля обзора (FOV) без обрезки. Для этих данных изображения полного FOV не применяют коэффициент усадки, т.е. коэффициент усадки равен нулю. Как показано на ФИГ. 13А, данные полного FOV не обеспечивают хорошую аппроксимацию для модели. По мере увеличения коэффициента усадки от 1 до 4 (ФИГ. 13В-13Е) можно улучшить аппроксимацию между моделью и точками данных без обрезки. Поскольку обрезка устраняет внешние точки данных, шкала по оси z уменьшается, что указывает на меньшую вариацию среди субфрагментов. Как показано на ФИГ. 8С, внешние точки данных расположены вдоль краев датчика, где применяется обрезка. На ФИГ. 13С видно намного больше внешних точек данных, чем на ФИГ. 13D-E. Как показано на ФИГ. 13Е, значение MSE снизилось до 0,000001, а шкала по оси z опустилась немного ниже, чем на ФИГ. 13D. Черно-белые версии ФИГ. 13А-13Е, 14В-14Н, и 15А-15В имеют темные участки в верхней и нижней частях графиков. Темные тона в верхней части обозначают темные цвета в верхней и нижней частях графиков. Некоторые из этих графиков имеют светлые и темные окружности, расположенные на графиках или близко к ним. Светлые и темные цвета окружностей не указывают на какую-либо разницу между этими окружностями. Некоторые окружности изображены темным цветом для наглядности.[00175] In FIG. 13A, the blue dashed line shows a quadratic surface of a model for approximating the spacing distortion from the full field of view (FOV) image data without cropping. For this full FOV image data, no shrinkage factor is applied, i.e., the shrinkage factor is zero. As shown in FIG. 13A, the full FOV data does not provide a good approximation to the model. As the shrinkage factor increases from 1 to 4 (FIGS. 13B-13E), the approximation between the model and the uncropped data points can be improved. Since cropping eliminates outer data points, the z-axis scale decreases, indicating less variation among the sub-tiles. As shown in FIG. 8C, the outer data points are located along the edges of the sensor where cropping is applied. In FIG. 13C, many more outer data points are visible than in FIGS. 13D-E. As shown in FIG. 13E, the MSE value has decreased to 0.000001 and the z-scale has dropped slightly lower than in FIG. 13D. The black and white versions of FIGS. 13A-13E, 14B-14H, and 15A-15B have dark areas at the top and bottom of the graphs. The dark tones at the top represent the dark colors at the top and bottom of the graphs. Some of these graphs have light and dark circles located on or near the graphs. The light and dark colors of the circles do not indicate any difference between the circles. Some circles are shown dark for clarity.
[00176] ФИГ. 14В-14Н иллюстрируют улучшение квадратичной аппроксимации поверхности для углового искажения путем постепенного увеличения коэффициента усадки, примененного к данным изображения полного FOV. По мере увеличения коэффициента усадки шкала по оси z снова уменьшается, и массив точек данных смещается ближе к аппроксимированной поверхности. Исключение внешних искаженных значений по краям датчика значительно улучшает аппроксимацию поверхности. На ФИГ. 14В-Е искажение заметно по точкам данных синего цвета в плоскости ниже аппроксимированной поверхности. При увеличении коэффициента усадки с 1 (ФИГ. 14С) до 3 (ФИГ. 14Е) шкала по оси z уменьшается наполовину: с [-45, -20] до [-44, -40]. На ФИГ. 14F обрезка, в конечном итоге, позволяет сблизить точки данных и аппроксимированную поверхность. На ФИГ. 14F MSE снижается до 0,000033. В настоящем документе квадратичная модель поверхности для искажения угла соответствует измеренным данным, представленным в виде синих точек. На ФИГ. 14Н при увеличении коэффициента усадки на 6 улучшение незначительно. На фигурах коэффициент усадки 4 или более дает положительный результат. Для выбора коэффициента усадки или определения влияния коэффициентов усадки на разрешающую способность можно использовать пороговое значение на основании процентного или абсолютного улучшения MSE. Выбор коэффициента усадки может быть автоматизирован с использованием подхода, основанного на соотношении или пороговом значении.[00176] FIGS. 14B-14H illustrate an improvement in the quadratic surface approximation for angular distortion by gradually increasing the shrinkage factor applied to the full FOV image data. As the shrinkage factor increases, the z-scale is again reduced and the array of data points moves closer to the approximated surface. Eliminating the outer distorted values at the edges of the sensor significantly improves the surface approximation. In FIGS. 14B-E, the distortion is noticeable as blue data points in the plane below the approximated surface. As the shrinkage factor is increased from 1 (FIG. 14C) to 3 (FIG. 14E), the z-scale is reduced by half: from [-45, -20] to [-44, -40]. In FIG. 14F, the cropping eventually allows the data points and the approximated surface to be brought closer together. In FIG. 14F The MSE is reduced to 0.000033. In this paper, the quadratic surface model for the angle distortion is matched to the measured data, shown as blue dots. In FIG. 14H, increasing the shrinkage factor by 6 does not improve significantly. In the figures, a shrinkage factor of 4 or more gives a positive result. A threshold based on a percentage or absolute improvement in MSE can be used to select the shrinkage factor or to determine the effect of shrinkage factors on resolution. The selection of the shrinkage factor can be automated using a ratio-based or threshold-based approach.
[00177] Определение характеристик системы визуализации путем подбора поверхностей искажения может быть выполнено до и/или во время работы прибора. Периодически повторяют оценку разноса и угла рисунка в ближайшем к центру субфрагменте и с использованием экстраполированных факторов для определения разноса и угла рисунка в полном поле обзора. Коэффициенты экстраполяции могут быть применены без оценки разноса и угла рисунка за пределами ближайшего к центру субфрагмента. Субфрагменты полного поля обзора могут перекрывать друг друга. Во время калибровки разнос и угол рисунка рассчитывают независимо для перекрывающихся субфрагментов. При таком подходе можно использовать два угла ориентации для рисунка структурированного освещения, так чтобы два угла были практически выровнены с противоположными углами прямоугольного или четырехугольного рисунка нанолунок.[00177] Characterization of the imaging system by fitting distortion surfaces can be performed before and/or during operation of the instrument. The spacing and pattern angle are periodically evaluated in the sub-tile closest to the center and using extrapolated factors to determine the spacing and pattern angle in the full field of view. The extrapolation factors can be applied without evaluating the spacing and pattern angle beyond the sub-tile closest to the center. The sub-tiles of the full field of view can overlap each other. During calibration, the spacing and pattern angle are calculated independently for the overlapping sub-tiles. In this approach, two orientation angles can be used for the structured illumination pattern such that the two angles are substantially aligned with opposite corners of the rectangular or quadrangular nanowell pattern.
[00178] Таким образом, описанная технология включает калибровку и повторную калибровку прибора для определения вариации среди субфрагментов фрагмента. Характерное искажение разноса и углов применить таким образом, чтобы значительно уменьшить потребность в оценке параметров во время работы инструмента. Характерные значения/калибровку можно улучшить путем обрезки пикселей по краю датчика, которые настолько искажены, что не аппроксимируются на поверхности сопоставления, то есть обрезки пикселей, которые препятствуют аппроксимации.[00178] Thus, the described technology includes calibration and recalibration of the instrument to determine the variation among sub-fragments of the fragment. The characteristic distortion of the spacing and angles is applied in such a way as to significantly reduce the need for parameter estimation during the operation of the instrument. The characteristic values/calibration can be improved by cropping pixels at the edge of the sensor that are so distorted that they are not approximated on the matching surface, i.e., cropping pixels that prevent approximation.
Применение калиброванного разноса и углаUsing calibrated spacing and angle
[00179] Описанная технология позволяет эффективно реконструировать улучшенное изображение практически по всей площади полного поля обзора. Для этой цели полное поле обзора разделяют по меньшей мере на девять субфрагментов или субполей для независимой реконструкции на основе субфрагмента. Можно оценить или получить предварительно оцененные параметры разноса и параметры угла рисунка, просматривая рисунок структурированного освещения с регулярным разносом и углом для ближайшего к центру субфрагмента. Для переноса параметров ближайшего к центру субфрагмента на другие субфрагменты в поле обзора применяют экстраполированные коэффициенты. Для выполнения улучшенной реконструкции изображения из множества изображений используются параметры оценки ближайшего к центру субфрагмента и экстраполированные параметры, других субфрагментов. Множество изображений просматривают под множеством углов рисунка в периодически смещающихся фазах рисунка соответствующих углов рисунка путем применения анализа микроскопии структурированного освещения (SIM) к множеству изображений. В одном варианте реализации описанная выше технология позволяет дополнительно оценивать периодическое смещение рисунка фаз соответствующих углов рисунка. Описанная выше технология может быть расширена для объединения субфрагментов путем выявления регулярного рисунка шума вдоль границ объединения и устранения шума.[00179] The described technology allows for efficient reconstruction of an improved image over virtually the entire area of a full field of view. For this purpose, the full field of view is divided into at least nine sub-fragments or sub-fields for independent reconstruction based on the sub-fragment. It is possible to estimate or obtain pre-estimated spacing parameters and pattern angle parameters by viewing a structured illumination pattern with a regular spacing and angle for the sub-fragment closest to the center. Extrapolated coefficients are used to transfer the parameters of the sub-fragment closest to the center to other sub-fragments in the field of view. To perform an improved image reconstruction from a plurality of images, the estimation parameters of the sub-fragment closest to the center and the extrapolated parameters of the other sub-fragments are used. The plurality of images are viewed under a plurality of pattern angles in periodically shifting phases of the pattern of the corresponding pattern angles by applying structured illumination microscopy (SIM) analysis to the plurality of images. In one embodiment, the above-described technology allows for additionally estimating a periodic shift in the phase pattern of the corresponding pattern angles. The above technique can be extended to merge sub-fragments by identifying a regular noise pattern along the merge boundaries and removing the noise.
[00180] На ФИГ. 15А и 15В представлены примеры моделей искажения, аппроксимированные из реальных данных, которые были собраны с приборов секвенирования. Фиг. 15А иллюстрирует квадратичную аппроксимацию реакционной поверхности, полученную путем аппроксимации искажения разноса интерференционных полос в полном поле обзора (FOV). Фиг. 15В иллюстрирует квадратичную аппроксимацию реакционной поверхности, полученную путем аппроксимации искажения угла интерференционных полос в FOV.[00180] FIGS. 15A and 15B illustrate examples of distortion models fitted from real data that was collected from sequencing instruments. FIG. 15A illustrates a quadratic fit to a reaction surface obtained by fitting the distortion of the spacing of interference fringes in a full field of view (FOV). FIG. 15B illustrates a quadratic fit to a reaction surface obtained by fitting the distortion of the angle of interference fringes in the FOV.
Оценка фазового смещенияEstimation of phase shift
[00181] Фазовое смещение - это оставшийся, третий входной параметр для реконструкции изображения SIM. В этом разделе существующие методики адаптируются для оценки фазового смещения. Описанная технология позволяет выполнить оценку по субфрагментам, поэтому дополнительно разработана методика установления общих критериев для оценки фазового смещения по субфрагментам относительно фрагмента полного FOV. В одном варианте реализации оценки фазы использована методика, предложенная Wicker et al. 2013 г. в их статье, озаглавленной Phase optimisation for structured illumination microscopy, раздел 3. Уравнения из статьи Lal et al. 2015 г. под названием Structured illumination microscopy image reconstruction algorithm и статьи Wicker et. al. 2013 r. позволяют лучше понять оценку фазы по Уикеру.[00181] The phase shift is the remaining, third input parameter for the SIM image reconstruction. In this section, existing techniques are adapted to estimate the phase shift. The described technology allows for sub-fragment based estimation, so a technique is additionally developed to establish common criteria for sub-fragment based phase shift estimation relative to a full FOV fragment. One embodiment of the phase estimation uses the technique proposed by Wicker et al. 2013 in their paper entitled Phase optimisation for structured illumination microscopy, section 3. The equations from Lal et al. 2015 entitled Structured illumination microscopy image reconstruction algorithm and Wicker et. al. 2013 provide a better understanding of the Wicker phase estimation.
[00182] Нижеприведенное уравнение (3), взятое из статьи Lal et al. 2015 г., разделяет три полосы частотных компонентов: из полученных изображений Матрица смешивания использует оценки фаз φ1, φ2 и φ3 изображений, захваченных с использованием рисунка с синусоидальной интенсивностью освещения Iθ,Ф (r), соответствующие углу или ориентации рисунка, равным θ. Wicker et. al. 2013 г. имеется ссылка на фазу для nго изображения в ориентации φn. Если фазы не известны с достаточной точностью, процесс устранения смешивания или разделения полосы не идеально разделит компоненты пространственной частоты на основании наблюдаемых изображений в частотной области. На практике три пространственно-частотные компонента в той или иной мере будут содержать остаточную информацию из других компонентов, что обозначается термином «шум».[00182] The following equation (3), taken from Lal et al. 2015, separates the three frequency component bands: from the obtained images The mixing matrix uses estimates of the phases φ 1 , φ 2 , and φ 3 of images captured using a pattern with sinusoidal illumination intensity I θ,Ф (r) corresponding to the angle or orientation of the pattern equal to θ. Wicker et al. 2013 refer to the phase for the nth image at orientation φ n. If the phases are not known with sufficient accuracy, the process of demixing or band splitting will not perfectly separate the spatial frequency components based on the observed images in the frequency domain. In practice, three spatial-frequency components to one degree or another will contain residual information from other components, which is referred to as “noise”.
Это выражение с тремя составляющими вытекает из преобразования Фурье для синусоидального или косинусоидального освещения. Другие функции освещения могут изменять эти уравнения.This three-component expression follows from the Fourier transform for sine or cosine illumination. Other lighting functions may modify these equations.
[001831 Поэтому важна информация о фазах рисунка с синусоидальной интенсивностью освещения. Поскольку не всегда возможно точно управлять этими фазами в экспериментальной установке, желательно определять фазы рисунка освещения из полученных данных изображения. Wicker et. al. 2013 г. представили методику оценки фазы для данных SIM, полученных с использованием когерентного синусоидального освещения при выбранной частоте. Когерентное освещение дает хорошую контрастность рисунка от решеток с очень маленьким разносом пика освещения «s», который улучшает разрешение при реконструкции. Восстановлена фазу рисунка освещения nго изображения, с использованием пиковой частоты рисунка освещения. Пиковую частоту рисунка освещения также называют пиком Фурье.[001831 Therefore, information about the phases of the illumination pattern with sinusoidal illumination intensity is important. Since it is not always possible to precisely control these phases in the experimental setup, it is desirable to determine the phases of the illumination pattern from the acquired image data. Wicker et. al. 2013 presented a phase estimation technique for SIM data acquired using coherent sinusoidal illumination at a selected frequency. Coherent illumination gives good pattern contrast from gratings with a very small illumination peak spacing "s", which improves the resolution in the reconstruction. The phase of the illumination pattern of the nth image is reconstructed using the peak frequency of the illumination pattern. The peak frequency of the illumination pattern is also called the Fourier peak.
[00184] Нижеприведенное уравнение (4) из статьи Wicker et. al. 2013 г., представляет обобщенную форму уравнения (3) с полученными изображениями по всем частотам в частотной области. Каждое изображение содержит три компонента, обозначенные наложенные с разными фазами. Следует отметить, что указанные три компонента являются теми же компонентами, что и в уравнении (4).[00184] The following equation (4) from the paper by Wicker et. al. 2013 represents a generalized form of equation (3) with the resulting images across all frequencies in the frequency domain. Each image contains three components, labeled superimposed with different phases. It should be noted that these three components are the same as in equation (4).
[00185] Следует отметить, что «с» в уравнении (4) называют контрастностью рисунка освещения. При отсутствии шума «с» совпадает с коэффициентом «m» модуляции в матрице М смешивания в уравнении (3). Чтобы определить φn, частоту в уравнении (4) заменяют на которое представляет собой пиковую частоту рисунка освещения, получаемую из уравнения (5).[00185] It should be noted that "c" in equation (4) is called the contrast of the illumination pattern. In the absence of noise, "c" coincides with the modulation coefficient "m" in the mixing matrix M in equation (3). To determine φ n , the frequency in equation (4) is replaced by which is the peak frequency of the illumination pattern obtained from equation (5).
[00186] Уравнение (5) показывает, что фаза рисунка φn приблизительно равна фазе полученного изображения на частоте Эта приблизительная оценка фазы рисунка φn может давать хорошие результаты при соблюдении трех рекомендаций. Во-первых, контрастность «с» рисунка освещения должна быть достаточно высокой. Во-вторых, спектральная мощность образца должна быстро убывать с ростом частоты. Когда эти две рекомендации соблюдены, в уравнении (5) преобладает последний член, и поэтому его можно упростить:[00186] Equation (5) shows that the phase of the pattern φ n is approximately equal to the phase of the resulting image on frequency This rough estimate of the pattern phase φ n can give good results if three recommendations are observed. First, the contrast "c" of the illumination pattern should be sufficiently high. Second, the spectral power of the sample should decrease rapidly with increasing frequency. When these two recommendations are observed, the last term in equation (5) dominates and can therefore be simplified:
Для любого вещественнозначного образца центральная частота будет вещественнозначной. Кроме того, если функция рассеяния точки (PSF) является вещественной и симметричной, то оптическая передаточная функция (OTF) будет вещественной. OTF является сверткой функции рассеяния точки (PSF). Функция рассеяния точки представляет собой версию оптической передаточной функции системы визуализации в пространственной области. Название «функция рассеяния точки» указывает на то, что все физические оптические системы размывают (рассеивают) точку света в некоторой степени, причем величина размытия определяется качеством оптических компонентов. Разрешение системы формирования изображения ограничивается размером PSF. Для асимметричных PSF следует учитывать фазы OTF.For any real-valued sample, the central frequency is will be real-valued. Furthermore, if the point spread function (PSF) is real and symmetric, then the optical transfer function (OTF) will be real. The OTF is a convolution of the point spread function (PSF). The point spread function is the spatial domain version of the optical transfer function of the imaging system. The name "point spread function" indicates that all physical optical systems blur (spread) a point of light to some extent, with the amount of blur determined by the quality of the optical components. The resolution of the imaging system is limited by the size of the PSF. For asymmetric PSFs, the phases of the OTF must be taken into account.
[00187] В-третьих, OTF при частоте рисунка должна быть достаточно большой, чтобы преодолевать шум. Если OTF слишком маленькая, шум в получаемом изображении может значительно изменять фазу, измеряемую при Этот способ оценки фазы не может быть использован для частот рисунка вне пределов поддержки обнаружения OTF. Для таких частот [00187] Third, OTF at pattern frequency must be large enough to overcome the noise. If the OTF is too small, the noise in the resulting image can significantly alter the phase measured at This method of phase estimation cannot be used for frequencies. pattern beyond the OTF detection support limits. For such frequencies
[00188] OTF оптической системы может быть определена экспериментально. Например, Lal et al. 2015 г. вычисляют OTF путем получения нескольких изображений образцов с помощью пространственно распределенных флуоресцентных микросфер размером 100 нм. Затем распределение интенсивности, соответствующее более чем 100 микросферам, накладывали и усредняли для получения аппроксимации для PSF системы. Преобразование Фурье этой PSF дает оценку OTF системы. С этой целью можно применять методику оценки фазы, описанную для субфрагментов.[00188] The OTF of an optical system can be determined experimentally. For example, Lal et al. (2015) calculated the OTF by acquiring multiple images of samples using spatially distributed 100 nm fluorescent microspheres. The intensity distribution corresponding to more than 100 microspheres was then superimposed and averaged to obtain an approximation for the PSF of the system. The Fourier transform of this PSF yields an estimate of the OTF of the system. The phase estimation technique described for sub-fragments can be used for this purpose.
Перенос фаз субфрагментов на общие критерииTransfer of subfragment phases to common criteria
[00189] Может быть полезным оценить фазовый сдвиг фрагментов относительно всего поля обзора (FOV), так что измерение фазы в одном субфрагменте можно экстраполировать на другие субфрагменты во фрагменте. Угол пика освещения и разнос пика освещения для полного FOV можно оценивать на основании угла пика освещенности и разноса пика освещенности субфрагмента с использованием квадратичных моделей, представленных выше. Фазовое смещение может быть менее регулярным, поскольку оно зависит от геометрии пикселей субфрагмента, которые могут давать функцию с неравномерным шагом вместо сглаженной функции. Каждая фазовая оценка имеет «критерий», закрепленный с левым верхним углом изображения, используемого для оценки фазы. В результате, если требуется исправить различия в фазе геометрически по всему изображению, то фазы, оцененные по каждому субфрагменту, необходимо сравнивать с эталонной фазой (из центрального субокна или субфрагмента оценки) в общем критерии. Оценку фазы каждого субфрагмента переносят в одно и то же геометрическое местоположение для достижения общего критерия. Для переноса фазы требуется точная оценка угла и разноса интерференционных полос для каждого субфрагмента. Угол и разнос интерференционных полос могут быть получены из моделей искажения квадратичной поверхности, которые были откалиброваны в результате процесса калибровки искажений.[00189] It may be useful to estimate the phase shift of the tiles relative to the entire field of view (FOV), so that the phase measurement in one subtile can be extrapolated to other subtiles in the tile. The illumination peak angle and illumination peak spacing for the entire FOV can be estimated from the illumination peak angle and illumination peak spacing of the subtile using the quadratic models presented above. The phase shift may be less regular since it depends on the geometry of the subtile pixels, which may yield a function with an uneven step instead of a smooth function. Each phase estimate has a "criterion" anchored to the upper left corner of the image used for the phase estimate. As a result, if it is desired to correct for phase differences geometrically across the entire image, the phases estimated from each subtile need to be compared to a reference phase (from the central subwindow or estimation subtile) in a common criterion. The phase estimate of each sub-patch is transferred to the same geometric location to achieve a common criterion. The phase transfer requires an accurate estimate of the fringe angle and spacing for each sub-patch. The fringe angle and spacing can be obtained from quadratic surface distortion models that have been calibrated by the distortion calibration process.
[00190] Оценку фаз обозначают с помощью общих критериев по всем субфрагментам изображения полного FOV. Пространство координат субфрагментов сопоставляют с пространством координат полного FOV. В этом разделе проиллюстрирован перенос точек координат из одного пространства в другое. На ФИГ. 16А представлена общая настройка окна субфрагмента в окне изображения полного FOV и соответствующих переменных, а также скорректированная формула фазового смещения, которая переносит координаты между локальным и общим эталонами. На ФИГ. 16А показана граница 1603, представляющая полное поле обзора, которое содержит субфрагмент, показанный границей 1605. Угол обрезки а определяется линией 1606, соединяющей левый верхний угол окна 1603 полного FOV и левый верхний угол окна 1605 субфрагмента. Длина линии 1606 измеряется в пикселях и обозначается «а».[00190] The phase estimation is specified using common criteria across all sub-tiles of the full FOV image. The coordinate space of the sub-tiles is mapped to the coordinate space of the full FOV. This section illustrates the transfer of coordinate points from one space to another. FIG. 16A shows a common setting of a sub-tile window in a full FOV image window and the corresponding variables, as well as an adjusted phase shift formula that transfers coordinates between local and common references. FIG. 16A shows a boundary 1603 representing a full field of view that contains a sub-tile shown by boundary 1605. The cropping angle a is defined by a line 1606 connecting the upper left corner of the full FOV window 1603 and the upper left corner of the sub-tile window 1605. The length of the line 1606 is measured in pixels and is denoted by " a ".
[00191] Угол пика освещения β образуется между верхней границей датчика, окном 1603 и линией 1607, перпендикулярной линии пика интерференционной полосы 1609 в левом верхнем углу окна 1605 субфрагмента. Эта линия пика интерференционной полосы будет параллельна фактическим пикам интерференционной полосы и, вероятно, будет смещена от пиков. Длина линии 1607 от левого верхнего угла 1603 до 1609 представляет собой проецируемое расстояние «b». Разность фаз φ между левыми верхними углами фрагмента 1603 и субфрагмента 1605 представляет собой функцию разноса «s» и расстояние «b». В формуле (7) разнос пика освещения представлен как «s» в пикселях, а фаза - в градусах:[00191] The illumination peak angle β is formed between the upper boundary of the sensor, window 1603, and a line 1607 perpendicular to the fringe peak line 1609 in the upper left corner of the sub-fragment window 1605. This fringe peak line will be parallel to the actual fringe peaks and will likely be offset from the peaks. The length of the line 1607 from the upper left corner 1603 to 1609 is the projected distance "b". The phase difference φ between the upper left corners of fragment 1603 and sub-fragment 1605 is a function of the spacing "s" and the distance "b". In formula (7), the illumination peak spacing is represented as "s" in pixels, and the phase is in degrees:
Эта формула выведена и описана ниже. Она может быть применена для переноса фазового смещения из координат субфрагмента в координаты полного FOV. Перенос между системами координат показан в двух следующих примерах.This formula is derived and described below. It can be used to transfer the phase shift from the sub-fragment coordinates to the full FOV coordinates. The transfer between coordinate systems is shown in the following two examples.
[00192] При реконструкции SIM одномерная (1D) решетка может быть описана с помощью функции интенсивности, например:[00192] In SIM reconstruction, a one-dimensional (1D) lattice can be described using an intensity function, such as:
где параметры имеют следующее значение:where the parameters have the following meaning:
• М - глубина модуляции;• M – modulation depth;
• s - разнос фазы освещения;• s - lighting phase shift;
• - единичный вектор;• - unit vector;
• β - угол пика освещения.• β - peak angle of illumination.
[00193] Выделенные значения х, u в уравнении - это векторы: х - это вектор в пространстве изображения, выражающий положение в пространстве изображения, в котором определяется интенсивность; u - это единичный вектор. Значения интенсивности синусоидального освещения являются положительными в масштабном диапазоне от +М (яркого) до -М (темного).[00193] The highlighted values x, u in the equation are vectors: x is a vector in image space expressing the position in image space at which the intensity is determined; u is a unit vector. Sinusoidal illumination intensity values are positive over a scale range from +M (bright) to -M (dark).
[00194] Когда разность фазового смещения между субфрагментами охарактеризована, необходимо оценить только фазовое смещение в ближайших к центру субфрагментах, поскольку фазовые смещения других субфрагментов могут быть экстраполированы из ближайшего к центру субфрагмента.[00194] Once the phase shift difference between sub-fragments is characterized, it is only necessary to estimate the phase shift in the sub-fragments closest to the center, since the phase shifts of the other sub-fragments can be extrapolated from the sub-fragment closest to the center.
[00195] Следующие расчеты относятся к оценке фазового смещения φ. Вместо оценки фазового смещения с помощью данных полного изображения (полного FOV) можно использовать данные только из фрагмента изображения. Смещение фазы субфрагмента связано с фазовым смещением полного FOV, но не идентично ему. Для восстановления фазового смещения полного FOV по фазовому смещению субфрагмента необходимо определить, как изменяются фазовые смещения при пространственном переносе. Следующая математическая модель представляет собой этот пространственный перенос с субфрагмента на полное FOV.[00195] The following calculations relate to the estimation of the phase shift φ. Instead of estimating the phase shift using the full image (full FOV) data, it is possible to use data from only a sub-image. The phase shift of a sub-image is related to, but not identical to, the phase shift of the full FOV. To reconstruct the phase shift of the full FOV from the phase shift of a sub-image, it is necessary to determine how the phase shifts change during spatial translation. The following mathematical model represents this spatial translation from a sub-image to the full FOV.
Деривация трансформации координатDerivation of coordinate transformation
[00196] Рассмотрим следующую функцию, которая генерирует линии решетки в ориентации показанной на ФИГ. 16А. Двумерное (2D) пространство полного FOV представлено пространством координат Ох с координатами (х1,х2), как показано на ФИГ. 16В. Точка 1611 представлена положением (х1,х2) относительно Ох. Функцию f(x1,х2) можно определить ниже, как показано в уравнении (9). Эту функцию можно использовать для создания линий рисунка освещения в ориентации, показанной на ФИГ. 16А.[00196] Consider the following function that generates the grid lines in the orientation shown in FIG. 16A. The two-dimensional (2D) space of the full FOV is represented by the coordinate space Ox with coordinates ( x1 , x2 ), as shown in FIG. 16B. The point 1611 is represented by the position ( x1 , x2 ) relative to Ox . The function f( x1 , x2 ) can be defined below, as shown in equation (9). This function can be used to generate the lines of the illumination pattern in the orientation shown in FIG. 16A.
[00197] Одномерная периодичность вышеописанной функции ƒ представлена функцией в уравнении (10). Как показано на ФИГ. 16А, эта функция представляет собой повторение линий рисунка освещения, проходящих вдоль линии 1607 на ФИГ. 16А, которая перпендикулярна линиям рисунка освещения. Эта функция может определять разнос «s» между двумя линиями путем определения положения, в котором повторяется конкретное значение интенсивности. В уравнении (10) показана периодичность интенсивности рисунка освещения. В уравнении (10) линия, перпендикулярная пикам интенсивности, имеет угол 45 градусов, проходящий вниз и вправо от левого верхнего угла, поэтому интенсивность в точке (x1,x2) повторяют в следующей точке вниз и вправо вдоль линии 1607.[00197] The one-dimensional periodicity of the above-described function ƒ is represented by the function in equation (10). As shown in FIG. 16A, this function is the repetition of the lines of the illumination pattern that extend along line 1607 in FIG. 16A, which is perpendicular to the lines of the illumination pattern. This function can determine the spacing "s" between two lines by determining the position at which a particular intensity value is repeated. Equation (10) shows the periodicity of the intensity of the illumination pattern. In equation (10), the line perpendicular to the intensity peaks has an angle of 45 degrees extending downward and to the right from the upper left corner, so the intensity at point (x 1 ,x 2 ) is repeated at the next point down and to the right along line 1607.
[00198] Пространство пика освещения «s», определяемое вышеописанной функцией, показано в уравнении (11). Для удобства систему координат можно масштабировать для соответствия разносу рисунка освещения, как показано в уравнении (11).[00198] The illumination peak space "s" defined by the above function is shown in equation (11). For convenience, the coordinate system can be scaled to match the spacing of the illumination pattern, as shown in equation (11).
[00199] Угол пика освещения определяется уравнением (12). Угол пика освещения формируется между верхней границей (горизонтальной линией) полного FOV и линией, перпендикулярной линиям рисунка освещения, как показано на ФИГ. 16А. Уравнение (12) показывает этот угол -45 градусов для рисунка структурированного освещения, генерируемого функцией периодичности 1D в уравнении (9).[00199] The peak angle of illumination is defined by equation (12). The peak angle of illumination is formed between the upper boundary (horizontal line) of the full FOV and the line perpendicular to the lines of the illumination pattern, as shown in FIG. 16A. Equation (12) shows this angle of -45 degrees for the structured illumination pattern generated by the 1D periodicity function in equation (9).
[00200] Нулевой набор линий рисунков, образованных функцией периодичности из уравнения (9) представляет собой соединение линий и представлено уравнением (13).[00200] The zero set of lines of the patterns formed by the periodicity function from equation (9) is a connection of lines and is represented by equation (13).
[00201] Нулевой набор содержит линии рисунка структурированного освещения, расположенные на расстоянии «s» друг от друга. Линии рисунков образованы точками, в которых значение функции 1D ƒ(x1, x2) в уравнении (9) равно нулю. Единичный вектор, перпендикулярный решетке, определяется уравнением (14).[00201] The zero set contains the lines of the structured illumination pattern, located at a distance "s" from each other. The lines of the patterns are formed by the points at which the value of the 1D function ƒ(x 1 , x 2 ) in equation (9) is zero. The unit vector perpendicular to the grating is defined by equation (14).
[00202] Теперь предлагаем два примера переноса фазового смещения субфрагмента из пространства координат Оу субфрагмента, определенного координатами (y1,у2), в пространство координат Ох полного FOV На ФИГ. 16В показана точка 1611, которая может быть представлена в координатах субфрагмента вектором выходящим из левого верхнего угла окна 1605 субфрагмента. Одна и та же точка 1611 может быть представлена в координатах полного FOV вектором выходящим из левого верхнего окна 1603 для изображения полного FOV. Вектор соединяет левый верхний угол окна 1603 изображения полного FOV с окном 1605 субфрагмента, как показано на ФИГ. 16В. В следующих разделах предложены примеры положения точки 1611, которую можно перенести из одной системы координат в другую.[00202] Now we offer two examples of transferring the phase shift of a subfragment from the coordinate space O y of the subfragment defined by the coordinates (y 1 ,y 2 ) to the coordinate space O x of the full FOV. FIG. 16B shows a point 1611, which can be represented in the coordinates of the subfragment by the vector coming out of the upper left corner of the subfragment window 1605. The same point 1611 can be represented in the coordinates of the full FOV by the vector coming out of the top left window 1603 for a full FOV image Vector connects the upper left corner of the full FOV image window 1603 to the sub-fragment window 1605, as shown in FIG. 16B. The following sections provide examples of the position of a point 1611 that can be transferred from one coordinate system to another.
Первый примерFirst example
[00203] Пусть а=(а, -а)∈R2, представляет собой левый верхний угол субфрагмента 1605 на ФИГ. 16В. Это означает, что левый верхний угол субфрагмента 1605 смещен из левого верхнего угла окна 1603 полного FOV на расстояние «а» вдоль горизонтальной оси x1 и на расстояние «-а» вдоль вертикальной оси х2. Теперь переносим точку (x1,х2) из пространства координат Ох полного FOV в точку (y1,у2) в пространстве координат Оу субфрагмента. Рассмотрим изменение координат как:[00203] Let a=(a, -a)∈R 2 , represent the upper left corner of the sub-fragment 1605 in FIG. 16B. This means that the upper left corner of the sub-fragment 1605 is offset from the upper left corner of the full FOV window 1603 by a distance " a " along the horizontal x 1 axis and by a distance "- a " along the vertical x 2 axis. Now we translate the point (x 1 ,x 2 ) from the x -coordinate space of the full FOV to the point (y 1 ,y 2 ) in the y-coordinate space of the sub-fragment. Consider the change in coordinates as:
[00204] Теперь можно представить функцию 1D периодичности уравнения (10) в пространстве координат Оу субфрагмента как:[00204] Now we can represent the 1D periodicity function of equation (10) in the coordinate space of the Oy subfragment as:
[00205] Как видно, фазовое смещение, введенное путем изменения координат, задается как:[00205] As can be seen, the phase shift introduced by changing the coordinates is given by:
Второй примерSecond example
[00206] Теперь рассмотрим другое положение субфрагмента относительно левого верхнего угла окна полного FOV. Пусть а=(2а, -а)∈R2, в этом случае изменение координат, дано как:[00206] Now consider another position of the subfragment relative to the upper left corner of the full FOV window. Let a=(2a, -a)∈R 2 , in this case the change in coordinates is given by:
[00207] Функцию периодичности 1D из уравнения (10) теперь можно представить в пространстве координат Оу субфрагмента как:[00207] The 1D periodicity function from equation (10) can now be represented in the coordinate space Oy of the subfragment as:
[00208] В этом случае фазовое смещение, введенное путем изменения координат, задается как:[00208] In this case, the phase shift introduced by changing the coordinates is given by:
где (u, а) представляет собой скалярное произведение вектора u на вектор а. Скалярное произведение определяется как сумма соответствующих компонентов двух векторов.where (u, a ) is the scalar product of the vector u and the vector a . The scalar product is defined as the sum of the corresponding components of the two vectors.
Общий примерGeneral example
[00209] Теорема 1.[00209] Theorem 1.
Пусть s>0, φ0∈R, a u∈R2 - одиночный вектор. Рассмотрим функциюLet s>0, φ 0 ∈R, au∈R 2 be a single vector. Consider the function
a) Разнос «f» между решетками равен «s».a) The spacing "f" between the gratings is equal to "s".
b) Для любого а∈R2 существует φа∈R, таким образомb) For any a ∈R 2 there exists φ a ∈R, thus
[00210] Уравнение (21) показывает функцию периодичности относительно пространства координат Ох полного FOV и имеет фазовое смещение φ0. Уравнение (22) показывает функцию периодичности для пространства координат субфрагмента и имеет фазовое смещение φ0.[00210] Equation (21) shows the periodicity function with respect to the Ox coordinate space of the full FOV and has a phase shift of φ 0 . Equation (22) shows the periodicity function for the subfragment coordinate space and has a phase shift of φ 0 .
c) Любое смещение φа удовлетворяет уравнениюc) Any displacement φ a satisfies the equation
[00211] Доказательство (а) Разнос пика освещения представляет собой длину основного периода для ƒ. Вектор su представляет собой период длины с, поскольку[00211] Proof (a) The peak illumination spacing is the length of the fundamental period for ƒ. The vector su is a period of length c, since
Любой меньший период будет означать период менее 2π для синуса.Any smaller period would mean a period less than 2π for sine.
(b) Одно из решений:(b) One of the solutions:
посколькуbecause
с) Если sin(t-а)=sin(t-b) для всех t∈R, то c) If sin(t- a )=sin(tb) for all t∈R, then
[00212] Отношения, полученные выше, можно использовать для переноса фазового смещения, оцененного в первом пространстве координат, во второе пространство координат, например между субфрагментом и изображением полного FOV. Это полезно, поскольку фазовое смещение также подвергается искажению между ближайшим к центру субфрагментом и краем линзы. В следующем разделе авторы представляют справочную таблицу отклонения фазы, которая может охватывать взаимосвязь между значениями фазового смещения для нецентральных субфрагментов относительно центральных субфрагментов.[00212] The relationships obtained above can be used to transfer the phase shift estimated in the first coordinate space to a second coordinate space, for example between a sub-tile and the full FOV image. This is useful because the phase shift is also subject to distortion between the sub-tile closest to the center and the edge of the lens. In the next section, the authors present a phase deviation lookup table that can capture the relationship between the phase shift values for off-center sub-tiles relative to the center sub-tiles.
Оценка отклонения фазыPhase Deviation Estimation
[00213] Описанная технология включает оценку фазы для каждого субфрагмента с последующим переносом фазового смещения в систему координат полного FOV, чтобы представить спрогнозированные значения фазового смещения в общих критериях. Сохраняется разница между значениями фазового смещения для нецентральных субфрагментов и ближайшего к центру субфрагмента в справочной таблице отклонения фазы или разности фаз для каждого угла рисунка освещения. В некоторых случаях влияние факторов окружающей среды может повысить нестабильность системы. В таких случаях справочная таблица отклонения фазы генерируется чаще для компенсации повышенной нестабильности системы. Например, таблица отклонения фазы может быть сгенерирована в первом цикле каждого прогона секвенирования. Частота генерации справочной таблицы отклонения фазы может быть увеличена или уменьшена в зависимости от стабильности системы.[00213] The described technique includes estimating the phase for each sub-tile and then transferring the phase offset to the full FOV coordinate system to present the predicted phase offset values in common criteria. The difference between the phase offset values for the off-center sub-tiles and the sub-tile closest to the center is stored in a phase offset or phase difference look-up table for each angle of the illumination pattern. In some cases, the influence of environmental factors can increase the instability of the system. In such cases, the phase offset look-up table is generated more frequently to compensate for the increased instability of the system. For example, the phase offset table can be generated in the first cycle of each sequencing run. The frequency of generating the phase offset look-up table can be increased or decreased depending on the stability of the system.
[00214] На ФИГ. 17 приведен пример справочной таблицы 1701 отклонения фазы с цветовой кодировкой различий фаз от ближайшего к центру субфрагмента в точке 3, 5, которая имеет нулевое значение. В справочной таблице 1701 содержится одно и то же количество ячеек, что и количество субфрагментов на изображении полного FOV, в этом примере - 7 × 9 в субфрагментах. Положение ячейки в таблице 1701 может соответствовать положению субфрагмента на изображении полного FOV. В справочной таблице фаз хранятся различия в фазе между каждым из субфрагментов относительно расчетной фазы центрального окна (3, 5). Представленная в качестве примера таблица содержит отклонение фазы для одного угла структурированного освещения. Аналогичная таблица отклонения фазы будет храниться для каждого угла рисунка структурированного освещения. Значения фазы зависят от общей погрешности в расчетных значениях других параметров (угол и разнос). Следует отметить, что фазы могут иметь значения от 0 градусов до 360 градусов. Фаза центрального субфрагмента показана в примере таблицы как 0 градусов. Цветовая кодировка обозначает степень различий в фазах субфрагментов, соответствующих центральному субфрагменту. Для оценки отклонения фазы требуются параметры угла, разноса, фазы интерференционных полос центрального субфрагмента или субокна, а также модель искажения (которая, как предполагается, не изменяется). В следующих разделах представлены примеры алгоритмов оценки параметров угла, разноса и фазы.[00214] FIG. 17 shows an example of a phase deviation look-up table 1701 with color coding of phase differences from the sub-tile closest to the center at 3, 5, which has a value of zero. The look-up table 1701 contains the same number of cells as the number of sub-tiles in the full FOV image, in this example - 7 x 9 in sub-tiles. The position of a cell in the table 1701 may correspond to the position of a sub-tile in the full FOV image. The phase look-up table stores the differences in phase between each of the sub-tiles relative to the calculated phase of the center window (3, 5). The example table contains the phase deviation for one angle of the structured illumination. A similar phase deviation table would be stored for each angle of the structured illumination pattern. The phase values depend on the overall error in the calculated values of the other parameters (angle and spacing). It should be noted that phases can have values from 0 degrees to 360 degrees. The phase of the central sub-fragment is shown as 0 degrees in the example table. The color coding indicates the degree of difference in the phases of the sub-fragments corresponding to the central sub-fragment. Estimation of phase deviation requires the parameters angle, spacing, fringe phase of the central sub-fragment or sub-window, and a distortion model (which is assumed to be constant). Examples of algorithms for estimating the parameters angle, spacing, and phase are presented in the following sections.
[00215] В приведенных выше разделах авторы описали способы оценки параметров для субфрагментов в изображении полного FOV. В псевдокоде, который будет приведен далее, авторы дополнительно иллюстрируют оценку параметров угла, разноса и фазы для субфрагментов. Пример псевдокода для оценки параметров угла и разноса представлен ниже и упоминается как «сопоставление угла субфрагмента и разноса» (также называется алгоритмом 2А). Для оценки коэффициентов искажения параметров угла и разноса для субфрагментов авторы используют полиномиальную аппроксимацию квадратичной или кубической поверхности. Пример псевдокода, реализующий метод оценки фазы, представлен ниже и называется алгоритмом «сопоставления фаз субфрагмента» (также называется алгоритмом 2В). Оценки смещения фаз могут храниться в справочной таблице отклонения фазы для каждого угла или ориентации рисунка освещения. В одном варианте реализации отдельная справочная таблица может быть использована для каждого фрагмента секвенирования на проточной кювете для учета минимальных различий в ориентации проточной кюветы, дефектов поверхности и других неидеальных свойств, которые могут искажать результаты расчетов. Псевдокод для примера алгоритма окончательной калибровки искажений представлен последним и называется «конечной калибровкой искажений с помощью квадратичной аппроксимации и справочной таблицы» (также называется алгоритмом 1 и алгоритмом 2С).[00215] In the above sections, the authors described methods for estimating the parameters for sub-tiles in a full FOV image. In the pseudocode that follows, the authors further illustrate estimating the angle, spacing, and phase parameters for the sub-tiles. An example of pseudocode for estimating the angle and spacing parameters is presented below and is referred to as "sub-tile angle and spacing matching" (also referred to as Algorithm 2A). To estimate the distortion coefficients of the angle and spacing parameters for the sub-tiles, the authors use a polynomial approximation of a quadratic or cubic surface. An example of pseudocode implementing the phase estimation method is presented below and is referred to as the "sub-tile phase matching" algorithm (also referred to as Algorithm 2B). The phase offset estimates can be stored in a phase offset lookup table for each angle or orientation of the illumination pattern. In one embodiment, a separate lookup table may be used for each sequencing fragment on the flow cell to account for minor differences in flow cell orientation, surface defects, and other non-ideal properties that may distort the calculation results. Pseudocode for an example final distortion calibration algorithm is presented last and is called "final distortion calibration using quadratic approximation and lookup table" (also called Algorithm 1 and Algorithm 2C).
Алгоритм 1. Конечная калибровка искажений с помощью квадратичной аппроксимацииAlgorithm 1. Final distortion calibration using quadratic approximation
[00216] В первом псевдокоде мы можем наносить обрезку для удаления искажений вблизи краев изображения. Это обеспечивает хорошую аппроксимацию данных полного FOV на квадратичные модели поверхности для оценки угла и разноса при калибровке/определении характеристик.[00216] In the first pseudocode, we can apply cropping to remove distortion near the edges of the image. This provides a good approximation of the full FOV data to quadratic surface models for angle and spacing estimation for calibration/characterization.
Входные данные Набор изображений, например для 2 углов и 3 фаз на угол.Input data A set of images, for example for 2 angles and 3 phases per angle.
Выходные данные Коэффициенты искажения модели.Output data Model distortion coefficients.
АлгоритмAlgorithm
1. Создание следующих изображений/фильтров (размер соответствует субобласти).1. Create the following images/filters (size corresponds to the sub-area).
a. OTFa.OTF
2. Разделение изображения на перекрывающиеся субобласти одинакового размера, например 512 × 512, с использованием способа скользящего окна.2. Dividing the image into overlapping subregions of equal size, such as 512 × 512, using the sliding window method.
3. Расчетные параметры в центре используемого изображения, например окна 512 × 512 (см. алгоритм сопоставления субфрагмента и разноса и алгоритм сопоставления фаз субфрагмента ниже).3. Calculated parameters in the center of the image used, for example 512 × 512 windows (see subfragment and spacing matching algorithm and subfragment phase matching algorithm below).
a. Расчетный угол и разнос пика освещения для каждого угла.a. Calculated angle and peak illumination spacing for each angle.
b. Расчетная модуляция для каждого угла.b. Calculated modulation for each angle.
c. Расчетная фаза для каждого изображения.c. Calculated phase for each image.
4. Для каждой субобласти4. For each sub-region
a. Выполнение оценки параметров этапа 3a. Performing the estimation of the parameters of stage 3
b. Сохранение координат х, у субфрагмента, угла интерференционных полос (на угол), разноса (на угол) и фазы 0 (на угол) оценки фазы по Уикеру в массивах (2d-массивы).b. Storing the x, y coordinates of the subfragment, the fringe angle (per angle), the spacing (per angle) and the phase 0 (per angle) of the Wicker phase estimate in arrays (2d arrays).
5. Для разноса и угла интерференционных полос5. For the spacing and angle of interference fringes
a. Вычитание значения из таблицы на этапе 4 по расчетным значениям центрального окна из этапа 3.a. Subtract the value from the table in step 4 from the calculated values of the central window from step 3.
b. Выполнение оптимальной оценки усадки квадратичной поверхности.b. Performing an optimal shrinkage estimate for a quadratic surface.
i. Аппроксимация квадратичной поверхности по регрессии наименьших квадратов в функциональной форме (х,у)=а+b*x2+с*у2+d*xy+е*х+f*y для каждого массива (назовем это Z, например, разнос интерференционных полос от угла 0) на Этапе 4 (с использованием того же массива X и Y, который соответствует координатам центра х, у субобласти).i. Approximation of the quadratic surface by least squares regression in the functional form (x,y)=a+b* x2 +c* y2 +d*xy+e*x+f*y for each array (call this Z, for example, the spacing of the interference fringes from the 0 angle) in Step 4 (using the same X and Y array that corresponds to the coordinates of the center x,y of the subregion).
ii. Оценка коэффициента R2 определения из этапа i.ii. Estimation of the R2 coefficient of the determination from step i.
iii. Сжатие массива X, Y, Z (удаление внешних крайних элементов) и повтор этапа (i), пока не будет выполнено количество сжатий N (N=3-5, и этот параметр можно регулировать).iii. Compress the array X, Y, Z (removing outermost elements) and repeating step (i) until the number of compressions N is performed (N=3-5, and this parameter can be adjusted).
iv. По мере сжатия массива к центральной части данных ожидается, что качество аппроксимации повысится, и выбирают коэффициенты в точке изгиба (минимизация количества сжатий при одновременном увеличении R2), где аппроксимация модели достаточно хорошая (текущие критерии определяют на уровне менее 5% относительно значению R2.iv. As the dataset is compressed towards the central part of the data, the quality of the approximation is expected to improve, and the coefficients are selected at the inflection point (minimizing the number of compressions while simultaneously increasing R 2 ) where the approximation of the model is good enough (current criteria define it as less than 5% relative to the R 2 value).
Другие критерии соответствия, которые могут быть использованы в данном документе, включают:Other compliance criteria that may be used in this document include:
• Улучшение среднеквадратичной погрешности аппроксимации (следующая итерация среднеквадратичной погрешности меньше, чем текущая итерация среднеквадратичной погрешности на некоторое предварительно заданное пороговое значение).• Improvement of the mean square error of approximation (the next iteration of the mean square error is less than the current iteration of the mean square error by some pre-set threshold value).
• Улучшение максимальной погрешности аппроксимации квадратичной поверхности (каждая последующая итерация должна уменьшать эту ошибку и увеличить аппроксимацию, если обнаружено, что последовательные улучшения стабилизируются).• Improvement of the maximum approximation error of the quadratic surface (each subsequent iteration should decrease this error and increase the approximation if successive improvements are found to stabilize).
• Регуляризованный показатель погрешности, например МАЕ (средняя абсолютная погрешность) вместо MSE (среднеквадратичная погрешность), с использованием порогового значения улучшения, аналогичного двум предыдущим критериям.• A regularized error measure, such as MAE (Mean Absolute Error) instead of MSE (Root Mean Square Error), using an improvement threshold similar to the previous two criteria.
6. Оптимальные коэффициенты на этапе 5 представляют собой вывод алгоритма калибровки окончательного искажения.6. The optimal coefficients in step 5 are the output of the final distortion calibration algorithm.
Алгоритм 2А. Сопоставление угла и разноса субфрагментаAlgorithm 2A. Matching the angle and spacing of a subfragment
[00217] Используется следующий псевдокод для реализации пикового угла освещения и оценки разноса субфрагментов, используемых на этапах 3-4 выше и во время работы. Входные данные Сбор изображений для того же угла, который использовался для фаз каждого изображения, равномерно распределенного от 0 до 360 градусов.[00217] The following pseudocode is used to implement the peak illumination angle and sub-fragment spacing estimation used in steps 3-4 above and during operation. Input A collection of images for the same angle that was used for the phases of each image, uniformly distributed from 0 to 360 degrees.
Выходные данныеOutput data
1. Местоположение пика в пространстве Фурье (или разнос и угол решетки).1. The location of the peak in Fourier space (or the spacing and angle of the grating).
2. Модуляция пика Фурье.2. Fourier peak modulation.
3. Фазовое смещение первого изображения.3. Phase shift of the first image.
АлгоритмAlgorithm
1. Быстрое преобразование Фурье каждого изображения.1. Fast Fourier transform of each image.
2. Выполнение разделения полос.2. Carrying out the separation of lanes.
3. Берутся изображения из двух компонентов:3. Images are taken from two components:
a. 0 (широкое поле) и +1 (часть с высоким разрешением).a. 0 (wide field) and +1 (high resolution part).
b. Маскирование всех компонентов Фурье каждого изображения, которые не перекрываются (также называется общей областью).b. Masking all Fourier components of each image that do not overlap (also called common region).
c. Маскирование низкочастотных компонентов вокруг DC и вокруг расчетного пика интерференционных полос.c. Masking of low frequency components around DC and around the calculated peak of the interference fringes.
d. Применение инвертированной OTF.d. Using inverted OTF.
4. Повтор для уменьшения толщины решетки вокруг начальной точки.4. Repeat to reduce the thickness of the lattice around the starting point.
а. Для каждой точки в решетке 10×10 равномерно выбирают некоторый диапазон.a. For each point in a 10×10 grid, a certain range is uniformly selected.
i. Применение фазового сдвига к одной из двух фаз изображений.i. Applying a phase shift to one of the two phases of the images.
ii. Умножение одного изображения на конъюгат другого.ii. Multiplication of one image by the conjugate of another.
iii. Сложение результата.iii. Addition of the result.
iv. Нормализация по отношению к сумме маскированного изображения Фурье широкого поля.iv. Normalization with respect to the sum of the masked wide-field Fourier image.
v. Сохранение сдвига обеспечивает максимальное абсолютное значение нормализованной комплексной корреляции.v. Preserving the shift ensures the maximum absolute value of the normalized complex correlation.
1. Абсолютное значение этого числа представляет собой модуляцию.1. The absolute value of this number represents the modulation.
2. Угол этого комплексного числа представляет собой смещение фазы.2. The angle of this complex number represents the phase shift.
Алгоритм 2В. Сопоставление фаз субфрагментаAlgorithm 2B. Subfragment phase matching
[00218] Псевдокод для примера реализации оценки фазового сдвига субфрагментов. Описанная технология позволяет использовать для такого сопоставления недавние лучшие оценки значений параметров разноса и угла. Система также может получать расчетные значения параметров разноса и угла с использованием модели искажения и параметров центрального субокна или субфрагмента.[00218] Pseudocode for an example of implementing the estimation of the phase shift of sub-fragments. The described technology allows using recent best estimates of the values of the spacing and angle parameters for such a comparison. The system can also obtain estimated values of the spacing and angle parameters using a distortion model and the parameters of the central subwindow or sub-fragment.
Входные данныеInput data
1. Сбор изображений для одного угла.1. Collecting images for one angle.
2. Пик разноса и угла освещения, рассчитанный по ранее описанному алгоритму.2. Peak spread and illumination angle calculated using the previously described algorithm.
Выходные данные Фазовое смещение каждого изображения в наборе.Output: Phase shift of each image in the set.
АлгоритмAlgorithm
1. Выполнение быстрого преобразования Фурье (FFT) каждого изображения.1. Perform a Fast Fourier Transform (FFT) on each image.
2. Создание копии изображения FFT.2. Create a copy of the FFT image.
3. Применение OTF к каждому изображению.3. Apply OTF to each image.
4. Смещение одного изображения.4. Shifting one image.
5. Перемножение обоих изображений с использованием конъюгата и суммарного абсолютного значения каждого комплексного числа.5. Multiply both images using the conjugate and the sum of the absolute value of each complex number.
6. Фаза представляет собой угол полученного комплексного числа.6. The phase is the angle of the resulting complex number.
Алгоритм 2С. Изучение справочной таблицы отклонения фазыAlgorithm 2C. Studying the phase deviation lookup table
[00219] Для отклонения фазы выполняют следующие этапы для фрагмента на проточной кювете во время визуализации первого цикла прогона секвенирования.[00219] To perform phase deviation, the following steps are performed for a fragment on the flow cell during imaging of the first cycle of the sequencing run.
Входные данные Набор изображений, например для 2 углов и 3 фаз на угол, от каждого фрагмента проточной кюветы секвенирования, калиброванная модель искажения из алгоритма 1.Input data A set of images, e.g. for 2 angles and 3 phases per angle, from each fragment of the sequencing flow cell, the calibrated distortion model from Algorithm 1.
Выходные данные Справочная таблица отклонения фазы.Output data Phase deviation lookup table.
АлгоритмAlgorithm
• Для каждого фрагмента секвенирования (не следует путать с субфрагментом реконструкции SIM).• For each sequencing fragment (not to be confused with the SIM reconstruction subfragment).
i. Применение этапа 3 алгоритма 1 для оценки параметров SIM центрального окна (разноса, угла, фаз каждой пары «угол - канал») фрагмента.i. Application of stage 3 of algorithm 1 to estimate the parameters of the SIM central window (spacing, angle, phases of each “angle-channel” pair) of the fragment.
ii. Разделение изображения на субфрагменты; для каждого субфрагмента:ii. Split the image into sub-fragments; for each sub-fragment:
a. Применение модели искажения с помощью алгоритма 2А для получения разноса и угла интерференционных полос субфрагмента.a. Applying the distortion model using Algorithm 2A to obtain the spacing and angle of the sub-fragment interference fringes.
b. Выполнение оценки фазы по Уикеру на первом изображении фазы каждой пары «канал - угол» с использованием заданных параметров интерференционных полос из этапа а. на локальном субфрагменте.b. Perform Wicker phase estimation on the first phase image of each channel-angle pair using the specified fringe parameters from step a. on a local sub-fragment.
c. Вычисление разности между фазой, полученной на этапе iib, и фазой 0 центрального окна, полученной на этапе i, и сохранение отклонения фазы в соответствующем массиве 2d для отклонения фазы.c. Calculate the difference between the phase obtained in step iib and the phase 0 of the central window obtained in step i, and store the phase deviation in the corresponding 2d array for phase deviation.
iii. Сохранение заполненной справочной таблицы отклонения фазы в памяти с идентификатором фрагмента в качестве записи для дальнейшего использования.iii. Store the completed phase deviation lookup table in memory with the fragment identifier as a record for later use.
• Повтор этапа 1 для каждого второго субфрагмента, встречающегося во всей проточной кювете.• Repeat step 1 for every second subfragment encountered in the entire flow cell.
Примечание. Для повышения эффективности мы оцениваем поиск отклонения фазы для каждого фрагмента в первом цикле прогона секвенирования; однако частоту обучения также можно скорректировать для обучения на каждом цикле N, если существуют проблемы со стабильностью.Note: To improve efficiency, we evaluate the phase drift search for each fragment in the first cycle of the sequencing run; however, the training frequency can also be adjusted to train at every N cycle if stability issues exist.
[00220] В этих псевдокодах авторы представили методы оценки и сопоставления пика угла освещения, пика разноса освещения и параметры смещения фаз. Расчетные параметры используют в качестве входных данных для реконструкции изображения с помощью микроскопии структурированного освещения (SIM). В следующем разделе представлен предлагаемый алгоритм реконструкции изображения SIM, который позволяет эффективно восстанавливать изображения субфрагментов с высоким разрешением, а затем объединять эти изображения субфрагментов для реконструкции изображения с высоким разрешением полного FOV.[00220] In these pseudo codes, the authors presented methods for estimating and matching the peak illumination angle, peak illumination spacing, and phase shift parameters. The estimated parameters are used as input for structured illumination microscopy (SIM) image reconstruction. The next section presents the proposed SIM image reconstruction algorithm, which can efficiently reconstruct high-resolution sub-tile images and then combine these sub-tile images to reconstruct a high-resolution image of the full FOV.
Реконструкция изображений SIMSIM image reconstruction
[00221] Описанная технология восстановления изображения SIM использует угол, разнос и оценки фазы субфрагментов для реконструкции изображений высокого разрешения. Описанная технология может создавать изображение высокого разрешения полного FOV за два этапа. Сначала изображение SIM высокого разрешения восстанавливается для субфрагмента с использованием параметров субфрагмента. Затем изображения высокого разрешения для субфрагментов можно объединить для построения изображения полного FOV. В альтернативном варианте осуществления субфрагменты высокого разрешения можно обрабатывать без объединения. Этот раздел начинается с примера псевдокода для реконструкции изображения SIM субфрагмента. Это называется алгоритмом реконструкции субфрагмента. В описанной технологии применяются симметрии в пространстве Фурье с использованием неизбыточных данных в частотной области. Это почти наполовину уменьшает количество вычислений, необходимых для некоторых ключевых операций. В этом разделе также представлен пример псевдокода для объединения изображений SIM для субфрагментов, используемых для реконструкции изображения высокого разрешения для полного изображения. Такой метод называется алгоритмом восстановления полного поля обзора. Следует отметить, что методы оценки параметров, описанные выше, можно использовать с традиционными избыточными или описанными неизбыточными способами реконструкции изображений SIM.[00221] The disclosed SIM image reconstruction technique uses angle, spacing, and phase estimates of sub-tiles to reconstruct high-resolution images. The disclosed technique can create a high-resolution image of the full FOV in two steps. First, a high-resolution SIM image is reconstructed for a sub-tile using the sub-tile parameters. Then, the high-resolution images for the sub-tiles can be combined to construct a full FOV image. In an alternative embodiment, the high-resolution sub-tiles can be processed without combining. This section begins with an example of pseudo-code for reconstructing a SIM image of a sub-tile. This is called a sub-tile reconstruction algorithm. The disclosed technique exploits symmetries in Fourier space using non-redundant data in the frequency domain. This reduces the amount of computation required for some key operations by almost half. This section also presents an example of pseudo-code for combining SIM images for the sub-tiles used to reconstruct the high-resolution image for the full image. Such a method is called a full field of view reconstruction algorithm. It should be noted that the parameter estimation methods described above can be used with traditional redundant or non-redundant SIM image reconstruction methods described above.
Алгоритм 3. Восстановление субфрагментаAlgorithm 3. Subfragment recovery
[00222] Далее описан псевдокод для одного варианта реализации реконструкции изображения с высоким разрешением с помощью микроскопии структурированного освещения в виде субфрагмента.[00222] The following describes pseudocode for one embodiment of high-resolution image reconstruction using sub-slice structured illumination microscopy.
Входные данныеInput data
a. Набор изображений образца с некоторым профилем решетки (Iугол, фаза).a. A set of images of a sample with some grating profile (I angle, phase ).
Для каждого угла нам необходимо по меньшей мере 3 фазовых изображения, разнесенных равномерно от 0 до 360 градусов.For each angle we need at least 3 phase images, spaced evenly from 0 to 360 degrees.
b. Параметры:b. Parameters:
i. Пик разноса и угла освещения для группы изображений, соответствующих углу.i. Peak spacing and illumination angle for a group of images corresponding to the angle.
ii. Фаза для каждого изображения.ii. Phase for each image.
Выходные данные Одно реконструированное изображение с высоким разрешением для субфрагмента.Output: One high-resolution reconstructed image per sub-slice.
АлгоритмAlgorithm
1. Предварительная обработка изображений (например, фильтр с высоким уровнем пропускания).1. Image pre-processing (e.g. high-pass filter).
2. Создание буфера для изображения Фурье большого размера (его размер будет зависеть от конечного значения коэффициента повышения разрешения) и инициализации до 0.2. Create a large Fourier image buffer (its size will depend on the final value of the upsampling factor) and initialize it to 0.
3. Для каждого угла3. For each corner
a. Для набора изображений с уникальной фазой для решетки под заданным углом.a. For a set of images with a unique phase for a grating at a given angle.
i. Выполнение быстрого преобразования Фурье на каждом изображении.i. Perform a Fast Fourier Transform on each image.
b. Выполнение разделения полос на наборе изображений (n>=3 входных изображений → 3 выходных изображения или изображения компонентов).b. Perform stripe splitting on a set of images (n>=3 input images → 3 output images or component images).
i. Два из трех выходных изображений содержат информацию в высоком разрешении.i. Two of the three output images contain high resolution information.
ii. Оставшееся изображение содержит всю стандартную информацию (изображение в исходном разрешении).ii. The remaining image contains all the standard information (original resolution image).
iii. Необходимая фаза для каждого изображения и модуляции для всего набораiii. The required phase for each image and modulation for the entire set
c. Применение MTF к каждому изображению компонентов.c. Apply MTF to each component image.
d. Смещение каждого изображения компонентов из разделения полос в их правильное местоположение в буфере для изображений Фурье большего размера и суммирование компонентов.d. Shift each component image from the stripe split to its correct location in the larger Fourier image buffer and sum the components.
4. Создание фильтра Винера из входного MTF путем сдвига и суммирования двумерного изображения MTF в большое изображение Фурье.4. Create a Wiener filter from the input MTF by shifting and summing the 2D MTF image into a large Fourier image.
a. Мы делаем это для каждого входного изображения под каждым углом.a. We do this for each input image at each angle.
b. Не нужно выполнять эту операцию для каждой реконструкции, ее можно выполнить один раз и использовать в виде входного параметра.b. There is no need to perform this operation for each reconstruction, it can be performed once and used as an input parameter.
5. Применение фильтров Винера и аподизации в пространстве Фурье к большому представлению Фурье восстановленного изображения.5. Application of Wiener filters and apodization in Fourier space to the large Fourier representation of the reconstructed image.
6. Выполнение обратного быстрого преобразования Фурье на буфере изображения Фурье большого размера для получения изображения высокого разрешения.6. Performing inverse fast Fourier transform on a large Fourier image buffer to obtain high resolution image.
[00223] Для этого неизбыточного псевдокода для восстановления субфрагмента приведено более подробное описание, чем для другого псевдокода, поскольку описанную технологию невозможно объяснить посредством ссылки на предшествующий уровень техники. Описанная технология использует симметрию в пространстве Фурье для повышения эффективности в отношении реконструкции изображения SIM и снижения вычислительной нагрузки. На ФИГ. 18 представлен поверхностный обзор неизбыточной технологии построения субфрагмента. Для каждого субфрагмента на угол получают три изображения 1811, 1813, 1815, предпочтительно с равномерно разделенными фазами. Мы применяем дискретное быстрое преобразование Фурье (FFT) для преобразования данных изображения из пространственной области (реального пространства) к частотной области (комплексному пространству). Мы используем симметрию FFT данных, представляющих три изображения в частотной области. Мы повышаем эффективность реконструкции изображения SIM высокого разрешения субфрагмента, используя неизбыточные части данных изображения в частотной области. Ниже представлены детали этапов алгоритма обработки неизбыточного восстановления субфрагмента.[00223] This non-redundant pseudo-code for sub-chunk reconstruction is described in more detail than the other pseudo-code because the described technology cannot be explained by reference to the prior art. The described technology uses symmetry in the Fourier space to improve the efficiency of the SIM image reconstruction and to reduce the computational load. FIG. 18 shows a high-level overview of the non-redundant sub-chunk construction technology. For each sub-chunk per corner, three images 1811, 1813, 1815 are obtained, preferably with uniformly separated phases. We apply a discrete fast Fourier transform (FFT) to transform the image data from the spatial domain (real space) to the frequency domain (complex space). We exploit the symmetry of the FFT of the data representing the three images in the frequency domain. We improve the efficiency of the high-resolution SIM image reconstruction of the sub-chunk by using non-redundant parts of the image data in the frequency domain. The details of the steps of the non-redundant sub-chunk reconstruction processing algorithm are presented below.
Входные данныеInput data
1-й Набор изображений1st Set of Images
[00224] Изображения образцов, разделенные на субфрагменты, приведены в качестве входных данных для алгоритма восстановления субфрагментов. Изображения разделены на субфрагменты, субокна или субобласти предварительно заданного размера, например 512 × 512 пикселей. Можно использовать субфрагменты другого размера.[00224] Sample images divided into sub-fragments are given as input to the sub-fragment reconstruction algorithm. The images are divided into sub-fragments, sub-windows or sub-regions of a predetermined size, such as 512 × 512 pixels. Sub-fragments of other sizes can be used.
[00225] Набор фрагментов изображения расширяет предшествующие технологии, поскольку для захвата и построения плоскости изображения требуется множество фрагментов. В одном варианте осуществления фрагменты изображения получают с помощью дифракционной решетки, которая образует рисунок интенсивности синусоидального освещения Iθ,Ф (r). Интенсивность изменяется в зависимости от местоположения (х,у), представленного вектором t, который представляет собой двумерный пространственный вектор положения. Для сравнения, Lal et al. 2015 представляет собой базовый алгоритм реконструкции с помощью микроскопии структурированного освещения, который обозначен как «алгоритм 1 SIM-RA». Для объяснения этапов нашего алгоритма реконструкции изображений SIM мы использовали математическое описание из Lal et al. 2015. Следует отметить, что алгоритм реконструкции, представленный Lal et al. 2015, применяют к полному изображению, в то время как наша технология восстановления субфрагмента реконструирует субфрагменты SIM высокого разрешения.[00225] The image subset extends previous technologies because multiple subsets are required to capture and construct an image plane. In one embodiment, the image subsets are obtained using a diffraction grating that produces a sinusoidal illumination intensity pattern I θ,Φ (r). The intensity varies with location (x,y) represented by vector t, which is a two-dimensional spatial position vector. For comparison, Lal et al. 2015 presents a basic structured illumination microscopy reconstruction algorithm, which is referred to as “SIM-RA algorithm 1”. To explain the steps of our SIM image reconstruction algorithm, we used the mathematical description from Lal et al. 2015. It should be noted that the reconstruction algorithm presented by Lal et al. 2015 is applied to the full image, while our sub-slice reconstruction technique reconstructs high-resolution SIM sub-slices.
[00226] Математическое описание для Iθ,Ф (r) представлено в уравнении (1) Lal et al. 2015. Для каждой ориентации рисунка θ синусоидального освещения получают три изображения SIM образца, соответствующие трем различным фазам освещения. В одном варианте осуществления получают два набора изображений с использованием двух углов ориентации рисунка синусоидального освещения, т.е. θ1=45°, а θ2=135° соответственно. Угол ориентации θ также называют пиком угла освещения β. В таком варианте осуществления нанолунки могут быть расположены в углах квадрата или, в более общем смысле, прямоугольника или четырехугольника. Углы ориентации выбирают таким образом, что изображения получают вдоль линий, соединяющих противоположные углы прямоугольника. Это увеличивает видимое расстояние между нанолунками.[00226] The mathematical description for I θ,Ф (r) is given in equation (1) of Lal et al. 2015. For each orientation θ of the sinusoidal illumination pattern, three SIM images of the sample are acquired, corresponding to three different illumination phases. In one embodiment, two sets of images are acquired using two orientation angles of the sinusoidal illumination pattern, i.e. θ 1 = 45° and θ 2 = 135°, respectively. The orientation angle θ is also referred to as the peak illumination angle β. In such an embodiment, the nanowells can be located at the corners of a square or, more generally, a rectangle or quadrilateral. The orientation angles are chosen such that images are acquired along lines connecting opposite corners of the rectangle. This increases the apparent distance between the nanowells.
[00227] В другом варианте реализации три набора изображений могут быть получены под тремя углами ориентации, например θ1=0°, θ2=60°, θ3=120° или θ1=30°, θ2=90°, θ3=150°. В этом варианте осуществления нанолунки могут быть расположены в противоположных углах шестиугольника. Изображения выполняются вдоль линий, соединяющих противоположные концы шестиугольника. Как правило, наборы изображений могут быть выбраны таким образом, чтобы соответствовать количеству диагоналей, соединяющих противоположные концы фигуры, в которых расположены нанолунки.[00227] In another embodiment, three sets of images can be obtained at three orientation angles, such as θ 1 = 0°, θ 2 = 60°, θ 3 = 120° or θ 1 = 30°, θ 2 = 90°, θ 3 = 150°. In this embodiment, the nanowells can be located at opposite corners of the hexagon. The images are taken along the lines connecting the opposite ends of the hexagon. Typically, the sets of images can be selected to correspond to the number of diagonals connecting the opposite ends of the figure in which the nanowells are located.
[00228] Для каждой ориентации 6 получают по меньшей мере три изображения, разнесенные от 0° до 360°, соответствующие трем различным фазам освещения φ1=0°, φ2=120° и φ3=240°. Предпочтительным является равномерное разнесение фаз. Дополнительные изображения, например пять, шесть или семь, могут быть получены с использованием меньшего этапа фазы.[00228] For each orientation 6, at least three images are obtained, spaced from 0° to 360°, corresponding to three different illumination phases φ 1 = 0°, φ 2 = 120° and φ 3 = 240°. A uniform phase spacing is preferred. Additional images, for example five, six or seven, can be obtained using a smaller phase step.
1-b (i). Параметры угла и разноса рисунка структурированного освещения1-b(i). Parameters of angle and spacing of structured lighting pattern
[00229] Разнос пика освещения «s», который определяет периодичность решетки или освещение рисунка с синусоидальной интенсивностью Iθ,Ф (r) также вводят в качестве входных данных. Разнос пика освещения «s» и угол пика освещения θ для субфрагментов оценивают с использованием алгоритма «сопоставление угла и разноса субфрагмента», представленного выше (также называемого алгоритмом 2А). Алгоритм «конечная калибровка искажений с помощью квадратичной аппроксимации и справочной таблицы» (также называемая алгоритмом 1) применяют для компенсации ошибок при оценке параметров угла и разноса для нецентральных субфрагментов из-за искажений оптического восприятия. Примеры псевдокода для алгоритмов «сопоставление угла и разноса субфрагмента» и «конечная калибровка искажений с помощью квадратичной аппроксимации и справочной таблицы» представлены выше.[00229] The illumination peak spacing "s" which defines the grating periodicity or the illumination of the pattern with a sinusoidal intensity I θ,Ф (r) is also input. The illumination peak spacing "s" and the illumination peak angle θ for the sub-fragments are estimated using the "sub-fragment angle and spacing matching" algorithm presented above (also referred to as Algorithm 2A). The "final distortion calibration using quadratic approximation and look-up table" algorithm (also referred to as Algorithm 1) is used to compensate for errors in estimating the angle and spacing parameters for off-center sub-fragments due to optical perception distortions. Pseudocode examples for the "sub-fragment angle and spacing matching" and "final distortion calibration using quadratic approximation and look-up table" algorithms are presented above.
1-b (ii). Параметр фазового смещения1-b (ii). Phase shift parameter
[00230] Фазовое смещение (также называемое фазой решетки) «φ» для рисунка интенсивности структурированного освещения Iθ,Ф (r) также вводят в качестве входных данных. Значения фазы для субфрагментов оценивают с использованием алгоритма «сопоставление фаз субфрагмента» (также называемого алгоритмом 2В). Алгоритм «конечная калибровка искажений с помощью квадратичной аппроксимации и справочной таблицы» (также называемая алгоритмом 1) применяют для компенсации ошибок при оценке параметра фазы для нецентральных субфрагментов из-за искажений оптического восприятия. Разница между фазой нецентральных субфрагментов и центрального субфрагмента на угол сохраняется в справочной таблице. Пример псевдокода для алгоритма «сопоставление фаз субфрагмента» представлен выше. Переходим к обработке с использованием описанных входных данных.[00230] The phase offset (also called grating phase) "φ" for the structured illumination intensity pattern I θ,Ф (r) is also input. The phase values for the sub-fragments are estimated using the "sub-fragment phase matching" algorithm (also called Algorithm 2B). The "finite distortion calibration using quadratic approximation and look-up table" algorithm (also called Algorithm 1) is used to compensate for errors in estimating the phase parameter for the off-center sub-fragments due to optical perception distortions. The phase difference between the off-center sub-fragments and the central sub-fragment by an angle is stored in a look-up table. An example of pseudocode for the "sub-fragment phase matching" algorithm is given above. We proceed to processing using the described input data.
Этап обработки 1. Предварительная обработка изображений (фильтр с высоким уровнем пропускания)Processing step 1. Image pre-processing (high-pass filter)
[00231] Обработку для восстановления субфрагмента можно начать с предварительной обработки изображения. Псевдокод, который, по существу, соответствует данному описанию, следует за пояснением. Реконструкция улучшенного изображения выполняется в пространстве Фурье. Но перед применением преобразования Фурье для получения данных изображения из пространственной области в частотную область мы можем применить этап предварительной обработки, как описано ниже, для фрагментов изображения. Приведенные ниже описания основаны на трех изображениях с различными значениями фазы вдоль одного угла. Будут использованы две или более ориентации, как описано выше.[00231] The processing for sub-patch reconstruction can be started with image pre-processing. The pseudo-code that essentially corresponds to this description follows the explanation. The reconstruction of the enhanced image is performed in Fourier space. But before applying the Fourier transform to obtain the image data from the spatial domain to the frequency domain, we can apply a pre-processing step, as described below, to the image patches. The descriptions below are based on three images with different phase values along one angle. Two or more orientations will be used, as described above.
[00232] Полученные изображения могут быть предварительно обработаны для удаления шума. Шум имеет множество источников. Например, воздействие интенсивного возбуждающего света может приводить к фото обесцвечиванию, которое снижает интенсивность излучения из флуорофоров. Пример шума в полученных изображениях SIM показан на Фиг. 6 Lal et al. 2015. Верхнее левое изображение на Фиг. 6, обозначенное (а), показывает необработанное изображение SIM с фоновой флуоресценцией. Это приводит к появлению больших ошибок в частотном содержании необработанных изображений SIM в небольшом окружении около нулевой частоты или частоты DC. Для предварительной обработки необработанных изображений SIM можно использовать фильтр высоких частот, такой как фильтр высоких частот Гаусса или фильтр высоких частот Баттерворта. Второе изображение на Фиг. 6, обозначенное как (b), показывает необработанное изображение SIM после удаления фона. Как видно, спектр Фурье обоих изображений (а) и (b) одинаковый. Подробное описание фильтров высоких частот см. главу 4 Gonzales and Woods 2008, Digital Image Processing, 3е издание. В главе 4 Gonzales and Woods представлена иллюстрация на Фиг. 4.52, которая включает в себя графики, изображения и поперечные сечения идеальных фильтров высоких частот Баттерворта и Гаусса.[00232] The acquired images can be pre-processed to remove noise. Noise has many sources. For example, exposure to intense excitation light can lead to photobleaching, which reduces the emission intensity of the fluorophores. An example of noise in the acquired SIM images is shown in Fig. 6 of Lal et al. 2015. The upper left image in Fig. 6, labeled (a), shows the raw SIM image with background fluorescence. This results in large errors in the frequency content of the raw SIM images in a small neighborhood around the zero frequency or DC frequency. A high-pass filter, such as a Gaussian high-pass filter or a Butterworth high-pass filter, can be used to pre-process the raw SIM images. The second image in Fig. 6, labeled (b), shows the raw SIM image after background removal. As can be seen, the Fourier spectrum of both images (a) and (b) is the same. For a detailed description of high-pass filters, see Chapter 4 of Gonzales and Woods 2008, Digital Image Processing, 3rd edition. Chapter 4 of Gonzales and Woods provides an illustration in Fig. 4.52, which includes plots, images, and cross-sections of ideal Butterworth and Gaussian high-pass filters.
Этап обработки 2. Создание буфера большого изображения ФурьеProcessing Step 2: Creating a Large Fourier Image Buffer
[00233] Можно зарезервировать и инициализировать буфер в памяти для получения улучшенного изображения Фурье. Размер буфера памяти зависит от коэффициента повышения частоты, степени усиления. По методу реконструкции изображения SIM теоретически можно создавать усиленное разрешение вдоль каждого угла или ориентации трех изображений, которое в 2 раза превышает разрешение полученных изображений вдоль ориентации. Для двух или трех наборов из трех изображений мы можем зарезервировать буфер для хранения изображения высокого разрешения с коэффициентом повышения частоты 2.[00233] It is possible to reserve and initialize a buffer in the memory to obtain an enhanced Fourier image. The size of the memory buffer depends on the frequency enhancement factor, the degree of enhancement. According to the SIM image reconstruction method, it is theoretically possible to create an enhanced resolution along each angle or orientation of three images, which is 2 times the resolution of the obtained images along the orientation. For two or three sets of three images, we can reserve a buffer to store a high-resolution image with an enhancement factor of 2.
Этап обработки 3. Циклическое выполнение этапов 3-а - 3-d для каждого угла θProcessing step 3. Cyclic execution of steps 3-a - 3-d for each angle θ
[00234] Этапы обработки 3-а - 3-d выполняются циклически. В одной итерации этапы обработки выполняют для трех изображений субфрагмента, полученного на угол. Далее описаны детали этапов циклической обработки.[00234] The processing steps 3-a to 3-d are performed cyclically. In one iteration, the processing steps are performed for three images of the sub-fragment obtained at the corner. The details of the cyclic processing steps are described below.
Этап 3-а (быстрое преобразование Фурье)Stage 3-a (Fast Fourier Transform)
[00235] Дискретное быстрое преобразование Фурье (FFT) применяют к набору изображений, полученных с одинаковым углом или ориентацией 9. Как описано выше, мы получаем по меньшей мере три изображения с различными фазами по каждой ориентации. Каждое изображение преобразуется из пространственной области в частотную область. Для изображения N × N порядок сложности вычисления двумерного преобразования Фурье (DFT) представляет собой O(N4), который можно уменьшить до O(N3) путем использования общих выражений от строки к строке и от столбца к столбцу. Дополнительное увеличение скорости может быть достигнуто, если N имеет степень 2. Алгоритм быстрого преобразования Фурье (FFT) может достигать порядка сложности O(N2log2N) для изображения N × N, когда N имеет степень 2. Пример использования общих выражений в строках и столбцах заключается в использовании «вычислений бабочкой». Подробнее см. Heckbert 1995, Fourier Transforms and the Fast Fourier Transform (FFT) Algorithm по адресу: http://www.cs.cmu.edu/afs/andrew/scs/cs/15-463/2091/pub/www/notes/fourier/fourier.pdf. Таким образом, при выборе размера субфрагмента, например 512 × 512 пикселей, более высокое разрешение по частоте получается за счет увеличения времени вычисления. Можно использовать субфрагменты с размером стороны 128, 256, 512, 1024, 2048, 4096 или в диапазоне от 128 до 4096 пикселей.[00235] A discrete fast Fourier transform (FFT) is applied to a set of images acquired at the same angle or orientation 9. As described above, we obtain at least three images with different phases for each orientation. Each image is transformed from the spatial domain to the frequency domain. For an N × N image, the order of complexity of computing the two-dimensional Fourier transform (DFT) is O(N 4 ), which can be reduced to O(N 3 ) by using common expressions from row to row and from column to column. An additional speed increase can be achieved if N has a power of 2. The fast Fourier transform (FFT) algorithm can achieve order of complexity O(N 2 log 2 N) for an N × N image when N has a power of 2. An example of using common expressions in rows and columns is the use of "butterfly calculations". For more information, see Heckbert 1995, Fourier Transforms and the Fast Fourier Transform (FFT) Algorithm at http://www.cs.cmu.edu/afs/andrew/scs/cs/15-463/2091/pub/www/notes/fourier/fourier.pdf. Thus, by choosing a subfragment size of, say, 512 × 512 pixels, higher frequency resolution is obtained at the expense of increased computation time. Subfragments of 128, 256, 512, 1024, 2048, 4096, or a range from 128 to 4096 pixels can be used.
[00236] Данные изображения в пространственной области представлены в виде реальных чисел. При выполнении преобразования Фурье полученные данные в частотной области представлены в виде комплексных чисел. Комплексное число z может быть представлено как z=х+iy, где х и у являются его реальной и воображаемой частями. Конъюгат указанного комплексного числа z представлен как z*=х-iy.[00236] The image data in the spatial domain are represented as real numbers. When the Fourier transform is performed, the obtained data in the frequency domain are represented as complex numbers. A complex number z can be represented as z=x+iy, where x and y are its real and imaginary parts. The conjugate of said complex number z is represented as z*=x-iy.
[00237] Два примера матрицы домена Фурье с угловым смещением показаны на ФИГ. 19, изображающие матрицы с четными (1910) и нечетными (1920) значениями N для иллюстрации симметрии в пространстве Фурье. Эти изображения в частотной области представлены матрицами N × N. Верхняя строка и левый столбец обеих матриц 1910 и 1920 называются строкой DC и столбцом DC, соответствующими компонентам нулевой частоты или частоты DC. В отличие от указанных матриц с угловым смещением значений, графики в частотной области обычно показывают нулевую частоту или частоту DC в центре окружности.[00237] Two examples of a Fourier domain matrix with an angular shift are shown in FIG. 19, depicting matrices with even (1910) and odd (1920) N values to illustrate symmetry in Fourier space. These frequency domain images are represented by N x N matrices. The top row and left column of both matrices 1910 and 1920 are called the DC row and DC column, corresponding to the components of the zero frequency or DC frequency. In contrast to these matrices with angular shifted values, the frequency domain graphs typically show the zero frequency or DC frequency at the center of the circle.
[00238] Матрицы на ФИГ. 19 демонстрируют симметрии в области Фурье или частотной области. Строка DC и столбец DC в матрицах 1910 и 1920 имеет симметрию конъюгата слева направо и сверху вниз. Матрица 1910 с четным количеством строк и столбцов имеет средний столбец, который также имеет симметрию конъюгата сверху вниз. Помимо верхней строки и левого столбца (1910, 1920) и среднего столбца (1910) в четной матрице, остальные части каждой матрицы имеют симметрию конъюгата на 180 градусов. Эти части двух матриц 1910 и 1920 показаны жирными линиями.[00238] The matrices in FIG. 19 demonstrate symmetries in the Fourier domain or frequency domain. The DC row and DC column in matrices 1910 and 1920 have a conjugate symmetry from left to right and from top to bottom. The matrix 1910 with an even number of rows and columns has a middle column that also has a conjugate symmetry from top to bottom. In addition to the top row and left column (1910, 1920) and the middle column (1910) in the even matrix, the remaining portions of each matrix have a 180 degree conjugate symmetry. These portions of the two matrices 1910 and 1920 are shown in bold lines.
[00239] Разделение полной матрицы в частотной области на две половины после установки строки и столбца(-ов) дает правую половину, которая после вращения на 180 градусов представляет собой конъюгат левой половины. ФИГ. 19 иллюстрирует полуматрицы (1911, 1912) и (1921, 1922) для четных и нечетных матриц (1910, 1920). Значения для правой половины можно рассматривать из данных для левой половины. С учетом этого левая полуматрица представляет собой так называемые неизбыточные данные, а правая полуматрица представляет собой избыточные данные. Количество столбцов в левой половине (немного больше половины) представляет собой ((N/2)+1), а столбцы в правой половине представляют собой (N-(N/2)-1). Описанная технология позволяет отслеживать симметрии для уменьшения вычислительной нагрузки.[00239] Splitting the full matrix in the frequency domain into two halves after setting the row and column(s) yields a right half which, after rotating by 180 degrees, is a conjugate of the left half. FIG. 19 illustrates the (1911, 1912) and (1921, 1922) half matrices for even and odd matrices (1910, 1920). The values for the right half can be considered from the data for the left half. Taking this into account, the left half-matrix represents the so-called non-redundant data, and the right half-matrix represents the redundant data. The number of columns in the left half (slightly more than half) is ((N/2)+1), and the columns in the right half are (N-(N/2)-1). The described technique allows tracking symmetries to reduce the computational load.
[00240] При восстановлении изображений SIM мы работаем на нерезервированной левой половине матриц полного изображения в пространстве Фурье. Это повышает эффективность, поскольку количество требуемых вычислений значительно уменьшается. В следующих этапах реконструкции SPM авторы более подробно описывают использование симметрий в пространстве Фурье.[00240] When reconstructing SIM images, we operate on the unreserved left half of the full image matrices in Fourier space. This improves efficiency since the number of required computations is significantly reduced. In the following steps of SPM reconstruction, the authors describe the use of symmetries in Fourier space in more detail.
Этап 3-b (разделение полос)Stage 3-b (splitting lanes)
[00241] В каждом захваченном изображении присутствуют компоненты со смещением и без него, поскольку положения источников распределены случайным образом относительно пиков интерференционных полос освещения. На этом этапе компоненты со сдвигом и без него разделены в представлении с частотным доменом полученных изображений с использованием матрицы разделения полос М-1. Матрица разделения полос также называется матрицей обратного смешивания (Wicker et. al. 2013) или матрицей реконструкции (Lal et al. 2015). Gustafsson et. al. 2000 в документе «Doubling the lateral resolution of wide-field fluorescence microscopy using structured illumination» иллюстрируют процесс разделения полос на Фиг. 5 документа. На фигуре показаны отдельные компоненты частоты из наблюдаемых изображений. Разделение полос можно понять из уравнения (31) ниже, взятого из Lal et al. 2015. В уравнении показано, что три компонента отделены от трех наблюдаемых изображений с правой стороны уравнения. Три изображения получают с использованием угла 0 рисунка освещения.[00241] Each captured image contains shifted and unshifted components because the source positions are randomly distributed relative to the peaks of the illumination fringes. In this step, the shifted and unshifted components are separated in the frequency domain representation of the acquired images using a fringe separation matrix M -1 . The fringe separation matrix is also called the inverse mixing matrix (Wicker et. al. 2013) or the reconstruction matrix (Lal et al. 2015). Gustafsson et. al. 2000 in the paper “Doubling the lateral resolution of wide-field fluorescence microscopy using structured illumination” illustrate the fringe separation process in Fig. 5 of the paper. The figure shows the individual frequency components from the observed images. The fringe separation can be understood from equation (31) below, taken from Lal et al. 2015. The equation shows that the three components separated from the three observed images on the right side of the equation. The three images are obtained using the 0 angle of the illumination pattern.
100242] Первый компонент, извлеченный из уравнения (31) представляет собой так называемый DC-компонент Это компонент с пространственными частотами без смещения. При разделении с использованием точных параметров фазы и модуляции этот компонент не включает в себя частоты, превышающие дифракционный предел Аббе. Второй и третий компоненты содержит высокочастотное содержание, сдвинутыйое в область прохождения полос дифракционного предела Аббе.100242] The first component extracted from equation (31) is the so-called DC component This is the component with spatial frequencies without offset. When separated using precise phase and modulation parameters, this component does not include frequencies above the Abbe diffraction limit. The second and third components contains high-frequency content shifted to the region of the Abbe diffraction limit bands.
[00243] На этапе разделения полос используют описанную технологию реконструкции изображений SIM, как показано на ФИГ. 20-22. Предположим, что полная матрица каждого изображения субфрагмента в пространстве Фурье имеет 512 строк и 512 столбцов, как показано на ФИГ. 20. Мы разделяли положения матриц в трех матрицах частотной области, соответствующих трем изображениям, полученным в трех фазах, для одного угла в неизбыточные и избыточные половины, как описано выше. Каждая неизбыточная полуматрица имеет 512 строк и 257 столбцов, включая два столбца и одну строку компонентов DC, и в ней преобладают неизбыточные коэффициенты, которые имеют ответные коэффициенты конъюгата в избыточной полуматрице. Мы модифицировали каждую неизбыточную полуматрицу в вектор и объединяли три вектора для трех полуматриц в матрицу, имеющую 3 строки и 131584 столбца, как показано на ФИГ. 21. Затем мы перемножали обратную матрицу разделения полос М-1 с объединенной матрицей для получения итогового компонента разделенной матрицы такого же размера, также с 3 строками и 131584 столбцами. Разделенная матрица соответствует левой стороне уравнения (31). Затем мы изменяли три строки матрицы для получения неизбыточных левых половин матриц, соответствующих трем частотным компонентам Три неизбыточных матрицы показаны на ФИГ. 22 (и ФИГ. 18) как 1831, 1833 и 1835. В нашем случае разделенные компоненты находятся в форме неизбыточных полуматриц.[00243] In the strip separation step, the described SIM image reconstruction technology is used, as shown in FIGS. 20-22. Assume that the full matrix of each sub-patch image in the Fourier space has 512 rows and 512 columns, as shown in FIG. 20. We divided the matrix positions in the three frequency domain matrices corresponding to the three images obtained in three phases for one angle into non-redundant and redundant halves, as described above. Each non-redundant half-matrix has 512 rows and 257 columns, including two columns and one row of the DC components, and is dominated by non-redundant coefficients that have the response coefficients of the conjugate in the redundant half-matrix. We modified each non-redundant half-matrix into a vector and combined the three vectors for the three half-matrices into a matrix having 3 rows and 131584 columns, as shown in FIG. 21. We then multiplied the inverse of the band-separation matrix M -1 with the combined matrix to obtain the final component of the split matrix of the same size, also with 3 rows and 131584 columns. The split matrix corresponds to the left-hand side of equation (31). We then modified the three rows of the matrix to obtain the non-redundant left halves of the matrices corresponding to the three frequency components. The three non-redundant matrices are shown in FIG. 22 (and FIG. 18) as 1831, 1833, and 1835. In our case, the separated components are in the form of non-redundant half-matrices.
[00244] Как показано на ФИГ. 18, после этапа 3-b обработки полная матрица для так называемого компонента частоты DC может быть представлена как квадратная матрица, которая объединяет неизбыточную полуматрицу 1831 (левая половина) и избыточную полуматрицу 1832 (правая половина), или она может представлять собой прямоугольную матрицу. Матрица частоты DC не подвергается одному и тому же смещению в виде высокочастотных матриц, поэтому половины DC могут быть собраны раньше или позже без дополнительных вычислений. Для двух высокочастотных компонентов симметрия обрабатывается по-разному, уменьшая вычислительную нагрузку.[00244] As shown in FIG. 18, after the processing step 3-b, the complete matrix for the so-called DC frequency component can be represented as a square matrix that combines the non-redundant half-matrix 1831 (left half) and the redundant half-matrix 1832 (right half), or it can be a rectangular matrix. The DC frequency matrix is not subject to the same bias as the high-frequency matrices, so the DC halves can be assembled earlier or later without additional computation. For the two high-frequency components, symmetry is handled differently, reducing the computational load.
[00245] После этапа 3-b обработки полная матрица высокочастотных компонентов выполнена с возможностью объединения частей из двух полос, таких как неизбыточная полуматрица (1) 1843 от первого высокочастотного изображения и избыточная полуматрица (2') 1844 от второго высокочастотного изображения. Аналогично, можно совместить неизбыточную полуматрицу (2) 1845 от второго высокочастотного компонента и избыточную полуматрицу (1') 1846 от первого высокочастотного компонента.[00245] After the processing step 3-b, the full matrix of high-frequency components is configured to combine parts from two bands, such as the non-redundant half-matrix (1) 1843 from the first high-frequency image and the redundant half-matrix (2') 1844 from the second high-frequency image. Similarly, it is possible to combine the non-redundant half-matrix (2) 1845 from the second high-frequency component and the redundant half-matrix (1') 1846 from the first high-frequency component.
[00246] Хотя на ФИГ. 18 показаны три полных матрицы для компонентов DC и высоких частот, операции на этапах 3b, 3с и 3d могут быть обработаны с использованием симметрии, обработки полос частотных компонентов с использованием половины данных.[00246] Although FIG. 18 shows three full matrices for the DC and high frequency components, the operations in steps 3b, 3c and 3d may be processed using symmetry, processing the frequency component bands using half of the data.
[00247] Аналогичный способ может быть применен к пяти изображениям со структурированным освещением 1D с этапами фаз вдоль угла, разделенного на частотные компоненты, или большим количеством изображений вдоль угла. Можно использовать другую функцию, кроме синусоидально или косинусоидально изменяющегося освещения. Описанная технология также может быть применена для наборов изображений, созданных с помощью двумерного структурированного освещения.[00247] A similar method can be applied to five images with 1D structured illumination with phase stages along an angle divided into frequency components, or to a larger number of images along an angle. A function other than sinusoidally or cosinely varying illumination can be used. The described technology can also be applied to sets of images created using two-dimensional structured illumination.
Этап 3-е (применение функции передачи модуляции)Step 3 (Application of the modulation transfer function)
[00248] Ниже описаны два варианта применения функции модуляции (MTF) и/или функции оптической передачи (OTF): двухэтапное применение независимой MTF с последующим фильтрацией Винера для снижения шума и одноэтапного применения MTF, встроенного в фильтр Винера. Оба этих варианта могут использовать преимущества описанных неизбыточных вычислений.[00248] Two variants of applying the modulation transfer function (MTF) and/or optical transfer function (OTF) are described below: a two-stage application of an independent MTF followed by Wiener filtering for noise reduction, and a one-stage application of the MTF embedded in the Wiener filter. Both of these variants can take advantage of the described non-redundant computations.
[00249] В этой двухэтапной реализации мы умножим (MTF), что представляет собой амплитуду или абсолютное значение функции оптической передачи (OTF), причем каждый из трех компонентов получен после этапа 3-b.[00249] In this two-stage implementation, we multiply (MTF), which is the amplitude or absolute value of the optical transfer function (OTF), with each of the three components obtained after stage 3-b.
Следует отметить, что этапы 3-b и 3-е объединены, как показано на ФИГ. 18, поскольку применение MTF не влияет на симметрию в матрицах.It should be noted that steps 3-b and 3-e are combined as shown in FIG. 18, since the application of MTF does not affect the symmetry in the matrices.
[00250] Функция модуляции линзы представляет собой измерение ее способности передавать контраст на конкретное разрешение от объекта к изображению. Другими словами, MTF представляет собой способ включения разрешения и контраста в одно описание. Разрешение представляет собой способность системы визуализации различать детали объекта. Это может быть выражено в виде числа пар линий на миллиметр (пл/мм), где пара линий представляет собой последовательность одной черной и одной белой линии. Этот способ измерения в парах линий на миллиметр также называют частотой. Обратная величина частоты дает разнос в миллиметрах между двумя развернутыми линиями. Для тестирования производительности системы часто используют столбчатые цели с рядом одинаковых промежутков, чередующиеся белые и черные столбцы (также известные как цель USAF 1951 или решетка Ронки). По мере уменьшения расстояния между линиями (т.е. с увеличением частоты на цели) линзе становится сложнее эффективно переносить это снижение на контраст; в результате MTF уменьшается.[00250] The modulation function of a lens is a measurement of its ability to transfer contrast at a given resolution from an object to an image. In other words, MTF is a way of including resolution and contrast in a single description. Resolution is the ability of an imaging system to resolve detail in an object. It can be expressed as the number of line pairs per millimeter (lp/mm), where a line pair is a sequence of one black and one white line. This method of measuring line pairs per millimeter is also called frequency. The reciprocal of frequency gives the spacing in millimeters between two swept lines. Columnar targets with a series of equally spaced, alternating white and black columns (also known as a USAF 1951 target or Ronchi grid) are often used to test system performance. As the spacing between lines decreases (i.e., as the frequency on the target increases), it becomes more difficult for the lens to effectively transfer this reduction in contrast; as a result, the MTF decreases.
[00251] Для получения дополнительной информации о функции модуляции см. статью «Introduction to Modulation Transfer Function» по адресу: https://www.edmundoptics.com/ resources/application-notes/optics/introduction-to-modulation-transfer-function/. На Фиг. 5 в приведенном выше документе показано, что при увеличении пространственной частоты линий контраст изображения уменьшается. Чтобы изображение было четким, черный цвет должен быть действительно черным, а белый - белым, с минимальным количеством серого цвета. На Фиг. 6 данной статьи показана MTF изображения без аберраций с прямоугольной линзой. MTF уменьшается при увеличении пространственного разрешения. Важно отметить, что имеющиеся системы не являются полностью аберрационными.[00251] For more information on the modulation transfer function, see the paper "Introduction to Modulation Transfer Function" at https://www.edmundoptics.com/resources/application-notes/optics/introduction-to-modulation-transfer-function/. Figure 5 in the above paper shows that as the spatial frequency of the lines increases, the image contrast decreases. For an image to be sharp, black must be truly black and white must be truly white, with a minimum amount of gray. Figure 6 in this paper shows the MTF of an aberration-free image with a rectangular lens. The MTF decreases as the spatial resolution increases. It is important to note that the available systems are not completely aberration-free.
[00252] Этот этап двухэтапного применения MTF и фильтрации Винера можно заменить одним этапом, который представлен на этапе 15 SIM-RA (алгоритм 1) Lal et al. 2015. Опять же, этап 3-е представляет собой первую часть алгоритма, выполняющий два этапа фильтрации Винера. Альтернативно, этот этап может быть выполнен после этапа 3-d без какого-либо влияния на качество восстановленного изображения SIM.[00252] This step of two-step application of MTF and Wiener filtering can be replaced by a single step, which is presented in step 15 of SIM-RA (Algorithm 1) of Lal et al. 2015. Again, step 3-e is the first part of the algorithm, performing two steps of Wiener filtering. Alternatively, this step can be performed after step 3-d without any impact on the quality of the reconstructed SIM image.
[00253] Этот двухэтапный подход (т.е. применение MTF отдельно от фильтрации Винера) был рекомендован в литературе по реконструкции изображения SIM. Например, M.G.L. Gustafsson рекомендовал этот двухэтапный подход в своей работе под названием «Surpassing the lateral resolution limit by factor of two using structured illumination microscopy», опубликованной в Journal of Microscopy, том 198, часть 2, май 2000 г., стр. 82-87. Для реконструкции изображений SIM эта работа предполагает умножение каждого из трех частотных компонентов на OTF микроскопа. После этого компоненты складывают в местах, где они перекрываются. Наконец, сумму компонентов делят на сумму квадратов OTF и небольшой постоянной. В работе дополнительно указано, что этот процесс эквивалентен одноэтапной фильтрации Винера.[00253] This two-step approach (i.e., applying the MTF separately from the Wiener filtering) has been recommended in the SIM image reconstruction literature. For example, M.G.L. Gustafsson recommended this two-step approach in his paper entitled "Surpassing the lateral resolution limit by factor of two using structured illumination microscopy" published in the Journal of Microscopy, Volume 198, Part 2, May 2000, pp. 82-87. To reconstruct SIM images, this paper suggests multiplying each of the three frequency components by the microscope OTF. The components are then added together where they overlap. Finally, the sum of the components is divided by the sum of the squares of the OTF and a small constant. The paper further states that this process is equivalent to one-step Wiener filtering.
[00254] Фильтрация Винера трех компонентов в уравнениях 32, 33 и 34 показана ниже (взята из Lal et al. 2015):[00254] The Wiener filtering of the three components in Equations 32, 33 and 34 is shown below (adapted from Lal et al. 2015):
[00255] Три частотных компонента полученные в левой стороне уравнений 32, 33 и 34, обозначаются в Lal et al. 2015 как так называемые неклассифицированные оценки расчетных значений шума путем применения фильтрации Винера. Термин «неклассифицированный», по-видимому, заимствован из неклассифицированных сеток анализа методом конечных элементов. Алгоритм 1 (SIM-RA) из Lal et al. 2015 работает с допущением того, что необработанные изображения SIM повреждены белым шумом. Выражение в квадратных скобках в уравнениях 32, 33 и 34 называют фильтром Винера, а т представляет собой коэффициент модуляции.[00255] Three frequency components obtained on the left-hand side of equations 32, 33 and 34 are referred to in Lal et al. 2015 as the so-called unclassified estimates of noise estimates by applying Wiener filtering. The term “unclassified” is likely borrowed from the unclassified meshes of finite element analysis. Algorithm 1 (SIM-RA) of Lal et al. 2015 operates under the assumption that the raw SIM images are corrupted by white noise. The expression in square brackets in equations 32, 33, and 34 is called the Wiener filter, and m is the modulation coefficient.
[00256] Расчетные значения шума Gonzales и Woods в своей книге «Digital Image Processing)) в разделе 5.7 на стр. 351 называют искаженными изображениями. Gonzales и Woods ссылаются на функцию ухудшения качества OTF . В идеальной системе без шума можно применять простой «обратный фильтр» для получения неискаженного изображения. Однако в большинстве реальных систем в полученных изображениях присутствует шум. Таким образом, обратный фильтр не может использоваться для восстановления неискаженных компонентов Фильтр Винера восстанавливает определенное изображение таким образом, что среднеквадратичная погрешность между искаженным изображением и классифицированным изображением сводится к минимуму. Таким образом, фильтр Винера также называют фильтром «минимальной среднеквадратичной погрешности». Подробнее о фильтре Винера рассказано в разделе 5.8 на странице 352 книги «Digital Image Processing» (авторы Gonzales и Woods).[00256] Calculated noise values Gonzales and Woods in their book "Digital Image Processing)) in section 5.7 on page 351 call distorted images. Gonzales and Woods refer to the OTF quality degradation function In an ideal noise-free system, a simple "inverse filter" can be used to obtain an undistorted image. However, in most real systems, noise is present in the resulting images. Thus, an inverse filter cannot be used to reconstruct undistorted components. The Wiener filter reconstructs a given image in such a way that the mean square error between the corrupted image and the classified image is minimized. Thus, the Wiener filter is also called the "minimum mean square error" filter. For more information about the Wiener filter, see Section 5.8 on page 352 of the book "Digital Image Processing" by Gonzales and Woods.
[00257] Фильтрация Винера или двухэтапный способ Густафссона позволяет восстанавливать компоненты близко к неискаженным, которые называются неклассифицированными расчетами в левых сторонах уравнений 32, 33 и 34 Lal et al. 2015, как показано выше.[00257] Wiener filtering or Gustafsson's two-stage method can recover components close to the undistorted ones, which are called unclassified calculations in the left-hand sides of equations 32, 33, and 34 of Lal et al. 2015, as shown above.
[00258] Другое важное наблюдение из уравнений 32, 33 и 34 Lal et al. 2015 заключается в том, что числители уравнений 32, 33 и 34 представляют собой конъюгаты OTF Если функция распределения точек (PSF) H(r) оптической системы является реальной и симметричной, то подразумевается, что OTF является реальной. Для реальных значений OTF равна ее конъюгату, т.е. Кроме того, если OTF положительная, то MTF (абсолютное значение OTF) равна OTF, т.е. Исходя из нашего предыдущего наблюдения, это дополнительно подразумевает, что Это наблюдение показывает, что MTF можно использовать в качестве числителя в уравнении 32, 33, 34 (когда OTF является реальной и положительной), что означает, что этап 3-е обработки эквивалентен умножению числителя уравнений 32, 33 и 34 на три искаженных компонента соответственно в трех уравнениях 32, 33 и 34.[00258] Another important observation from equations 32, 33, and 34 of Lal et al. 2015 is that the numerators of equations 32, 33, and 34 are OTF conjugates If the point distribution function (PSF) H(r) of an optical system is real and symmetric, then it is implied that the OTF is real. For real values, OTF is equal to its conjugate, i.e. Furthermore, if the OTF is positive, then the MTF (absolute value of the OTF) is equal to the OTF, i.e. Based on our previous observation, this further implies that This observation shows that MTF can be used as the numerator in Equation 32, 33, 34 (when OTF is real and positive), which means that the 3rd processing step is equivalent to multiplying the numerator of Equations 32, 33, and 34 by the three distorted components respectively in three equations 32, 33 and 34.
[00259] В алгоритме восстановления субфрагмента SIM без избыточности мы перемножаем неизбыточные матрицы 1831, 1833 и 1835, полученные после этапа разделения полос (этап 3-b). Это скалярное умножение по элементам, и оно не изменяет размеры полученных неизбыточных матриц. После этого умножения мы получаем три неизбыточных полуматрицы 1831, 1833 и 1835, которые показаны на ФИГ. 18. После применения OTF симметрии в трех полных матрицах остаются такими же, как описано на этапе разделения полос.[00259] In the algorithm for restoring the SIM sub-fragment without redundancy, we multiply the non-redundant matrices 1831, 1833, and 1835 obtained after the strip division step (step 3-b). This is a scalar multiplication by elements and does not change the sizes of the obtained non-redundant matrices. After this multiplication, we obtain three non-redundant half-matrices 1831, 1833, and 1835, which are shown in FIG. 18. After applying the OTF, the symmetries in the three full matrices remain the same as described in the strip division step.
Усреднение первого и среднего столбцовAveraging the first and middle columns
[00260] Теперь мы предлагаем вычислительную функцию, которая может улучшить качество восстановленных изображений с использованием алгоритма реконструкции изображений SIM без избыточности. На ФИГ. 23В представлены матрицы Фурье из двух высокочастотных изображений. В алгоритме без избыточности используют левые половины двух матриц, обозначенных как 1843 (левый полублок 1) и 1845 (левый полублок 2). Эти две матрицы показаны в верхней строке ФИГ. 23В вместе с разделенными правыми полуматрицами 1846 (правый блок 1') и 1844 (правый полублок 2'). Маркировка левой и правой половин двух матриц соответствует ФИГ. 18 (четвертая строка сверху). Неизбыточный алгоритм использует левые половины двух высокочастотных матриц во время восстановления изображения. Из-за симметрии Фурье симметрии правых полуматриц могут быть восстановлены с использованием поиска аналогов левых полуматриц. Во второй строке матриц на ФИГ. 23В показано соединение левой полуматрицы одного высокочастотного изображения с правой полуматрицей второго высокочастотного изображения во время реконструкции изображения. Эти соединенные матрицы также показаны в 3-ей и 4-ой строках на ФИГ. 18.[00260] We now propose a computational function that can improve the quality of reconstructed images using a non-redundant SIM image reconstruction algorithm. FIG. 23B shows the Fourier matrices of two high-frequency images. The non-redundant algorithm uses the left halves of the two matrices, labeled 1843 (left half-block 1) and 1845 (left half-block 2). These two matrices are shown in the top row of FIG. 23B along with the separated right half-matrices 1846 (right block 1') and 1844 (right half-block 2'). The labeling of the left and right halves of the two matrices corresponds to FIG. 18 (fourth row from the top). The non-redundant algorithm uses the left halves of the two high-frequency matrices during image reconstruction. Due to the Fourier symmetry, the symmetries of the right half-matrices can be reconstructed by searching for analogues of the left half-matrices. In the second row of matrices in FIG. 23B shows the connection of the left half-matrix of one high-frequency image with the right half-matrix of a second high-frequency image during image reconstruction. These connected matrices are also shown in the 3rd and 4th rows of FIG. 18.
[00261] В левых полуматрицах двух высокочастотных изображений в этом варианте реализации столбцов на два больше, чем в их соответствующих правых полуматрицах. Эти два столбца представляют собой первый и средний столбцы, которые показаны с заштрихованным рисунком на ФИГ. 23В. Первый и средний столбцы 1843 и 1845 представляют собой компоненты DC, которые должны совпадать при использовании идеальных приборов и измерений. Поскольку инструменты, используемые для захвата изображений (на разных фазах), несовершенны, а в процессе может присутствовать шум, эти две высокочастотные матрицы могут иметь различные значения в первом и среднем столбцах. Реконструкцию можно улучшить, принудительно выровняв значения первого и среднего столбцов матриц 1843 и 1845.[00261] The left half-matrices of the two high-frequency images in this embodiment have two more columns than their corresponding right half-matrices. These two columns are the first and middle columns, which are shown with a shaded pattern in FIG. 23B. The first and middle columns 1843 and 1845 represent DC components that should match when using ideal instruments and measurements. Since the instruments used to capture the images (at different phases) are imperfect and noise may be present in the process, these two high-frequency matrices may have different values in the first and middle columns. The reconstruction can be improved by forcing the values of the first and middle columns of matrices 1843 and 1845 to match.
[00262] Усреднение первого и среднего столбцов неизбыточных компонентов матриц для двух высокочастотных компонентов является одним из способов выравнивания значений этих столбцов в матрицах 1843 и 1845 для улучшения качества восстановленного изображения путем введения симметрии в значениях этих столбцов. На ФИГ. 23С показано усреднение первого и среднего столбцов из левых полуматриц двух высокочастотных изображений в пространстве Фурье. Усредненные значения в первых и средних столбцах двух матриц делают полученные матрицы удовлетворяющими симметрии пространства Фурье. Первый и последний столбцы после усреднения показаны заштрихованными на ФИГ. 23С.[00262] Averaging the first and middle columns of the non-redundant components of the matrices for the two high-frequency components is one of the methods for aligning the values of these columns in the matrices 1843 and 1845 to improve the quality of the reconstructed image by introducing symmetry in the values of these columns. FIG. 23C shows averaging the first and middle columns from the left half-matrices of the two high-frequency images in the Fourier space. The averaged values in the first and middle columns of the two matrices make the resulting matrices satisfy the symmetry of the Fourier space. The first and last columns after averaging are shown shaded in FIG. 23C.
[00263] Другие методики также могут быть использованы для выравнивания значений этих столбцов в матрицах 1843 и 1845. Например, мы можем использовать значения в первом и среднем столбцах либо первого, либо второго высокого частотного изображения и использовать эти значения в обеих матрицах 1843 и 1845. Можно также использовать взвешенную комбинацию значений первых и средних столбцов двух высокочастотных изображений. Например, объединив значения путем назначения двух третей веса на значения одного высокочастотного изображения и одной трети веса к значениям другого высокочастотного изображения. Следует понимать, что различные относительные весовые коэффициенты могут быть назначены для объединения значений соответствующих столбцов.[00263] Other techniques may also be used to align the values of these columns in matrices 1843 and 1845. For example, we may use the values in the first and middle columns of either the first or second high frequency image and use these values in both matrices 1843 and 1845. It is also possible to use a weighted combination of the values of the first and middle columns of two high frequency images. For example, by combining the values by assigning two-thirds of the weight to the values of one high frequency image and one-third of the weight to the values of the other high frequency image. It should be understood that different relative weights may be assigned for combining the values of the corresponding columns.
Этап 3-d (смещение субпикселей)Stage 3-d (subpixel shift)
[00264] На этом этапе каждый из высокочастотных компонентов сдвигают для преодоления эффектов квантования дискретного быстрого преобразования Фурье. Поскольку положения пикселей в матрице пространства Фурье соответствуют дискретным частотным блокам, мы обозначаем это как смещение субпикселей. Чтобы объяснить это, Karras et. al. 2019, в своей работе «Successful optimization of reconstruction parameters in structured illumination microscopy - A practical guide», опубликованной в журнале Optics Communications, демонстрирует смещение более высоких частотных компонентов в полосу частот OTF при использовании структурированного освещения (см. Фиг. 1 в Karras et al. 2019). Во время смещения субпикселей истинные положения высокочастотных компонентов центрированы на частотах рθ и рθ соответственно в частотной области. Это смещение проиллюстрировано в уравнениях 35 и 36, взятых из Lal et. al. 2015.[00264] At this stage, each of the high frequency components are shifted to overcome the effects of discrete fast Fourier transform quantization. Since the pixel positions in the Fourier space matrix correspond to discrete frequency blocks, we denote this as subpixel shifting. To explain this, Karras et. al. 2019, in their paper “Successful optimization of reconstruction parameters in structured illumination microscopy - A practical guide” published in Optics Communications, demonstrate a shift of higher frequency components into the OTF bandwidth when using structured illumination (see Fig. 1 in Karras et al. 2019). During subpixel shifting, the true positions of the high-frequency components are centered at frequencies p θ and p θ , respectively, in the frequency domain. This shift is illustrated in Equations 35 and 36 taken from Lal et. al. 2015.
[00265] В алгоритмах восстановления изображения предшествующего уровня техники, таких как алгоритм 1 SIM-RA, представленный в Lal et al. 2015, выполняют две операции преобразования Фурье на одно высокочастотное изображение для смещения высокочастотного содержимого в нужное положение, как показано в уравнениях 35 и 36. Свойство сдвига преобразования Фурье позволяет нам сдвигать сигнал. Смещение может быть выполнено путем переноса информации из частотной области в пространственную область, а затем применения умножения (также называемого применением вектора смещения). Затем для этого смещенного сигнала применяют преобразование Фурье, чтобы вернуть его обратно в частотную область. Более подробная информация о свойстве смещения преобразования Фурье приведена на странице http://www.thefouriertransform.com/transform/properties.php. Смещение высокочастотного содержания фактически выполняется в реальном пространстве путем выполнения обратного преобразования Фурье на неклассифицированных изображениях, чтобы не ограничивать вектор смещения на целые пиксели в дискретных преобразованиях Фурье. Таким образом, мы можем достичь смещения пикселей в реальном пространстве. Затем смещенные высокочастотные компоненты преобразуются в частотную область путем преобразования Фурье.[00265] In prior art image restoration algorithms, such as the SIM-RA algorithm 1 presented in Lal et al. 2015, two Fourier transform operations are performed on a single high-frequency image to shift the high-frequency content to the desired position, as shown in Equations 35 and 36. The shift property of the Fourier transform allows us to shift the signal. The shift can be done by transferring information from the frequency domain to the spatial domain and then applying a multiplication (also called applying a shift vector). The Fourier transform is then applied to this shifted signal to return it back to the frequency domain. More information about the shift property of the Fourier transform can be found at http://www.thefouriertransform.com/transform/properties.php. The shift of the high-frequency content is actually performed in real space by performing the inverse Fourier transform on the unclassified images so as not to restrict the shift vector to whole pixels in discrete Fourier transforms. In this way, we can achieve pixel displacement in real space. Then the displaced high-frequency components are transformed into the frequency domain by Fourier transform.
[00266] Мы улучшаем эффективность реконструкции изображений SIM и уменьшаем требуемые вычислительные ресурсы с помощью симметрии в пространстве Фурье. Таким образом, так называемый частотный компонент DC не должен быть смещен в виде субпикселя, как показано на ФИГ. 18. Матрицы высокочастотных компонентов смещены относительно матрицы частотных компонентов DC.[00266] We improve the efficiency of SIM image reconstruction and reduce the required computational resources by using symmetry in the Fourier space. Thus, the so-called DC frequency component does not have to be shifted in the form of a subpixel, as shown in FIG. 18. The high-frequency component matrices are shifted relative to the DC frequency component matrix.
[00267] В описании алгоритма без избыточности мы смещаем только одну матрицу высокочастотных компонентов после объединения неизбыточных половин ответных матриц со смещенными фазами высокочастотных компонентов, показанных на ФИГ. 18. Объединенные половины высокочастотных компонентов показаны в виде левой половины 1833 и правой половины 1834 или матрицы с меткой 1|2', показанной в среднем столбце третьей строки на ФИГ. 18. Эта матрица смещена из области Фурье в пространственную область и обратно, вместо двух матриц в алгоритмах реконструкции изображений SIM предшествующего уровня техники. Смещенная матрица 1|2' показана в среднем столбце четвертой строки на ФИГ. 18 двумя стрелками, указывающими по диагонали вверх по направлению к верхним левым углам. Эта матрица состоит из левой полуматрицы 1843 и правой полуматрицы 1844. Вторая высокочастотная матрица, которая состоит из левой полуматрицы 1845 и 1846 или обозначена как 2|1', получена с использованием симметрии пространства Фурье и конъюгации матрицы 1|2'. Мы сдвигаем ее на такое же расстояние, как и матрицу 1|2', но в противоположном направлении, которое обозначено двумя диагональными стрелками по направлению к нижнему правому углу.[00267] In the description of the redundancy-free algorithm, we shift only one matrix of high-frequency components after combining the non-redundant halves of the response matrices with shifted phases of the high-frequency components shown in FIG. 18. The combined halves of the high-frequency components are shown as the left half 1833 and the right half 1834, or the matrix with the label 1|2' shown in the middle column of the third row of FIG. 18. This matrix is shifted from the Fourier domain to the spatial domain and back, instead of two matrices in the prior art SIM image reconstruction algorithms. The shifted matrix 1|2' is shown in the middle column of the fourth row of FIG. 18 by two arrows pointing diagonally upward toward the upper left corners. This matrix consists of the left half of the matrix 1843 and the right half of the matrix 1844. The second high-frequency matrix, which consists of the left half of the matrix 1845 and 1846 or denoted as 2|1', is obtained using the symmetry of the Fourier space and the conjugation of the matrix 1|2'. We shift it the same distance as the matrix 1|2', but in the opposite direction, which is denoted by the two diagonal arrows towards the lower right corner.
[00268] Этапы 3a-3d обработки повторяют циклически вдоль углов пика освещения. В этом примере мы используем два угла или ориентации, поэтому мы выполняем вышеуказанные этапы для второго набора из трех изображений, полученных со второй ориентацией рисунка структурированного освещения.[00268] The processing steps 3a-3d are repeated cyclically along the angles of the illumination peak. In this example, we use two angles or orientations, so we perform the above steps for a second set of three images obtained with a second orientation of the structured illumination pattern.
Этап обработки 4. Сумма реконструкции и создание фильтра ВинераProcessing step 4. Reconstruction sum and Wiener filter creation
[00269] Фильтр Винера можно создать один раз и затем многократно применять к фильтровальным изображениям даже при изменении параметров. Дополнительный материал для работы Karras et. al. 2019 под названием «Successful optimization of reconstruction parameters in structured illumination microscopy A practical guide», опубликованной в журнале Optics Communications, иллюстрирует настройку параметра фильтра Винера(w), которая является постоянной частью знаменателя в уравнениях 32, 33 и 34. Фиг. S1 этого дополнительного материала для Karras et. al. 2019 иллюстрирует влияние различных значений параметра фильтра Винера (w) на извлеченных спектрах изображения. Низкое значение параметра фильтра Винера может привести к шуму в извлеченных спектрах. Слишком высокое значение может привести к потере данных изображения. Значение параметра фильтра Винера может быть определено эмпирически, как описано в Lal et al. 2015 и дополнительных материалах Karras et. al. 2019. В альтернативном варианте осуществления для снижения шума можно использовать другие типы фильтров нижних частот Фурье. Например, фильтр нижних частот Гаусса, фильтр нижних частот Баттерворта или фильтр нижних частот Хэмминга. Подробная информация об этих фильтрах доступна по адресу http://fourier.eng.hmc.edu/е101/lectures/Fourier_Analysis/node10.html.[00269] The Wiener filter can be created once and then applied repeatedly to the filter images even if the parameters change. The supplementary material for Karras et al. 2019, “Successful optimization of reconstruction parameters in structured illumination microscopy A practical guide,” published in Optics Communications, illustrates the adjustment of the Wiener filter parameter (w), which is the constant part of the denominator in Equations 32, 33, and 34. Fig. S1 of this supplementary material for Karras et al. 2019 illustrates the effect of different values of the Wiener filter parameter (w) on the extracted image spectra. A low value of the Wiener filter parameter may result in noise in the extracted spectra. Too high a value may result in loss of image data. The value of the Wiener filter parameter can be determined empirically, as described in Lal et al. 2015 and the supplementary material of Karras et al. 2019. In an alternative embodiment, other types of Fourier low-pass filters can be used to reduce noise. For example, the Gaussian low-pass filter, the Butterworth low-pass filter, or the Hamming low-pass filter. Detailed information about these filters is available at http://fourier.eng.hmc.edu/e101/lectures/Fourier_Analysis/node10.html.
[00270] Только части матриц, которые включают в себя высокочастотные компоненты, перекрываются с так называемой матрицей частоты DC. Расширенная матрица, в которой объединены коэффициенты из множества частотных матриц области Фурье, шире и больше отдельных матриц до объединения с помощью коэффициента усиления, что отражает усиление развернутого изображения. Коэффициент повышения частоты может составлять от 1,0 до 2,0 ширины и высоты отдельных матриц. Если коэффициент повышения частоты равен 1,0, улучшение разрешения изображения отсутствует. Высокочастотные компоненты и изображения на всех фазах вдоль ориентации не перекрывают друг друга. Когда коэффициент повышения частоты равен 2,0, смещенные матрицы высокочастотных компонентов отделены друг от друга таким образом, что их края (или границы) касаются центра матрицы без смещения. Это означает, что ширина и высота восстановленного изображения высокого разрешения увеличиваются в два раза по сравнению с отдельными матрицами изображения. Эта комбинированная матрица показана в виде большой матрицы 1850 на ФИГ. 18. Матрица 1850 в два раза шире и выше, чем отдельные матрицы, обозначенные 1|2' и 2|1', чтобы показать, что восстановленное изображение улучшено. Когда коэффициент повышения частоты для улучшения разрешения изображения больше 1,0 и меньше 2,0, смещенные матрицы 1|2' и 2|1' расположены ближе и перекрывают друг друга в центре большой матрицы 1850.[00270] Only the portions of the matrices that include high-frequency components overlap with the so-called DC frequency matrix. The expanded matrix, in which the coefficients from a plurality of Fourier domain frequency matrices are combined, is wider and larger than the individual matrices before combining using a gain factor, which reflects the gain of the unfolded image. The frequency enhancement factor can be from 1.0 to 2.0 times the width and height of the individual matrices. If the frequency enhancement factor is 1.0, there is no improvement in image resolution. The high-frequency components and images at all phases along the orientation do not overlap each other. When the frequency enhancement factor is 2.0, the offset matrices of the high-frequency components are separated from each other in such a way that their edges (or boundaries) touch the center of the matrix without offset. This means that the width and height of the reconstructed high-resolution image are increased by a factor of two compared to the individual image matrices. This combined matrix is shown as a large matrix 1850 in FIG. 18. The matrix 1850 is twice as wide and tall as the individual matrices labeled 1|2' and 2|1' to indicate that the reconstructed image has been enhanced. When the frequency enhancement factor for improving the image resolution is greater than 1.0 and less than 2.0, the offset matrices 1|2' and 2|1' are located closer to and overlap each other in the center of the large matrix 1850.
[00271] На ФИГ. 18 показано построение матрицы 1850 из матриц для трех изображений в первом углу. Неизбыточная половина компонента DC для первого угла показана как 1841 на ФИГ. 18. Затем мы помещаем коэффициенты смещения субпикселя для одного высокочастотного изображения в верхнюю левую часть матрицы 1850, а для другого высокочастотного изображения - в нижнюю правую часть. Избыточные компоненты конъюгата, необходимые для завершения 1850, могут быть рассмотрены в комплементарных неизбыточных компонентах, поддерживая отслеживание положений матрицы комплементарных компонентов (коэффициентов) и применение измененного знака к любой воображаемой части скопированных коэффициентов.[00271] FIG. 18 shows the construction of a matrix 1850 from matrices for three images in a first corner. The non-redundant half of the DC component for the first corner is shown as 1841 in FIG. 18. We then place the subpixel offset coefficients for one high-frequency image in the upper left portion of the matrix 1850, and for the other high-frequency image in the lower right portion. The redundant components of the conjugate needed to complete 1850 can be considered in complementary non-redundant components, maintaining tracking of the positions of the matrix of complementary components (coefficients) and applying a changed sign to any imaginary part of the copied coefficients.
[00272] При добавлении второго, перпендикулярного угла и трех дополнительных изображений (которые не показаны) квадрат будет заполнен. Мы помещаем полную матрицу для одного высокочастотного компонента для второго угла в нижнюю левую часть матрицы 1850, а второй высокочастотный компонент - в верхнюю правую часть.[00272] By adding the second, perpendicular corner and three additional images (not shown), the square is filled in. We place the full matrix for one high-frequency component for the second corner in the lower left of the 1850 matrix, and the second high-frequency component in the upper right.
[00273] Комбинирование девяти изображений проиллюстрировано в Lal et al. 2015. Коэффициенты в позициях перекрывающихся матриц объединяют в матрице 1850. Это изменение шести изображений для двух углов вместо трех.[00273] Combining nine images is illustrated in Lal et al. 2015. The coefficients in the positions of the overlapping matrices are combined into a matrix of 1850. This is a change from six images for two angles instead of three.
[00274] Визуализация объединяемых матриц наиболее четкая, когда коэффициенты изображены со смещением от центра, где среднее значение диапазона частот находится в центре матрицы, но при этом можно фактически выполнять расчеты с использованием матриц с угловым смещением с наименьшим частотным компонентом, например в верхнем левом или нижнем правом углу. Реконструкция матрицы 1850 изображения с улучшенным разрешением проиллюстрировано на ФИГ. 18 путем помещения низкочастотных компонентов в центр, а высокочастотных компонентов - за пределы центра. Такое расположение частотного содержимого называют спектром со смещением от центра. Применение быстрого преобразования Фурье (FFT) для данных изображения в пространственной области приводит к получению спектра со смещением к углу, в котором амплитуды низкочастотных компонентов заканчиваются в углах двумерного спектра в пространстве Фурье (или частотной области). Высокочастотные компоненты расположены ближе к центру двумерного спектра. Для простоты понимания полезно визуализировать частотное содержимое в частотной области в качестве спектра со смещением от центра, в котором низкочастотные компоненты расположены близко к центру, а высокочастотные - за пределами центра. Симметрия квадрантов в спектре со смещением к углу позволяет заменять квадранты по диагонали для перемещения низкочастотных компонентов ближе к центру. Таким образом, спектр со смещением к углу может быть прямо преобразован в спектр со смещением от центра и наоборот. Конъюгированные симметрия и избыточные области имеются как в спектре со смещением к углу, так и в спектре со смещением от центра. Спектр со смещением от центра на ФИГ. 18 представлен для облегчения понимания читателя.[00274] The visualization of the matrices being combined is clearest when the coefficients are depicted with an offset from the center, where the average value of the frequency range is at the center of the matrix, but it is possible to actually perform calculations using matrices with an angular offset with the smallest frequency component, such as in the upper left or lower right corner. A reconstruction of the image matrix 1850 with improved resolution is illustrated in FIG. 18 by placing the low-frequency components in the center and the high-frequency components outside the center. This arrangement of the frequency content is called an off-center spectrum. Applying a fast Fourier transform (FFT) to the image data in the spatial domain results in a spectrum offset to the corner at which the amplitudes of the low-frequency components end at the corners of the two-dimensional spectrum in Fourier space (or frequency domain). The high-frequency components are located closer to the center of the two-dimensional spectrum. For ease of understanding, it is useful to visualize the frequency content in the frequency domain as an off-center spectrum, in which the low-frequency components are close to the center and the high-frequency components are off-center. The symmetry of the quadrants in the corner-offset spectrum allows the quadrants to be swapped diagonally to move the low-frequency components closer to the center. Thus, a corner-offset spectrum can be directly transformed into an off-center spectrum and vice versa. Conjugate symmetry and redundant regions exist in both the corner-offset and off-center spectrum. The off-center spectrum in FIG. 18 is presented to facilitate the reader's understanding.
[00275] Фильтр Винера может быть построен для комбинированного изображения с использованием одного этапа (Lal et al. 2015) или двух этапов (Gustafsson 2000), представленных выше для изображений с разделением полос на этапе 3-е. Например, в одном варианте реализации фильтр Винера может быть создан с использованием MTF (функция передачи модуляции), которая представляет собой амплитуду или абсолютное значение OTF (функция оптической передачи). В этом варианте реализации мы выполняем процесс восстановления, чтобы вычислить перекрывающиеся частотные данные в фильтре Винера. Мы применяем весовые коэффициенты фильтра Винера для изображений с разделением полос на OTF совмещенного изображения, чтобы создать фильтр Винера для совмещенного изображения. Фильтр Винера применяют к совмещенному изображению в следующем этапе.[00275] The Wiener filter can be constructed for the combined image using one stage (Lal et al. 2015) or two stages (Gustafsson 2000) presented above for the band-split images in stage 3. For example, in one embodiment, the Wiener filter can be constructed using the MTF (modulation transfer function), which is the amplitude or absolute value of the OTF (optical transfer function). In this embodiment, we perform a reconstruction process to calculate the overlapping frequency data in the Wiener filter. We apply the weighting coefficients of the Wiener filter for the band-split images to the OTF of the combined image to construct a Wiener filter for the combined image. The Wiener filter is applied to the combined image in the next stage.
Этап обработки 5. Применение фильтра Винера и фильтра аподизацииProcessing step 5. Applying the Wiener filter and the apodization filter
[00276] На этом этапе мы применяем фильтр Винера или альтернативный фильтр, созданный в предыдущем этапе, к совмещенному изображению в пространстве Фурье. На этапе 3-е мы разделяли фильтрацию Винера на два этапа путем применения независимой MTF. См. уравнения 32, 33 и 34 на этапе 3-е. В качестве обработки с двухэтапной фильтрацией этот этап включает в себя применение оставшихся частей фильтра Винера (представленных в уравнениях 32, 33 и 34) к совмещенному изображению в пространстве Фурье. В альтернативном варианте осуществления мы можем применять фильтр Винера к изображениям Фурье из трех частотных компонентов на угол перед их объединением с образованием совмещенного изображения. При применении на ранних этапах мы можем применить фильтр Винера только к неизбыточным половинам матриц для частот с разделением полос.[00276] In this step, we apply the Wiener filter or the alternative filter created in the previous step to the registered image in Fourier space. In step 3, we split the Wiener filtering into two steps by applying an independent MTF. See equations 32, 33, and 34 in step 3. As a two-step filtering process, this step involves applying the remaining portions of the Wiener filter (presented in equations 32, 33, and 34) to the registered image in Fourier space. In an alternative embodiment, we may apply the Wiener filter to the Fourier images of the three frequency components at an angle before combining them to form the registered image. When applied in the early steps, we may apply the Wiener filter only to the non-redundant halves of the band-split frequency matrices.
[00277] Применение фильтра Винера усиливает сигнал, но он также может увеличивать шум на изображениях. Предварительно сконструированный фильтр аподизации помогает устранить резкие края на изображениях, которые появляются из-за высокой частоты. Фильтр аподизации представляет собой фильтр нижних частот, который удаляет частотное содержимое за пределами предварительно заданного радиуса в пространстве Фурье. Фильтр аподизации снижает погрешности, введенные фильтром Винера. Кроме того, для уменьшения погрешностей из-за фильтра Винера можно применять другие фильтры нижних частот, например фильтр нижних частот в реальном пространстве Хэмминга или фильтр Гаусса. Следует отметить, что фильтр аподизации необязателен и не используется некоторыми алгоритмами реконструкции SIM, такими как алгоритм 1 (SIM-RA) Lal et al. 2015. В альтернативном варианте осуществления фильтр аподизации может быть применен только к неизбыточным половинам матрицы для трех компонентов частоты ранее в цепочке.[00277] The use of a Wiener filter enhances the signal, but it can also increase noise in images. A pre-designed apodization filter helps to eliminate sharp edges in images that arise due to high frequency. The apodization filter is a low-pass filter that removes frequency content outside a pre-specified radius in Fourier space. The apodization filter reduces the errors introduced by the Wiener filter. In addition, other low-pass filters can be applied to reduce errors due to the Wiener filter, such as a low-pass filter in real Hamming space or a Gaussian filter. It should be noted that the apodization filter is optional and is not used by some SIM reconstruction algorithms, such as Algorithm 1 (SIM-RA) of Lal et al. 2015. In an alternative embodiment, the apodization filter can be applied only to the non-redundant halves of the matrix for the three frequency components earlier in the chain.
Этап обработки 6. Выполнение обратной FFTProcessing step 6. Performing inverse FFT
[00278] На этом этапе мы применяем обратное преобразование Фурье в матрицу 1850 для полного изображения в частотной области. Применение обратного быстрого преобразования Фурье (IFFT) превращает компоненты матриц из области Фурье в изображение в пространственной области (в реальном пространстве). Полученная матрица 1860 представляет собой восстановленное изображение SIM высокого разрешения. При использовании субфрагментов она является частью большего фрагмента.[00278] In this step, we apply the inverse Fourier transform to the 1850 matrix for the full frequency domain image. Applying the inverse fast Fourier transform (IFFT) transforms the matrix components from the Fourier domain into a spatial domain (real space) image. The resulting 1860 matrix is a high-resolution reconstructed SIM image. When using sub-fragments, it is part of a larger fragment.
Реконструкция изображений SIM для изображения полного FQVSIM image reconstruction for full FQV image
[00279] Субфрагменты изображений SIM высокого разрешения могут быть объединены для реконструкции изображения высокого разрешения полного FOV. Ниже представлен псевдокод для одного варианта реализации описанной технологии для реконструкции полного поля обзора с высоким разрешением из множества изображений субфрагментов. Представленный ниже алгоритм называется алгоритмом реконструкции поля обзора (алгоритмом 4). Он расширяет алгоритм 3 для восстановления субфрагмента. В качестве входных данных используют полученные изображения и коэффициенты искажения для параметров оценки. Оценка коэффициентов искажения для параметров угла и разноса (входные данные 2) и таблицы фазового смещения (входные данные 3) представлена выше. Алгоритм разделяет изображения полного FOV на субфрагменты областей одинакового размера. Изображения SIM реконструируют для субфрагментов, представленных выше в алгоритме 3. Наконец, изображения SIM высокого разрешения субфрагментов объединяют для реконструкции изображения SIM высокого разрешения полного FOV (этап 4b алгоритма).[00279] The high-resolution SIM image sub-tiles may be combined to reconstruct a high-resolution image of the full FOV. The pseudocode for one embodiment of the described technique for reconstructing a high-resolution full field of view from a plurality of sub-tile images is presented below. The algorithm presented below is called the field of view reconstruction algorithm (Algorithm 4). It extends Algorithm 3 for sub-tile reconstruction. The input data includes the obtained images and distortion coefficients for the estimation parameters. The estimation of the distortion coefficients for the angle and spacing parameters (input data 2) and the phase shift table (input data 3) is presented above. The algorithm divides the full FOV images into sub-tiles of equal-sized regions. The SIM images are reconstructed for the sub-tiles presented above in Algorithm 3. Finally, the high-resolution SIM images of the sub-tiles are combined to reconstruct a high-resolution SIM image of the full FOV (step 4b of the algorithm).
Алгоритм 4. Реконструкция полного поля обзораAlgorithm 4. Reconstruction of the full field of view
Входные данныеInput data
1. Набор изображений, например для 2 углов и 3 фаз на угол.1. A set of images, for example for 2 angles and 3 phases per angle.
2. Коэффициенты искажения для угла/разноса (см. алгоритм «Калибровка искажений с помощью квадратичной аппроксимации и справочной таблицы»).2. Distortion coefficients for angle/spacing (see the algorithm "Distortion calibration using quadratic approximation and look-up table").
3. Справочная таблица искажений для фазы (см. алгоритм «Калибровка искажений с помощью квадратичной аппроксимации и справочной таблицы»).3. Distortion lookup table for phase (see the algorithm “Distortion calibration using quadratic approximation and lookup table”).
4. Параметры фильтра Винера и аподизации. Выходные данные Реконструированное изображение.4. Wiener filter and apodization parameters. Output data Reconstructed image.
АлгоритмAlgorithm
1. Создание следующих изображений/фильтров (размер соответствует субобласти).1. Create the following images/filters (size corresponds to the sub-area).
a. OTFa.OTF
b. Винерb. Wiener
c. Аподизацияc. Apodization
2. Разделение изображения на субобласти одинакового размера, например 512 × 512.2. Dividing the image into sub-regions of equal size, for example 512 × 512.
a. Если изображение невозможно равномерно разделить по размеру субобласти, на правой кромке или в нижней части сместите субобласть влево (или вверх), чтобы она была на изображении.a. If the image cannot be divided evenly by the size of the subregion, on the right edge or at the bottom, move the subregion to the left (or up) so that it is in the image.
b. Настройте книгу учета для граничных субобластей, чтобы копировались только неперекрывающиеся части для правой или нижней крайней субобласти.b. Set up the ledger for the boundary subareas so that only the non-overlapping portions for the right or bottom edge subarea are copied.
3. Расчетные параметры в центре используемого изображения, например окна 512 × 512 (см. алгоритм сопоставления субфрагмента и разноса и алгоритм сопоставления фаз субфрагмента).3. Calculated parameters in the center of the image used, for example 512 × 512 windows (see subfragment and spacing matching algorithm and subfragment phase matching algorithm).
a. Расчетный угол и разнос пика освещения для каждого угла.a. Calculated angle and peak illumination spacing for each angle.
b. Расчетная модуляция для каждого угла.b. Calculated modulation for each angle.
c. Расчетная фаза для каждого изображения.c. Calculated phase for each image.
4. Для каждой субобласти4. For each sub-region
a. Восстановление субобласти более высокого разрешения с использованием алгоритма восстановления субфрагментаa. Recovering a higher resolution sub-region using a sub-fragment recovery algorithm
i. Использование решетки и угла, полученных на этапе 3, и заданных коэффициентов искажения для оценки локальной решетки и угла.i. Using the grating and angle obtained in step 3 and the given distortion coefficients to estimate the local grating and angle.
ii. Использование фазы, полученной на этапе 3, и заданной таблицы искажений для расчета правильной фазы.ii. Using the phase obtained in step 3 and the given distortion table to calculate the correct phase.
iii. С учетом ранее построенной OTF, применение фильтра Винера и аподизации для субобласти.iii. Given the previously constructed OTF, applying the Wiener filter and apodization to the subdomain.
b. Копирование выходных данных из (а) в большое изображение.b. Copy the output from (a) to a large image.
i. В случае граничной субобласти будут копированы только недостающие данные.i. In case of a boundary sub-area, only the missing data will be copied.
[00280] В контексте предыдущих описаний этот псевдокод не требует пояснений.[00280] In the context of the previous descriptions, this pseudocode is self-explanatory.
Потенциальные усовершенствования алгоритма реконструкции изображений SIMPotential improvements to the SIM image reconstruction algorithm
[00281] Мы предлагаем потенциальные усовершенствования алгоритма реконструкции изображений SIM (SIR), описанного в предварительной заявке на патент США №62/924,130, под заголовком «СИСТЕМЫ И СПОСОБЫ МИКРОСКОПИИ СТРУКТУРИРОВАННОГО ОСВЕЩЕНИЯ» (номер патентного реестра ILLM 1012-1); и предварительной заявке на патент США №62/924,138 под заголовком «ПОВЫШЕННАЯ ЭФФЕКТИВНОСТЬ РАСЧЕТА ДЛЯ МИКРОСКОПИИ СТРУКТУРИРОВАННОГО ОСВЕЩЕНИЯ» (номер патентного реестра ILLM 1022-1). Обе предварительные заявки были поданы 21 октября 2019 года.[00281] We provide potential improvements to the SIM image reconstruction (SIR) algorithm described in U.S. Provisional Patent Application Ser. No. 62/924,130, entitled SYSTEMS AND METHODS FOR STRUCTURED ILLUMINATION MICROSCOPY (Accession Number ILLM 1012-1); and U.S. Provisional Patent Application Ser. No. 62/924,138, entitled INCREASED COMPUTATION EFFICIENCY FOR STRUCTURED ILLUMINATION MICROSCOPY (Accession Number ILLM 1022-1). Both provisional applications were filed on October 21, 2019.
[00282] Первое возможное улучшение относится к справочной таблице отклонения фазы. На основании алгоритма SIR в исходном режиме используют справочную таблицу отклонения фазы. Предположение в исходной модели заключается в том, что отклонение фазы и искажение могут быть получены один раз и сохранены в справочной таблице. Предполагается, что значения в справочной таблице стабильны и применимы к множеству циклов секвенирования. Исходный алгоритм SIR предполагает, что справочная таблица (LUT) отклонения фазы остается стабильной в пространственной области. Это означает, что одну и ту же справочную таблицу можно применять к фрагментам проточной кюветы. Второе предположение в исходном алгоритме заключается в том, что LUT остается стабильной в множестве циклов секвенирования. Эксперименты показали, что эти предположения могут не быть истинными для всех проточных кювет и прогонов секвенирования. Фрагменты в проточной кювете могут иметь различия или другие искажения. На значения в справочной таблице могут влиять различные факторы окружающей среды, которые изменяются при выполнении нескольких прогонов секвенирования.[00282] The first possible improvement relates to the phase deviation lookup table. Based on the SIR algorithm, a phase deviation lookup table is used in the original mode. The assumption in the original model is that the phase deviation and distortion can be obtained once and stored in a lookup table. It is assumed that the values in the lookup table are stable and applicable to multiple sequencing runs. The original SIR algorithm assumes that the phase deviation lookup table (LUT) remains stable in the spatial domain. This means that the same lookup table can be applied to fragments of the flow cell. The second assumption in the original algorithm is that the LUT remains stable over multiple sequencing runs. Experiments have shown that these assumptions may not be true for all flow cells and sequencing runs. Fragments in the flow cell may have differences or other distortions. The values in the lookup table may be affected by various environmental factors that change over multiple sequencing runs.
[00283] Таким образом, универсальный алгоритм SIM включает в себя составление справочной таблицы отклонения фазы для каждого прогона секвенирования на фрагмент, когда новая проточная кювета загружена в секвенсер и запущено секвенирование. Это может увеличить время обработки, необходимое для первого прогона секвенирования. Однако наблюдается значительное улучшение частоты появления ошибок и увеличение процентного содержания кластеров, которые проходят фильтрацию (или %PF), как показано в следующих абзацах.[00283] Thus, the universal SIM algorithm includes the generation of a phase offset lookup table for each sequencing run per fragment when a new flow cell is loaded into the sequencer and sequencing is started. This may increase the processing time required for the first sequencing run. However, there is a significant improvement in the error rate and an increase in the percentage of clusters that pass filtering (or %PF), as shown in the following paragraphs.
[00284] Второе потенциальное улучшение связано с геометрическим искажением, которое приводит к тому, что параллельные линии изгибаются или иным образом искажаются. Геометрическое искажение может вызывать искажения в визуализации или оптическом пути и в проточной кювете. В некоторых случаях все или некоторые фрагменты в проточной кювете могут иметь наклонные элементы и не быть плоскими. Это может привести к геометрическому искажению. Определение характеристик всех фрагментов в проточной кювете является предпочтительным, поскольку в проточной кювете могут быть вариации от фрагмента к фрагменту. Ранний вариант коррекции предполагает, что геометрическое искажение может быть получено один раз и использовано для множества прогонов секвенирования. Эксперименты показали, что это предположение может не быть истинным для всех прогонов секвенирования. Таким образом, универсальный алгоритм включает в себя получение геометрического искажения для каждого фрагмента в проточной кювете в первом цикле прогона секвенирования.[00284] The second potential improvement relates to geometric distortion, which causes parallel lines to bend or otherwise become distorted. Geometric distortion can cause distortions in the imaging or optical path and in the flow cell. In some cases, all or some fragments in the flow cell may have tilted features and not be flat. This can lead to geometric distortion. Characterizing all fragments in the flow cell is preferable because there may be fragment-to-fragment variations in the flow cell. An early version of the correction assumes that the geometric distortion can be obtained once and used for multiple sequencing runs. Experiments have shown that this assumption may not be true for all sequencing runs. Thus, the universal algorithm involves obtaining the geometric distortion for each fragment in the flow cell in the first cycle of the sequencing run.
[00285] Третье потенциальное улучшение связано с объединением изображений субфрагментов и получением изображения полного поля обзора (FOV). В исходном алгоритме SIM, когда обратное быстрое преобразование Фурье (IFFT) применяют к субфрагментам в частотной области, края субфрагментов появляются в пространственной области. Таким образом, на объединенных субфрагментах в полном поле обзора видны линии объединения на краях субфрагментов. Проблема объединения вызывает появление темных артефактов вдоль границы субфрагментов. Универсальный алгоритм SIM решает проблему объединения с помощью перекрытия субфрагментов. Например, перекрытие субфрагментов может составлять от 5 до 15 пикселей. В одном варианте реализации субфрагменты перекрываются на 8 пикселей вдоль границы. При восстановлении изображения полного поля обзора (FOV) универсальный алгоритм может не учитывать внешние 8 пикселей для субфрагментов и использовать внутреннюю область для восстановления изображения полного FOV в пространственной области. В этом варианте реализации размер субфрагмента можно сделать больше 512×512 пикселей путем добавления граничных пикселей (например, 8 пикселей) с каждой стороны. В другом варианте реализации граничные пиксели субфрагментов могут быть усреднены вместо удаления граничных пикселей.[00285] A third potential improvement relates to combining sub-tile images to obtain a full field of view (FOV) image. In the original SIM algorithm, when the inverse fast Fourier transform (IFFT) is applied to the sub-tiles in the frequency domain, the edges of the sub-tiles appear in the spatial domain. Thus, the combined sub-tiles in the full field of view show merging lines at the edges of the sub-tiles. The merging problem causes dark artifacts to appear along the boundary of the sub-tiles. The universal SIM algorithm solves the merging problem by overlapping the sub-tiles. For example, the overlap of the sub-tiles may be from 5 to 15 pixels. In one embodiment, the sub-tiles overlap by 8 pixels along the boundary. When reconstructing the full field of view (FOV) image, the universal algorithm may ignore the outer 8 pixels for the sub-tiles and use the inner region to reconstruct the full FOV image in the spatial domain. In this embodiment, the sub-fragment size can be made larger than 512x512 pixels by adding border pixels (e.g., 8 pixels) on each side. In another embodiment, the border pixels of the sub-fragments can be averaged instead of removing the border pixels.
[00286] Четвертое потенциальное улучшение связано с оптимизацией фильтров Винера и аподизации. Параметры фильтра зависят от повышения частоты. Исходный алгоритм SIM использует 1,2-кратное повышение частоты, которое может обрезать частичный пиксель. При объединении изображений фрагментов в пространственной области это может вызвать смещение изображений и проблемы с выравниванием. Обрезка пикселя связана с повышением коэффициента повышения частоты (т.е. 1, 2), который обеспечивает нецелое число пикселей. Универсальный алгоритм SIM использует 1,5-кратное повышение частоты для преодоления проблемы частичной обрезки пикселей с использованием коэффициента повышение частоты, который генерирует целое число пикселей. Таким образом, обеспечиваются более четкие изображения субфрагмента для объединения. В других вариантах реализации можно использовать другие значения коэффициента повышения частоты, такие как увеличение в 1,25 раза, что также может создавать целое число пикселей.[00286] The fourth potential improvement is related to the optimization of the Wiener and apodization filters. The filter parameters are dependent on the upsampling. The original SIM algorithm uses a 1.2x upsampling, which can clip a partial pixel. When combining images of sub-tiles in the spatial domain, this can cause image shifting and alignment problems. The pixel clipping is associated with an increase in the upsampling factor (i.e., 1, 2), which provides a non-integer number of pixels. The universal SIM algorithm uses a 1.5x upsampling to overcome the problem of partial pixel clipping by using an upsampling factor that generates an integer number of pixels. This provides clearer sub-tile images for combining. Other implementations may use other upsampling factors, such as a 1.25x upsampling, which can also generate an integer number of pixels.
[00287] В некоторых вариантах осуществления описанная технология может использовать линейное изменение дозы для компенсации повреждения нуклеотидов, вызванных циклами воздействия в прогоне секвенирования. При линейном увеличении дозы возрастает оптическая сила лазеров синего и зеленого канала.[00287] In some embodiments, the disclosed technology may use a dose ramp to compensate for nucleotide damage caused by exposure cycles in a sequencing run. With a dose ramp, the optical power of the blue and green channel lasers increases.
Результаты сравнения производительностиPerformance comparison results
[00288] Мы сравнивали производительность исходного алгоритма SIM с универсальным алгоритмом SIM. Два алгоритма сравнивают по качеству результатов секвенирования, на которое указывает частота появления ошибок и процент кластеров, проходящих через фильтр (%PF). Частота появления ошибок измеряет процент базовых вызовов, которые были ошибочными по сравнению с известным эталонным геномом в процессе секвенирования. Кластеры, проходящие через фильтр, или показатель %PF указывают на качество сигнала от каждого кластера молекул в проточной кювете. Низкая частота появления ошибок и более высокие значения %PF являются желательными, поскольку они указывают на хорошее выходное значение секвенирования с высоким качеством базовых вызовов. Из более чем сотен фрагментов на проточной кювете мы выбрали результаты для лучшего фрагмента в каждом прогоне секвенирования для сравнения алгоритмов. Фрагменты в проточной кювете могут иметь различия с точки зрения плоскостности, наклона, гладкости поверхности и других факторов окружающей среды. Причина выбора наилучшего фрагмента для сравнения из более 100 фрагментов заключается в уменьшении различий, вызванных другими внешними факторами, посредством статистической агрегации.[00288] We compared the performance of the original SIM algorithm with the universal SIM algorithm. The two algorithms are compared in terms of the quality of the sequencing results, as indicated by the error rate and the percentage of clusters passing the filter (%PF). The error rate measures the percentage of base calls that were in error compared to a known reference genome during the sequencing process. The clusters passing the filter, or %PF, indicates the quality of the signal from each cluster of molecules in the flow cell. Low error rates and higher %PF values are desirable because they indicate good sequencing output with high quality base calls. From over hundreds of fragments on the flow cell, we selected the results for the best fragment in each sequencing run to compare the algorithms. Fragments in the flow cell can have differences in flatness, tilt, surface smoothness, and other environmental factors. The reason for selecting the best fragment for comparison from more than 100 fragments is to reduce the differences caused by other external factors through statistical aggregation.
[00289] На ФИГ. 25А представлена частота появления ошибок для исходного уровня и всех алгоритмов для трех циклов секвенирования, обозначенных как А, В и С. Для каждого цикла секвенирования частота появления ошибок для наилучшего фрагмента представлена для двух алгоритмов. Верхний столбец указывает на частоту появления ошибок для лучшего фрагмента во всем алгоритме, а нижний столбец указывает на частоту появления ошибок для наилучшего фрагмента в алгоритме исходного уровня для соответствующего прогона секвенирования. Таблица в нижней части графика показывает количественные улучшения частоты появления ошибок лучшего фрагмента, когда используется универсальный алгоритм. Например, частота появления ошибок лучшего фрагмента для прогона секвенирования А составляет 1,85%, когда используется исходный алгоритм. Частота появления ошибок лучшего фрагмента для прогона секвенирования А составляет 1,18% при использовании всех алгоритмов, что указывает на секвенирование более высокого качества при меньшей частоте появления ошибок. Аналогичные улучшения в виде уменьшения частоты появления ошибок наблюдаются в прогонах секвенирования В и С при использовании универсального алгоритма.[00289] FIG. 25A shows the error rate for the baseline and all algorithms for three sequencing runs labeled A, B, and C. For each sequencing run, the error rate for the best fragment is shown for two algorithms. The top column indicates the error rate for the best fragment in the overall algorithm, and the bottom column indicates the error rate for the best fragment in the baseline algorithm for the corresponding sequencing run. The table at the bottom of the graph shows the quantitative improvements in the error rate of the best fragment when a universal algorithm is used. For example, the error rate of the best fragment for sequencing run A is 1.85% when the baseline algorithm is used. The error rate of the best fragment for sequencing run A is 1.18% when using all algorithms, indicating higher quality sequencing with a lower error rate. Similar improvements in the form of reduced error rates are observed in sequencing runs B and C when the universal algorithm is used.
[00290] На ФИГ. 25В представлены кластеры, проходящие через фильтр (или %PF), для получения лучшего фрагмента в трех прогонах секвенирования для двух алгоритмов. В нижней таблице представлены значения %PF для лучшего фрагмента в соответствующем секвенировании для двух алгоритмов. Универсальный алгоритм приводит к более высоким значениям %PF для всех прогонов секвенирования. В частности, значение %PF для первого цикла А прогона секвенирования - 82,7, и это говорит о том, что 82,7% кластеров на фрагменте проточной кюветы считаются высококачественными кластерами для генерации информации о базовых вызовах. Значение %PF для лучшего фрагмента в прогоне секвенирования составляет только 70,1. Чем выше значение %PF, тем больше кластеров проходят через фильтр, тем самым увеличивая пропускную способность секвенирования. Проточные кюветы с рисунком могут иметь теоретический максимальный предел количества кластеров, равный количеству нанолунок, в которых могут образовываться кластеры молекул. Результаты на ФИГ. 25А и 25В показывают, что результаты универсального алгоритма приводят к более низкой частоте появления ошибок и более высокой пропускной способности (из-за более высоких значений %PF) по сравнению с исходным алгоритмом.[00290] FIG. 25B shows the clusters passing the filter (or %PF) for obtaining the best fragment in three sequencing runs for two algorithms. The lower table shows the %PF values for the best fragment in the corresponding sequencing for the two algorithms. The universal algorithm results in higher %PF values for all sequencing runs. In particular, the %PF value for the first cycle A of the sequencing run is 82.7, which indicates that 82.7% of the clusters on the flow cell fragment are considered high-quality clusters for generating base calling information. The %PF value for the best fragment in the sequencing run is only 70.1. The higher the %PF value, the more clusters pass the filter, thereby increasing the sequencing throughput. Patterned flow cells may have a theoretical maximum limit on the number of clusters equal to the number of nanowells in which clusters of molecules can form. The results in FIGS. 25A and 25B show that the results of the generalized algorithm result in a lower error rate and higher throughput (due to higher %PF values) compared to the original algorithm.
[00291] На ФИГ. 26А, 26В и 26С представлена частота появления ошибок лучшего фрагмента для циклов в прогонах секвенирования А, В и С соответственно. Отдельный временной ряд частоты появления ошибок в прогонах секвенирования представлен для исходного и универсального алгоритмов. Результаты на ФИГ. 26А-26С иллюстрируют, что универсальный алгоритм уменьшает частоту появления ошибок при прогонах секвенирования. Снижение частоты появления ошибок при использовании универсального алгоритма для лучшего фрагмента может варьироваться от цикла к циклу. Как показано на ФИГ. 26А, для начальных 25 циклов частота появления ошибок исходного и универсального алгоритмов почти одинакова, однако при увеличении числа прогонов секвенирования частота появления ошибок для универсального алгоритма уменьшается по сравнению с частотой появления ошибок для исходного алгоритма. На ФИГ. 26В показано, что частота появления ошибок для универсального алгоритма немного меньше в начальных циклах. В более поздних циклах прогонов секвенирования универсальный алгоритм показывает себя лучше, чем исходный алгоритм. На ФИГ. 26С представлены значения частоты появления ошибок лучшего фрагмента для циклов в прогоне секвенирования С для двух алгоритмов. Эффективность универсального алгоритма значительно выше, чем исходного алгоритма, для большинства циклов. Графики также иллюстрируют конкретные циклы, для которых универсальный алгоритм имеет более низкую частоту появления ошибок. Эти результаты могут помочь специалистам или исследователям сконцентрировать внимание на проблемах качества, что приводит к снижению частоты появления ошибок для конкретных циклов.[00291] FIGS. 26A, 26B and 26C show the best fragment error rate for the cycles in sequencing runs A, B and C, respectively. A separate time series of the sequencing run error rates is shown for the original and universal algorithms. The results in FIGS. 26A-26C illustrate that the universal algorithm reduces the error rate in the sequencing runs. The reduction in error rate using the universal algorithm for the best fragment can vary from cycle to cycle. As shown in FIG. 26A, for the initial 25 cycles, the error rates of the original and universal algorithms are almost the same, however, as the number of sequencing runs increases, the error rate for the universal algorithm decreases compared to the error rate for the original algorithm. FIG. 26B shows that the error rate for the universal algorithm is slightly lower in the initial cycles. In later sequencing run cycles, the general-purpose algorithm performs better than the original algorithm. FIG. 26C plots the best fragment error rates for the cycles in sequencing run C for the two algorithms. The general-purpose algorithm performs significantly better than the original algorithm for most runs. The graphs also illustrate specific runs for which the general-purpose algorithm has a lower error rate. These results may help analysts or researchers focus on quality issues, resulting in lower error rates for specific runs.
[00292] На ФИГ. 26D представлены улучшения частоты появления ошибок, достигаемые с помощью конкретных обновлений универсального алгоритма по сравнению с исходным алгоритмом. Например, левый график показывает улучшения частоты появления ошибок для прогона секвенирования А путем последовательного включения в него методов фазового обучения и локального устранения проблем. Фазовое обучение относится к оценке смещения фазы, которая может улавливать взаимосвязь между значениями смещения фаз для нецентральных субфрагментов относительно центральных субфрагментов. Для каждого фрагмента проточной кюветы генерируется и хранится отдельная справочная таблица отклонения фазы. Частота появления ошибок для исходного алгоритма прогона секвенирования А составляет 1,85, как показано в первом столбце на ФИГ. 24А. Снижение частоты появления ошибок при включении фазового обучения в алгоритм исходного уровня составляет 0,65 или 32%, а при включении локального устранения проблем в базовую модель снижение частоты появления ошибок в алгоритме исходного уровня составляет 0,19 или 10%. График также можно интерпретировать как снижение частоты появления ошибок на 0,65 при фазовом обучении и на 0,19 при локальном устранении проблем в алгоритме исходного уровня. Остаточная частота появления ошибок после включения двух методик составляет 1,18.[00292] FIG. 26D shows the improvements in error rate achieved by specific updates to the general algorithm compared to the original algorithm. For example, the left graph shows the improvements in error rate for sequencing run A by sequentially incorporating phase learning and local problem fixing techniques. Phase learning refers to a phase offset estimate that can capture the relationship between the phase offset values for non-center sub-tiles relative to the center sub-tiles. A separate phase offset lookup table is generated and stored for each flow cell tile. The error rate for the original algorithm for sequencing run A is 1.85, as shown in the first column of FIG. 24A. The error rate reduction when incorporating phase learning into the baseline algorithm is 0.65 or 32%, while when incorporating local fixing into the baseline model, the error rate reduction in the baseline algorithm is 0.19 or 10%. The graph can also be interpreted as a 0.65 error rate reduction with phase learning and 0.19 with local fixing in the baseline algorithm. The residual error rate after incorporating the two techniques is 1.18.
[00293] График справа на ФИГ. 26D демонстрирует снижение частоты появления ошибок, при использовании методов фазового обучения и локального устранения проблем для прогона секвенирования В. Включение фазового обучения в алгоритм исходного уровня уменьшает частоту появления ошибок на 0,227 или 33%. Включение локального устранения проблем в алгоритм исходного уровня уменьшает частоту появления ошибок на 0,039 или 6%. Остаточная частота появления ошибок после включения обеих методик составляет 0,414. Ниже представлено обсуждение влияния описанной технологии при применении расчета параметров SIM и способов реконструкции изображений для обработки изображений из прогона секвенирования.[00293] The graph on the right in FIG. 26D demonstrates the reduction in error rate using the phase learning and local fix methods for sequencing run B. Incorporating phase learning into the baseline algorithm reduces the error rate by 0.227, or 33%. Incorporating local fix into the baseline algorithm reduces the error rate by 0.039, or 6%. The residual error rate after incorporating both techniques is 0.414. A discussion of the impact of the described technique when using SIM parameter calculation and image reconstruction methods to process images from a sequencing run is presented below.
Влияние описываемой технологииThe impact of the described technology
[00294] Упрощенные примеры представлены для иллюстрации того, как описанная технология может снижать требования к вычислительным ресурсам для улучшения изображения структурированного освещения в проточной кювете в течение нескольких циклов и несколько часов. Возможности машины различаются, поэтому для удобства интерпретации примеров вычислений выбраны круглые числа. Следует помнить, что описанные технологии могут быть применены независимо или в комбинации друг с другом. В некоторых вариантах реализации параметры могут быть рассчитаны чаще для компенсации нестабильности системы из-за факторов окружающей среды. Например, как описано выше, для расчета справочной таблица отклонения фазы в первом цикле каждого прогона секвенирования используется универсальный алгоритм SIM. Это может увеличить продолжительность первого цикла до 30 процентов. Однако может быть достигнуто значительное снижение частоты появления ошибок и улучшение показателей %PF.[00294] Simplified examples are provided to illustrate how the described technology can reduce the computational requirements for improving the structured illumination image in a flow cell over several cycles and several hours. Machine capabilities vary, so round numbers are chosen for ease of interpretation of the calculation examples. It should be remembered that the described technologies can be applied independently or in combination with each other. In some embodiments, parameters can be calculated more frequently to compensate for system instability due to environmental factors. For example, as described above, a universal SIM algorithm is used to calculate a phase deviation lookup table in the first cycle of each sequencing run. This can increase the duration of the first cycle by up to 30 percent. However, a significant reduction in the error rate and an improvement in %PF can be achieved.
[00295] Предположим, прогон секвенирования включает в себя 150 циклов анализа с двумя частотами освещения со скоростью 6 минут на цикл. Базовый захват фрагментов изображения в 150 циклов занимает 15 часов. Предположим, что для структурированного освещения используют два угла +/- 45 градусов с тремя изображениями на угол в каждом цикле. Количество изображений на фрагмент в течение 150 циклов составляет 1800. Предположим, что имеется 70 субфрагментов в решетке 7 × 10. Потребность в обработке составляет 126000 субфрагментов в течение 900 минут.[00295] Assume a sequencing run includes 150 analysis cycles with two illumination frequencies at a rate of 6 minutes per cycle. The basic image acquisition of 150 cycles takes 15 hours. Assume that two angles of +/- 45 degrees are used for structured illumination with three images per angle in each cycle. The number of images per fragment over 150 cycles is 1800. Assume that there are 70 sub-tiles in a 7 x 10 lattice. The processing requirement is 126,000 sub-tiles over 900 minutes.
[00296] В первом варианте осуществления предполагается, что система откалибрована до прогона, и что на протяжении всего прогона можно использовать квадратичную аппроксимацию и справочную таблицу, сгенерированную для различий разноса, угла и фазы. В этом варианте осуществления ближайший к центру субфрагмент будет подвергаться оценке пика интерференционных полос 1800 раз. Это количество раз, когда происходит изменение положения проточной кюветы или источника освещения, или проецируемой фазы структурированного освещения.[00296] In the first embodiment, it is assumed that the system is calibrated before the run, and that a quadratic approximation and a look-up table generated for the spacing, angle, and phase differences can be used throughout the run. In this embodiment, the sub-section closest to the center will be subjected to interference fringe peak evaluation 1800 times. This is the number of times that the position of the flow cell or the illumination source, or the projected phase of the structured illumination, changes.
[00297] В этом первом примере система не будет выполнять пиковой оценки интерференционных полос 69 из 70 раз. Для 124200 изображений субфрагментов другие субфрагменты будут использовать предварительно вычисленное отношение с ближайшим к центру субфрагментом для определения параметров реконструкции. Оценка параметров реконструкции является более затратной, чем фактическая реконструкция. Таким образом, вычислительные требования снижаются более чем на половину. Дополнительное уменьшение может быть достигнуто при использовании описанной зависимости от симметрии.[00297] In this first example, the system will not perform peak fringe estimation 69 out of 70 times. For the 124,200 sub-tile images, the other sub-tiles will use a pre-computed relationship with the closest sub-tile to the center to determine the reconstruction parameters. Estimating the reconstruction parameters is more expensive than the actual reconstruction. Thus, the computational requirements are reduced by more than half. Further reduction can be achieved by exploiting the described dependence on symmetry.
[00298] Применение симметрии позволяет рассматривать значения пары конъюгатов, а не вычисление с помощью FFT и других способов. Особую осторожность следует проявлять с секциями субфрагментов, которые имеют отраженную симметрию, а не поворот на 180 градусов и симметрию изменения знака, которая преобладает. При наличии четного числа строк и столбцов в пространстве преобразования Фурье, смещенном к углу, верхняя строка и левый и средний +1 столбец обрабатываются по-разному из-за отраженной, а не вращательной симметрии. См. ФИГ. 19. При наличии нечетного числа строк и столбцов в пространстве преобразования Фурье, смещенном к углу, верхняя строка и левый столбец обрабатываются по-разному из-за отраженной, а не вращательной симметрии. См. ФИГ. 19 и 23А. Другие симметрии могут быть применены к пространству преобразования Фурье, смещенному от центра.[00298] The use of symmetry allows the values of a pair of conjugates to be considered rather than calculated using FFT and other methods. Particular care must be taken with sub-fragment sections that have reflection symmetry rather than 180 degree rotation and sign reversal symmetry that dominates. When there is an even number of rows and columns in a corner-shifted Fourier transform space, the top row and the left and middle +1 columns are treated differently due to reflection symmetry rather than rotational symmetry. See FIG. 19. When there is an odd number of rows and columns in a corner-shifted Fourier transform space, the top row and the left column are treated differently due to reflection symmetry rather than rotational symmetry. See FIGS. 19 and 23A. Other symmetries may be applied to off-center Fourier transform space.
[00299] Центральный столбец на ФИГ. 18 иллюстрирует, как можно избежать половины расчетов в частотной области на различных этапах путем фокусировки на неизбыточных данных. Предположим, что это снижает расчетную величину на 40 процентов и коэффициент накопления изображения на 50 процентов во время этих этапов до восстановления всего изображения на 1850, 1860. Пары конъюгата не обязательно должны быть включены в расчеты во время этапов 3b-3d, поскольку для пар конъюгатов может быть применена оценка значений, если значения необходимы в 1850, 1860.[00299] The center column of FIG. 18 illustrates how half of the frequency domain calculations can be avoided at various stages by focusing on non-redundant data. Suppose this reduces the calculated magnitude by 40 percent and the image accumulation coefficient by 50 percent during these stages before the entire image is reconstructed at 1850, 1860. The conjugate pairs do not necessarily have to be included in the calculations during stages 3b-3d, since value estimation can be applied to the conjugate pairs if values are needed at 1850, 1860.
[00300] Таким образом, одна описанная технология может сэкономить 50 процентов требуемых вычислительных ресурсов, а другая может сэкономить 40 процентов. В совокупности расчетные затраты на реконструкцию SIM могут быть уменьшены более чем на две трети.[00300] Thus, one described technology can save 50 percent of the required computing resources, and the other can save 40 percent. In total, the estimated costs of SIM reconstruction can be reduced by more than two-thirds.
[00301] Во втором варианте осуществления предположим, что система калибруется в начале прогона и снова в средней точке для обновления квадратичной аппроксимации и справочной таблицы. Предположим, что эта калибровка занимает 8 минут, поскольку она включает в себя пиковую оценку интерференционных полос всех 70 субфрагментов, а затем аппроксимацию и создание справочной таблицы. Эта оценка продолжается с 15 часов до 15 часов 16 минут. Если вместо применения описанной технологии проводили оценку для каждого субфрагмента и частоты воздействия, один раз для каждого трио изображений, в общей сложности 300 параметров, время прогона будет более чем втрое больше.[00301] In a second embodiment, assume that the system is calibrated at the beginning of the run and again at the midpoint to update the quadratic fit and the look-up table. Assume that this calibration takes 8 minutes, since it includes a peak evaluation of the interference fringes of all 70 sub-tiles, and then the fit and creation of the look-up table. This evaluation continues from 15 hours to 15 hours 16 minutes. If, instead of using the described technology, an evaluation was performed for each sub-tile and exposure frequency, once for each trio of images, for a total of 300 parameters, the run time would be more than three times longer.
[00302] Во втором варианте реализации влияние применения симметрии не изменяется.[00302] In the second embodiment, the effect of applying symmetry does not change.
[00303] Ожидается, что комбинированное влияние описанных технологий будет заключаться в обеспечении в режиме реального времени обработки фрагментов изображения с использованием ЦП без добавления GPU, FPGA или CGRA к системе. В альтернативном варианте осуществления можно использовать более простые вычислительные ресурсы, даже если выбран GPU, FPGA или CGRA. Это может снизить сложность системы и облегчить сохранение форм-фактора существующих машин при одновременном увеличении их возможностей обработки в реальном времени.[00303] The combined effect of the described technologies is expected to be to provide real-time processing of image fragments using a CPU without adding a GPU, FPGA, or CGRA to the system. In an alternative embodiment, simpler computing resources can be used even if a GPU, FPGA, or CGRA is selected. This can reduce the complexity of the system and make it easier to maintain the form factor of existing machines while increasing their real-time processing capabilities.
Конкретные варианты реализацииSpecific implementation options
Субфрагменты полного поля обзора, захваченные датчикомSub-fragments of the full field of view captured by the sensor
[00304] Описанная технология субфрагментов может быть описана с точки зрения калибровки и/или производства с использованием калиброванного сканера.[00304] The described sub-fragment technology may be described in terms of calibration and/or production using a calibrated scanner.
[00305] В одном варианте реализации описанной технологии описан способ калибровки или характеризации сканера, определяющего флуоресценцию миллионов образцов, распределенных по проточной кювете, или, в более общем случае, плоскости визуализации, на изображениях, собранных в течение нескольких циклов. Структурированное освещение используют для улучшения разрешения между флуоресцентными образцами, расположенными ближе друг к другу, чем дифракционный предел Аббе для оптического разрешения. Этот способ калибровки сканера для использования по существу полного поля обзора, проецируемого линзой на оптический датчик в сканере, включает в себя захват фрагментов изображения под структурированным освещением при множестве углов и смещений фаз структурированного освещения. Варианты по способу могут использовать 2D-структурированное освещение и различную диаграмму сдвига фазы. Способ включает вычисление оптического искажения по фрагменту изображения, включая измерение расстояния между пиками интенсивности и углом пиков интенсивности по меньшей мере в 9 субфрагментах изображения, включая ближний к центру субфрагмент, и аппроксимацию поверхности разноса и поверхности угла к измеренному разносу и углу, соответственно. Конечно, можно использовать другие конфигурации для разделения изображения, например, 3 × 3, 5 × 5, 5 × 7, 9 × 9, 8 × 11, 9 × 16 субфрагментов. Изображения, захваченные более крупными датчиками, делятся на больше число субфрагментов, не ограничиваясь перечисленными в списке массивами субфрагментов. Аппроксимированная поверхность разноса и аппроксимированная поверхность угла выражают коррекцию искажений в субфрагментах фрагмента изображения. Полученные коэффициенты соответствия сохраняются, включая результаты аппроксимации, которые относятся к разносу пиков интенсивности и углу пиков интенсивности по меньшей мере у 9 субфрагментов по отношению к ближайшему к центру субфрагменту. Калибровка дополнительно включает измерение фазовых смещений структурированного освещения на множестве углов и смещений фаз внутри субполей и сохранение справочной таблицы, которая выражает различия между фазовым смещением в ближайшем к центру субфрагменте и фазовым смещением в других субфрагментах фрагмента изображения. Эта калибровка подготавливает сканер для производства, для анализа флуоресценции миллионов образцов, распределенных по проточной кювете или плоскости визуализации, на изображениях, собранных в течение нескольких циклов.[00305] In one embodiment of the disclosed technology, a method is described for calibrating or characterizing a scanner that determines fluorescence of millions of samples distributed over a flow cell, or more generally, an imaging plane, in images collected over multiple cycles. Structured illumination is used to improve the resolution between fluorescent samples that are closer to each other than the Abbe diffraction limit for optical resolution. This method for calibrating a scanner to use substantially the entire field of view projected by a lens onto an optical sensor in the scanner includes capturing image fragments under structured illumination at multiple angles and phase shifts of the structured illumination. Variants of the method may use 2D structured illumination and a different phase shift pattern. The method includes calculating optical distortion from an image fragment, including measuring the distance between intensity peaks and the angle of intensity peaks in at least 9 image sub-fragments, including the sub-fragment closest to the center, and approximating the spacing surface and the angle surface to the measured spacing and angle, respectively. Of course, other configurations can be used to divide the image, for example, 3 × 3, 5 × 5, 5 × 7, 9 × 9, 8 × 11, 9 × 16 sub-fragments. Images captured by larger sensors are divided into a larger number of sub-fragments, not limited to the sub-fragment arrays listed in the list. The approximated spacing surface and the approximated angle surface express the correction of distortions in the sub-fragments of the image fragment. The obtained fit factors are stored, including the results of the approximation, which relate to the spacing of the intensity peaks and the angle of the intensity peaks in at least 9 sub-plots relative to the sub-plot closest to the center. The calibration further includes measuring the phase shifts of the structured illumination at a variety of angles and the phase shifts within the sub-plots and storing a look-up table, which expresses the differences between the phase shift in the sub-plot closest to the center and the phase shift in the other sub-plots of the image patch. This calibration prepares the scanner for production, for the analysis of fluorescence of millions of samples distributed over the flow cell or imaging plane, in images collected over several cycles.
[00306] В варианте осуществления способ обеспечивает улучшенные изображения флуоресценции миллионов образцов, распределенных по проточной кювете или плоскости визуализации, из изображений, собранных в течение нескольких циклов. Это включает в себя обработку захваченных элементов изображения на проточной кювете, причем фрагменты изображения захватываются при множестве углов и смещений фаз структурированного освещения в течение нескольких циклов. Эта обработка предназначена для субфрагментов каждого фрагмента изображения. Она включает в себя доступ к сохраненным результатам оценки аппроксимации или генерированию оцененных результатов аппроксимации, которые выражают разнос между ближайшим к центру субфрагментом и другими субфрагментами. Подходящие результаты могут представлять собой коэффициенты аппроксимации или значений полиномиальной поверхности в справочной таблице. Этот способ также включает в себя доступ к сохраненной справочной таблице или созданию справочной таблицы, которая выражает разность фаз между ближайшим к центру субфрагментом и другими субфрагментами. Результаты аппроксимации и справочной таблицы объединяют с измерениями для ближайшего к центру фрагмента каждого захваченного фрагмента изображения, разноса между пиками интенсивности, угла пиков интенсивности и смещения фазы структурированного освещения. Параметры восстановления определяют на основе субфрагмента для каждого захваченного фрагмента изображения, а затем применяют в реконструкции SIM. Этот способ позволяет получить изображения улучшенного разрешения для субфрагментов в плоскости проточной кюветы или в плоскости визуализации в течение нескольких циклов, при этом степень разрешения превышает дифракционный предел Аббе.[00306] In an embodiment, the method provides improved fluorescence images of millions of samples distributed over a flow cell or imaging plane from images collected over multiple cycles. This includes processing captured image elements on the flow cell, wherein image fragments are captured at multiple angles and structured illumination phase offsets over multiple cycles. This processing is for sub-fragments of each image fragment. It includes accessing stored approximation evaluation results or generating estimated approximation results that express the spacing between the sub-fragment closest to the center and other sub-fragments. Suitable results may be approximation coefficients or polynomial surface values in a look-up table. The method also includes accessing a stored look-up table or creating a look-up table that expresses the phase difference between the sub-fragment closest to the center and other sub-fragments. The results of the approximation and lookup table are combined with measurements for the closest-to-center fragment of each acquired image fragment, the peak-to-peak intensity spacing, the peak-to-peak intensity angle, and the structured illumination phase shift. The reconstruction parameters are determined on a sub-fragment basis for each acquired image fragment and then applied to the SIM reconstruction. This method produces images of improved resolution for sub-fragments in the plane of the flow cell or in the imaging plane over several cycles, with a degree of resolution exceeding the Abbe diffraction limit.
[00307] Например, для фрагмента изображения, деленного на 9 субфрагментов, способ включает получение оцененных параметров восстановления для по меньшей мере 8 дополнительных субфрагментов изображения в дополнение к центральному субфрагменту. Расчетные параметры реконструкции разноса и угла для дополнительных субфрагментов получают путем объединения доступных или расчетных параметров для ближайшего к центру субфрагмента с сохраненными результатами аппроксимации, которые относятся к параметрам разноса и параметрам угла для по меньшей мере 8 дополнительных субфрагментов относительно ближайшего к центру субфрагмента. Расчетные параметры реконструкции фазового смещения для дополнительных субфрагментов получают путем объединения доступных или расчетных параметров для ближайшего к центру субфрагмента с сохраненной справочной таблицей для измерений фазового смещения для по меньшей мере 8 дополнительных субфрагментов относительно ближайшего к центру субфрагмента. Как описано выше, можно использовать другие конфигурации для разделения изображения без влияния на процесс оценки параметров, описанный выше.[00307] For example, for an image fragment divided into 9 sub-fragments, the method includes obtaining estimated reconstruction parameters for at least 8 additional image sub-fragments in addition to the central sub-fragment. Estimated spacing and angle reconstruction parameters for the additional sub-fragments are obtained by combining the available or estimated parameters for the sub-fragment closest to the center with stored approximation results that relate to the spacing parameters and angle parameters for at least 8 additional sub-fragments relative to the sub-fragment closest to the center. Estimated phase shift reconstruction parameters for the additional sub-fragments are obtained by combining the available or estimated parameters for the sub-fragment closest to the center with a stored look-up table for phase shift measurements for at least 8 additional sub-fragments relative to the sub-fragment closest to the center. As described above, other configurations can be used for dividing the image without affecting the parameter estimation process described above.
[00308] Изображения с улучшенным разрешением могут быть использованы для последовательности образцов в нескольких циклах или для изучения флуоресценции над плоскостью изображения, захваченной несколькими десятками, сотнями или даже тысячами фрагментов изображения.[00308] The enhanced resolution images can be used to sequence samples over multiple cycles or to study fluorescence over an image plane captured by several tens, hundreds, or even thousands of image fragments.
[00309] В комбинированной калибровочной и производственной реализации действия, описанные выше, комбинируют, поэтому сканер калибруют, а затем используют в производстве. Описанная технология включает в себя реализацию способа, который улучшает эффективность сканера, определяющего флуоресценцию миллионов образцов, распределенных по поточной кювете, на изображениях, собранных в течение нескольких циклов. Структурированное освещение используют для улучшения разрешения между флуоресцентными образцами, расположенными ближе друг к другу, чем дифракционный предел Аббе для оптического разрешения. С помощью этой технологии калибровка сканера для использования по существу полного поля обзора, проецируемого линзой на оптический датчик в сканере, включает в себя захват фрагментов изображения под структурированным освещением при множестве углов и смещений фаз структурированного освещения. Она включает вычисление оптического искажения по фрагменту изображения, включая измерение расстояния между пиками интенсивности и углом пиков интенсивности по меньшей мере в 9 субфрагментах изображения, включая ближний к центру субфрагмент, и аппроксимацию поверхности разноса и поверхности угла к измеренному разносу и углу, соответственно. Конечно, изображение фрагмента может быть разделено на большее число субфрагментов, как описано выше. Аппроксимированная поверхность разноса и поверхность угла выражают коррекцию искажений в субфрагментах фрагмента изображения. Полученные коэффициенты аппроксимации сохраняются. Калибровка дополнительно включает измерение фазовых смещений структурированного освещения на множестве углов и смещений фаз внутри субполей и сохранение справочной таблицы, которая выражает различия между фазовым смещением в ближайшем к центру субфрагменте и фазовым смещением в других субфрагментах фрагмента изображения.[00309] In a combined calibration and production implementation, the actions described above are combined, so that the scanner is calibrated and then used in production. The described technology includes the implementation of a method that improves the efficiency of the scanner, which determines the fluorescence of millions of samples distributed over a flow cell, in images collected over several cycles. Structured illumination is used to improve the resolution between fluorescent samples located closer to each other than the Abbe diffraction limit for optical resolution. Using this technology, calibrating the scanner to use substantially the entire field of view projected by the lens onto the optical sensor in the scanner includes capturing image fragments under structured illumination at a variety of angles and phase shifts of the structured illumination. It includes calculating the optical distortion from an image fragment, including measuring the distance between intensity peaks and the angle of intensity peaks in at least 9 image sub-fragments, including the sub-fragment closest to the center, and approximating the spacing surface and the angle surface to the measured spacing and angle, respectively. Of course, the image of the fragment can be divided into a greater number of sub-fragments, as described above. The approximated spacing surface and the angle surface express the correction of distortions in the sub-fragments of the image fragment. The obtained approximation coefficients are stored. The calibration additionally includes measuring the phase shifts of the structured illumination at a plurality of angles and the phase shifts within the sub-fields and storing a look-up table that expresses the differences between the phase shift in the sub-fragment closest to the center and the phase shift in other sub-fragments of the image fragment.
[00310] Способ реализуется при обработке захваченных элементов изображения на проточной кювете, причем фрагменты изображения захватывают на множестве углов и фазовых смещений структурированного освещения в течение нескольких циклов. Он включает объединение сохраненных результатов аппроксимации и сохраненной справочной таблицы с измерениями для каждого захваченного фрагмента изображения в ближайшем к центру фрагменте, разноса между пиками интенсивности, углом пиков интенсивности и смещением фазы структурированного освещения, для определения параметров восстановления для каждого захваченного изображения на основе субфрагмента. Он дополнительно включает в себя получение изображений с улучшенным разрешением для субфрагментов в положениях по проточной кювете в течение нескольких циклов при более высокой разрешающей способности, чем дифракционный предел Аббе, и с использованием изображений улучшенного разрешения для последовательности выборок в течение нескольких циклов.[00310] The method is implemented by processing captured image elements on a flow cell, wherein image fragments are captured at a plurality of angles and phase shifts of structured illumination over several cycles. It includes combining stored approximation results and a stored look-up table with measurements for each captured image fragment in the fragment closest to the center, the spacing between intensity peaks, the angle of intensity peaks and the phase shift of structured illumination, to determine reconstruction parameters for each captured image based on a sub-fragment. It further includes obtaining images with improved resolution for the sub-fragments at positions along the flow cell over several cycles at a higher resolution than the Abbe diffraction limit, and using images with improved resolution for a series of samples over several cycles.
[00311] Каждый из вариантов реализации комбинированной калибровочной и производственной реализации, представленных выше, имеет отдельную полезность. Например, первый объект может доставлять и калибровать сканер для использования вторым объектом. Первый объект может использовать другой подход калибровки для определения и выражения разносов и зависимости отклонения от угла наклона и различий по фазе между ближайшим к центру субфрагментом и другими субфрагментами, а описанная технология производства все еще может использоваться. Можно использовать описанную технологию калибровки, затем второй объект может использовать откалиброванный сканер другим способом. Таким образом, описанная технология включает в себя варианты калибровки и/или производства.[00311] Each of the embodiments of the combined calibration and manufacturing implementation presented above has a separate utility. For example, a first entity may deliver and calibrate a scanner for use by a second entity. The first entity may use a different calibration approach to determine and express offsets and tilt angle dependence and phase differences between the closest sub-tile to the center and other sub-tiles, and the described manufacturing technology may still be used. The described calibration technology may be used, and then the second entity may use the calibrated scanner in a different manner. Thus, the described technology includes calibration and/or manufacturing options.
[00312] Этот способ и другие варианты реализации описанной технологии могут включать в себя один или более следующих признаков и/или признаков, описанных в связи с дополнительными описанными способами. В целях краткости описания, комбинации признаков, описанных в настоящей заявке, не нумеруются по отдельности и не повторяются с каждым базовым набором признаков. Читателю будет понятно, как признаки, указанные в этом разделе, можно легко комбинировать с наборами базовых признаков, указанных в других вариантах реализации.[00312] This method and other embodiments of the described technology may include one or more of the following features and/or features described in connection with additional described methods. For the sake of brevity of the description, combinations of features described in this application are not individually numbered and are not repeated with each basic set of features. The reader will understand how the features specified in this section can be easily combined with sets of basic features specified in other embodiments.
[00313] Когда плоскость визуализации представляет собой проточную кювету, образцы могут быть распределены в миллионах нанолунок через проточную кювету. По меньшей мере некоторые адгезионные пары нанолунок могут быть расположены ближе друг к другу, чем дифракционный предел Аббе для оптического разрешения. Структурированное освещение обеспечивает такое близкое расположение. В альтернативном варианте осуществления образцы могут быть распределены случайным образом по проточной кювете.[00313] When the imaging plane is a flow cell, the samples can be distributed in millions of nanowells across the flow cell. At least some of the adhesion pairs of nanowells can be located closer to each other than the Abbe diffraction limit for optical resolution. Structured illumination ensures such close arrangement. In an alternative embodiment, the samples can be randomly distributed across the flow cell.
[00314] Каждый фрагмент содержит по меньшей мере 512 × 512 пикселей оптического датчика. Могут быть использованы большие или меньшие количества, включая 256, 400, 1024, 2048 и 4096 или в диапазоне от 256 до 4096 пикселей. Эффективность может быть улучшена, когда степень размера субфрагмента составляет 2, практические диапазоны, которые признаны годными, составляют 512 и 1024 пикселей.[00314] Each fragment comprises at least 512 x 512 pixels of the optical sensor. Larger or smaller quantities may be used, including 256, 400, 1024, 2048 and 4096 or in the range of 256 to 4096 pixels. Efficiency may be improved when the power of the sub-fragment size is 2, practical ranges that have been found suitable are 512 and 1024 pixels.
[00315] Субфрагменты могут перекрываться по меньшей мере 2 пикселями оптического датчика. Можно использовать большее или меньшее количество. Например, для окна шириной 512 пикселей можно использовать перекрытие вплоть до 256 пикселей, а для ширины 1024 пикселя можно использовать перекрытие вплоть до 512 пикселей.[00315] The sub-fragments may overlap with at least 2 pixels of the optical sensor. More or less may be used. For example, for a window with a width of 512 pixels, an overlap of up to 256 pixels may be used, and for a width of 1024 pixels, an overlap of up to 512 pixels may be used.
[00316] Результаты аппроксимации поверхности разноса и поверхности угла могут храниться в виде коэффициентов квадратичной, кубической аппроксимации или аппроксимации более высокого порядка, а также в справочной таблице, рассчитанной из полиномиальной аппроксимации поверхностей разноса и угла.[00316] The results of the approximation of the spread surface and the angle surface may be stored in the form of coefficients of a quadratic, cubic, or higher order approximation, as well as in a lookup table calculated from a polynomial approximation of the spread and angle surfaces.
[00317] В некоторых вариантах осуществления можно выполнить прогон секвенирования один раз или более для повторного измерения разноса между пиками интенсивности и углом пиков интенсивности в субфрагментах, повторной аппроксимации поверхности разноса и поверхности угла и сохранения результатов повторной аппроксимации для использования при обработке последующих захваченных фрагментов изображений. Это может быть выполнено, например, на промежуточном цикле, например 50-м цикле или более в пределах по меньшей мере 100 циклов. В некоторых вариантах осуществления повторное измерение может быть выполнено при наличии вычислительных ресурсов, например в конце цикла секвенирования или между двумя считываниями при выполнении этапа химического анализа для следующего считывания.[00317] In some embodiments, a sequencing run may be performed one or more times to re-measure the spacing between intensity peaks and the angle of intensity peaks in sub-tiles, re-fit the spacing surface and the angle surface, and store the re-fitting results for use in processing subsequent captured image tiles. This may be performed, for example, at an intermediate cycle, such as the 50th cycle or more within at least 100 cycles. In some embodiments, the re-measurement may be performed when computing resources are available, such as at the end of a sequencing run or between two reads when performing a chemical analysis step for the next read.
[00318] Нанолунки могут быть расположены в виде правильного повторяющегося рисунка. В случае прямоугольного рисунка могут быть использованы два угла структурированного освещения, по существу, вдоль двух диагоналей, соединяющих противоположные углы прямоугольника в рисунке, чтобы пики интенсивности структурированного освещения были ориентированы по существу нормально двум диагоналям. В случае повторяющейся шестиугольной структуры нанолунок с тремя диагоналями, соединяющими противоположные углы шестиугольников в рисунке, могут быть использованы три угла структурированного освещения с пиками интенсивности, которые ориентированы, по существу, нормально трем диагоналям. В альтернативном варианте осуществления образцы могут быть распределены случайным образом на плоскости формирования изображения без нанолунок. Или образцы могут быть расположены в правильном порядке на плоскости формирования изображения в виде структуры, отличной от структуры нанолунок.[00318] The nanowells can be arranged in a regular repeating pattern. In the case of a rectangular pattern, two angles of structured illumination can be used, substantially along two diagonals connecting opposite corners of the rectangle in the pattern, so that the peaks of the intensity of the structured illumination are oriented substantially normally to the two diagonals. In the case of a repeating hexagonal structure of nanowells with three diagonals connecting opposite corners of the hexagons in the pattern, three angles of structured illumination can be used with intensity peaks that are oriented substantially normally to the three diagonals. In an alternative embodiment, the samples can be randomly distributed on the imaging plane without nanowells. Or the samples can be arranged in a regular order on the imaging plane in a pattern other than the nanowell structure.
[00319] Способ может дополнительно включать объединение изображений улучшенного разрешения для субфрагментов в изображение улучшенного разрешения для фрагмента и использование фрагмента изображения улучшенного разрешения для дальнейшего анализа. Дополнительный анализ может включать секвенирование образцов при одном положении на цикл.[00319] The method may further include combining the enhanced resolution images of the sub-fragments into an enhanced resolution image of the fragment and using the enhanced resolution image fragment for further analysis. Further analysis may include sequencing the samples at one position per cycle.
[00320] В качестве улучшения аппроксимации поверхностей способ может дополнительно включать определение обрезки края и применение обрезки края для удаления из вычислений пикселей вокруг краев датчика, прежде чем аппроксимировать поверхность разноса и поверхность угла к измеренным значениям разноса и угла. Край может быть однородным вокруг краев датчика или может изменяться по краю, например быть шире на концах прямоугольного датчика, чем вдоль длинного края.[00320] As an improvement in the approximation of surfaces, the method may further include determining an edge trim and applying the edge trim to remove pixels around the edges of the sensor from the calculations before approximating the spacing surface and the angle surface to the measured spacing and angle values. The edge may be uniform around the edges of the sensor or may vary along the edge, such as being wider at the ends of a rectangular sensor than along a long edge.
[00321] Способ может дополнительно включать измерение разноса между пиками интенсивности и углом пиков интенсивности по меньшей мере на субфрагментах изображения размером 8×11. Могут быть использованы другие конфигурации для разделения фрагмента изображения на субфрагменты, как описано выше.[00321] The method may further include measuring the spacing between intensity peaks and the angle of intensity peaks on at least 8×11 image sub-fragments. Other configurations may be used to divide the image fragment into sub-fragments, as described above.
[00322] Описанная технология субфрагментов может быть использована для получения изображения улучшенного разрешения на целевых изображениях, захваченных при структурированном освещении. В одном варианте реализации описанной технологии приведен способ разделения захваченного целевого изображения, захваченного оптическим датчиком, на 9 или более субфрагментов и обработки каждого из 9 или более субфрагментов независимо. Как описано выше, для дополнительного разделения захваченного изображения можно использовать больше субфрагментов. Способ включает преобразование в соответствующем субфрагменте по меньшей мере трех целевых изображений в области Фурье для получения по меньшей мере трех матриц частотной области соответствующего субфрагмента. Изображения захватываются датчиком в пространственной области при применении по меньшей мере трех фазовых перемещений структурированного освещения вдоль одного угла. Матрицу обратного смешивания рассчитывают с использованием расчетных параметров реконструкции. Обратная матрица применяется к матрицам частотной области для получения по меньшей мере трех матриц с разделением фаз в области Фурье, которые являются несмещенными и смещенными матрицами. Выполняется смещение субпикселей по меньшей мере на одной смещенной матрице. Перемещение субпикселей включает преобразование смещенной матрицы из области Фурье в пространственную область, применение вектора смещения к данным в пространственной области и преобразование переносимых данных из данных пространственной области. Смещение субпикселей приводит к получению двух или более перестроенных смещенных матриц в области Фурье. Способ включает выравнивание и суммирование значений перекрытия несмещенной матрицы и перестроенных смещенных матриц с получением расширенной матрицы покрытия частот. Расширенную матрицу покрытия частот обратно преобразуют из области Фурье для получения субфрагмента улучшенного разрешения в пространственной области. Дополнительно целевое изображение улучшенного разрешения может быть получено путем объединения субфрагментов расширенного разрешения для 9 или более субфр агментов.[00322] The described sub-tile technology can be used to obtain an image of improved resolution on target images captured under structured illumination. In one embodiment of the described technology, a method is provided for dividing a captured target image captured by an optical sensor into 9 or more sub-tiles and processing each of the 9 or more sub-tiles independently. As described above, more sub-tiles can be used to further divide the captured image. The method includes transforming at least three target images in the Fourier domain in a corresponding sub-tile to obtain at least three frequency domain matrices of the corresponding sub-tile. The images are captured by the sensor in the spatial domain by applying at least three phase translations of the structured illumination along one angle. An inverse mixing matrix is calculated using the calculated reconstruction parameters. The inverse matrix is applied to the frequency domain matrices to obtain at least three phase-separated matrices in the Fourier domain, which are unbiased and biased matrices. Subpixels are shifted on at least one shifted matrix. The subpixel shifting includes transforming the shifted matrix from the Fourier domain to the spatial domain, applying the shift vector to the data in the spatial domain, and transforming the transferred data from the spatial domain data. Subpixel shifting results in obtaining two or more reconstructed shifted matrices in the Fourier domain. The method includes aligning and summing the overlap values of the unshifted matrix and the reconstructed shifted matrices to obtain an extended frequency coverage matrix. The extended frequency coverage matrix is inversely transformed from the Fourier domain to obtain a sub-fragment of improved resolution in the spatial domain. Additionally, the target image of improved resolution can be obtained by combining the sub-fragments of the extended resolution for 9 or more sub-fragments.
[00323] Этот способ и другие варианты реализации описанной технологии могут включать в себя один или более следующих признаков и/или признаков, описанных в связи с дополнительными описанными способами. В целях краткости описания, комбинации признаков, описанных в настоящей заявке, не нумеруются по отдельности и не повторяются с каждым базовым набором признаков. Читателю будет понятно, как признаки, указанные в этом разделе, можно легко комбинировать с наборами базовых признаков, указанных в других вариантах реализации.[00323] This method and other embodiments of the described technology may include one or more of the following features and/or features described in connection with additional described methods. For the sake of brevity of the description, combinations of features described in this application are not individually numbered and are not repeated with each basic set of features. The reader will understand how the features specified in this section can be easily combined with sets of basic features specified in other embodiments.
[00324] Этапы способа могут быть многократно применены для получения последовательности изображений улучшенного разрешения. Последовательность изображений улучшенного разрешения может быть использована для последовательности выборок, визуализируемых датчиком в течение нескольких циклов.[00324] The steps of the method can be applied repeatedly to obtain a sequence of images of improved resolution. The sequence of images of improved resolution can be used for a sequence of samples visualized by the sensor over several cycles.
[00325] Каждый фрагмент содержит по меньшей мере 512 × 512 пикселей оптического датчика. Могут быть использованы большие или меньшие количества, включая 256, 1024, 2048 и 4096 или в диапазоне от 256 до 4096 пикселей. Эффективность может быть улучшена, когда степень размера субфрагмента составляет 2, практические диапазоны, которые признаны годными, составляют 512 и 1024 пикселей.[00325] Each fragment comprises at least 512 x 512 pixels of the optical sensor. Larger or smaller quantities may be used, including 256, 1024, 2048 and 4096 or in the range of 256 to 4096 pixels. Efficiency may be improved when the power of the sub-fragment size is 2, practical ranges that have been found suitable are 512 and 1024 pixels.
[00326] Субфрагменты могут перекрываться по меньшей мере 2 пикселями оптического датчика. Можно использовать большее или меньшее количество. Например, для 512 может подойти перекрытие в 256 пикселей, а для 1024 - в 512 пикселей.[00326] The sub-fragments may overlap with at least 2 pixels of the optical sensor. More or less may be used. For example, for 512, an overlap of 256 pixels may be suitable, and for 1024, an overlap of 512 pixels may be suitable.
[00327] Способ может дополнительно включать объединение изображений улучшенного разрешения для субфрагментов в агрегированное изображение с усиленным разрешением и использование агрегированного изображения улучшенного разрешения для секвенирования образца в течение нескольких циклов.[00327] The method may further include combining the enhanced resolution images of the sub-fragments into an aggregated enhanced resolution image and using the aggregated enhanced resolution image to sequence the sample over multiple cycles.
[00328] Способ можно дополнительно применять к типам изображений в положениях в проточной кювете, которые улавливают флуоресценцию миллионов образцов, распределенных по проточной кювете. Такое применение способа обеспечивает улучшенные изображения проточной кюветы.[00328] The method can be further applied to types of images at positions in the flow cell that capture fluorescence from millions of samples distributed throughout the flow cell. Such application of the method provides improved images of the flow cell.
[00329] Когда плоскость визуализации представляет собой проточную кювету, образцы могут быть распределены в миллионах нанолунок через проточную кювету. По меньшей мере некоторые адгезионные пары нанолунок могут быть расположены ближе друг к другу, чем дифракционный предел Аббе для оптического разрешения. Структурированное освещение обеспечивает такое близкое расположение. В альтернативном варианте осуществления образцы могут быть распределены случайным образом по проточной кювете. В таком варианте осуществления способ дополнительно включает в себя получение последовательностей улучшенных изображений для проточной кюветы и использование последовательностей улучшенных изображений для вызова последовательностей образцов.[00329] When the imaging plane is a flow cell, the samples can be distributed in millions of nanowells across the flow cell. At least some of the adhesion pairs of nanowells can be located closer to each other than the Abbe diffraction limit for optical resolution. Structured illumination provides such a close location. In an alternative embodiment, the samples can be randomly distributed across the flow cell. In such an embodiment, the method further includes obtaining enhanced image sequences for the flow cell and using the enhanced image sequences to call sample sequences.
[00330] Описанные выше способы вычислений могут быть реализованы в системе, которая включает в себя компьютерное оборудование. В системе с компьютером можно реализовывать один или более несколько способов, описанных выше. Система с компьютером может включать в себя любой из способов, описанных непосредственно выше или в рамках настоящей заявки, которые применимы к способу, реализованному системой. Для краткости альтернативные комбинации элементов системы не перечислены отдельно. Признаки, применимые к системам, способам и изделиям промышленного производства, не повторяются для каждого набора базовых признаков класса патентоспособных объектов изобретения. Читателю будет понятно, как признаки, указанные в данных примерах реализации, можно легко комбинировать с базовыми признаками указанных в других классах патентоспособных объектов изобретения.[00330] The above-described computation methods may be implemented in a system that includes computer hardware. One or more of the methods described above may be implemented in a system with a computer. The system with a computer may include any of the methods described immediately above or within the framework of this application that are applicable to the method implemented by the system. For brevity, alternative combinations of system elements are not listed separately. Features applicable to systems, methods and articles of industrial production are not repeated for each set of basic features of a class of patentable subject matter of the invention. The reader will understand how the features indicated in these examples of implementation can be easily combined with basic features indicated in other classes of patentable subject matter of the invention.
[00331] Как готовое изделие, а не способ, энергонезависимый машиночитаемый носитель (CRM) может быть загружен программными командами, исполняемыми процессором. При исполнении программных команд они реализуют один или более реализуемых на компьютере способов, описанных выше. В альтернативном варианте осуществления программные команды могут быть загружены на энергонезависимый CRM и при объединении с надлежащим оборудованием могут стать компонентом одной или более реализуемых на компьютере систем, которые практически осуществляют описанные способы.[00331] As an article of manufacture rather than a method, a non-volatile computer-readable medium (CRM) may be loaded with program instructions executable by a processor. When executed, the program instructions implement one or more computer-implementable methods described above. In an alternative embodiment, the program instructions may be loaded onto a non-volatile CRM and, when combined with appropriate hardware, may become a component of one or more computer-implementable systems that practice the described methods.
[00332] Каждый из признаков, обсуждаемых в конкретном разделе реализации для других вариантов реализации, в равной степени применим к данному варианту реализации. Как указано выше, все признаки в настоящем документе не повторяются для краткости, и их следует рассматривать как повторяемые путем ссылки.[00332] Each of the features discussed in a particular implementation section for other embodiments is equally applicable to this embodiment. As noted above, all features are not repeated herein for brevity and should be considered as repeated by reference.
Применение реконструкции изображений SIM без избыточностиApplication of SIM image reconstruction without redundancy
[00333] Описанная технология относится к уменьшению вычислительных ресурсов, необходимых для получения улучшенного изображения разрешения из структурированного освещения цели.[00333] The described technology relates to reducing the computational resources required to obtain an improved resolution image from structured illumination of a target.
[00334] В одном варианте реализации описанная технология субфрагментов может быть использована для получения изображения улучшенного разрешения на целевых изображениях, захваченных при структурированном освещении. Этот способ применяет одно или несколько преобразований в неизбыточные данные, а затем восстанавливает избыточные данные из неизбыточных после преобразований.[00334] In one embodiment, the described sub-tile technology can be used to obtain an image of improved resolution on target images captured under structured illumination. This method applies one or more transformations to non-redundant data and then reconstructs the redundant data from the non-redundant data after the transformations.
[00335] Способ включает преобразование по меньшей мере трех целевых изображений, захваченных датчиком в пространственной области. Этот датчик захватывает изображения от по меньшей мере трех фазовых смещений структурированного освещения вдоль одного угла. Три захваченных изображения в пространственной области преобразуются в область Фурье для получения по меньшей мере трех матриц частотной области. Эти матрицы частотной области включают в себя по меньшей мере неизбыточные компоненты и избыточные компоненты конъюгата. Избыточные компоненты конъюгата представляют собой конъюгаты в положениях комплементарных матриц неизбыточных компонентов. Способ дополнительно включает в себя использование расчетных параметров реконструкции для создания обратной матрицы смешивания и применения обратной матрицы смешивания по меньшей мере к неизбыточным компонентам. Это позволяет получить по меньшей мере три матрицы с разделением фаз в области Фурье, которые являются несмещенными и смещенными матрицами. Эти матрицы включают неизбыточные компоненты без смещения и неизбыточные компоненты пространственной частоты со смещением, полученные путем применения обратной матрицы смешивания к неизбыточным компонентам матрицы частотной области.[00335] The method includes transforming at least three target images captured by a sensor in the spatial domain. This sensor captures images from at least three structured illumination phase shifts along one angle. The three captured images in the spatial domain are transformed into the Fourier domain to obtain at least three frequency domain matrices. These frequency domain matrices include at least non-redundant components and redundant components of the conjugate. The redundant components of the conjugate are conjugates at positions of complementary matrices of the non-redundant components. The method further includes using the calculated reconstruction parameters to create an inverse mixing matrix and applying the inverse mixing matrix to at least the non-redundant components. This allows obtaining at least three phase-separated matrices in the Fourier domain, which are unbiased and biased matrices. These matrices include non-redundant components without bias and non-redundant spatial frequency components with bias, obtained by applying the inverse mixing matrix to the non-redundant components of the frequency domain matrix.
[00336] Способ также включает выполнение одного или нескольких промежуточных преобразований по меньшей мере неизбыточных компонентов матриц с разделением фаз. Одна промежуточная операция представляет собой смещение субпикселей. Она включает преобразование из области Фурье в пространственную область по меньшей мере неизбыточных компонентов пространственной частоты смещенных матриц. Затем применяется вектор смещения к данным в пространственной области и происходит преобразование переносимых данных из данных пространственной области в одну или более перестроенных смещенных матриц обратно в область Фурье. Применение вектора смещения эффективно выравнивает значения перекрытия в смещенных матрицах в области Фурье с несмещенной матрицей точнее, чем положения целых матриц дискретных преобразований Фурье. Резервные компоненты конъюгата могут быть извлечены после промежуточных преобразований из неизбыточных компонентов путем копирования преобразованных значений из неизбыточных компонентов в положение комплементарных матриц из избыточных компонентов конъюгата и изменения знака воображаемых частей скопированных значений для получения преобразованных избыточных компонентов конъюгата. Это снижает ресурсы, необходимые во время промежуточных преобразований. Построение изображения улучшенного разрешения дополнительно включает в себя выравнивание и суммирование перекрывающихся значений несмещенной матрицы и смещенных матриц для получения расширенной матрицы покрытия частоты, а затем обратное преобразование расширенной матрицы покрытия частоты из области Фурье для получения изображения улучшенного разрешения в пространственной области.[00336] The method also includes performing one or more intermediate transformations of at least the non-redundant components of the phase-separated matrices. One intermediate operation is a subpixel shift. It includes a transformation from the Fourier domain to the spatial domain of at least the non-redundant components of the spatial frequency of the shifted matrices. Then, a shift vector is applied to the data in the spatial domain and the transferred data is transformed from the spatial domain data into one or more reconstructed shifted matrices back to the Fourier domain. Applying the shift vector effectively aligns the overlap values in the shifted matrices in the Fourier domain with the unshifted matrix more accurately than the positions of the entire matrices of the discrete Fourier transforms. The redundant components of the conjugate can be extracted after the intermediate transformations from the non-redundant components by copying the transformed values from the non-redundant components to the position of the complementary matrices from the redundant components of the conjugate and changing the sign of the imaginary parts of the copied values to obtain the transformed redundant components of the conjugate. This reduces the resources required during intermediate transformations. Constructing an enhanced resolution image further involves aligning and summing the overlapping values of the unbiased matrix and the biased matrices to obtain an extended frequency coverage matrix, and then inversely transforming the extended frequency coverage matrix from the Fourier domain to obtain an enhanced resolution image in the spatial domain.
[00337] В некоторых вариантах реализации ряд изображений улучшенного разрешения получают путем многократного применения предшествующих действий. Дополнительно, например при секвенировании путем синтеза, описанная технология может быть применена для использования серии изображений улучшенного разрешения для секвенирования образцов, полученных датчиком в течение нескольких циклов.[00337] In some embodiments, a series of images of improved resolution are obtained by repeated application of the preceding steps. Additionally, for example in sequencing by synthesis, the described technology can be applied to use a series of images of improved resolution to sequence samples obtained by the sensor over several cycles.
[00338] Этот способ и другие варианты реализации описанной технологии могут включать в себя один или более следующих признаков и/или признаков, описанных в связи с дополнительными описанными способами. В целях краткости описания, комбинации признаков, описанных в настоящей заявке, не нумеруются по отдельности и не повторяются с каждым базовым набором признаков. Читателю будет понятно, как признаки, указанные в этом разделе, можно легко комбинировать с наборами базовых признаков, указанных в других вариантах реализации.[00338] This method and other embodiments of the described technology may include one or more of the following features and/or features described in connection with additional described methods. For the sake of brevity of the description, combinations of features described in this application are not individually numbered and are not repeated with each basic set of features. The reader will understand how the features specified in this section can be easily combined with sets of basic features specified in other embodiments.
[00339] Описанная технология может быть применена к компонентам, расположенным в матрице, смещенной к углу, когда положения комплементарных матриц из избыточных компонентов конъюгата повернуты на 180 градусов по отношению к положению матрицы неизбыточных компонентов.[00339] The described technology can be applied to components located in a matrix offset to a corner, when the positions of the complementary matrices of the redundant components of the conjugate are rotated by 180 degrees relative to the position of the matrix of non-redundant components.
[00340] Способ может дополнительно включать применение в ходе промежуточных операций одно- или двухэтапной фильтрации Винера для снижения шума. При применении двухэтапной фильтрации Винера независимую функцию модуляции для разделения фаз можно применять к разделенным фазам в виде промежуточного преобразования для компенсации оптической передачи контраста с помощью линзы объектива, которая обладает сниженной способностью к переносу контраста с увеличением пространственной частоты. Компоненты удаления шума при фильтрации Винера могут быть применены отдельно позднее. Промежуточные операции могут дополнительно включать применение фильтрации аподизации.[00340] The method may further include applying one- or two-stage Wiener filtering to reduce noise during intermediate operations. When applying two-stage Wiener filtering, an independent modulation function for separating phases may be applied to the separated phases as an intermediate transform to compensate for optical contrast transfer by an objective lens that has a reduced contrast transfer capability with increasing spatial frequency. The noise removal components of the Wiener filtering may be applied separately later. The intermediate operations may further include applying apodization filtering.
[00341] В некоторых вариантах реализации матрицы с разделением фаз в области Фурье включают в себя четное число строк и четное число столбцов. Для этих четных матриц усреднение столбца может быть применено в виде промежуточной операции для усреднения столбца DC, компонентов DC со средним столбцом, одним столбцом за пределами центра четной матрицы. Это усреднение столбца может предшествовать смещению субпикселя.[00341] In some embodiments, the phase-separated Fourier domain matrices include an even number of rows and an even number of columns. For these even matrices, column averaging may be applied as an intermediate operation to average the DC column, the DC components with the middle column, one column outside the center of the even matrix. This column averaging may precede the subpixel offset.
[00342] В некоторых вариантах реализации матрицы с разделением фаз в области Фурье смещены к углу. Затем компоненты DC появляются в верхней строке или в нижней строке, а также в левом столбце или в правом столбце матриц, и избыточные компоненты конъюгата появляются в блоке, повернутом на 180 градусов относительно ориентации неизбыточных компонентов.[00342] In some embodiments, the phase-separated matrices in the Fourier domain are shifted toward the corner. The DC components then appear in the top row or bottom row, as well as in the left column or right column of the matrices, and the redundant components of the conjugate appear in a block rotated 180 degrees relative to the orientation of the non-redundant components.
[00343] В некоторых вариантах реализации матрицы с разделением фаз в области Фурье включают в себя нечетное число строк и нечетное число столбцов без столбца между блоками неизбыточных компонентов и избыточных компонентов конъюгата. В нечетных матрицах избыточные компоненты конъюгата также появляются в блоке, повернутом на 180 градусов относительно ориентации неизбыточных компонентов.[00343] In some embodiments, the phase-separated matrices in the Fourier domain include an odd number of rows and an odd number of columns with no column between the blocks of non-redundant components and the redundant components of the conjugate. In odd matrices, the redundant components of the conjugate also appear in a block rotated 180 degrees relative to the orientation of the non-redundant components.
[00344] В вариантах реализации, в которых цель включает в себя регулярно разнесенные нанолунки, расположенные в прямоугольном рисунке, способ может быть применен к наборам по меньшей мере трех изображений от смещения фазы вдоль двух углов структурированного освещения цели, причем два угла расположены вдоль диагоналей между противоположными углами прямоугольников. Кроме того, в вариантах реализации, в которых цель включает в себя регулярно разнесенные нанолунки, расположенные в шестиугольном рисунке, способ может быть применен к наборам по меньшей мере трех изображений от смещения фазы вдоль трех углов структурированного освещения цели, причем три угла расположены вдоль диагональных каналов между противоположными углами шестиугольников.[00344] In embodiments in which the target includes regularly spaced nanowells arranged in a rectangular pattern, the method can be applied to sets of at least three images from a phase shift along two corners of the target's structured illumination, wherein the two corners are located along diagonals between opposite corners of the rectangles. Furthermore, in embodiments in which the target includes regularly spaced nanowells arranged in a hexagonal pattern, the method can be applied to sets of at least three images from a phase shift along three corners of the target's structured illumination, wherein the three corners are located along diagonal channels between opposite corners of the hexagons.
[00345] Способ может дополнительно включать применение фильтрации Винера во время промежуточных операций в два этапа. Выполнение двух этапов включает применение независимой функции передачи модуляции к разделенным фазам для компенсации оптической передачи контраста, которая уменьшается с увеличением пространственной частоты, с помощью линзы объектива, переносящей цель под структурированным освещением на датчик. Оно дополнительно включает в себя применение компонентов удаления шума из фильтрации Винера или другого эквивалентного фильтра.[00345] The method may further include applying Wiener filtering during intermediate operations in two stages. Performing the two stages includes applying an independent modulation transfer function to the separated phases to compensate for the optical contrast transfer, which decreases with increasing spatial frequency, using an objective lens that transfers the target under structured illumination to the sensor. It further includes applying noise removal components from Wiener filtering or another equivalent filter.
[00346] Способ может дополнительно включать применение фильтра аподизации во время промежуточных операций.[00346] The method may further include applying an apodization filter during intermediate operations.
[00347] Матрицы с разделением фаз в области Фурье включают в себя четное число строк и четное число столбцов. Для таких четных матриц способ может дополнительно включать в себя применение усреднения столбца во время промежуточных операций для усреднения столбца DC, компонентов DC со средним столбцом, между блоками неизбыточных компонентов и избыточных компонентов конъюгата. Усреднение столбца может предшествовать смещению субпикселя.[00347] The phase-separated matrices in the Fourier domain include an even number of rows and an even number of columns. For such even matrices, the method may further include applying column averaging during intermediate operations to average the DC column, the DC components with the middle column, between blocks of non-redundant components and redundant components of the conjugate. The column averaging may precede the subpixel shift.
[00348] Когда матрицы с разделением фаз в области Фурье смещены к левому верхнему углу, компоненты DC могут отображаться в верхней строке и левом столбце матриц, и избыточные компоненты конъюгата - в блоке, повернутом на 180 градусов относительно его ориентации в качестве неизбыточных компонентов. В альтернативном варианте осуществления матрицы с разделением фаз могут быть смещены к правому нижнему углу.[00348] When the phase-separated matrices in the Fourier domain are shifted to the upper left corner, the DC components may be displayed in the upper row and left column of the matrices, and the redundant components of the conjugate in a block rotated 180 degrees relative to its orientation as non-redundant components. In an alternative embodiment, the phase-separated matrices may be shifted to the lower right corner.
[00349] Матрицы с разделением фаз в области Фурье могут также включать нечетное число строк и нечетное число столбцов. Такие нечетные матрицы не содержат средний столбец между блоками неизбыточных компонентов и избыточных компонентов конъюгата.[00349] Fourier domain phase separation matrices may also include an odd number of rows and an odd number of columns. Such odd matrices do not contain a middle column between the blocks of non-redundant components and redundant components of the conjugate.
[00350] Способ дополнительно можно применять к наборам по меньшей мере трех целевых изображений, захваченных линзой с помощью датчика в пространственной области, из фазовых смещений вдоль двух углов структурированного освещения цели. Когда цель содержит регулярно разнесенные нанолунки, два угла могут быть ориентированы в основном вдоль диагоналей между противоположными углами четырехугольников среди нанолунок, расположенных на равном расстоянии друг от друга. Эти четырехугольники могут быть квадратами, а два угла могут быть в основном прямоугольными с погрешностью в пределах одного трех градусов. Также способ может быть применен для наборов изображений из фазовых смещений вдоль трех углов структурированного освещения цели. Это полезно, когда цель включает в себя нанолунки, расположенные на равном расстоянии друг от друга в виде шестиугольника. При этом рисунке три угла могут быть вдоль диагоналей между противоположными углами шестиугольников.[00350] The method can be further applied to sets of at least three target images captured by a lens using a sensor in a spatial domain, from phase shifts along two angles of structured illumination of the target. When the target comprises regularly spaced nanowells, the two angles can be oriented mainly along the diagonals between opposite corners of quadrangles among the nanowells, located at an equal distance from each other. These quadrangles can be squares, and the two angles can be mainly rectangular with an error within one to three degrees. The method can also be applied to sets of images from phase shifts along three angles of structured illumination of the target. This is useful when the target includes nanowells located at an equal distance from each other in the form of a hexagon. In this pattern, the three angles can be along the diagonals between opposite corners of the hexagons.
[00351] Описанные выше способы вычислений могут быть реализованы в системе, которая включает в себя компьютерное оборудование. В системе с компьютером можно реализовывать один или более несколько способов, описанных выше. Система с компьютером может включать в себя любой из способов, описанных непосредственно выше или в рамках настоящей заявки, которые применимы к способу, реализованному системой. Для краткости альтернативные комбинации элементов системы не перечислены отдельно. Признаки, применимые к системам, способам и изделиям промышленного производства, не повторяются для каждого набора базовых признаков класса патентоспособных объектов изобретения. Читателю будет понятно, как признаки, указанные в данных примерах реализации, можно легко комбинировать с базовыми признаками указанных в других классах патентоспособных объектов изобретения.[00351] The above-described computation methods may be implemented in a system that includes computer hardware. One or more of the methods described above may be implemented in a system with a computer. The system with a computer may include any of the methods described immediately above or within the framework of this application that are applicable to the method implemented by the system. For brevity, alternative combinations of system elements are not listed separately. Features applicable to systems, methods and articles of industrial production are not repeated for each set of basic features of a class of patentable subject matter of the invention. The reader will understand how the features indicated in these examples of implementation can be easily combined with basic features indicated in other classes of patentable subject matter of the invention.
[00352] Как готовое изделие, а не способ, энергонезависимый машиночитаемый носитель (CRM) может быть загружен программными командами, исполняемыми процессором. При исполнении программных команд они реализуют один или более реализуемых на компьютере способов, описанных выше. В альтернативном варианте осуществления программные команды могут быть загружены на энергонезависимый CRM и при объединении с надлежащим оборудованием могут стать компонентом одной или более реализуемых на компьютере систем, которые практически осуществляют описанные способы.[00352] As an article of manufacture rather than a method, a non-volatile computer-readable medium (CRM) may be loaded with program instructions executable by a processor. When executed, the program instructions implement one or more computer-implementable methods described above. In an alternative embodiment, the program instructions may be loaded onto a non-volatile CRM and, when combined with appropriate hardware, may become a component of one or more computer-implementable systems that practice the described methods.
[00353] Каждый из признаков, обсуждаемых в конкретном разделе реализации для других вариантов реализации, в равной степени применим к данному варианту реализации. Как указано выше, все признаки в настоящем документе не повторяются для краткости, и их следует рассматривать как повторяемые путем ссылки.[00353] Each of the features discussed in a particular implementation section for other embodiments is equally applicable to this embodiment. As noted above, all features are not repeated herein for brevity and should be considered as repeated by reference.
[00354] Представленное выше описание приведено для обеспечения возможности получения и использования описанной технологии. Специалистам в данной области будут очевидны различные модификации описанных вариантов реализации, а общие принципы, определенные в настоящем документе, можно применить к другим вариантам реализации и применения без отступления от сущности и объема описываемой технологии. Таким образом, описываемая технология не ограничена представленными вариантами реализации, но должна охватывать все количество возможных вариантов, согласованных с принципами и признаками, описанными в данном документе. Объем описанной технологии определяется прилагаемой формулой изобретения.[00354] The above description is provided to enable the production and use of the described technology. Various modifications to the described embodiments will be apparent to those skilled in the art, and the general principles defined herein may be applied to other embodiments and applications without departing from the spirit and scope of the described technology. Thus, the described technology is not limited to the presented embodiments, but should cover the entire number of possible variations consistent with the principles and features described herein. The scope of the described technology is defined by the appended claims.
Компьютерная системаComputer system
[00355] ФИГ. 24 представляет собой упрощенную блок-схему компьютерной системы, которая может использоваться для реализации описанной технологии. Компьютерная система обычно включает по меньшей мере один процессор, который обменивается данными с несколькими периферийными устройствами посредством подсистемы шины. Эти периферийные устройства могут включать подсистему хранения, включая, например, запоминающие устройства, и подсистему хранения файлов, устройства ввода пользовательского интерфейса, устройства вывода пользовательского интерфейса и подсистему сетевого интерфейса. Устройства ввода и вывода обеспечивают взаимодействие пользователя с компьютерной системой. Подсистема сетевого интерфейса обеспечивает интерфейс с внешними сетями, включая интерфейс с соответствующими интерфейсными устройствами в других компьютерных системах.[00355] FIG. 24 is a simplified block diagram of a computer system that can be used to implement the described technology. The computer system typically includes at least one processor that communicates with several peripheral devices via a bus subsystem. These peripheral devices may include a storage subsystem, including, for example, memory devices, and a file storage subsystem, user interface input devices, user interface output devices, and a network interface subsystem. The input and output devices provide for user interaction with the computer system. The network interface subsystem provides an interface with external networks, including an interface with corresponding interface devices in other computer systems.
[00356] В одном варианте реализации инструмент оценки параметров 2401 для расчета трех параметров (угол, разнос и фазовое смещение) соединен с подсистемой хранения и устройствами ввода пользовательского интерфейса для обмена данными.[00356] In one embodiment, a parameter estimation tool 2401 for calculating three parameters (angle, offset, and phase shift) is coupled to a storage subsystem and user interface input devices for data exchange.
[00357] Устройства ввода пользовательского интерфейса могут включать клавиатуру; указывающие устройства, такие как мышь, шаровой манипулятор, сенсорную панель или графический планшет; сканер; сенсорный экран, встроенный в дисплей; устройства аудиоввода, такие как системы распознавания голоса и микрофоны; а также устройства ввода других типов. В целом использование термина «устройство ввода» подразумевает включение всех возможных типов устройств и способов ввода информации в компьютерную систему.[00357] User interface input devices may include a keyboard; pointing devices such as a mouse, trackball, touch pad, or graphics tablet; a scanner; a touch screen integrated into a display; audio input devices such as voice recognition systems and microphones; and other types of input devices. In general, the use of the term "input device" is intended to include all possible types of devices and methods for entering information into a computer system.
[00358] Устройства вывода пользовательского интерфейса могут включать подсистему отображения, принтер, факсимильную машину или невизуальные устройства отображения, такие как устройства вывода звука. Подсистема отображения может включать электроннолучевую трубку (ЭЛТ), плоскопанельное устройство, такое как жидкокристаллический дисплей (ЖКД), проекционное устройство или какой-либо другой механизм для создания видимого изображения. Подсистема отображения может также обеспечивать невизуальное отображение, такое как устройства вывода звука. В целом использование термина «устройство вывода» подразумевает включение всех возможных типов устройств и способов вывода информации из компьютерной системы пользователю или на другую машину либо компьютерную систему.[00358] The user interface output devices may include a display subsystem, a printer, a facsimile machine, or non-visual display devices such as audio output devices. The display subsystem may include a cathode ray tube (CRT), a flat panel device such as a liquid crystal display (LCD), a projection device, or some other mechanism for producing a visible image. The display subsystem may also provide non-visual display such as audio output devices. In general, the use of the term "output device" is intended to include all possible types of devices and methods for outputting information from a computer system to a user or to another machine or computer system.
[00359] В подсистеме хранения данных хранятся программные конструкты и конструкты данных, обеспечивающие функциональность некоторых или всех из модулей и способов, описанных в настоящем документе. Как правило, эти программные модули исполнены процессором самостоятельно или в комбинации с другими процессорами.[00359] The data storage subsystem stores software constructs and data constructs that provide the functionality of some or all of the modules and methods described herein. Typically, these software modules are executed by the processor alone or in combination with other processors.
[00360] Запоминающее устройство, используемое в подсистеме хранения данных, может включать некоторое количество запоминающих устройств, включая основное оперативное запоминающее устройство (ОЗУ) для хранения команд и данных во время исполнения программы, и постоянное запоминающее устройство (ПЗУ), в котором хранятся фиксированные команды. Подсистема хранения файлов может обеспечивать постоянное запоминающее устройство для файлов программ и данных и может включать накопитель на жестком диске, накопитель на гибких дисках вместе со связанными съемными носителями, накопитель CD-ROM, оптический диск или картриджи съемных носителей. Модули, реализующие функциональные возможности определенных вариантов реализации, могут храниться подсистемой хранения файлов в подсистеме хранения данных или в других машинах, доступных процессору.[00360] The memory used in the data storage subsystem may include a number of memory devices, including a main random access memory (RAM) for storing instructions and data during program execution, and a read-only memory (ROM) in which fixed instructions are stored. The file storage subsystem may provide a read-only memory for program files and data and may include a hard disk drive, a floppy disk drive with associated removable media, a CD-ROM drive, an optical disk, or removable media cartridges. Modules implementing the functionality of certain embodiments may be stored by the file storage subsystem in the data storage subsystem or in other machines accessible to the processor.
[00361] Подсистема шины обеспечивает механизм, позволяющий различным компонентам и подсистемам компьютерной системы взаимодействовать друг с другом в соответствии с назначением. Хотя подсистема шины схематически показана в виде одной шины, в альтернативных вариантах реализации подсистемы шины можно использовать множество шин.[00361] A bus subsystem provides a mechanism for allowing various components and subsystems of a computer system to interact with each other in accordance with their intended purpose. Although the bus subsystem is schematically shown as a single bus, alternative embodiments of the bus subsystem may use multiple buses.
[00362] Компьютерная система сама по себе может относиться к различным типам, включая персональный компьютер, портативный компьютер, рабочую станцию, компьютерный терминал, сетевой компьютер, телевизор, центральную систему, группу серверов, широко рассредоточенный набор слабо связанных сетевых компьютеров или любую другую систему обработки данных или пользовательское устройство. Из-за постоянно меняющегося характера компьютеров и сетей пример компьютерной системы, описанный на ФИГ. 24, предназначен только в качестве конкретного примера в целях иллюстрации описанной технологии. Многие другие конфигурации компьютерной системы могут содержать большее или меньшее количество компонентов, чем компьютерная система, показанная на ФИГ. 24.[00362] The computer system itself may be of various types, including a personal computer, a portable computer, a workstation, a computer terminal, a network computer, a television, a central system, a group of servers, a widely dispersed set of loosely coupled network computers, or any other data processing system or user device. Due to the ever-changing nature of computers and networks, the example computer system described in FIG. 24 is intended only as a specific example for the purpose of illustrating the described technology. Many other computer system configurations may contain more or fewer components than the computer system shown in FIG. 24.
[00363] Процессоры глубокого обучения могут представлять собой GU или FPGA и размещаться на облачной платформе глубокого обучения, такой как Google Cloud Platform, Xilinx и Cirrascale. Примеры процессоров глубокого обучения включают Tensor Processing Unit (TPU) от Google, монтируемые на стойках решения, такие как GX4 Rackmount Series, GX8 Rackmount Series, NVIDIA DGX-1, Stratix V FPGA от Microsoft, Intelligent Processor Unit (IPU) от Graphcore, платформа Zeroth от Qualcomm с процессорами Snapdragon, NVIDIA Volta, NVIDIA DRIVE PX, NVIDIA JETSON TX1/TX2 MODULE, Intel Nirvana, Movidius VPU, Fujitsu DPI, ARM DynamicIQ, IBM TrueNorth и другие.[00363] Deep learning processors may be GUs or FPGAs and hosted on a deep learning cloud platform such as Google Cloud Platform, Xilinx, and Cirrascale. Examples of deep learning processors include Google's Tensor Processing Unit (TPU), rack-mounted solutions such as the GX4 Rackmount Series, GX8 Rackmount Series, NVIDIA DGX-1, Microsoft's Stratix V FPGA, Graphcore's Intelligent Processor Unit (IPU), Qualcomm's Zeroth platform with Snapdragon processors, NVIDIA Volta, NVIDIA DRIVE PX, NVIDIA JETSON TX1/TX2 MODULE, Intel Nirvana, Movidius VPU, Fujitsu DPI, ARM DynamicIQ, IBM TrueNorth, and others.
Claims (59)
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US62/924,130 | 2019-10-21 | ||
| US62/924,138 | 2019-10-21 | ||
| US17/075,694 | 2020-10-21 | ||
| US17/075,692 | 2020-10-21 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| RU2829111C1 true RU2829111C1 (en) | 2024-10-24 |
Family
ID=
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010037487A1 (en) * | 2008-09-30 | 2010-04-08 | Carl Zeiss Microimaging Gmbh | Improved methods and apparatuses for structured illumination microscopy |
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2010037487A1 (en) * | 2008-09-30 | 2010-04-08 | Carl Zeiss Microimaging Gmbh | Improved methods and apparatuses for structured illumination microscopy |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102902249B1 (en) | Systems and methods for structured illumination microscopy | |
| JP7628502B2 (en) | Apparatus and method for providing parameter estimation - Patents.com | |
| TWI868263B (en) | Apparatues and methods of estimating values from images and related processor-readable medium | |
| RU2829111C1 (en) | Structured illumination microscopy systems and methods | |
| RU2820783C1 (en) | High efficiency of calculation for structured illumination microscopy | |
| HK40070210A (en) | Increased calculation efficiency for structured illumination microscopy | |
| HK40070210B (en) | Increased calculation efficiency for structured illumination microscopy | |
| HK40070209B (en) | Systems and methods for structured illumination microscopy | |
| HK40070209A (en) | Systems and methods for structured illumination microscopy | |
| RU2825348C1 (en) | Device and method of estimating values from images | |
| CA3135207C (en) | Apparatus and method of estimating values from images |