С Новым годом! Форум программистов, компьютерный форум, киберфорум
Python для начинающих
Войти
Регистрация
Восстановить пароль
Блоги Сообщество Поиск Заказать работу  
 
Рейтинг 4.91/11: Рейтинг темы: голосов - 11, средняя оценка - 4.91
2 / 2 / 0
Регистрация: 21.06.2020
Сообщений: 97

Использование документации по OpenCV

13.11.2020, 16:46. Показов 2174. Ответов 8
Метки нет (Все метки)

Студворк — интернет-сервис помощи студентам
Всем привет, я новичек конкретно в Машинном обучении/зрении. Вопрос может показаться совсем "новичковым", но я либо сильно туплю, либо такая проблема имеет место быть. Я повидал кучу документации, на английском, на русском и даже на китайском немного, но я не могу понять одного:

Как пользоваться документацией по OpenCV? Официальная документация абсолютно недружелюбная, непонятно какой модуль и за что отвечает. Вот допустим я хочу посмотреть документацию по SURF и SIFT, ибо тема сложная и обычного англоязычного учебника с оф. туториалами не хватает, если вникать. Особенно учитывая, что сам учебник тебя посылает читать документацию. Как понять в каком модуле искать нужные мне классы и методы?

Ссалка на оф. документацию: https://docs.opencv.org/master/modules.html

Заранее спасибо. И, пожалуйста, без издевок
0
Programming
Эксперт
39485 / 9562 / 3019
Регистрация: 12.04.2006
Сообщений: 41,671
Блог
13.11.2020, 16:46
Ответы с готовыми решениями:

Использование документации .Net
Здравствуйте, у меня такой вопрос: под какой лицензией существует документация .Net на английском языке и позволяет ли это лицензия...

использование OpenCV
Если кто-то использовал OpenCV && C++/CLI подскажите что нужно делать

Использование модуля OpenCV
Добрый день уважаемые форумчане, помогите найти ошибку в коде программы, нашел на просторах интернета пример использования этого модуля,...

8
Автоматизируй это!
Эксперт Python
 Аватар для Welemir1
7390 / 4817 / 1246
Регистрация: 30.03.2015
Сообщений: 13,664
Записей в блоге: 29
13.11.2020, 17:11
Цитата Сообщение от ShaunDMoon Посмотреть сообщение
пожалуйста, без издевок
как над вами не издеваться, если вы пишете
Цитата Сообщение от ShaunDMoon Посмотреть сообщение
новичек
чек -чек -новичек

Цитата Сообщение от ShaunDMoon Посмотреть сообщение
Ссалка


Цитата Сообщение от ShaunDMoon Посмотреть сообщение
я хочу посмотреть документацию по SURF и SIFT,
зашел по твоей ссылке, в поиске набрал эти непонятные слова, там куча ссылок открылась, это не то?
0
2 / 2 / 0
Регистрация: 21.06.2020
Сообщений: 97
13.11.2020, 17:22  [ТС]
Цитата Сообщение от Welemir1 Посмотреть сообщение
как над вами не издеваться, если вы пишете

чек -чек -новичек





зашел по твоей ссылке, в поиске набрал эти непонятные слова, там куча ссылок открылась, это не то?
Нет, почему-то там выдает устаревшие ссылки из совершенно других модулей
0
Автоматизируй это!
Эксперт Python
 Аватар для Welemir1
7390 / 4817 / 1246
Регистрация: 30.03.2015
Сообщений: 13,664
Записей в блоге: 29
13.11.2020, 17:28
ShaunDMoon, ну как не то
https://docs.opencv.org/master... intro.html
0
Эксперт Python
5438 / 3859 / 1215
Регистрация: 28.10.2013
Сообщений: 9,552
Записей в блоге: 1
13.11.2020, 17:57
Цитата Сообщение от ShaunDMoon Посмотреть сообщение
почему-то там выдает устаревшие ссылки из совершенно других модулей
Нормально там все выдается.
НО если тебе нужен модуль xfeatures2d для SURF, то обломайся: The function/feature is not implemented) This algorithm is patented and is excluded in this configuration.
Люди на стековерфлоу говорят, что нужно ставить старую версию opencv-python=3.4.2.16 и opencv-contrib-python==3.4.2.16.
0
2 / 2 / 0
Регистрация: 21.06.2020
Сообщений: 97
13.11.2020, 18:02  [ТС]
Цитата Сообщение от Garry Galler Посмотреть сообщение
Нормально там все выдается.
НО если тебе нужен модуль xfeatures2d для SURF, то обломайся: The function/feature is not implemented) This algorithm is patented and is excluded in this configuration.
Люди на стековерфлоу говорят, что нужно ставить старую версию opencv-python=3.4.2.16 и opencv-contrib-python==3.4.2.16.
Да, пришлось работать через ORB. Но вот на этом сайте с оф. доками есть примеры его использования. И некоторые функции принимают соверешенно другие аргументы, приходится тыкать палкой и искать что не так.

Есть какая-то актуальная документация по последней версии OpenCV?
0
Эксперт Python
5438 / 3859 / 1215
Регистрация: 28.10.2013
Сообщений: 9,552
Записей в блоге: 1
13.11.2020, 18:34
Цитата Сообщение от ShaunDMoon Посмотреть сообщение
И некоторые функции принимают соверешенно другие аргументы,
Есть такая магическая команда: help()
Code
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
>>> help(cv.xfeatures2d)
 
Help on module cv2.xfeatures2d in cv2:
 
NAME
    cv2.xfeatures2d
 
FUNCTIONS
    BoostDesc_create(...)
        BoostDesc_create([, desc[, use_scale_orientation[, scale_factor]]]) -> retval
        .
    
    BriefDescriptorExtractor_create(...)
        BriefDescriptorExtractor_create([, bytes[, use_orientation]]) -> retval
        .
    
    DAISY_create(...)
        DAISY_create([, radius[, q_radius[, q_theta[, q_hist[, norm[, H[, interpolation[, use_orientation]]]]]]]]) -> retval
        .
    
    FREAK_create(...)
        FREAK_create([, orientationNormalized[, scaleNormalized[, patternScale[, nOctaves[, selectedPairs]]]]]) -> retval
        .   @param orientationNormalized Enable orientation normalization.
        .       @param scaleNormalized Enable scale normalization.
        .       @param patternScale Scaling of the description pattern.
        .       @param nOctaves Number of octaves covered by the detected keypoints.
        .       @param selectedPairs (Optional) user defined selected pairs indexes,
    
    HarrisLaplaceFeatureDetector_create(...)
        HarrisLaplaceFeatureDetector_create([, numOctaves[, corn_thresh[, DOG_thresh[, maxCorners[, num_layers]]]]]) -> retval
        .   * @brief Creates a new implementation instance.
        .        *
        .        * @param numOctaves the number of octaves in the scale-space pyramid
        .        * @param corn_thresh the threshold for the Harris cornerness measure
        .        * @param DOG_thresh the threshold for the Difference-of-Gaussians scale selection
        .        * @param maxCorners the maximum number of corners to consider
        .        * @param num_layers the number of intermediate scales per octave
    
    LATCH_create(...)
        LATCH_create([, bytes[, rotationInvariance[, half_ssd_size[, sigma]]]]) -> retval
        .
    
    LUCID_create(...)
        LUCID_create([, lucid_kernel[, blur_kernel]]) -> retval
        .   * @param lucid_kernel kernel for descriptor construction, where 1=3x3, 2=5x5, 3=7x7 and so forth
        .        * @param blur_kernel kernel for blurring image prior to descriptor construction, where 1=3x3, 2=5x5, 3=7x7 and so forth
    
    PCTSignaturesSQFD_create(...)
        PCTSignaturesSQFD_create([, distanceFunction[, similarityFunction[, similarityParameter]]]) -> retval
        .   * @brief Creates the algorithm instance using selected distance function,
        .       *       similarity function and similarity function parameter.
        .       * @param distanceFunction Distance function selector. Default: L2
        .       *       Available: L0_25, L0_5, L1, L2, L2SQUARED, L5, L_INFINITY
        .       * @param similarityFunction Similarity function selector. Default: HEURISTIC
        .       *       Available: MINUS, GAUSSIAN, HEURISTIC
        .       * @param similarityParameter Parameter of the similarity function.
    
    PCTSignatures_create(...)
        PCTSignatures_create([, initSampleCount[, initSeedCount[, pointDistribution]]]) -> retval
        .   * @brief Creates PCTSignatures algorithm using sample and seed count.
        .       *       It generates its own sets of sampling points and clusterization seed indexes.
        .       * @param initSampleCount Number of points used for image sampling.
        .       * @param initSeedCount Number of initial clusterization seeds.
        .       *       Must be lower or equal to initSampleCount
        .       * @param pointDistribution Distribution of generated points. Default: UNIFORM.
        .       *       Available: UNIFORM, REGULAR, NORMAL.
        .       * @return Created algorithm.
        
        
        
        PCTSignatures_create(initSamplingPoints, initSeedCount) -> retval
        .   * @brief Creates PCTSignatures algorithm using pre-generated sampling points
        .       *       and number of clusterization seeds. It uses the provided
        .       *       sampling points and generates its own clusterization seed indexes.
        .       * @param initSamplingPoints Sampling points used in image sampling.
        .       * @param initSeedCount Number of initial clusterization seeds.
        .       *       Must be lower or equal to initSamplingPoints.size().
        .       * @return Created algorithm.
        
        
        
        PCTSignatures_create(initSamplingPoints, initClusterSeedIndexes) -> retval
        .   * @brief Creates PCTSignatures algorithm using pre-generated sampling points
        .       *       and clusterization seeds indexes.
        .       * @param initSamplingPoints Sampling points used in image sampling.
        .       * @param initClusterSeedIndexes Indexes of initial clusterization seeds.
        .       *       Its size must be lower or equal to initSamplingPoints.size().
        .       * @return Created algorithm.
    
    PCTSignatures_drawSignature(...)
        PCTSignatures_drawSignature(source, signature[, result[, radiusToShorterSideRatio[, borderThickness]]]) -> result
        .   * @brief Draws signature in the source image and outputs the result.
        .       *       Signatures are visualized as a circle
        .       *       with radius based on signature weight
        .       *       and color based on signature color.
        .       *       Contrast and entropy are not visualized.
        .       * @param source Source image.
        .       * @param signature Image signature.
        .       * @param result Output result.
        .       * @param radiusToShorterSideRatio Determines maximal radius of signature in the output image.
        .       * @param borderThickness Border thickness of the visualized signature.
    
    PCTSignatures_generateInitPoints(...)
        PCTSignatures_generateInitPoints(initPoints, count, pointDistribution) -> None
        .   * @brief Generates initial sampling points according to selected point distribution.
        .       * @param initPoints Output vector where the generated points will be saved.
        .       * @param count Number of points to generate.
        .       * @param pointDistribution Point distribution selector.
        .       *       Available: UNIFORM, REGULAR, NORMAL.
        .       * @note Generated coordinates are in range [0..1)
    
    SIFT_create(...)
        SIFT_create([, nfeatures[, nOctaveLayers[, contrastThreshold[, edgeThreshold[, sigma]]]]]) -> retval
        .   Use cv.SIFT_create() instead
    
    SURF_create(...)
        SURF_create([, hessianThreshold[, nOctaves[, nOctaveLayers[, extended[, upright]]]]]) -> retval
        .   @param hessianThreshold Threshold for hessian keypoint detector used in SURF.
        .       @param nOctaves Number of pyramid octaves the keypoint detector will use.
        .       @param nOctaveLayers Number of octave layers within each octave.
        .       @param extended Extended descriptor flag (true - use extended 128-element descriptors; false - use
        .       64-element descriptors).
        .       @param upright Up-right or rotated features flag (true - do not compute orientation of features;
        .       false - compute orientation).
    
    StarDetector_create(...)
        StarDetector_create([, maxSize[, responseThreshold[, lineThresholdProjected[, lineThresholdBinarized[, suppressNonmaxSize]]]]]) -> retval
        .
    
    VGG_create(...)
        VGG_create([, desc[, isigma[, img_normalize[, use_scale_orientation[, scale_factor[, dsc_normalize]]]]]]) -> retval
        .
    
    matchGMS(...)
        matchGMS(size1, size2, keypoints1, keypoints2, matches1to2[, withRotation[, withScale[, thresholdFactor]]]) -> matchesGMS
        .   @brief GMS (Grid-based Motion Statistics) feature matching strategy described in @cite Bian2017gms .
        .       @param size1 Input size of image1.
        .       @param size2 Input size of image2.
        .       @param keypoints1 Input keypoints of image1.
        .       @param keypoints2 Input keypoints of image2.
        .       @param matches1to2 Input 1-nearest neighbor matches.
        .       @param matchesGMS Matches returned by the GMS matching strategy.
        .       @param withRotation Take rotation transformation into account.
        .       @param withScale Take scale transformation into account.
        .       @param thresholdFactor The higher, the less matches.
        .       @note
        .           Since GMS works well when the number of features is large, we recommend to use the ORB feature and set FastThreshold to 0 to get as many as possible features quickly.
        .           If matching results are not satisfying, please add more features. (We use 10000 for images with 640 X 480).
        .           If your images have big rotation and scale changes, please set withRotation or withScale to true.
    
    matchLOGOS(...)
        matchLOGOS(keypoints1, keypoints2, nn1, nn2, matches1to2) -> None
        .   @brief LOGOS (Local geometric support for high-outlier spatial verification) feature matching strategy described in @cite Lowry2018LOGOSLG .
        .       @param keypoints1 Input keypoints of image1.
        .       @param keypoints2 Input keypoints of image2.
        .       @param nn1 Index to the closest BoW centroid for each descriptors of image1.
        .       @param nn2 Index to the closest BoW centroid for each descriptors of image2.
        .       @param matches1to2 Matches returned by the LOGOS matching strategy.
        .       @note
        .           This matching strategy is suitable for features matching against large scale database.
        .           First step consists in constructing the bag-of-words (BoW) from a representative image database.
        .           Image descriptors are then represented by their closest codevector (nearest BoW centroid).
 
DATA
    DAISY_NRM_FULL = 102
    DAISY_NRM_NONE = 100
    DAISY_NRM_PARTIAL = 101
    DAISY_NRM_SIFT = 103
    PCTSIGNATURES_GAUSSIAN = 1
    PCTSIGNATURES_HEURISTIC = 2
    PCTSIGNATURES_L0_25 = 0
    PCTSIGNATURES_L0_5 = 1
    PCTSIGNATURES_L1 = 2
    PCTSIGNATURES_L2 = 3
    PCTSIGNATURES_L2SQUARED = 4
    PCTSIGNATURES_L5 = 5
    PCTSIGNATURES_L_INFINITY = 6
    PCTSIGNATURES_MINUS = 0
    PCTSIGNATURES_NORMAL = 2
    PCTSIGNATURES_REGULAR = 1
    PCTSIGNATURES_UNIFORM = 0
    PCTSignatures_GAUSSIAN = 1
    PCTSignatures_HEURISTIC = 2
    PCTSignatures_L0_25 = 0
    PCTSignatures_L0_5 = 1
    PCTSignatures_L1 = 2
    PCTSignatures_L2 = 3
    PCTSignatures_L2SQUARED = 4
    PCTSignatures_L5 = 5
    PCTSignatures_L_INFINITY = 6
    PCTSignatures_MINUS = 0
    PCTSignatures_NORMAL = 2
    PCTSignatures_REGULAR = 1
    PCTSignatures_UNIFORM = 0
 
FILE
    (built-in)
И так можно узнать про любую функцию\метод\класс прямо из консоли Python.

Добавлено через 2 минуты
Цитата Сообщение от ShaunDMoon Посмотреть сообщение
Есть какая-то актуальная документация по последней версии OpenCV?
Самая актуальная информация содержится в исходниках. Учись читать.
0
2 / 2 / 0
Регистрация: 21.06.2020
Сообщений: 97
13.11.2020, 21:13  [ТС]
Цитата Сообщение от Garry Galler Посмотреть сообщение
Есть такая магическая команда: help()
Code
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
>>> help(cv.xfeatures2d)
 
Help on module cv2.xfeatures2d in cv2:
 
NAME
    cv2.xfeatures2d
 
FUNCTIONS
    BoostDesc_create(...)
        BoostDesc_create([, desc[, use_scale_orientation[, scale_factor]]]) -> retval
        .
    
    BriefDescriptorExtractor_create(...)
        BriefDescriptorExtractor_create([, bytes[, use_orientation]]) -> retval
        .
    
    DAISY_create(...)
        DAISY_create([, radius[, q_radius[, q_theta[, q_hist[, norm[, H[, interpolation[, use_orientation]]]]]]]]) -> retval
        .
    
    FREAK_create(...)
        FREAK_create([, orientationNormalized[, scaleNormalized[, patternScale[, nOctaves[, selectedPairs]]]]]) -> retval
        .   @param orientationNormalized Enable orientation normalization.
        .       @param scaleNormalized Enable scale normalization.
        .       @param patternScale Scaling of the description pattern.
        .       @param nOctaves Number of octaves covered by the detected keypoints.
        .       @param selectedPairs (Optional) user defined selected pairs indexes,
    
    HarrisLaplaceFeatureDetector_create(...)
        HarrisLaplaceFeatureDetector_create([, numOctaves[, corn_thresh[, DOG_thresh[, maxCorners[, num_layers]]]]]) -> retval
        .   * @brief Creates a new implementation instance.
        .        *
        .        * @param numOctaves the number of octaves in the scale-space pyramid
        .        * @param corn_thresh the threshold for the Harris cornerness measure
        .        * @param DOG_thresh the threshold for the Difference-of-Gaussians scale selection
        .        * @param maxCorners the maximum number of corners to consider
        .        * @param num_layers the number of intermediate scales per octave
    
    LATCH_create(...)
        LATCH_create([, bytes[, rotationInvariance[, half_ssd_size[, sigma]]]]) -> retval
        .
    
    LUCID_create(...)
        LUCID_create([, lucid_kernel[, blur_kernel]]) -> retval
        .   * @param lucid_kernel kernel for descriptor construction, where 1=3x3, 2=5x5, 3=7x7 and so forth
        .        * @param blur_kernel kernel for blurring image prior to descriptor construction, where 1=3x3, 2=5x5, 3=7x7 and so forth
    
    PCTSignaturesSQFD_create(...)
        PCTSignaturesSQFD_create([, distanceFunction[, similarityFunction[, similarityParameter]]]) -> retval
        .   * @brief Creates the algorithm instance using selected distance function,
        .       *       similarity function and similarity function parameter.
        .       * @param distanceFunction Distance function selector. Default: L2
        .       *       Available: L0_25, L0_5, L1, L2, L2SQUARED, L5, L_INFINITY
        .       * @param similarityFunction Similarity function selector. Default: HEURISTIC
        .       *       Available: MINUS, GAUSSIAN, HEURISTIC
        .       * @param similarityParameter Parameter of the similarity function.
    
    PCTSignatures_create(...)
        PCTSignatures_create([, initSampleCount[, initSeedCount[, pointDistribution]]]) -> retval
        .   * @brief Creates PCTSignatures algorithm using sample and seed count.
        .       *       It generates its own sets of sampling points and clusterization seed indexes.
        .       * @param initSampleCount Number of points used for image sampling.
        .       * @param initSeedCount Number of initial clusterization seeds.
        .       *       Must be lower or equal to initSampleCount
        .       * @param pointDistribution Distribution of generated points. Default: UNIFORM.
        .       *       Available: UNIFORM, REGULAR, NORMAL.
        .       * @return Created algorithm.
        
        
        
        PCTSignatures_create(initSamplingPoints, initSeedCount) -> retval
        .   * @brief Creates PCTSignatures algorithm using pre-generated sampling points
        .       *       and number of clusterization seeds. It uses the provided
        .       *       sampling points and generates its own clusterization seed indexes.
        .       * @param initSamplingPoints Sampling points used in image sampling.
        .       * @param initSeedCount Number of initial clusterization seeds.
        .       *       Must be lower or equal to initSamplingPoints.size().
        .       * @return Created algorithm.
        
        
        
        PCTSignatures_create(initSamplingPoints, initClusterSeedIndexes) -> retval
        .   * @brief Creates PCTSignatures algorithm using pre-generated sampling points
        .       *       and clusterization seeds indexes.
        .       * @param initSamplingPoints Sampling points used in image sampling.
        .       * @param initClusterSeedIndexes Indexes of initial clusterization seeds.
        .       *       Its size must be lower or equal to initSamplingPoints.size().
        .       * @return Created algorithm.
    
    PCTSignatures_drawSignature(...)
        PCTSignatures_drawSignature(source, signature[, result[, radiusToShorterSideRatio[, borderThickness]]]) -> result
        .   * @brief Draws signature in the source image and outputs the result.
        .       *       Signatures are visualized as a circle
        .       *       with radius based on signature weight
        .       *       and color based on signature color.
        .       *       Contrast and entropy are not visualized.
        .       * @param source Source image.
        .       * @param signature Image signature.
        .       * @param result Output result.
        .       * @param radiusToShorterSideRatio Determines maximal radius of signature in the output image.
        .       * @param borderThickness Border thickness of the visualized signature.
    
    PCTSignatures_generateInitPoints(...)
        PCTSignatures_generateInitPoints(initPoints, count, pointDistribution) -> None
        .   * @brief Generates initial sampling points according to selected point distribution.
        .       * @param initPoints Output vector where the generated points will be saved.
        .       * @param count Number of points to generate.
        .       * @param pointDistribution Point distribution selector.
        .       *       Available: UNIFORM, REGULAR, NORMAL.
        .       * @note Generated coordinates are in range [0..1)
    
    SIFT_create(...)
        SIFT_create([, nfeatures[, nOctaveLayers[, contrastThreshold[, edgeThreshold[, sigma]]]]]) -> retval
        .   Use cv.SIFT_create() instead
    
    SURF_create(...)
        SURF_create([, hessianThreshold[, nOctaves[, nOctaveLayers[, extended[, upright]]]]]) -> retval
        .   @param hessianThreshold Threshold for hessian keypoint detector used in SURF.
        .       @param nOctaves Number of pyramid octaves the keypoint detector will use.
        .       @param nOctaveLayers Number of octave layers within each octave.
        .       @param extended Extended descriptor flag (true - use extended 128-element descriptors; false - use
        .       64-element descriptors).
        .       @param upright Up-right or rotated features flag (true - do not compute orientation of features;
        .       false - compute orientation).
    
    StarDetector_create(...)
        StarDetector_create([, maxSize[, responseThreshold[, lineThresholdProjected[, lineThresholdBinarized[, suppressNonmaxSize]]]]]) -> retval
        .
    
    VGG_create(...)
        VGG_create([, desc[, isigma[, img_normalize[, use_scale_orientation[, scale_factor[, dsc_normalize]]]]]]) -> retval
        .
    
    matchGMS(...)
        matchGMS(size1, size2, keypoints1, keypoints2, matches1to2[, withRotation[, withScale[, thresholdFactor]]]) -> matchesGMS
        .   @brief GMS (Grid-based Motion Statistics) feature matching strategy described in @cite Bian2017gms .
        .       @param size1 Input size of image1.
        .       @param size2 Input size of image2.
        .       @param keypoints1 Input keypoints of image1.
        .       @param keypoints2 Input keypoints of image2.
        .       @param matches1to2 Input 1-nearest neighbor matches.
        .       @param matchesGMS Matches returned by the GMS matching strategy.
        .       @param withRotation Take rotation transformation into account.
        .       @param withScale Take scale transformation into account.
        .       @param thresholdFactor The higher, the less matches.
        .       @note
        .           Since GMS works well when the number of features is large, we recommend to use the ORB feature and set FastThreshold to 0 to get as many as possible features quickly.
        .           If matching results are not satisfying, please add more features. (We use 10000 for images with 640 X 480).
        .           If your images have big rotation and scale changes, please set withRotation or withScale to true.
    
    matchLOGOS(...)
        matchLOGOS(keypoints1, keypoints2, nn1, nn2, matches1to2) -> None
        .   @brief LOGOS (Local geometric support for high-outlier spatial verification) feature matching strategy described in @cite Lowry2018LOGOSLG .
        .       @param keypoints1 Input keypoints of image1.
        .       @param keypoints2 Input keypoints of image2.
        .       @param nn1 Index to the closest BoW centroid for each descriptors of image1.
        .       @param nn2 Index to the closest BoW centroid for each descriptors of image2.
        .       @param matches1to2 Matches returned by the LOGOS matching strategy.
        .       @note
        .           This matching strategy is suitable for features matching against large scale database.
        .           First step consists in constructing the bag-of-words (BoW) from a representative image database.
        .           Image descriptors are then represented by their closest codevector (nearest BoW centroid).
 
DATA
    DAISY_NRM_FULL = 102
    DAISY_NRM_NONE = 100
    DAISY_NRM_PARTIAL = 101
    DAISY_NRM_SIFT = 103
    PCTSIGNATURES_GAUSSIAN = 1
    PCTSIGNATURES_HEURISTIC = 2
    PCTSIGNATURES_L0_25 = 0
    PCTSIGNATURES_L0_5 = 1
    PCTSIGNATURES_L1 = 2
    PCTSIGNATURES_L2 = 3
    PCTSIGNATURES_L2SQUARED = 4
    PCTSIGNATURES_L5 = 5
    PCTSIGNATURES_L_INFINITY = 6
    PCTSIGNATURES_MINUS = 0
    PCTSIGNATURES_NORMAL = 2
    PCTSIGNATURES_REGULAR = 1
    PCTSIGNATURES_UNIFORM = 0
    PCTSignatures_GAUSSIAN = 1
    PCTSignatures_HEURISTIC = 2
    PCTSignatures_L0_25 = 0
    PCTSignatures_L0_5 = 1
    PCTSignatures_L1 = 2
    PCTSignatures_L2 = 3
    PCTSignatures_L2SQUARED = 4
    PCTSignatures_L5 = 5
    PCTSignatures_L_INFINITY = 6
    PCTSignatures_MINUS = 0
    PCTSignatures_NORMAL = 2
    PCTSignatures_REGULAR = 1
    PCTSignatures_UNIFORM = 0
 
FILE
    (built-in)
И так можно узнать про любую функцию\метод\класс прямо из консоли Python.

Добавлено через 2 минуты

Самая актуальная информация содержится в исходниках. Учись читать.
Ну мне, допустим, как новичку в ML и вообще работе с изображениями и видеопотоками, сложно понимать терминологию и принцип работы. А в документации help() не сказано про то, какие аргументы принимаются и зачем они вообще нужны
0
Эксперт Python
5438 / 3859 / 1215
Регистрация: 28.10.2013
Сообщений: 9,552
Записей в блоге: 1
13.11.2020, 22:12
Цитата Сообщение от ShaunDMoon Посмотреть сообщение
какие аргументы принимаются и зачем они вообще нужны
Все там сказано. Это документация из исходников. Документация на сайтах в большинстве случае точно также генерируется из исходников.
0
Надоела реклама? Зарегистрируйтесь и она исчезнет полностью.
inter-admin
Эксперт
29715 / 6470 / 2152
Регистрация: 06.03.2009
Сообщений: 28,500
Блог
13.11.2020, 22:12
Помогаю со студенческими работами здесь

Использование библиотеки openCV 3.0
Здравствуйте! У меня проблема с библиотекой openCV. С openCV я столкнулась впервые, так что ничего пока тут не понимаю. Установила вроде...

Использование библиотеки OpenCV в Java
Уточните у кого есть опыт: Как можно получить изображение с IP камеры в метод VideoCapture() ксласса cv::VideoCapture Class Reference...

Использование библиотеки OpenCV в Embarcadero
Добрый день!Я недавно начал программировать под C++, и у меня возник вопрос, возможно ли использовать OpenCV в Embarcadero и если да, то...

Использование OpenCV для распознавания рисунков
Работаю с библиотекой OpenCV и активно использую функции распознования рисунков. Причём задачи разные, поэтому не получилось создать...

Использование OpenCV при работате с несколькими камерами одновременно
Здравствуйте! В теме https://www.cyberforum.ru/cpp-builder/thread1737-page5.html в посте №73 предлагается использовать OpenCV в...


Искать еще темы с ответами

Или воспользуйтесь поиском по форуму:
9
Ответ Создать тему
Новые блоги и статьи
Модель микоризы: классовый агентный подход
anaschu 02.01.2026
Раньше это было два гриба и бактерия. Теперь три гриба, растение. И на уровне агентов добавится между грибами или бактериями взаимодействий. До того я пробовал подход через многомерные массивы,. . .
Учёным и волонтёрам проекта «Einstein@home» удалось обнаружить четыре гамма-лучевых пульсара в джете Млечного Пути
Programma_Boinc 01.01.2026
Учёным и волонтёрам проекта «Einstein@home» удалось обнаружить четыре гамма-лучевых пульсара в джете Млечного Пути Сочетание глобально распределённой вычислительной мощности и инновационных. . .
Советы по крайней бережливости. Внимание, это ОЧЕНЬ длинный пост.
Programma_Boinc 28.12.2025
Советы по крайней бережливости. Внимание, это ОЧЕНЬ длинный пост. Налог на собак: https:/ / **********/ gallery/ V06K53e Финансовый отчет в Excel: https:/ / **********/ gallery/ bKBkQFf Пост отсюда. . .
Кто-нибудь знает, где можно бесплатно получить настольный компьютер или ноутбук? США.
Programma_Boinc 26.12.2025
Нашел на реддите интересную статью под названием Anyone know where to get a free Desktop or Laptop? Ниже её машинный перевод. После долгих разбирательств я наконец-то вернула себе. . .
Thinkpad X220 Tablet — это лучший бюджетный ноутбук для учёбы, точка.
Programma_Boinc 23.12.2025
Рецензия / Мнение/ Перевод Нашел на реддите интересную статью под названием The Thinkpad X220 Tablet is the best budget school laptop period . Ниже её машинный перевод. Thinkpad X220 Tablet —. . .
PhpStorm 2025.3: WSL Terminal всегда стартует в ~
and_y87 14.12.2025
PhpStorm 2025. 3: WSL Terminal всегда стартует в ~ (home), игнорируя директорию проекта Симптом: После обновления до PhpStorm 2025. 3 встроенный терминал WSL открывается в домашней директории. . .
Как объединить две одинаковые БД Access с разными данными
VikBal 11.12.2025
Помогите пожалуйста !! Как объединить 2 одинаковые БД Access с разными данными.
Новый ноутбук
volvo 07.12.2025
Всем привет. По скидке в "черную пятницу" взял себе новый ноутбук Lenovo ThinkBook 16 G7 на Амазоне: Ryzen 5 7533HS 64 Gb DDR5 1Tb NVMe 16" Full HD Display Win11 Pro
Музыка, написанная Искусственным Интеллектом
volvo 04.12.2025
Всем привет. Некоторое время назад меня заинтересовало, что уже умеет ИИ в плане написания музыки для песен, и, собственно, исполнения этих самых песен. Стихов у нас много, уже вышли 4 книги, еще 3. . .
От async/await к виртуальным потокам в Python
IndentationError 23.11.2025
Армин Ронахер поставил под сомнение async/ await. Создатель Flask заявляет: цветные функции - провал, виртуальные потоки - решение. Не threading-динозавры, а новое поколение лёгких потоков. Откат?. . .
КиберФорум - форум программистов, компьютерный форум, программирование
Powered by vBulletin
Copyright ©2000 - 2026, CyberForum.ru