当前位置:首页 » 操作系统 » 算法小测试

算法小测试

发布时间: 2022-12-14 10:48:28

㈠ 从大到小进行测试,写出一个求两数最大公约数的穷举算法

#include<stdio.h>

voidmain()
{
intm,n,i,j,k;
printf("输入两个正整数:");
scanf("%d%d",&m,&n);
k=m<n?m:n;
for(i=1;i<=k;i++)
{
if(m%i==0&&n%i==0)
j=i;
}
printf("%d和%d的最大公约数是%d ",m,n,j);
}

㈡ 经典目标检测算法介绍

姓名:牛晓银;学号:20181213993;学院:计算机科学与技术

转自:https://zhuanlan.hu.com/p/34142321

【嵌牛导读】:目标检测,也叫目标提取,是一种基于目标几何和统计特征的图像分割。随着计算机技术的发展和计算机视觉原理的广泛应用,利用计算机图像处理技术对目标进行实时跟踪研究越来越热门,对目标进行动态实时跟踪定位在智能化交通系统、军事目标检测及医学导航手术中手术器械定位等方面具有广泛的应用价值。

【嵌牛鼻子】:目标检测、检测模型、计算机视觉

【嵌牛提问】:你知道或者用过哪些目标检测算法?

【嵌牛正文】:

(一)目标检测经典工作回顾

本文结构

两阶段模型因其对图片的两阶段处理得名,也称为基于区域(Region-based)的方法,我们选取R-CNN系列工作作为这一类型的代表。

R-CNN: R-CNN系列的开山之作

论文链接:  Rich feature hierarchies for accurate object detection and semantic segmentation

本文的两大贡献:1)CNN可用于基于区域的定位和分割物体;2)监督训练样本数紧缺时,在额外的数据上预训练的模型经过fine-tuning可以取得很好的效果。第一个贡献影响了之后几乎所有2-stage方法,而第二个贡献中用分类任务(Imagenet)中训练好的模型作为基网络,在检测问题上fine-tuning的做法也在之后的工作中一直沿用。

传统的计算机视觉方法常用精心设计的手工特征(如SIFT, HOG)描述图像,而深度学习的方法则倡导习得特征,从图像分类任务的经验来看,CNN网络自动习得的特征取得的效果已经超出了手工设计的特征。本篇在局部区域应用卷积网络,以发挥卷积网络学习高质量特征的能力。

R-CNN将检测抽象为两个过程,一是基于图片提出若干可能包含物体的区域(即图片的局部裁剪,被称为Region Proposal),文中使用的是Selective Search算法;二是在提出的这些区域上运行当时表现最好的分类网络(AlexNet),得到每个区域内物体的类别。

另外,文章中的两个做法值得注意。

一是数据的准备。输入CNN前,我们需要根据Ground Truth对提出的Region Proposal进行标记,这里使用的指标是IoU(Intersection over Union,交并比)。IoU计算了两个区域之交的面积跟它们之并的比,描述了两个区域的重合程度。

文章中特别提到,IoU阈值的选择对结果影响显着,这里要谈两个threshold,一个用来识别正样本(如跟ground truth的IoU大于0.5),另一个用来标记负样本(即背景类,如IoU小于0.1),而介于两者之间的则为难例(Hard Negatives),若标为正类,则包含了过多的背景信息,反之又包含了要检测物体的特征,因而这些Proposal便被忽略掉。

另一点是位置坐标的回归(Bounding-Box Regression),这一过程是Region Proposal向Ground Truth调整,实现时加入了log/exp变换来使损失保持在合理的量级上,可以看做一种标准化(Normalization)操作。

小结

R-CNN的想法直接明了,即将检测任务转化为区域上的分类任务,是深度学习方法在检测任务上的试水。模型本身存在的问题也很多,如需要训练三个不同的模型(proposal, classification, regression)、重复计算过多导致的性能问题等。尽管如此,这篇论文的很多做法仍然广泛地影响着检测任务上的深度模型革命,后续的很多工作也都是针对改进这一工作而展开,此篇可以称得上"The First Paper"。

Fast R-CNN: 共享卷积运算

论文链接: Fast R-CNN

文章指出R-CNN耗时的原因是CNN是在每一个Proposal上单独进行的,没有共享计算,便提出将基础网络在图片整体上运行完毕后,再传入R-CNN子网络,共享了大部分计算,故有Fast之名。

上图是Fast R-CNN的架构。图片经过feature extractor得到feature map, 同时在原图上运行Selective Search算法并将RoI(Region of Interset,实为坐标组,可与Region Proposal混用)映射到到feature map上,再对每个RoI进行RoI Pooling操作便得到等长的feature vector,将这些得到的feature vector进行正负样本的整理(保持一定的正负样本比例),分batch传入并行的R-CNN子网络,同时进行分类和回归,并将两者的损失统一起来。

RoI Pooling 是对输入R-CNN子网络的数据进行准备的关键操作。我们得到的区域常常有不同的大小,在映射到feature map上之后,会得到不同大小的特征张量。RoI Pooling先将RoI等分成目标个数的网格,再在每个网格上进行max pooling,就得到等长的RoI feature vector。

文章最后的讨论也有一定的借鉴意义:

multi-loss traing相比单独训练classification确有提升

multi-scale相比single-scale精度略有提升,但带来的时间开销更大。一定程度上说明CNN结构可以内在地学习尺度不变性

在更多的数据(VOC)上训练后,精度是有进一步提升的

Softmax分类器比"one vs rest"型的SVM表现略好,引入了类间的竞争

更多的Proposal并不一定带来精度的提升

小结

Fast R-CNN的这一结构正是检测任务主流2-stage方法所采用的元结构的雏形。文章将Proposal, Feature Extractor, Object Classification&Localization统一在一个整体的结构中,并通过共享卷积计算提高特征利用效率,是最有贡献的地方。

Faster R-CNN: 两阶段模型的深度化

论文链接: Faster R-CNN: Towards Real Time Object Detection with Region Proposal Networks

Faster R-CNN是2-stage方法的奠基性工作,提出的RPN网络取代Selective Search算法使得检测任务可以由神经网络端到端地完成。粗略的讲,Faster R-CNN = RPN + Fast R-CNN,跟RCNN共享卷积计算的特性使得RPN引入的计算量很小,使得Faster R-CNN可以在单个GPU上以5fps的速度运行,而在精度方面达到SOTA(State of the Art,当前最佳)。

本文的主要贡献是提出Regional Proposal Networks,替代之前的SS算法。RPN网络将Proposal这一任务建模为二分类(是否为物体)的问题。

第一步是在一个滑动窗口上生成不同大小和长宽比例的anchor box(如上图右边部分),取定IoU的阈值,按Ground Truth标定这些anchor box的正负。于是,传入RPN网络的样本数据被整理为anchor box(坐标)和每个anchor box是否有物体(二分类标签)。RPN网络将每个样本映射为一个概率值和四个坐标值,概率值反应这个anchor box有物体的概率,四个坐标值用于回归定义物体的位置。最后将二分类和坐标回归的损失统一起来,作为RPN网络的目标训练。

由RPN得到Region Proposal在根据概率值筛选后经过类似的标记过程,被传入R-CNN子网络,进行多分类和坐标回归,同样用多任务损失将二者的损失联合。

小结

Faster R-CNN的成功之处在于用RPN网络完成了检测任务的"深度化"。使用滑动窗口生成anchor box的思想也在后来的工作中越来越多地被采用(YOLO v2等)。这项工作奠定了"RPN+RCNN"的两阶段方法元结构,影响了大部分后续工作。

单阶段(1-stage)检测模型

单阶段模型没有中间的区域检出过程,直接从图片获得预测结果,也被成为Region-free方法。

YOLO

论文链接: You Only Look Once: Unified, Real-Time Object Detection

YOLO是单阶段方法的开山之作。它将检测任务表述成一个统一的、端到端的回归问题,并且以只处理一次图片同时得到位置和分类而得名。

YOLO的主要优点:

快。

全局处理使得背景错误相对少,相比基于局部(区域)的方法, 如Fast RCNN。

泛化性能好,在艺术作品上做检测时,YOLO表现比Fast R-CNN好。

YOLO的工作流程如下:

1.准备数据:将图片缩放,划分为等分的网格,每个网格按跟Ground Truth的IoU分配到所要预测的样本。

2.卷积网络:由GoogLeNet更改而来,每个网格对每个类别预测一个条件概率值,并在网格基础上生成B个box,每个box预测五个回归值,四个表征位置,第五个表征这个box含有物体(注意不是某一类物体)的概率和位置的准确程度(由IoU表示)。测试时,分数如下计算:

等式左边第一项由网格预测,后两项由每个box预测,以条件概率的方式得到每个box含有不同类别物体的分数。 因而,卷积网络共输出的预测值个数为S×S×(B×5+C),其中S为网格数,B为每个网格生成box个数,C为类别数。

3.后处理:使用NMS(Non-Maximum Suppression,非极大抑制)过滤得到最后的预测框

损失函数的设计

损失函数被分为三部分:坐标误差、物体误差、类别误差。为了平衡类别不均衡和大小物体等带来的影响,损失函数中添加了权重并将长宽取根号。

小结

YOLO提出了单阶段的新思路,相比两阶段方法,其速度优势明显,实时的特性令人印象深刻。但YOLO本身也存在一些问题,如划分网格较为粗糙,每个网格生成的box个数等限制了对小尺度物体和相近物体的检测。

SSD: Single Shot Multibox Detector

论文链接: SSD: Single Shot Multibox Detector

SSD相比YOLO有以下突出的特点:

多尺度的feature map:基于VGG的不同卷积段,输出feature map到回归器中。这一点试图提升小物体的检测精度。

更多的anchor box,每个网格点生成不同大小和长宽比例的box,并将类别预测概率基于box预测(YOLO是在网格上),得到的输出值个数为(C+4)×k×m×n,其中C为类别数,k为box个数,m×n为feature map的大小。

小结

SSD是单阶段模型早期的集大成者,达到跟接近两阶段模型精度的同时,拥有比两阶段模型快一个数量级的速度。后续的单阶段模型工作大多基于SSD改进展开。

检测模型基本特点

最后,我们对检测模型的基本特征做一个简单的归纳。

检测模型整体上由基础网络(Backbone Network)和检测头部(Detection Head)构成。前者作为特征提取器,给出图像不同大小、不同抽象层次的表示;后者则依据这些表示和监督信息学习类别和位置关联。检测头部负责的类别预测和位置回归两个任务常常是并行进行的,构成多任务的损失进行联合训练。

相比单阶段,两阶段检测模型通常含有一个串行的头部结构,即完成前背景分类和回归后,把中间结果作为RCNN头部的输入再进行一次多分类和位置回归。这种设计带来了一些优点:

对检测任务的解构,先进行前背景的分类,再进行物体的分类,这种解构使得监督信息在不同阶段对网络参数的学习进行指导

RPN网络为RCNN网络提供良好的先验,并有机会整理样本的比例,减轻RCNN网络的学习负担

这种设计的缺点也很明显:中间结果常常带来空间开销,而串行的方式也使得推断速度无法跟单阶段相比;级联的位置回归则会导致RCNN部分的重复计算(如两个RoI有重叠)。

另一方面,单阶段模型只有一次类别预测和位置回归,卷积运算的共享程度更高,拥有更快的速度和更小的内存占用。读者将会在接下来的文章中看到,两种类型的模型也在互相吸收彼此的优点,这也使得两者的界限更为模糊。

㈢ 写一个有效的算法来测试一个给定的数组A[1...n]是否是一个堆,该算法的时间复杂性是多少

时间复杂度是O(n),可以从n到1,也可以从1到n,从n开始就看(k/2)下取整下标的元素(也就是堆中的双亲)是否满足大根或者小根的条件,从1开始就看2k和2k+1下标的元素(就是堆中的左右孩子)是否满足堆的条件

㈣ 1. 编写程序使用分治算法MINMAX求解数组的最小值和最大值,并用实际数组对数组进行测试。 2. 要求算法中

#include <stdio.h>
void minmax(int array[], int begin, int end, int &min, int &max, int &count)
{
int mid = (begin + end)/2;
if (begin == end)
{
count++;
if (array[mid] < min) {
min = array[mid];
} else {
if (array[mid] > max)
max = array[mid];
count++;
}
return;
}
minmax(array, begin, mid, min ,max, count);
minmax(array, mid + 1, end, min ,max, count);
}

void main()
{
int array[10] = {9,8,7,6,5,4,3,2,1,0};
int min = array[0], max = -1, count = 0;
minmax(array, 0,9,min,max,count);
printf("min = %d, max = %d, count = %d\n", min,max,count);
}

㈤ 高一信息技术算法与程序设计阶段测试

数据加密技术要求只有在指定的用户或网络下,才能解除密码而获得原来的数据,这就需要给数据发送方和接受方以一些特殊的信息用于加解密,这就是所谓的密钥。其密钥的值是从大量的随机数中选取的。按加密算法分为专用密钥和公开密钥

㈥ 目标检测算法---faster rcnn 知识简要回顾(测试篇)

Faster RCNN检测部分主要可以分为四个模块:
1.特征抽取:用于抽取图像特征,一般可以使用vgg、resnet和mobilenet等backbone;
2.RPN(Region Proposal Network):用于产生候选框,主要做一些粗糙的分类和回归操作;
3.RoI Pooling:主要是为了解决全连接层需要固定尺寸输入,而实际输入大小不一的问题;
4.Classification and Regression:精细化分类和回归。

faster rcnn算法大致流程如下:
彩色图像通过backbone进行特征提取,输出最后一层的feature map。接着将这些feature map进一步做基于3x3卷积核的特征提取,该目的是增强模型的鲁棒性。将输出送入两个分支,第一个分支跟类别有关,这里主要是用于简单分类,区分是背景还是物体,这是针对anchor而言的;第二个分支则是用于初步预测候选框的偏移量,这个也是基于anchor而言的;再将前两个分支的结果送入图中的proposal中,首先会根据positive类的score筛选前6000个候选框,再将anchor的坐标和得到的偏移进行整合,得到初步候选框坐标,接着在做NMS,除去重叠严重的框,再经过了NMS后的框中,根据类别score取前300个框。然后将结果送入roi pooing层,用于生成固定尺寸的特征区域,以方便后边的全连接层接受信息;全连接层用于最后提取特征,得到精细的类别和框的偏移量。

㈦ 算法测试题

分析:先把图形分成两部分来看待,前四行一个规律,后三行一个规律,利用双重for循环,第一层控制行,第二层控制列。

㈧ 怎么测试一个算法的性能,用什么软件

这个要从两个维度去考证:
一、测算指标,算法都是有数学理论基础的,在翻译成计算机程序后,算法的执行效率可以用赋值、比较、运算等操作次数,以及缓存、内存占用率等指标进行一定的估算,还应对算法效率进行计算,进行比较评估,包括迭代深度、循环/判断嵌套深度等指标。
二、实际测试,这个就是要把算法真的用计算机实现出来,将算法逻辑封装为函数、控件、组件等,可调用的独立环节(尽量减少非算法语句的干扰),然后进行实际调用,记录执行周期,分析实际性能。比如对比记录新旧算法单次执行的周期、固定数量多次执行的周期、执行期间资源占用率、多线程并发调用的执行效率等指标。
另外、对于实际测试,如果想用专业测试软件执行,可以用LoadRunner、Robot等专业软件测试工具执行相应操作,但是对于您的要求,我还是建议收集性能指标的程序最好自己写,其实并不复杂,就是调用您的算法组件,把执行时间等参数记下来。

㈨ 推荐算法改版前的AB测试 实验设计

某商城,搭建了以个性化推荐系统为核心的“猜你喜欢”功能。功能上线后,发现推荐的准确率(用户进入物品详情页定义为判断真正的正样本)较低。对此,数据分析师优化了推荐模型。

在新的推荐模型上线前,进行AB测试,以此判断新模型是否能够显着提升推荐的准确率。

AB测试是为明确某个问题,制作两个(A/B)或多个(A/B/n)版本,在同一时间维度,分别让组成成分相同(相似)的访客群组(目标人群)随机的访问这些版本,收集各群组的用户体验数据和业务数据,最后分析、评估出最好版本,正式采用。

①   先验性:  A/B测试能够先于上线,得出结论。不再需要先将版本发布,再通过数据验证效果,从而一定程度上减少改版带来的风险

②   并行性:  A/B测试是将两个或以上的方案同时在线试验,这样做的好处在于保证了每个版本对应的时间环境、数据环境保持一致,便于更加科学客观地对比优劣。

③   科学性:  如果能保证流量分配的科学性,将相似特征的用户均匀的分配到试验组中,就可以避免出现数据偏差,使得试验的结果更有代表性。

①   产品UI

不同行业的产品需要不同的风格,同时还要与企业的品牌相得益彰。利用A/B 测试优化UI能给用户带来更好的交互体验和视觉感受。

②   文案内容

顾名思义是指用户阅读到的文字内容。小到图片配文和按钮文字,大到文章标题甚至版块主题。这些部分都可以尝试变换文案内容,测试不同方案的数据效果。

③   页面布局

有些时候,可能根本不需要对产品的UI或是文案内容作出调整,只是在布局排版上的改变,就可以出现增长的效果。

④   产品功能

想给产品增加一个新功能,可是很难确定是否能达到用户的预期,如果盲目上线,可能会造成一些损失。使用A/B 测试,对你的用户真正负责。 例如,社交类产品在付费查看照片的新功能正式上线前,需要进行A/B 测试,以验证功能的使用情况和效果。

⑤   算法/算法

包括基于内容的推荐算法(根据用户的历史记录推荐相似内容)、基于协同过滤的推荐算法(根据有相似兴趣用户的行为推荐相关内容)、基于关联规则的推荐算法(根据商品/内容本身的相关性给用户推荐)。算法优化迭代前,需要真实的数据进行测试。

统计假设: 是对总体参数(包括总体均值μ等)的具体数值所作的陈述。

原假设: 是试验者想收集证据予以反对的假设 ,又称“零假设”,记为 H0

备择假设: 也称“研究假设”,是试验者想收集证据予以支持的假设,记为 H1

双侧检验与单侧检验: 如果备择假设没有特定的方向性,并含有符号“=”,这样的称为双侧检验。如果备择假设具有特定的方向性,并含有符号 “>” 或 “<” 的假设检验,称为单侧检验。

临界值: 是指在原假设为真的条件下,样本数据拒绝原假设这样一个事件发生的概率。

第 I 类错误(弃真错误) :原假设为真时拒绝原假设;第 I 类错误的概率记为 α(alpha)。

· 第 II 类错误(取伪错误) :原假设为假时未拒绝原假设。第 II 类错误的概率记为 β(Beta)。

先认定原假设成立,然后在事先给定的显着性水平下,构造一个小概率事件。根据抽样结果观察小概率事件是否发生。若小概率事件发生,则拒绝原假设,否则接受原假设

(1) 提出假设

本次AB测试,目的是希望提升猜你喜欢功能的推荐效果。所以选取推荐系统的 准确率 ,作为优化指标。

准确率表示预测为正的样本中,真正的正样本的比例。公式如下

R(u)是根据用户在训练集上的行为给用户作出的推荐列表,而T(u)是用户在测试集上的行为列表。最简单的例子:例如推荐系统给用户推荐了10件物品,用户进入物品详情页定义为判断真正的正样本的行为,用户进入了其中3件物品的详情页。则此时准确率=3/10=30%

假设我们认为,如果新的推荐算法,比原推荐算法,显着高于5%以上,则可将新推荐算法发布至生产环境。此时我们可以得到假设:

原假设H0:π2-π1≤5%

备择假设H1:π2-π1>5%

(2)确定显着性水平α

本次实验中,α 值设定 0.05(5%),这是假设检验中最常用的小概率标准值。表示原假设为真时, 拒绝原假设的概率

(3)确定临界值

临界值是显着性水平对应的标准正态分布的分位数。显着性水平0.05的情况下,单侧检验对应的标准正态分布的分位数是1.645,双侧检验的标准正态分布的分位数为1.96

(4)收集实验数据,得出结论

由样本值求得检验统计量的优化指标的数值。若观察值在拒绝域内,则拒绝原假设H0,否则接受原假设H1

定义新推荐算法的准确率为π1,新推荐算法的准确率为π2。

Ho: π1-π2≤5%

H1: π1-π2>5%

实验目标人群: 从进入商城,且使用了“为你推荐”功能的用户流量(UV)中,随机抽取5%,作为实验目标人群。其中的50%为实验组,50%为对照组

实验时间: 1周

假设检验方式:

不同的AB测试场景,适用于不同的检验方式,如上图所示。

本次AB测试,由于两个推荐系统版本是独立的,且样本数足够大,认为满足正态分布。根据HO、H1的假设,可判断本次检验为两个独立样本的总体均值的单侧检验,且总体方差未知,需要用样本方差代替总体方差。此时计算统计量公式为

显着性水平: 0.05

临界值: 在显着性水平为0.05时,单侧检验的临界值Zα为1.645

实验数据 (为方便计算):实验一周后,有10000用户,使用新推荐算法,准确率的平均值为41%,标准差为20%。有10000用户,使用原推荐算法,准确率的平均值为35%,标准差为10%。此时新算法的准确率定义为x,则x的平均值=41%,原算法的推荐率定义为y,则y的平均值=35%

计算检验统计量:

检验结果: 统计量Z=4.4722,临界值Zα=1.645.由于统计量的值大于临界值而落入拒绝域内,所以拒绝原假设H0,认为新推荐算法的准确率,比原推荐算法显着高出5%,新算法可发布至生产环境。

㈩ 素性测试的随机算法

费马测试 利用费马小定理来测试。 Miller-Rabin 质数测试 欧拉-雅科比测试 对于N,挑选任意的M,测试(M/N)≡M^[(N-1)/2]。如果不成立,则N为合数。否则N有一半的机率是质数。
上下素性判定法
首先,本文英文字母都表示整数,上半部B 》3N 》W,下半部B 》W 》3N。大于3的素数只有6N-1和6N+1两种形式,我们只需判定这两种数是素数还是合数即可。命题 1 对于B=36N+1 形数而言。若不定方程(3N)^2+N-(B-1)/36=W^2 有整数解,则 6(3N-W)+1 是小因子数;6(3N+W)+1 是大因子数。若不定方程 (3N)^2-N-(B-1)/36=W^2 有整数解,则 6(3N-W)-1 是小因子数;6(3N+W)-1 是大因子数。两式都无解,是素数。命题 2对于B=36N+7 形数而言。若不定方 (3N)^2+4N-(B-7)/36=W^2+W 有整数解,则 6(3N-W)+1 是小因子数,6(3N+W+1)+1 是大因子数。若不定方程 (3N+2)^2+2N+2-(B+29)/36=W^2+W 有整数解,则 6(3N+2-W)-1 是小因子数,6(3N+W+3)-1 是大因子数。两式都无解,是素数。命题 3对于B=36N+13 形数而言。若不定方程 (3N+1)^2+N-(B-13)/36=W^2 有整数解,则 6(3N+1-W)+1 是小因子数,6(3N+1+W)+1是大因子数。若不定方程 (3N+2)^2-N-(B+23)/36=W2 有整数解,则 6(3N+2-W)-1 是小因子数,6(3N+2+W)-1是大因子数。两式都无解,是素数。命题 4 对于B=36N+19 形数而言。若不定方程(3N+1)^2+4N+1-(B-19)/36=W^2 +W 有整数解,则 6(3N+1-W)+1 是小因子数;6(3N+2+W)+1 是大因子数。若不定方程 (3N+1)^2+2N+1-(B+17)/36=W^2 +W 有整数解,则 6(3N+1-W)-1 是小因子数;6(3N+2+W)-1 是大因子数。两式都无解,是素数。命题 5 对于B=36N+25 形数而言。若不定方 (3N+2)^2+N-(B-25)/36=W^2有整数解,则 6(3N+2-W)+1 是小因子数,6(3N+2+W)+1 是大因子数。若不定方程 (3N+1)^2-N-(B+11)/36=W^2有整数解,则 6(3N+1-W)-1 是小因子数,6(3N+1+W)-1 是大因子数。两式都无解,是素数。命题 6 对于B=36N+31 形数而言。若不定方程 (3N+2)^2+4N+2-(B-31)/36=W^2 +W 有整数解,则 6(3N+2-W)+1 是小因子数,6(3N+3+W)+1是大因子数。若不定方程 (3N+1)^2-4N-1-(B+5)/36=W^2+W有整数解,则 6(3N-W)-1 是小因子数,6(3N+1+W)-1是大因子数。两式都无解,是素数。命题 7对于B=36N-1 形数而言。若不定方程(3N)^2-N+(B-1)/36=W^2 有整数解,则 6(3N-W)+1 是小因子数;6(3N+W)-1 是大因子数。若不定方程 (3N)^2+N+(B-1)/36=W^2 有整数解,则 6(W-3N)-1 是小因子数;6(W+3N)+1 是大因子数。两式都无解,是素数。命题 8对于B=36N+5 形数而言。若不定方 (3N)^2+2N+(B-5)/36=W^2+W 有整数解,则 6(W-3N)+1 是小因子数,6(W+3N+1)-1 是大因子数。若不定方程 (3N+2)^2+4N+2+(B+31)/36=W^2+W 有整数解,则 6(W-3N-2)-1 是小因子数,6(W+3N+3)+1 是大因子数。两式都无解,是素数。命题 9对于B=36N+11 形数而言。若不定方程 (3N+1)^2-N+(B-11)/36=W^2 有整数解,则 6(W-3N-1)+1 是小因子数,6(W+3N+1)-1是大因子数。若不定方程 (3N+2)^2+N+(B+25)/36=W2 有整数解,则 6(W-3N-2)-1 是小因子数,6(W+3N+2)+1是大因子数。两式都无解,是素数。命题 10 对于B=36N+17 形数而言。若不定方程(3N+1)^2+2N+1+(B-17)/36=W^2 +W 有整数解,则 6(W-3N-1)+1 是小因子数;6(W+3N+2)-1 是大因子数。若不定方程 (3N+1)^2+4N+1+(B+19)/36=W^2 +W 有整数解,则 6(W-3N-1)-1 是小因子数;6(W+3N+2)+1 是大因子数。两式都无解,是素数。命题 11 对于B=36N+23 形数而言。若不定方 (3N+2)^2-N+(B-23)/36=W^2有整数解,则 6(W-3N-2)+1 是小因子数,6(W+3N+2)+1 是大因子数。若不定方程 (3N+1)^2+N+(B+13)/36=W^2有整数解,则 6(W-3N-1)-1 是小因子数,6(W+3N+1)+1 是大因子数。两式都无解,是素数。命题 12 对于B=36N+31 形数而言。若不定方程 (3N+2)^2+2N+2+(B-29)/36=W^2 +W 有整数解,则 6(W-3N-2)+1 是小因子数,6(W+3N+3)-1是大因子数。若不定方程 (3N)^2-4N+(B+7)/36=W^2+W有整数解,则 6(W-3N)-1 是小因子数,6(W+3N+1)+1是大因子数。两式都无解,是素数。

热点内容
4k无压缩 发布:2025-05-15 06:02:54 浏览:74
hp存储6350 发布:2025-05-15 05:40:41 浏览:233
怎么更改电脑默认缓存位置 发布:2025-05-15 05:39:01 浏览:877
安卓qq公孙离在哪个战区战力最低 发布:2025-05-15 05:38:58 浏览:493
androidffmpeg压缩 发布:2025-05-15 05:37:02 浏览:288
ftp简称是 发布:2025-05-15 05:37:02 浏览:121
光遇发光耳机怎么设置安卓 发布:2025-05-15 05:32:03 浏览:113
台电安卓平板系统太低怎么办 发布:2025-05-15 05:20:00 浏览:510
安装了zlib编译报错 发布:2025-05-15 05:19:56 浏览:168
二分算法无序 发布:2025-05-15 05:18:22 浏览:30