几时华灯梦吧 关注:54贴子:4,026
  • 7回复贴,共1

【博客】在本帖记录我的每一次博客内容

取消只看楼主收藏回复

由于CSDN博客位置实在太难找了,特开这个贴方便更新博客,一个是方便我个人查阅,二一个是以后就不用通过百度搜索半天才能进入我的个人博客页面了。
我的CSDN博客地址:http://blog.csdn.net/u013534498
我的博客园博客地址:http://www.cnblogs.com/NanShan2016/


IP属地:陕西来自Android客户端1楼2016-05-08 11:08回复
    博客园博主physcal的《从零开始山寨caffe》系列似乎不错,可以关注一下。


    IP属地:陕西来自Android客户端4楼2016-05-08 17:07
    回复
      【搬文计划】
      由于贴吧实在太落伍,不管是代码块功能还是文本缩进都没有,严重破坏代码可读性。所以我准备把之前写的一些自认为还比较有价值的文章搬到博客。
      现决定搬以下两篇:
      1,《mgrid慢放》
      2,《一个登山的人(模拟退火算法拟人化)》


      IP属地:陕西来自Android客户端6楼2016-05-12 08:24
      回复
        《关于烂代码的那些事儿》这篇博客写得蛮有意思的,改天细看:http://kb.cnblogs.com/page/526768/


        IP属地:陕西来自Android客户端11楼2016-05-13 23:02
        回复
          【IIPP迷你项目(一)“Rock-paper-scissor-lizard-Spock”】
          1,实现两种方法,一种是将计算机的数字通过加和减,使其落入人的数字的[-2,2]区间内,然后再比较,看谁赢。
          2,第二种方法是按照官网提示tip5那个图,二者相减再取模,模值为3、4则计算机赢,模值为1、2则人赢,模值为0则二者打平手。
          3,联系五行相生相克画一幅环状示意图。


          IP属地:陕西来自Android客户端12楼2016-05-27 18:22
          回复
            ……为什么我要写part1?那part2在哪里?我为什么一点印象都没有了


            IP属地:陕西来自Android客户端17楼2016-07-11 20:29
            回复
              【Ng《Machine Learning》学习笔记(week3)(part1)】
              1,logistic函数将值域(range)挤压到0~1之间,这代表了“发生这件事的概率有多大”,越接近1越可能发生,越接近0越没可能发生。
              2,一个用logistic函数处理后的θTx即分类问题的hypothesis,有:
              h(x)=logistic(θTx)
              3,利用logistic的图像,我们知道z=0是一个分界点,有:
              z<0:分类结果判为0
              z>0:分类结果判为1
              而z=θTx,代入上面不等式,我们可以得到一条分界线(boundary),即:θTx=0这条分界线。
              在视频中给的例子就是有两个特征x1、x2的情况,在直线上方是一类,直线下方是另一类。
              4,本周的第三个视频刷新三观……过程是这样的:
              (1)通过前两个例子告诉我们,填入logistic函数中的“z”可以说是给出了分界线的“框架”(框架的意思是,分界线方程已经确定了,就是自变量前的系数——也就是待学习参数还没给出来,需要之后学习得到。比如z=kx+b的框架就是kx+b=0,再比如z=ax²+bx+c的框架就是ax²+bx+c=0,再再比如z=ax1²+bx2²-4的框架就是ax1²+bx2²=4,这都是已经确定下来的框架,只不过那些参数a、b、c没有给出)。
              比如说第一个例子里我们给了一个直线框架,第二个例子里就给了一个圆的框架。所需要做的仅仅是根据给定数据集确定那些参数,一旦参数确定,分界线也就确定下来了。
              (2)在上面的基础上进行进一步延伸,我们事先可以给出一个非常复杂的框架及若干待确定参数,在参数不同的时候分界线的形状将会异彩纷呈,我记得高中的时候椭圆、双曲线和抛物线就有一个大框架可以把它们都囊括进去,下次写博客时查一下。
              总之用这种方法将能通过调整参数得到各种奇形怪状的分界线,这样的分类器也就适应性更强了。
              隐隐觉得和神经网络要并线了……不过差别还是有的,他这里是只有一个logistic里面套个z,z里面是个框架;神经网络logistic千千万万。


              IP属地:陕西来自Android客户端19楼2016-07-11 21:39
              回复
                在《单变量微积分》第二部分的《线性化》一节中,详细讲了牛顿法,应该未来会对机器学习有帮助。
                这里的应用就是估算某个数,比如估算1/a,³√a这样的数(a往往是很复杂的一个常数,比如2.71828),方法如下:
                (1)构造一个f(x)。比如对³√a,我们就令x=³√a(意思是最终算出来的x就是我们想求的结果),接下来稍做变形,x³=a;然后移项,x³-a=0。我们令f(x)=x³-a。
                (2)求f(x)的导数。
                (3)随便选一个初始x0,代入x_(n+1)=x_n-f(x_n)/f'(x_n),如此这般迭代直到收敛。


                IP属地:陕西来自Android客户端22楼2016-08-07 11:23
                回复