python-4
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
python-4
1,装饰器:decorator(⼜叫语法糖)
本质是函数,功能是⽤来装饰的,装饰其他函数:就是为其他函数添加附加功能。
原则:a,不能修改被装饰的函数的源代码
b,函数的调⽤⽅式也不能修改
说明:尽管加了装饰函数,对原函数没有任何影响,原函数感觉不到装饰器的存在,原函数该怎么运⾏还怎么运⾏。
2、基本常识:
a,函数即“变量”:函数就是变量。
b,⾼阶函数:满⾜两个条件之⼀就是,
之⼀:把⼀个函数名当做实参传给另外⼀个函数(在不修改被装饰函数的源代码的情况下为其添加装饰功能)
例⼦:
def bar():
print('111111111')
def test1(func):
print(func)
test1(bar)
------------>
运⾏后打印出来的是时内存地址:
<function bar at 0x0000000000000D521453> 这个内存地址⾥存的就是对应变量的内容
之⼆:返回值中包含函数名,返回值也可以字符串,数字,列表,函数名,函数执⾏。
c,嵌套函数(在⼀个函数的内容主体内⼜定义了⼀个新的函数)
def bar():
def foo():
print('In the foo')
return 'aa'
print('In the bar')
return foo()
bar()
运⾏结果如下:
In the bar
In the foo
d,匿名函数:没有名称的函数(注意,此时的内存回收机制),他在内存中保存机制:此时的门牌号
如:
calc = lambda x:x*3
calc(3)
e,⾼阶函数+嵌套函数=装饰器
实例1:函数的调⽤,不是装饰器
def bar(): ---------> 存到内存⾥的⼀个名称,相当于门牌号,只⽤通过这个门牌号才能⾥⾯具体的内容
print('in the bar') -------> 存到内存⾥的对应门牌号的具体的内容,实实在在的存下来。
python的内存机制,当门牌号没有时才会回收⾥⾯的具体的内容,才是释放内存,有多个门牌号时,所有的门牌都回收才会释放该内存
def foo():
print('in the foo')
bar()
foo()
实例2:python的内存回收机制
x = 1 直到python的程序结束,才会回收x =1这个内存,要么在程序中定义del来结束这个变量,否则就是直到程序结束才回收。
del清除的就是1这个具体的内容的门牌号,内核⾥⾥有个内存清除器,当它到点启动时,发现这个1没有⼈引⽤了,此时才会清空1的这个内容。
这就是内存回收机制
实例3:
def bar():
pass --------> pass :当代码运⾏到这⼀⾏的时候。
跳过。
相当于执⾏了⼀个空值。
bar
---->
<function bar at 0X000000000000D50158> 此时就是内存地址
bar()此时就是基于内存地址在调⽤,即调⽤该函数(变量)的具体内容
实例4:⾼阶函数之将⼀个函数作为另外⼀个函数的实参传进去:
def bar():
pass
def test1(func):
print(func) --------> 打印出来的是内存地址
func() --------> 调⽤基于func内存地址的具体内容。
test1(bar)
实例5:⾼阶函数之将⼀个函数作为另外⼀个函数的实参传进去::
import time
def bar():
print(555555)
def test1(func): -------> 此处的func就是形参的参数名,会被后⾯的实参的bar代替
start_time=time.time()
func() --------> 运⾏bar函数
stop_time=time.time()
print("the func run time is %s" %(stop_time-start_time))
test1(bar)
实例6:⾼阶函数之将⼀个函数作为另外⼀个函数的返回值传进去::
import time
def bar():
time.sleep(3)
print('in the bar')
def test2(func):
print(func) --------> 打印出来内存地址
return func --------> 将func这个参数作为返回值
print(test2(bar)) --------> 打印⼀个运⾏后的函数就是打印他的返回值(即return后的内容)
----------->
解说:
test2(bar)相当于将bar的内存地址传给test2了
test2(bar())相当于将bar的变量内容传给test2了
import time
def bar():
time.sleep(3)
print('in the bar')
def test2(func):
print(func) -------> 打印出来内存地址
return func --------> 将bar的内存地址返回回来
t=test2(bar) --------> 将test2(bar)运⾏后的返回值再赋值给t这个变量
print(t)
----->
<function bar at 0X000000000000D50158>
<function bar at 0X000000000000D50158>
注意:这⾥的bar函数并没有运⾏。
只是调⽤了bar这个函数的名称⽽已。
所以只有上⾯的内存地址显⽰出来。
---------------------------------------------------------------------------------------------------------------------
import time
def bar():
time.sleep(3)
print('in the bar')
def test2(func):
print(func) --------> 打印出来内存地址
return func --------> 将bar的内存地址返回回来
t=test2(bar) -------->这⼀步的运⾏结果就是打印了bar()函数的内存地址,并将该内存地址赋值给了t
t() ---- 运⾏bar,注意bar只是门牌号,运⾏t这个内存地址的主体内容,就是运⾏bar()这个实体。
----->
<function bar at 0X000000000000D50158>
in the bar
-----------------------------------------------------------------------------------------------------------------------
import time
def bar():
time.sleep(3)
print('in the bar')
def test2(func):
print(func) ---------> 打印出来内存地址
return func ---------> 将bar的内存地址作为返回值
bar=test2(bar) ---------> 重新给bar赋值
bar() -----------> 再次运⾏bar
总结:返回值中包含函数名(不修改函数的调⽤⽅式)
------>
<function bar at 0x00000000004C3E18>
In the bar.
总结:该例中两次给bar赋值,⼀次是定义成⼀个函数,第⼆次是定义成了内存地址赋值。
但是该内存地址的主体内容仍然没变。
故仍然可以运⾏。
-----------------------------------------------------------------------------------------------------------------------
实例7,嵌套函数:在⼀个函数体内,⽤def去申明⼀个新的变量
def foo():
print('000000')
def bar(): ---------> 在⼀个函数体内定义⼀个新的函数,其作⽤域也就在这个函数范围内,这就是嵌套函数。
出来外⾯这个函数就失效。
print('11111111111')
bar()
foo()
注意:与函数调⽤不同:下例为函数的调⽤
def test1():
print('2222222222')
def test2():
print("3333333333")
test1() ----------> 函数的调⽤,不是嵌套函数。
print(test2) ----------> 仅仅打印test2的内存地址
print(test2()) ----------> 分两步运⾏:1,运⾏的结果就是先运⾏test2()函数;2,最后打印test2()的返回值
--------->
<function test2 at 0x00000000021DF730>
222222222222222222233333
2222222222
None ----------> 因为函数中没有定义返回值,所以返回值为None.
补充说明:
def test1():
print(2222222222)
return 'xxxxxx'
print(test1()) ----------> 分两步执⾏:1,test1()函数执⾏,2,打印该函数的执⾏结果
------->
2222222222
xxxxxx
--------------------------------------------------------------------------------------------------
实例8,@timer 的作⽤:
实例9,
import time
def timer(func): ----------------> timer(test1) ,将test1的内存地址传给func了,
def deco(): ----------------> 嵌套函数
start_time=time.time()
func() ---------------> 运⾏test1()
stop_time=time.time()
print("the func run time is %s" %(stop_time-start_time)) --------> 打印出test1 的运⾏时间
return deco -------------> ⾼阶函数,返回这个函数(或者叫变量)的内存地址
def test1():
time.sleep(3)
print('in the test1')
test1=timer(test1)
test1() ------------- 此时实际执⾏的就是deco的函数
-------> 等3秒后出现以下结果
in the test1
the func time is 3.00001785546222
装饰器的⽤法:@,给哪个函数加,就在哪个函数的上头加上@
实例10,
import time
def timer(func): ---------> timer(test1) ,将test1的内存地址传给func了,
def deco(): ---------> 嵌套函数
start_time=time.time()
func() --------> 运⾏test1()
stop_time=time.time()
print("the func run time is %s" %(stop_time-start_time)) --------> 打印出test1 的运⾏时间
return deco --------> ⾼阶函数,返回这个函数(或者叫变量)的内存地址
@timer --------> 作⽤相当于:test1=timer(test1)
def test1():
time.sleep(3)
print('in the test1')
@timer
def test2():
time.sleep(3)
print('in the test2')
test1()
test2()
实例11:
装饰器:可以满⾜⽇常90%的需求:针对任意的传⼊的参数
import time
def timer(func):
def deco(*args,**args):
start_time=time.time()
func(*args,**args)
stop_time=time.time()
print("the func run time is %s" %(stop_time-start_time))
return deco
@timer
def test1():
time.sleep(3)
print('in the test1')
@timer
def test2():
time.sleep(3)
print('in the test2')
test1()
test2()
------------------------------------------------------------------------------------------------------------------------------------------------------------------实例12:
模拟⽹站,⼀个页⾯就是⼀个函数
import time
user,passwd ='alex','abac123'
def auth(func):
def wrapper(*args,**kwargs):
username = input("Username:").strip()
password = input("Password:").strip()
if user == username and passwd == password:
print("user has passed authz")
func(*args,**args)
else:
exit
return wrapper
def index():
print("welcome to index page")
@auth
def home():
print("welcome to home page")
return "from home"
@auth
def bbs():
print("welcome to bbs page")
index()
home()
bbs()
------------------------------------------------------------------------------------------------------
3、迭代器&⽣成器
3.1、列表⽣成式(在cmd的python命令⾏⾥执⾏),使代码更简洁。
[i*2 for i in range(10)]
等同于:
a = []
for i in range(10):
a.append(i*2)
print(a)
3.2、通过列表⽣成式,我们可以直接创建⼀个列表。
但是,受到内存限制,列表容量肯定是有限的。
⽽且,创建⼀个包含100万个元素的列表,不仅占⽤很⼤的存储空间,如果我们仅仅需要访问前⾯⼏个元素,那后⾯绝⼤多数元素占⽤的空间都⽩⽩浪费了。
所以,如果列表元素可以按照某种算法推算出来,那我们是否可以在循环的过程中不断推算出后续的元素呢?这样就不必创建完整的list,从⽽节省⼤量的空间。
⽣成器特点:
(1)、⽣成器只有在调⽤时候才会⽣成相应的数据。
并且⽣成器省内存的⽅法就是只保留⼀个值
(2)、只记录当前位置
(3)、只有⼀个next⽅法:__next__() 双下划线
在Python中,这种⼀边循环⼀边计算的机制,称为⽣成器:generator。
在cmd的python命令下运⾏:
⽣成1个1百万的列表:
>>>[i*2 fro i in range(1000000)]
此时就会打印
...
赋值的形式:
>>>a = [i*2 fro i in range(1000000)]后⾯的数字越⼤,则这⼀步的时间越长。
>>>len(a)可以查看
调⽤⽅式:
>>>a[1000]
>>>c = ( i*2 for i in range(100000000)) ---->马上出来,因为它不⽣成具体的每⼀个数字,只⽣成⼀个内存地址,此时,只有你访问这个地址,它才会⽣成。
不访问的话,它都不会存在。
和列表的区别,只有在调⽤的时候才会⽣成。
不调⽤的时候不会⽣成。
>>>print(c)
<generator object <genexpr> at 0x000000000000D4E308>
访问的范式:不能通过列表的下标去取值
⽣成器取值只能是⼀个⼀个的去取
>>> c._ _next_ _() --------------- 实际中next⽤得并不多,实际中⽤循环去调取数据。
5122
>>> c._ _next_ _()
5124
3.3、利⽤函数来做⽣成器
generator⾮常强⼤,如果⽤推算的算法⽐较复杂,⽤类型表达式的for循环⽆法实现的时候,还可⽤函数来实现
斐波拉契数列(Fibonacci),除第⼀个和第⼆个数外,任意⼀个数都可由前两个数相加得到:
1, 1, 2, 3, 5, 8, 13, 21, 34, ...
斐波拉契数列⽤列表⽣成式写不出来,但是,⽤函数把它打印出来却很容易:
def fib(max):
n, a, b = 0, 0, 1
while n < max:
print(b)
a, b = b, a + b --------->此时a、b是同时赋值的
n = n + 1
return 'done'
注意,赋值语句:
a, b = b, a + b
相当于:
t = (b, a + b) # t是⼀个tuple
a = t[0]
b = t[1]
>>> fib(10) 调⽤:意思是⽣成10个这个序列
1
1
2
3
5
8
13
21
34
55
done
要把fib函数变成generator,只需要把print(b)改为yield b就可以了:
def fib(max):
n,a,b = 0,0,1
while n < max:
#print(b)
yield b
a,b = b,a+b ==========》注意这个书写⽅式,是两个等式同时赋值的意思。
即 a=b,b=a+b 同时进⾏赋值。
n += 1
return 'done'
print(fib(100))
运⾏后:
<generator object fib at 0x000000000000D4E308>
这就是定义generator的另⼀种⽅法。
如果⼀个函数定义中包含yield关键字,那么这个函数就不再是⼀个普通函数,⽽是⼀个generator。
>>> f = fib(6)
>>> f
<generator object fib at 0x104feaaa0>
pytharm⾥⾯是这样的:
<generator object f at 0x0000000001DC68E0>
这⾥,最难理解的就是generator和函数的执⾏流程不⼀样。
函数是顺序执⾏,遇到return语句或者最后⼀⾏函数语句就返回。
⽽变成generator的函数,在每次调⽤next()的时候执⾏,遇到yield语句返回,再次执⾏时从上次返回的 yield 语句处继续执⾏。
作⽤:上⾯的f函数是可以在程序外来随时中断的,⼜可以随时的恢复启⽤,中间可以夹杂别的程序。
当f程序是个很⼤的很慢的程序时,就可以在这中间夹杂别的程序了
data = fib(10)
print(data)
print(data.__next__())
print(data.__next__())
print("⼲点别的事") ----------> 可以跳出程序外做别的任务。
然后⼜可以随时进⼊在⽣成器程序。
print(data.__next__())
print(data.__next__())
print(data.__next__())
print(data.__next__())
print(data.__next__())
#输出
<generator object fib at 0x101be02b0>
1
1
⼲点别的事
2
5
8
13
在上⾯fib的例⼦,我们在循环过程中不断调⽤yield,就会不断中断。
当然要给循环设置⼀个条件来退出循环,不然就会产⽣⼀个⽆限数列出来。
同样的,把函数改成generator后,我们基本上从来不会⽤next()来获取下⼀个返回值,⽽是直接使⽤for循环来迭代:
def f(max):
n,a,b=0,0,1
while n<max:
yield b
a,b = b,a+b
n = n+1
return "done"
for n in f(10):
print(n)
1
1
2
3
5
8
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
⽤for循环调⽤generator时,发现拿不到generator的return语句的返回值。
如果想要拿到返回值,必须捕获StopIteration错误,返回值包含在StopIteration的value中:
def f(max):
n,a,b=0,0,1
while n<max:
yield b
a,b = b,a+b
n = n+1
return "done"
for n in f(10):
print(n)
g = fib(6)
while True:
try:
x = next(g)
print('g:', x)
except StopIteration as e:
print('Generator return value:', e.value)
break
意思是:
while True :⼀直循环下去
try:⼀直抓值,
except ... 直到抓取到特定的StopIteration这个错误的时候才执⾏其下⾯的语句:print和break操作。
e代表上⽂代码⾥定义的返回值:"done", g: 1
g: 1
g: 2
g: 3
g: 5
g: 8
Generator return value: done
关于如何捕获错误,后⾯的错误处理还会详细讲解
----------------------------------------------------------------------------------
def f(max):
n,a,b =0,0,1
while n<max:
yield b
a,b = b,a+b
n =n+1
return "done"
g = f(10)
print("========== start loop ==========")
for i in g:
print(i)
def f(max):
n,a,b =0,0,1
while n<max:
yield b
a,b = b,a+b
n =n+1
return "done"
g = f(10)
------>
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
print(g.__next__())
运⾏:报错⼀个"done"的异常错误。
因为取值超过了定义的10次,已经取不到值了
-----------------------------------------------------------------------------------------------------------------------------------------------------------
改进⽅法:引进try:
def f(max):
n,a,b =0,0,1
while n<max:
yield b
a,b = b,a+b
n =n+1
return "done" ---------> 就是超值范围后的报错信息,异常的时候打印的消息。
g = f(10)
while True: --------> 死循环
try: --------> s是⼀种不断的抓的⽅法
x = next(g)
print("g:",x)
except StopIteration as e:
print("Generator return value:",e.value)
break
意思是try下⾯的代码⼀旦出这个错:StopIteration (出来别的任何错都不处理)就执⾏:print("Generator return value:",e.value) 和break 跳出循环
总结:代码带有yield的就不叫函数了。
就是⼀个⽣成器了。
yield作⽤:使得函数保存当前位置,并退出该函数,下次任何再调⽤函数的时候再回来
-------------------------------------------------------------------------------
应⽤:通过yield实现在单线程的情况下实现并发运算的效果
实例1:
def con(name):
print("%s prepare to eat box."%name)
while True:
baozi = yield
print("box %s coming,and eated by %s"%(baozi,name))
c =con("chen")
c.__next__()
c.__next__()
运⾏:
chen prepare to eat box.
box None coming,and eated by chen
-----------------------------------------------------------------------------------------------------------------------------------------------
例2:
def con(name):
print("%s prepare to eat box."%name)
while True:
baozi = yield
print("box %s coming,and eated by %s"%(baozi,name))
c =con("chen")
c.__next__()
b1 = "⾲菜的"
c.send(b1)
--->
chen prepare to eat box.
box ⾲菜的 coming,and eated by chen
解释:
send 可以给yield传值同时调⽤该值
next仅仅是调⽤yield的值。
--------------------------------------------------------------------------------
例3:
def con(name):
print("%s prepare to eat box."%name)
while True:
baozi = yield
print("box %s coming,and eated by %s"%(baozi,name))
c =con("chen")
c.__next__()
b1 = "⾲菜的"
c.send(b1)
c.__next__()
---->
chen prepare to eat box.
box ⾲菜的 coming,and eated by chen
box None coming,and eated by chen
---------------------------------------------------------------------------------------------
迭代器:
迭代器是访问集合元素的⼀种⽅式。
迭代器对象从集合的第⼀个元素开始访问,直到所有的元素被访问完结束。
迭代器只能往前不会后退,不过这也没什么,因为⼈们很少在迭代途中往后退。
另外,迭代器的⼀⼤优点是不要求事先准备好整个迭代过程中所有的元素。
迭代器仅仅在迭代到某个元素时才计算该元素,⽽在这之前或之后,元素可以不存在或者被销毁。
这个特点使得它特别适合⽤于遍历⼀些巨⼤的或是⽆限的集合,⽐如⼏个G的⽂件
特点:
1.访问者不需要关⼼迭代器内部的结构,仅需通过next()⽅法不断去取下⼀个内容
2.不能随机访问集合中的某个值,只能从头到尾依次访问
3.访问到⼀半时不能往回退
4.便于循环⽐较⼤的数据集合,节省内存
>>> a = iter([1,2,3,4,5])
>>> a
<list_iterator object at 0x101402630>
>>> a.__next__()
1
>>> a.__next__()
2
>>> a.__next__()
3
>>> a.__next__()
4
>>> a.__next__()
5
>>> a.__next__()
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
StopIteration
可以直接作⽤于for循环的数据类型有以下⼏种:
⼀类是集合数据类型,如list、tuple、dict、set、str等;
⼀类是generator,包括⽣成器和带yield的generator function。
这些可以直接作⽤于for循环的对象统称为可迭代对象:Iterable。
可以使⽤isinstance()判断⼀个对象是否是Iterable对象:
>>> from collections import Iterable
>>> isinstance([], Iterable)
True
>>> isinstance({}, Iterable)
True
>>> isinstance('abc', Iterable)
True
>>> isinstance((x for x in range(10)), Iterable)
True
>>> isinstance(100, Iterable) ----------> 单个的数字不是可迭代对象,数字的列表就是
False
⽽⽣成器不但可以作⽤于for循环,还可以被next()函数不断调⽤并返回下⼀个值,直到最后抛出StopIteration错误表⽰⽆法继续返回下⼀个值了。
可以被next()函数调⽤并不断返回下⼀个值的对象称为迭代器:Iterator。
判断:⼀个函数⾥有next的⽅法的就叫迭代器(反之,没有这个⽅法的就不叫迭代器)
>>> a =[1,2,3]
>>> dir(a) -------> 查看有⽆next⽅法
⽣成器肯定就是迭代器(因为⽣成器有next⽅法):
>>> from collection import Iterator
>>> isinstance((x for x in range(5)).Iterator)
True
但迭代器不⼀定就是⽣成器
可以使⽤isinstance()判断⼀个对象是否是Iterator对象:
>>> from collections import Iterator
>>> isinstance((x for x in range(10)), Iterator)
True
>>> isinstance([], Iterator) ------》判断列表是否是
False
>>> isinstance({}, Iterator) —————》字典
False
>>> isinstance('abc', Iterator) --------》字符串
False
⽣成器都是Iterator对象,但list、dict、str虽然是Iterable,却不是Iterator。
>>>a=[1,2,3]
>>>iter(a)
>>>b=iter(a) ---------> 此时的b就是⼀个迭代器了,可以通过next的⽅法取值了。
>>>b.__next__()
>>>b.__next__()
>>>b.__next__()
把list、dict、str等Iterable变成Iterator可以使⽤iter()函数:
>>> isinstance(iter([]), Iterator)
True
>>> isinstance(iter('abc'), Iterator)
True
你可能会问,为什么list、dict、str等数据类型不是Iterator?
这是因为Python的Iterator对象表⽰的是⼀个数据流,Iterator对象可以被next()函数调⽤并不断返回下⼀个数据,直到没有数据时抛出StopIteration错误。
可以把这个数据流看做是⼀个有序序列,但我们却不能提前知道序列的长度,只能不断通过next()函数实现按需计算下⼀个数据,所以Iterator的计算是惰性的,只有在需要返回下⼀个数据时它才会计算。
Iterator甚⾄可以表⽰⼀个⽆限⼤的数据流,例如全体⾃然数。
⽽使⽤list是永远不可能存储全体⾃然数的。
⼩结
凡是可作⽤于for循环的对象都是Iterable类型;
凡是可作⽤于next()函数的对象都是Iterator类型,它们表⽰⼀个惰性计算的序列;
集合数据类型如list、dict、str等是Iterable但不是Iterator,不过可以通过iter()函数获得⼀个Iterator对象。
Python的for循环本质上就是通过不断调⽤next()函数实现的,例如:
for x in [1, 2, 3, 4, 5]:
pass
实际上完全等价于:
# ⾸先获得Iterator对象:
it = iter([1, 2, 3, 4, 5]) # 循环:
while True:
try: # 获得下⼀个值:
x = next(it)
except StopIteration: # 遇到StopIteration就退出循环
break
例:range(10) 在python3.0⾥就是⼀个迭代器
>>> range(10) -------> python3.0
range(1.10)
>>> range(10) -------> python2.0 变成跌代器:xrange(10)
[0,1,2...9]
本质:3.0⾥⾯的for循环就是通过next的⽅法去取值的。
for line in f.readlines():
xxx
这个也是使⽤迭代的⽅法。
⼀次读⼀⾏。
以后通过socket传⽂件的额时候可以⽤这个,因为底层很多的都是迭代器封装的。
内置⽅法(内置参数)
pycharm⾥演⽰:
abs():取绝对值
all():
Return True if all elements of the iterable are true (or if the iterable is empty). Equivalent to:
def all(iterable):
for element in iterable:
if not element:
return False
return True
实例:
print(all[0,12,-45345]) ------> 因为0为⾮真,故返回假
print(all[12210,12,-45345])
any() 如果可迭代对象的任意的⼀个数据为真,就返回真,(有⼀个数据为真就返回真)。
列表为空就返回假def any(iterable):
for element in iterable:
if element:
return True
return False
实例:
print(any[0,12,-45345])
print(all[])
print(all[0])
ascii(): 没⽤:将⼀个内存对象变成⼀个可打印的字符串
实例:print(ascii([1,3,"是否发⽣李开复"]))
a=[1,3,"是否发⽣李开复"]
print(a,type(a))
--------------------------------------------------------------------------------------
bin() 将⼀个整数转换成⼆进制(1进制转⼆进制)
>>>bin(1)
>>>bin(234432143)
--------------------------------------------------------------------------------------
bool() 布尔判断。
0就是FALSE,1就是true
>>>bool(1)
>>>bool(0)
--------------------------------------------------------------------------------------
bytearray() 字节数组,将⼆进制变成列表的形式可以修改了。
⽤不上,知道有这个东西就⾏了
a=bytes("abcde",encoding="utf-8")
print(a)
print(a.capitalize(),a)
理解:字符串不可以修改,列表可以修改。
b=bytearray("abcde",encoding="utf-8")
b[0]
print(b[0]) ---------> 97 ascii码⾥a这个字符对应的就是97
print(b[1]) ---------> 98 ascii码⾥b这个字符对应的就是98
b[1] = 100
print(b)
b[1] = 50
print(b) -----> bytearary(b"xxxxxx")
---------------------------------------------------------------------------------------
callable(object) 判断对象是否可以调⽤:在这个对象后⾯可以加()的就是属于可以调⽤
⽐如:
print(callable([1,2,3])) ----> false
def a():pass
print(callable(a)) -----> true
--------------------------------------------------------------------------------
chr() ---> 反映数字!!对应的ASCII码的字符
chr(97)
---------------------------------------------------------------------------------
ord() ----->反映字符在ascii码⾥对应的数字
ord(a)
---------------------------------------------------------------------------------
classmothod()类⽅法
---------------------------------------------------------------------------------
compile() 底层的,将代码⽤于编译的。
⽤不上
---------------------------------------------------------------------------------
complex() 复数,⽤不上
---------------------------------------------------------------------------------
delattr( ) ⾯向对象
-----------------------------------------------------------------------------------
dir():查看某个对象的所有⽅法:
a= {1,2,212}
dir(a) ------->结果⾥⾯有两个下划线的除了next都是内置⽅法,我们不能⽤,其他的⽅法可以⽤
-----------------------------------------------------------------------------------
divmod() 相除并返回商和余数
divmod(5,3)
-->
(1,2)
-----------------------------------------------------------------------------------------
filter(function,iterable):对传⼊的值按照function的⽅法过滤下在处理,从⼀组数据⾥⾯过滤出你想要的。
例:
a=filter(lambda n:n>5,range(10))
for i in a:
print(a)
----------------------------------------------------------------------------------------
map(function,iterable) 对传⼊的值都安装function的⽅法来处理
a=map(lambda n:n**n,range(10)) == a=[lambda i:i*2 for i in range(10)]
for i in a:
print(i)
-----------------------------------------------------------------------------------------
reduce():是⼀个标注库⾥的模块了,逐渐相加
import functools
a = functools.reduce(lambda x,y:x+y,range(10))
print(a)
___>45
0+1+2+3+4+5+6+7+8+9==45
---------------------------------------------------
frozenset([iterable]) 不可变的
a= [1,2,3,4323,4,24,234,234,,124,13,21,3]
a=frozenset([1,2,3,4323,4,24,234,234,,124,13,21,3])
此时的a就不可变了。
没有了改,增,删的⽅法了
----------------------------------------------------
globals() 返回当前程序所有变量的key.value的格式
print(globals()) ⽤得少
-----------------------------------------------------
解释:哈希算法:固定映射关系:
张三 =“xxx” --------》 python⾃动给"张飞" 映射成 1,
李四 = “xxx” --------》 ..........................2,
下次寻址:寻张三,就安装对应表找1,等于就是寻找:1,2,3,4,5,6...等
⽽找1000000⾥⾯的值的⽅法:
假如找5000,在100万⾥打半,50万》5千
再判断:25万》 5千
再打半判断:12.5万 > 5千
........... 6.75万 ....
............1.9875 ...
............ 1万 > 5千。
5 qian = 5qian 找到了。
等于在100万⾥找个数通过7次就找到了例:
hash(10) ----》打印出16进制
hash(“Jack”)
----------------------------------------------------------------------------
locals() -----> ⽤不上
----------------------------------------------------------------------------
max() 返回列表⾥的最⼤值
min() 返回列表⾥的最⼩值
-----------------------------------------------------------------------------
oct() 转8进制,没什么⽤
oct(1)
--->0o1
oct(9)
--->
0o11
-----------------------------------------------------------------------------
pow(x,y), x的y次⽅
pow(2,3)
--》8
----------------------------------------------------------------------------------
round(1.2342342342) --- 保留2位⼩数点
--->
1.33
----------------------------------------------------------------------------------
setattr() ⾮常重要的!!
----------------------------------------------------------------------------------
slice() 切⽚ ---- 没⽤
例:
d = range(20)
d[slice(2,5)]
语法等于:
d[2,5]
-----------------------------------------------------------------------------
sorted()
例:
a = {
6:2,
8:0,
1:4,
9:11
}
print(a)
因为字典本⾝即是⽆序的,通过sort()可以排序,默认安装key来排序
print(sorted(a.iteams())
安装value来排序:
print(sorted(a.items(),key=lambda x:x[1])) x代表:字典⾥的元素 key:value
-----------------------------------------------------------------------------
a=[1,2,3,4]
b=['a','b','c','d']
zip(a,b)
print(zip(a,b))
for i in zip(a,b):
print(i)
当a,b 的元素个数不⼀样的时候,按照最少的那个来组合
---------------------------------------------------------------------------------------------------json 和pickle
⽤于序列化的两个模块
json,⽤于字符串和 python数据类型间进⾏转换
pickle,⽤于python特有的类型和 python的数据类型间进⾏转换
Json模块提供了四个功能:dumps、dump、loads、load
pickle模块提供了四个功能:dumps、dump、loads、load
序列化:将内存对象变成字符串
例:将字典存成字符串:
info = {
name="alex",
age=22,
}
f= open('text','w')
f.write(str(info))
f.close
反序列化:将字符串变成内存对象
d = f.read()
f.close()
print(d)
d = eval(f.read())
f.close()
print(d['age'])
----->22
---------------------------------------------------------
# 序列化dumps:将内存上的数据写到硬盘上
info = {
name="alex",
age=22,
}
f = open('text','w')
print(json.dumps(info))
---------------------------------------------------------
反序列化loads:将内存的数据对象存到硬盘上了
import json
f= open("text",'r')
d = json.loads(f.read())
print(d["age"])
右键运⾏:反序列化:
22
例:
import json
def sayhi(name):
print("hello",name)
info = {
'name':"alex",
"age":22,
"func":sayhi
}
f = open("text","w")
f.write(json.dumps(info))
f.close()
报错:该内存地址不是⼀个json的可序列化的数据,json只能处理简单的数据,⽐如:字典,列表,字符串等
因为json是所有的语⾔⾥都通⽤的。
作⽤在于在不同语⾔之间进⾏交互。
处理复杂的可序列化的数据:⽤pikle:
import json
def sayhi(name):
print("hello",name)
info = {
'name':"alex",
"age":22,
"func":sayhi
}
f = open("text","wb")
print()
f.write(pickle.dumps(info))
f.close()
反序列化:
d = pickle.loads(f.read)
print(d['age'])
f=open('text',"wb")
pickle.dump(info,f) == f.write(pickle.dumps(info))
f.close()
d = pickle.load(f) == d = pickle.loads(f.read())
print(d['func']("alex"))
要点:json的序列化,反序列化
pickle的序列化,反序列化
引申:dump两次、三次
------------------------------------------------------------------------------------------------
软件⽬录开发规范:
为什么要设计好⽬录结构
"设计项⽬⽬录结构",就和"代码编码风格"⼀样,属于个⼈风格问题。
对于这种风格上的规范,⼀直都存在两种态度:
⼀类同学认为,这种个⼈风格问题"⽆关紧要"。
理由是能让程序work就好,风格问题根本不是问题。
另⼀类同学认为,规范化能更好的控制程序结构,让程序具有更⾼的可读性。
我是⽐较偏向于后者的,因为我是前⼀类同学思想⾏为下的直接受害者。
我曾经维护过⼀个⾮常不好读的项⽬,其实现的逻辑并不复杂,但是却耗费了我⾮常长的时间去理解它想表达的意思。
从此我个⼈对于提⾼项⽬可读性、可维护性的
要求就很⾼了。
"项⽬⽬录结构"其实也是属于"可读性和可维护性"的范畴,我们设计⼀个层次清晰的⽬录结构,就是为了达到以下两点:
可读性⾼: 不熟悉这个项⽬的代码的⼈,⼀眼就能看懂⽬录结构,知道程序启动脚本是哪个,测试⽬录在哪⼉,配置⽂件在哪⼉等等。
从⽽⾮常快速的了解这个项⽬。
可维护性⾼: 定义好组织规则后,维护者就能很明确地知道,新增的哪个⽂件和代码应该放在什么⽬录之下。
这个好处是,随着时间的推移,代码/配置的规模增加,项⽬结构不会混乱,仍然能够组织良好。
所以,我认为,保持⼀个层次清晰的⽬录结构是有必要的。
更何况组织⼀个良好的⼯程⽬录,其实是⼀件很简单的事⼉。
⽬录组织⽅式
关于如何组织⼀个较好的Python⼯程⽬录结构,已经有⼀些得到了共识的⽬录结构。
在Stackoverflow的这个问题上,能看到⼤家对Python ⽬录结构的讨论。
这⾥⾯说的已经很好了,我也不打算重新造轮⼦列举各种不同的⽅式,这⾥⾯我说⼀下我的理解和体会。
假设你的项⽬名为foo, 我⽐较建议的最⽅便快捷⽬录结构这样就⾜够了:
Foo/
|-- bin/
| |-- foo ----------》执⾏这⾥的⽂件,去调⽤下⾯的main.py的主程序,从⽽实现整个python程序运⾏。
|-- conf/
|
|-- foo/
| |-- tests/ ------------------>测试的
| | |-- __init__.py
| | |-- test_main.py
| |
| |-- __init__.py
| |-- main.py ---------------> 正式的
|
|-- docs/ --------------> ⽂档
| |-- conf.py
| |-- abc.rst
|
|-- setup.py -----------> 安装程序
|-- requirements.txt --------> 依赖哪些别的软件
|-- README
简要解释⼀下:
bin/: 存放项⽬的⼀些可执⾏⽂件,当然你可以起名script/之类的也⾏。
foo/: 存放项⽬的所有源代码。
(1) 源代码中的所有模块、包都应该放在此⽬录。
不要置于顶层⽬录。
(2) 其⼦⽬录tests/存放单元测试代码;
(3) 程序的⼊⼝最好命名为main.py。
docs/: 存放⼀些⽂档。
setup.py: 安装、部署、打包的脚本。
requirements.txt: 存放软件依赖的外部Python包列表。
README: 项⽬说明⽂件。
除此之外,有⼀些⽅案给出了更加多的内容。
⽐如LICENSE.txt,ChangeLog.txt⽂件等,我没有列在这⾥,因为这些东西主要是项⽬开源的时候需要⽤到。
如果你想写⼀个开源软件,⽬录该如何组织,可以参考这篇⽂章。
下⾯,再简单讲⼀下我对这些⽬录的理解和个⼈要求吧。
关于README的内容
这个我觉得是每个项⽬都应该有的⼀个⽂件,⽬的是能简要描述该项⽬的信息,让读者快速了解这个项⽬。
它需要说明以下⼏个事项:
1、软件定位,软件的基本功能。
2、运⾏代码的⽅法: 安装环境、启动命令等。
3、简要的使⽤说明。
4、代码⽬录结构说明,更详细点可以说明软件的基本原理。
5、常见问题说明。
我觉得有以上⼏点是⽐较好的⼀个README。
在软件开发初期,由于开发过程中以上内容可能不明确或者发⽣变化,并不是⼀定要在⼀开始就将所有信息都补全。
但是在项⽬完结的时候,是需要撰写这样的⼀个⽂档的。
可以参考Redis源码中Readme的写法,这⾥⾯简洁但是清晰的描述了Redis功能和源码结构。
关于requirements.txt和setup.py
setup.py
⼀般来说,⽤setup.py来管理代码的打包、安装、部署问题。
业界标准的写法是⽤Python流⾏的打包⼯具setuptools来管理这些事情。
这种⽅式普遍应⽤于开源项⽬中。
不过这⾥的核⼼思想不是⽤标准化的⼯具来解决这些问题,⽽是说,
⼀个项⽬⼀定要有⼀个安装部署⼯具,能快速便捷的在⼀台新机器上将环境装好、代码部署好和将程序运⾏起来。
这个我是踩过坑的。
我刚开始接触Python写项⽬的时候,安装环境、部署代码、运⾏程序这个过程全是⼿动完成,遇到过以下问题:
安装环境时经常忘了最近⼜添加了⼀个新的Python包,结果⼀到线上运⾏,程序就出错了。
Python包的版本依赖问题,有时候我们程序中使⽤的是⼀个版本的Python包,但是官⽅的已经是最新的包了,通过⼿动安装就可能装错了。
如果依赖的包很多的话,⼀个⼀个安装这些依赖是很费时的事情。
新同学开始写项⽬的时候,将程序跑起来⾮常⿇烦,因为可能经常忘了要怎么安装各种依赖。
setup.py可以将这些事情⾃动化起来,提⾼效率、减少出错的概率。
"复杂的东西⾃动化,能⾃动化的东西⼀定要⾃动化。
"是⼀个⾮常好的习惯。
setuptools的⽂档⽐较庞⼤,刚接触的话,可能不太好找到切⼊点。
学习技术的⽅式就是看他⼈是怎么⽤的,可以参考⼀下Python的⼀个Web框架,flask是如何写的: setup.py
当然,简单点⾃⼰写个安装脚本(deploy.sh)替代setup.py也未尝不可。
requirements.txt
这个⽂件存在的⽬的是:
⽅便开发者维护软件的包依赖。
将开发过程中新增的包添加进这个列表中,避免在setup.py安装依赖时漏掉软件包。
⽅便读者明确项⽬使⽤了哪些Python包。
这个⽂件的格式是每⼀⾏包含⼀个包依赖的说明,通常是flask>=0.10这种格式,要求是这个格式能被pip识别,这样就可以简单的通过 pip install -r requirements.txt来把所有Python包依赖都装好了。
具体格式说明:点这⾥。
关于配置⽂件的使⽤⽅法
注意,在上⾯的⽬录结构中,没有将conf.py放在源码⽬录下,⽽是放在docs/⽬录下。
很多项⽬对配置⽂件的使⽤做法是:
配置⽂件写在⼀个或多个python⽂件中,⽐如此处的conf.py。
项⽬中哪个模块⽤到这个配置⽂件就直接通过import conf这种形式来在代码中使⽤配置。
这种做法我不太赞同:
这让单元测试变得困难(因为模块内部依赖了外部配置)
另⼀⽅⾯配置⽂件作为⽤户控制程序的接⼝,应当可以由⽤户⾃由指定该⽂件的路径。
程序组件可复⽤性太差,因为这种贯穿所有模块的代码硬编码⽅式,使得⼤部分模块都依赖conf.py这个⽂件。
所以,我认为配置的使⽤,更好的⽅式是,
模块的配置都是可以灵活配置的,不受外部配置⽂件的影响。
程序的配置也是可以灵活控制的。
能够佐证这个思想的是,⽤过nginx和mysql的同学都知道,nginx、mysql这些程序都可以⾃由的指定⽤户配置。
所以,不应当在代码中直接import conf来使⽤配置⽂件。
上⾯⽬录结构中的conf.py,是给出的⼀个配置样例,不是在写死在程序中直接引⽤的配置⽂件。
可以通过给main.py启动参数指定配置路径的⽅式来让程序读取配置内容。
当然,这
⾥的conf.py你可以换个类似的名字,⽐如settings.py。
或者你也可以使⽤其他格式的内容来编写配置⽂件,⽐如settings.yaml之类的。
跨⽬录调⽤⽂件:atm.py 调⽤settings.py和main.py
atm
|-bin
| |- __init__.py
| |- atm.py
|-conf
| |- __init__.py
| |- settings.py
|-core
|- __init__.py
|- main.py。