用人单位自订“土规定”解聘员工为何违法******
近日,北京二中院披露了一起劳动纠纷案,用人单位以员工张某绩效考核不合格为由,与其解除劳动合同。法院判决公司属于违法解除,双方应继续履行劳动合同。(澎湃新闻1月31日)
根据现行法律法规,用人单位解雇员工,必须符合特定条件。劳动合同法规定,只有劳动者“在试用期间被证明不符合录用条件”“严重违反用人单位的规章制度”“严重失职,营私舞弊,给用人单位造成重大损害”等六种情形下,用人单位才可以单方解除劳动合同。此外,在劳动者“不能胜任工作,经过培训或者调整工作岗位,仍不能胜任工作”等三种情形下,用人单位虽然也能解雇员工,但必须“提前三十日以书面形式通知劳动者本人或者额外支付劳动者一个月工资”。
严格的法律条款,保护了劳动者的基本权益。但也有一些用人单位试图用“小动作”绕过法律规定。其中,自定一份内部规章制度,将绩效考核结果与员工去留实行挂钩,是很常见的做法。这些单位一旦遇到员工考核结果不达标的情况,就可能以“严重违反用人单位的规章制度”“不能胜任工作”为由,将员工“炒鱿鱼”。
北京二中院披露的这起纠纷也是如此。涉案用人单位早早制订了自己的绩效管理办法,规定企业有权对考核结果为待改进的员工予以解聘处理,无须支付任何补偿或赔偿。乍看上去,解聘当事员工,似乎是企业依规行事。但在法院看来,企业自订的“土规定”并不能改变这种行为的违法属性。
根据劳动合同法,用人单位在制定、修改或者决定直接涉及劳动者切身利益的规章制度或者重大事项时,应当经职工代表大会或者全体职工讨论,提出方案和意见,与工会或者职工代表平等协商确定,而不能自行其是,不把员工利益放在眼里。劳动立法之所以如此设计,正是为了避免用人单位自定“霸王条款”,侵犯劳动者权益。
一个用人单位,对员工最严厉的处罚,莫过于解聘开除。绩效考核反映的是员工工作实绩,并不能与劳动者违反用人单位规章制度混为一谈。一个绩效考核不合格的员工,就算“不胜任工作”,法律也规定了“挽救措施”,要求先“进行培训或者调整其工作岗位”,这也体现了法律以人为本的温度。
在这起纠纷中,员工张某既没有严重违反用人单位的规章制度,也没有犯多大的过错,给用人单位造成多重的损失,入职后若干年的表现,也都在“合格线”以上。数次考核结果为“待改进”,直接就“一棒子打死”,砸掉养家糊口的饭碗,于情于理于法,都说不过去。
基于现实生活的丰富性、立法的抽象性,任何法律条款都不可能穷尽一切现象,劳动立法也是如此。但保护劳动者合法权益,从来不是一句空话。在这起劳动纠纷案件中,法院通过掷地有声的司法判决,明确员工考核不合格不是解除劳动合同的充分理由,为用人单位划定了一条清晰的法治红线,张扬了从严保护劳动者权益的立法精神。(中国青年报 刘婷婷)
当我们可以享受人工智能的服务,人类能变懒吗?******
中新网北京12月10日电 “我对人工智能持非常乐观的态度,让人工智能服务好人类,符合我们所有人的共同利益。我们要让其变为现实。”
12月9日,国际人工智能协会前主席约兰达·吉尔在2022人工智能合作与治理国际论坛的主题论坛“人工智能引领韧性治理与未来科技”上如是表示。
2022人工智能合作与治理国际论坛由清华大学主办、清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴。
国际人工智能协会前主席约兰达·吉尔作视频发言。主办方供图在约兰达·吉尔看来,当前人工智能技术的发展,将提升人类的科研效率。
“现在的科研实验室,90%的时间都是花在了重复性、枯燥的、繁琐的工作,这样的业务模式并不好。”
她指出,科学的效率不应该这么低。“我们必须相信,如果我们能够把科学家在实验室中的枯燥工作,转化为自动化,人类就能够把更多时间花在有趣的事情上。”
这同时意味着,对人类的要求也提高了。
世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克作视频发言。主办方供图世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克就认为,“当我们看到AI发展能够成为未来科学家的时候、能够成为越来越有用工具的时候,人如果要过一个有意义、有价值的一生,其实对我们的科学知识水平、道德水平提出了更高的要求。”
他直言,因为人类要去驾驭一个更有能力、更强大的的工具。“并不是说有了强大的工具,人就可以变得懒惰,人应该变得更聪明。”
联合国助理秘书长、联合国开发计划署政策与方案支助局局长徐浩良指出,“我们在呼吁制定国际标准,确保人工智能具有包容性、问责性和韧性。很多人提到人工智能的伦理标准等等,我们认为包容性在政策讨论及实践中都至关重要,所以社会要能够理解其收益和风险。”
显然,人类在获得人工智能“服务”的同时,如何防范由此带来的“风险”同样应引起关注。
约兰达·吉尔直言,安全系统的建立对于人类和设施的安全非常重要。“如果没有人工操作员的话,它是无法保证安全的。但现在有很多人工智能在安全方面的系统在没有得到足够提前训练的情况下,就被部署出去了,这是非常值得关切的。”
美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江作视频发言。主办方供图美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江提出,人类在设计人工智能系统时,要考虑到人工智能系统本身知道自己需要由人类介入,这是非常重要的一点。(完)
中国网客户端 国家重点新闻网站,9语种权威发布 |